id
stringlengths 1
7
| revid
stringlengths 1
9
| url
stringlengths 37
43
| title
stringlengths 1
247
| text
stringlengths 0
465k
|
---|---|---|---|---|
888 | 2686970 | https://de.wikipedia.org/wiki?curid=888 | Charlemagne (Begriffsklärung) | Charlemagne steht für:
Personen: |
889 | 2774078 | https://de.wikipedia.org/wiki?curid=889 | Charles Lindbergh | Charles Augustus Lindbergh, Jr. (* 4. Februar 1902 in Detroit, Michigan; † 26. August 1974 in Kīpahulu, Maui, Hawaii) war ein US-amerikanischer Pilot, Schriftsteller und Träger der Medal of Honor. Ihm gelang vom 20. bis 21. Mai 1927 der Nonstopflug von New York nach Paris, für den 1919 der Orteig-Preis von Raymond Orteig gestiftet worden war, und quasi nebenbei die erste Alleinüberquerung des Atlantiks, wodurch er zu einer der bekanntesten Personen der Luftfahrt wurde. Lindbergh schrieb mehrere Bücher über seinen Flug, darunter "The Spirit of St. Louis" (1953). Für dieses Werk erhielt er 1954 den Pulitzer-Preis.
Leben.
Herkunft, Schule, Ausbildung.
Charles Augustus Lindbergh, Jr., wurde in Detroit als Sohn des Rechtsanwalts und Kongressabgeordneten für Minnesota Charles August Lindbergh (1859–1924) geboren; seine Mutter Evangeline Lodge Land war Chemielehrerin. Sein Großvater väterlicherseits war Ola Månsson (1808–1893), ein einflussreicher schwedischer Politiker, der 1859 aufgrund von Korruptionsvorwürfen seine Heimat verlassen und bei seiner Einwanderung in die Vereinigten Staaten den Namen August Lindbergh angenommen hatte. Lindberghs Großvater mütterlicherseits war der Zahnarzt Charles Henry Land (1847–1922), der die Jacketkrone (Mantelkrone) erfand und als „Vater der Porzellanzahnheilkunde“ gilt.
Schon als Kind interessierte sich Lindbergh für Motoren und Maschinen. Er begann ein Maschinenbaustudium, das er allerdings 1922, nach knapp zwei Jahren, aufgrund schlechter Leistungen abbrach. Anschließend absolvierte er eine Pilotenausbildung bei der "Nebraska Aircraft Corporation", die eine Mechanikerausbildung mit einschloss. Da aber kein festes Kursprogramm festgelegt worden war, kam er nur auf wenige Flugstunden. Den abschließenden Alleinflug durfte er nicht absolvieren, da er die 500 Dollar Sicherheitskaution für mögliche Beschädigungen des Flugzeugs nicht aufbringen konnte.
Einige Monate lang tat sich Lindbergh für Flugvorführungen mit einem anderen Piloten zusammen, wobei er jedoch nicht selbst flog, sondern nur Fallschirmsprünge unternahm. Danach kaufte er sich ein eigenes Flugzeug, eine Curtiss JN-4 „Jenny“, mit der er die noch fehlende Erfahrung erwarb und bis 1924 als Kunstflieger durchs Land zog.
In diesem Jahr trat er den US-amerikanischen Heeresfliegern (United States Army Air Service) bei, wo er eine gute Flugausbildung bekam. Nach anfänglichen Schwierigkeiten machte er im März 1925 seinen Abschluss als Jahrgangsbester. Da zu jener Zeit für Militärpiloten wenig Bedarf bestand, wurde Lindbergh Postflieger auf der Strecke St. Louis – Chicago.
Freimaurer.
Am 9. Juni 1926 wurde Charles Lindbergh in die Freimaurerloge "Keystone Lodge No. 243" in St. Louis aufgenommen, wo er am 20. Oktober zum Gesellen befördert und am 15. Dezember zum Meister erhoben wurde.
Der Atlantik-Flug.
Ab 1926 beschäftigte er sich mit der Idee des Nonstopflugs von New York nach Paris. Im Mai 1919 hatte Raymond Orteig – ein in Frankreich geborener US-Amerikaner, der es vom Busschaffner zum wohlhabenden Hotelbesitzer gebracht hatte – einen Preis über 25.000 US-Dollar für den ersten Nonstopflug zwischen den beiden Städten, egal in welcher Richtung, ausgesetzt. Einige Piloten waren bereits an dieser Aufgabe gescheitert. Lindbergh kontaktierte den ziemlich unbekannten Flugzeughersteller Ryan Aeronautical in San Diego und fragte an, ob Ryan eine einmotorige Maschine für diese Strecke bauen könne. Ryan nahm die Herausforderung an, und bereits am 28. April 1927 war das Flugzeug nach nur zwei Monaten Entwicklungs- und Bauzeit fertig. Die Maschine wurde "Spirit of St. Louis" getauft.
Schon die Überführung des Flugzeugs von Küste zu Küste geschah in Rekordzeit. Am 20. Mai 1927 um 7:54 Uhr schließlich startete Lindbergh vom Roosevelt Field in New York zu seinem Alleinflug, dessen Strecke 5.808,5 km (3.610 Meilen) betrug. Als engagierter Freimaurer trug er während des Flugs das Freimaurersymbol auf seiner Jacke als Glücksbringer, auch das Flugzeug trug das Freimaurersymbol seiner Loge. Aus Gewichtsgründen hatte Lindbergh zugunsten maximaler Treibstoffzuladung auf Funkgerät und Sextant verzichtet und musste sich deshalb mit Koppelnavigation mittels Armbanduhr, Karten und Kompass begnügen. Größte Probleme bereiteten ihm ein Schneesturm bei Neufundland, das er nach New York und Nova Scotia überflog, sowie die Überwindung der Müdigkeit auf seinem Weg über Südirland und Südengland auf den europäischen Kontinent. Die Navigation gelang ihm allerdings besonders gut, denn als er die Küste von Irland erreichte, war er nur 5 km vom Kurs abgewichen. Es war dann für ihn relativ leicht, an der Küste von Irland und England entlang zu fliegen und über den Ärmelkanal Frankreich zu erreichen. Paris schließlich fand Lindbergh durch die weithin sichtbare Beleuchtung des Eiffelturms mit dem Reklame-Schriftzug CITROEN.
In seiner Autobiografie schreibt Lindbergh, dass er mit dem Gedanken spielte, nach Rom weiterzufliegen, weil noch reichlich Treibstoff vorhanden war, er dort bei Tageslicht hätte landen können, und weil er sich nicht darüber klar war, wie sehr die Franzosen ihn erwarteten. Nach 33,5 Stunden landete er doch auf dem Flughafen Le Bourget in Paris unter dem Jubel einer begeisterten Menschenmenge und gewann damit das Preisgeld. Als „Flying Fool“ (Fliegender Narr) von der Presse tituliert, fand zu seinen Ehren sogar eine Konfettiparade in New York statt – Lindbergh war ein Nationalheld geworden.
Lindbergh war jedoch nicht, wie oft behauptet, der Erste überhaupt, der den Atlantik überflog. Tatsächlich war er der 67. Mensch, der dies vollbrachte, denn die erste Nonstop-Atlantiküberquerung per Flugzeug gelang bereits 1919 John Alcock und Arthur Whitten Brown. Wenige Tage später fuhr das englische Luftschiff R34 nonstop von England nach Mineola/New York und nach einer Landung nonstop zurück. Lindbergh gelang jedoch der erste Nonstopflug von New York nach Paris und die "erste Alleinüberquerung" des Atlantiks. Der erste Alleinflug über den Atlantischen Ozean von Ost nach West gelang am 18. August 1932 dem Schotten Jim Mollison.
Heirat, Entführung des Sohnes.
1929 heiratete Lindbergh Anne Spencer Morrow, die Tochter des Geschäftsmanns und Politikers Dwight Morrow, der er ebenfalls das Fliegen beibrachte. Anne begleitete später ihren Mann auf seinen Flügen als Kopilotin und Funkerin. Aus der Ehe gingen sechs Kinder hervor, die zwischen 1930 und 1945 geboren wurden (zu den Kindern siehe Anne Morrow Lindbergh).
Am 22. Juni 1930 wurde der Sohn Charles III. geboren. Knapp zwei Jahre später, am 1. März 1932, wurde er von Unbekannten entführt, die 50.000 Dollar Lösegeld verlangten. Am 12. Mai wurde die bereits stark verweste Kinderleiche etwa fünf Meilen von Lindberghs Anwesen entfernt gefunden. Durch Lindberghs Berühmtheit erregte der Fall großes Aufsehen. Für die Tat wurde Bruno Richard Hauptmann verurteilt und 1936 hingerichtet. Dieser bestritt stets die Tat, und bis heute gibt es Zweifel an seiner Schuld. Kritisiert wird dabei auch Lindberghs Aussage, die Stimme Hauptmanns zweifelsfrei als die des Lösegeldempfängers erkannt zu haben, obwohl er bei der Lösegeldübergabe 70 Meter entfernt in einem Auto saß. Die Tötung des Entführungsopfers trotz Lösegeldzahlung hat Agatha Christie zu ihrem im Januar 1934 erschienenen Roman "Mord im Orient-Express" inspiriert.
Aufenthalt in Europa.
Im August 1932, wenige Monate nach dem Tod von Charles III., war der zweite Sohn Jon geboren worden. Charles Lindbergh fühlte sich durch die ständige Anteilnahme der Öffentlichkeit nach dem Tod seines ersten Sohnes zunehmend erschöpft und war um die Sicherheit des zweiten Kindes besorgt. Auf der Suche nach Ruhe und Sicherheit reiste das Ehepaar Lindbergh mit dem dreijährigen Kind Jon im Dezember 1935 heimlich von den USA nach England aus: Als einzige Passagiere an Bord eines Frachtschiffs, unter falschem Namen und ausgestattet mit Diplomatenpässen, fuhren sie von Manhattan nach Liverpool, wo sie am 31. Dezember 1935 ankamen. Die Familie besuchte zunächst Verwandte in Südwales und lebte dann in dem kleinen Dorf Sevenoaks Weald in der Grafschaft Kent. 1937 wurde der Sohn Land geboren. Im März 1938 kaufte Lindbergh für 16.000 US-Dollar eine kleine Insel vor der bretonischen Küste: die Île Illiec bei Penvénan. Auf der nur 1,6 Hektar großen Insel wohnte die Familie von Juni bis Anfang Dezember 1938.
Auf Ersuchen des US-Militärs und in seiner Funktion als Oberst des U.S. Army Air Corps reiste Lindbergh mehrmals nach Deutschland, um über die deutsche Luftrüstung zu berichten. Dabei traf er sich auch mit hochrangigen NS-Größen wie Hermann Göring, von dem er im Oktober 1938 das Großkreuz des Deutschen Adlerordens verliehen bekam. Im April 1939 kehrte das Ehepaar Lindbergh wieder in die Vereinigten Staaten zurück.
Politische Betätigung und Kriegsteilnahme.
Nach der Gründung des America First Committee (AFC), einer isolationistischen Bewegung, die die Teilnahme der USA am Zweiten Weltkrieg zu verhindern suchte, wurde Lindbergh bald der bekannteste Sprecher dieser Organisation. In den Jahren 1940 und 1941 hielt er viel beachtete Radioansprachen und Reden vor Versammlungen mit tausenden von Zuhörern, in denen er – wie zum Beispiel in einer am 4. August 1940 ausgestrahlten Radioansprache – dafür eintrat, dass die USA sich aus dem europäischen Krieg heraushalten und sich mit den neuen Machtverhältnissen in Europa abfinden müssten:
Ferner erklärte er:
Lindbergh war, wie sein Biograf Scott Berg schreibt, überzeugt davon, dass die mächtigen USA, von blindem Idealismus geleitet, nicht erkennen könnten, dass die Vernichtung Hitlers Europa der Barbarei Stalins ausliefere und dadurch möglicherweise der westlichen Zivilisation eine tödliche Wunde geschlagen würde.
Nachdem Präsident Roosevelt am 25. April 1941 auf einer Pressekonferenz im Weißen Haus angekündigt hatte, dass Lindbergh wegen seiner politischen Ansichten nicht wieder zum Aktivdienst in den Streitkräften einberufen werde, legte dieser am 28. April „mit tiefstem Bedauern“ seinen Rang als Oberst der Luftwaffe nieder.
Am 11. September 1941 hielt Lindbergh auf einer AFC-Versammlung in Des Moines, Iowa, seine berüchtigte Rede "Who are the War Agitators?", in der er erklärte, die drei wichtigsten Gruppen, die die USA in den Krieg treiben wollten, seien „die Briten, die Juden und die Regierung Roosevelt“. Er sagte zwar, dass die Verfolgung der „jüdischen Rasse“ im Deutschen Reich von niemandem, „dem etwas an der Würde des Menschen liege“, gutgeheißen werden könne, richtete aber gleichzeitig eine deutliche Warnung an die Juden:
Schließlich wies er seine Zuhörer auch auf die angeblich von den Juden ausgehende „Gefahr“ für die Vereinigten Staaten hin:
Die Des-Moines-Rede trug Lindbergh heftige Kritik von der Presse, jüdischen Organisationen, Politikern aller Parteien und sogar aus den Reihen des AFC ein. Lindbergh wurde als Sympathisant der Nationalsozialisten und als Antisemit kritisiert. Die Zeitung "Des Moines Register" schrieb beispielsweise, dass diese Rede „ihn [Lindbergh] für jeden Führungsanspruch in politischen Angelegenheiten in dieser Republik untauglich“ mache. Lindberghs öffentliches Ansehen schwand nach dieser Rede enorm, die ferner dazu führte, dass das FBI Nachforschungen über ihn und sein Privatleben anzustellen begann. Zeitungen und Rundfunk in Deutschland wurden hingegen von Goebbels angewiesen, Lindberghs Reden nicht zu positiv zu kommentieren, da er der Ansicht war, Lob aus Nazi-Deutschland könne für Lindbergh in den USA kontraproduktiv sein und die erhoffte Wirkung von Lindberghs öffentlichen Auftritten beeinträchtigen. Das endgültige Aus für seine Tätigkeit als AFC-Redner kam schließlich mit dem japanischen Angriff auf Pearl Harbor und dem Eintritt der USA in den Zweiten Weltkrieg, der die Selbstauflösung des AFC zur Folge hatte.
Nach Kriegsbeginn beantragte Lindbergh seine Wiederaufnahme in die United States Army Air Forces, stieß dabei aber auf Widerstand seitens wichtiger Mitglieder des Kabinetts Roosevelts und bei der Presse. Auch mehrere Versuche, eine Position in der US-Luftfahrtindustrie zu finden, scheiterten zunächst. Schließlich gelang es ihm, mit Billigung der US-Regierung eine Stelle als Berater des Ford-Bomberentwicklungsprogramms in Detroit zu bekommen. In den Folgejahren bildete er Piloten für das Kampfflugzeug "Corsair" aus und war selbst auch als Testpilot tätig. 1944 erhielt er die Genehmigung zum pazifischen Kriegsschauplatz zu reisen, um die "Corsair" im Einsatz zu beobachten. Dort beteiligte er sich auch an von Neuguinea ausgehenden Einsätzen gegen japanische Ziele, zunächst noch als Bordbeobachter, schließlich aber auch als Pilot mit einem eigenen Kampfflugzeug. Im Zuge seines Einsatzes bei der "475th FG" unterrichtete er am 3. Juli 1944 die Jagdfliegerpiloten der Staffel in seiner Art des spritsparenden Fliegens. Hintergrund war die Feststellung, dass er nach seinem ersten sechsstündigen Flug mit der Staffel mit 790 Liter mehr Treibstoff in den Tanks zurückkehrte als seine Kameraden. Dieses war gleichbedeutend mit einem 30-prozentigen Zugewinn an Reichweite. Nach rund 50 Kampfeinsätzen und dem Abschuss eines japanischen Kampfflugzeugs im Juli 1944 kehrte er wieder in die USA zurück, wo er fortan für ein US-Luftfahrtunternehmen arbeitete.
1953 veröffentlichte Lindbergh den autobiografischen Bericht "The Spirit of St. Louis" über seinen Pionierflug und dessen Vorbereitung ab September 1926. Für das Buch erhielt er 1954 den Pulitzer-Preis in der Kategorie Biographie und Autobiographie. Im gleichen Jahr wurde er auf Empfehlung von US-Präsident Dwight D. Eisenhower als Brigadegeneral in die Reserve der United States Air Force aufgenommen.
Wissenschaftliche Betätigungen.
Im Jahr 1930 starb Lindberghs Schwägerin an einer Herzerkrankung. Der zu diesem Zeitpunkt 28-jährige Lindbergh wunderte sich, dass es nicht möglich war, seine Schwägerin durch ein künstliches Herz zu retten. Er wandte sich deshalb an Alexis Carrel, welcher zu diesem Zeitpunkt experimenteller Chirurg am Rockefeller Institute for Medical Research war. Carrel versuchte damals, Organe außerhalb des Körpers am Leben zu erhalten, um sie dort zu behandeln oder zu untersuchen.
Lindbergh begann 1931 am Rockefeller Institut an der Perfusion von Organen außerhalb des Körpers zu forschen und führte diese Studien auch die nächsten Jahre in Frankreich fort. Obwohl die beiden überraschende Erfolge dabei erzielten, Organe außerhalb des Körpers am Leben zu erhalten, zeigten sich regelmäßig innerhalb von wenigen Tagen fortschreitende degenerative Veränderungen an den Organen.
Trotzdem begann Lindbergh eine Maschine zu bauen, mit der die Organe gerettet werden sollten. Nach vier Jahren hatte er zusammen mit Carrel ein Gerät fertiggestellt, mit dem es möglich war, eine Niere, eine Schilddrüse, einen Eierstock oder ein Herz wochenlang im Labor am Leben zu halten. Diesem Durchbruch in der medizinischen Forschung verdankten Carrel und Lindbergh 1938 auch eine Platzierung auf dem Cover der amerikanischen Zeitschrift Time.
Später wurde Lindberghs Pumpe von anderen Wissenschaftlern weiterentwickelt, was letztlich zur Entwicklung der ersten Herz-Lungen-Maschine führte.
Sowohl Lindbergh als auch Carrel waren zumindest während ihrer Zusammenarbeit Anhänger der Eugenik. Lindbergh berichtete nach dem Zweiten Weltkrieg, dass er bestürzt von den Eindrücken aus den Konzentrationslagern in Deutschland war und dass er sich im Bezug auf seine Ansichten zur Eugenik geirrt hat.
Die zweite, dritte und vierte Familie.
Von 1957 bis zu seinem Tode im Jahr 1974 hatte Lindbergh ein Verhältnis mit der 24 Jahre jüngeren Hutmacherin Brigitte Hesshaimer († 2001) aus München. Sie hatten drei gemeinsame Kinder: zwei Söhne und eine Tochter. Die Beziehung blieb bis zum Schluss geheim. Die Kinder kannten die wahre Identität ihres Vaters nicht, der nur selten zu Besuch kam; für sie hieß er „Careu Kent“. Die Tochter Astrid Bouteuil fand später einen Zeitschriftenartikel über Lindbergh, entdeckte Fotografien und etwa 150 Briefe von ihm an ihre Mutter. Zwei Jahre nach deren Tod (also im Jahr 2003) trat sie mit ihrem Wissen an die Öffentlichkeit. Ein postumer Vaterschaftstest (DNA-Analyse an der Universität München) im November 2003 bestätigte die Richtigkeit der Vermutungen.
Darüber hinaus pflegte Lindbergh eine Beziehung zu Brigitte Hesshaimers Schwester Marietta (daraus gingen zwei Söhne hervor) und zu seiner Privatsekretärin Valeska, deren Nachname nicht bekannt ist (daraus gingen ein Sohn und eine Tochter hervor, ihre Namen sind nicht bekannt).
Die sieben Kinder aus diesen Beziehungen wurden in den Jahren 1958 bis 1967 geboren:
Tod und Grabstätte.
Am 26. August 1974 um 7:15 Uhr starb Lindbergh im Alter von 72 Jahren in seinem Haus auf der Hawaii-Insel Maui an Lymphdrüsenkrebs.
Sein Grab befindet sich in der Palapala Hoʻomau Church in Kīpahulu, Maui. Auf seinem Grabstein steht ein Vers aus Psalm 139 :
Gedanklich ist hier die Auflösung im nächsten Vers des Psalms zu ergänzen: „… auch dort würde deine Hand mich leiten und deine Rechte mich fassen.“
Ehrungen.
1927 wurde Lindbergh durch Beschluss des US-Kongresses mit der Medal of Honor, der höchsten militärischen Tapferkeitsauszeichnung der USA, ausgezeichnet. |
890 | 1765216 | https://de.wikipedia.org/wiki?curid=890 | Chinesische Sprachen | Die chinesischen oder sinitischen Sprachen () bilden einen der beiden Primärzweige der sinotibetischen Sprachfamilie, der andere Primärzweig sind die tibetobirmanischen Sprachen. Chinesische Sprachen werden heute von ca. 1,3 Milliarden Menschen gesprochen, von denen die meisten in der Volksrepublik China und in der Republik China (Taiwan) leben. In vielen Ländern, vor allem in Südostasien, gibt es größere chinesischsprachige Minderheiten. Die chinesische Sprache mit der größten Anzahl an Sprechern ist Mandarin. Auf ihm basiert das Hochchinesische, das auch einfach als „das Chinesische“ bzw. „Chinesisch“ bezeichnet wird.
Mehrere chinesische Sprachen, eine chinesische Schrift.
In der Regel bezeichnet der Begriff „chinesische Sprache“ die Standardsprache Hochchinesisch ( in China, in Taiwan), die auf der größten sinitischen Sprache, dem Mandarin (), basiert und im Wesentlichen dem Mandarin-Dialekt von Peking () entspricht. Daneben gibt es neun weitere chinesische Sprachen, die ihrerseits in viele Einzeldialekte zerfallen. Diese Sprachen werden in Europa oft als „Dialekte“ bezeichnet, obwohl der Grad ihrer Abweichungen untereinander nach westlichem Maßstab eine Klassifikation als Sprache rechtfertigt. In der traditionellen chinesischen Terminologie werden sie Fangyan () genannt.
Selbst innerhalb einer großen sinitischen Sprache ist die Verständigung von Sprechern unterschiedlicher Dialekte nicht immer möglich, insbesondere der nordöstliche Dialekt (, ) und die südlichen Dialekte (, ) des Mandarin sind untereinander nicht verständlich. Für die Verständigung über Sprachgrenzen hinaus wird in China überwiegend das von den meisten Chinesen gesprochene Hochchinesisch angewendet; regional begrenzter dienen auch andere Sprachen wie das Kantonesische als Verständigungsmittel.
Die chinesische Schrift fungiert auch in eingeschränktem Maß als dialektübergreifendes Verständigungsmittel, da etymologisch verwandte Morpheme trotz unterschiedlicher Aussprache im Allgemeinen in allen Dialekten mit dem gleichen chinesischen Schriftzeichen geschrieben werden. Das folgende Beispiel möge dies illustrieren: Im Altchinesischen war das gewöhnliche Wort für „Essen“ *"Ljɨk", das mit dem Zeichen geschrieben wurde. Die heutige Aussprache für das Wort „Essen“ "shí" (Hochchinesisch), "sɪk"˨ (Yue, kantonesischer Dialekt, Jyutping sik6), "st"˥ (Hakka, Meixian-Dialekt), "sit"˦ (Südliches Min, Xiamen-Dialekt) stammen alle davon ab und werden daher ebenfalls geschrieben.
Somit dient die logographische chinesische Schrift – jedes Zeichen steht im Prinzip für ein Wort – als einigendes Band, das die Sprecher der sehr unterschiedlichen chinesischen Sprachvarianten zu einer großen kulturellen Gemeinschaft mit einer Jahrtausende alten schriftlichen Tradition verbindet. Bei einer Alphabetschrift oder einer anderen Lautschrift wäre diese einigende Funktion nicht vorhanden.
Das bedeutet jedoch nicht, dass sich die chinesischen Dialekte nur phonologisch unterscheiden. So wird für „essen“ im Hochchinesischen gewöhnlich nicht "shí," sondern "chī" benutzt, das nicht von *"Ljɨk" stammt und daher mit einem eigenen Zeichen, , geschrieben wird. Die Dialekte des Chinesischen verfügen, sofern sie geschrieben werden, für viele Wörter über eigene Zeichen, wie das Kantonesische , "mou"˩˧, „nicht haben“. Daher, aber auch aufgrund grammatikalischer Abweichungen, sind auch geschriebene Texte dialektübergreifend nur eingeschränkt verständlich.
Bis zum Beginn des 20. Jahrhunderts übte aber die Verwendung des klassischen Chinesisch, dessen schriftliche Form dialektunabhängig war und in ganz China und auch Japan, Korea und Vietnam verwendet wurde, auf der Ebene der Schriftsprache eine einigende Funktion aus.
Chinesische Sprachen und ihre geographische Verbreitung.
Das ursprüngliche Verbreitungsgebiet der chinesischen Sprache ist schwer zu rekonstruieren, da die Sprachen der Nachbarn des antiken Chinas fast unbekannt sind und somit sich nicht entscheiden lässt, ob chinesische Sprachen außerhalb derjenigen chinesischen Staaten verbreitet waren, die Schriftzeugnisse hinterlassen haben; vor allem weite Teile Südchinas scheinen noch im 1. Jh. n. Chr. außerhalb des chinesischen Sprachgebiets gelegen zu haben. Bereits in der Zeit der Zhou-Dynastie (11. bis 3. Jh. v. Chr.) finden sich Hinweise auf eine dialektale Gliederung des Chinesischen, die sich in den folgenden Jahrhunderten wesentlich verstärkte. Heute werden meist acht chinesische Sprachen oder Dialektbündel unterschieden, die jeweils aus einer Vielzahl lokaler Einzeldialekte bestehen.
Die folgende Tabelle gibt die acht chinesischen Sprachen oder Dialektbündel mit ihren Sprecherzahlen und Hauptverbreitungsgebieten an. Die Sprecherzahlen stammen aus Ethnologue und anderen aktuellen Quellen. Eine detaillierte Auflistung lokaler Dialekte bietet der Artikel Liste der chinesischen Sprachen und Dialekte.
Die nordchinesischen Dialekte (, ), fachsprachlich auch Mandarin () genannt, sind die bei Weitem größte Dialektgruppe; sie umfasst das gesamte chinesische Sprachgebiet nördlich des Yangzi und in den Provinzen Guizhou, Yunnan, Hunan und Guangxi auch Gebiete südlich des Yangzi. Der Dialekt Pekings, die Grundlage des Hochchinesischen, gehört zu den Mandarin-Dialekten. Das Wu wird von etwa 80 Millionen Sprechern südlich der Mündung des Yangzi gesprochen, der Dialekt von Shanghai nimmt hier eine wichtige Stellung ein. Südwestlich daran grenzt das Gan vor allem in der Provinz Jiangxi mit 21 Millionen Sprechern und westlich davon, in Hunan, das Xiang mit 36 Millionen Sprechern. An der Küste, in der Provinz Fujian, im Osten Guangdongs sowie auf Taiwan und Hainan sowie in Singapur werden die Min-Dialekte gesprochen, zu denen insgesamt etwa 60 Millionen Sprecher gehören. In Guangxi, Guangdong und Hongkong wird von etwa 70 Millionen Menschen das Yue gesprochen, dessen wichtigster Dialekt das Kantonesische mit den Zentren Guangzhou und Hongkong ist.
Die übliche Klassifikation ist in erster Linie phonologisch motiviert, als wichtigstes Kriterium gilt die Entwicklung ursprünglich stimmhafter Konsonanten. Doch es finden sich auch deutliche lexikalische Unterschiede. So gelten das Pronomen der dritten Person "tā" (so die entsprechende hochchinesische Form), die Attributpartikel "de" und die Negation "bù" als typische Merkmale nördlicher Dialekte, besonders des Mandarin, teilweise aber auch von den Xiang-, Gan und Wu-Dialekten südlich des unteren Yangzi, die vom Mandarin beeinflusst sind. Typische Merkmale vor allem südlicher Dialekte sind dagegen die ausschließliche Verwendung von Negationen mit nasalem Anlaut (etwa kantonesisch m21), Kognata des altchinesischen "qú" (kantonesisch "kʰɵy˩˧") oder "yī" (Shanghaiisch "ɦi˩˧") als Pronomen der dritten Person sowie einige Wörter, die sich weder in nördlichen Dialekten noch im Alt- oder Mittelchinesischen finden, wie „Schabe“, Xiamen "ka˥˥-tsuaʔ˥˥," Kantonesisch "kaːt˧˧-tsaːt˧˧," Hakka "tshat˦˦" und „vergiften“, Fuzhou "thau1˧," Yue "tou˧˧," Kejia "theu˦˨".
Die folgende Gegenüberstellung etymologisch zusammengehöriger Wörter aus Vertretern der große Dialektgruppen verdeutlicht genetische Zusammengehörigkeit, aber auch den Grad der Diversität der chinesischen Sprachen:
Zur Bezeichnung.
Im Chinesischen selbst ist eine Reihe unterschiedlicher Begriffe für die chinesische Sprache gebräuchlich. Zhōngwén () ist ein allgemeiner Begriff für die chinesische Sprache, der sowohl für die gesprochene als auch die geschriebene Sprache verwendet wird. Da die geschriebene Sprache weitgehend unabhängig vom Dialekt ist, umfasst dieser Begriff auch die meisten chinesischen Dialekte. Hànyǔ () ist unter Muttersprachlern im heutigen Sprachgebrauch größtenteils austauschbar mit zhōngwén, aber weniger verbreitet. Da das Wort hàn für die Han-Nationalität steht, umfasst der Begriff ursprünglich alle Dialekte, die von Han-Chinesen gesprochen werden. Umgangssprachlich bezeichnet Hànyǔ allerdings eher das Hochchinesische, für das es einen eigenen Fachbegriff, das Pǔtōnghuà (), gibt. Huáyǔ () hingegen wird meist als Begriff von Auslandschinesen in der Diaspora außerhalb Chinas benutzt. Das Zeichen huá leitet sich vom historischen Begriff Huáxià () für das antike China ab. Während die Bezeichnung Tángwén () bzw. Tánghuà () für die chinesische Sprache sich vom Wort táng , das alte China der Tang-Dynastie, ableitet.
Beziehungen zu anderen Sprachen.
Dieser Abschnitt gibt einen kurzen Überblick über genetische Verwandtschaft des Chinesischen mit anderen Sprachen. Ausführlich wird dieses Thema im Artikel Sinotibetische Sprachen behandelt.
Genetische Verwandtschaft.
Tibeto-Birmanisch.
Das Chinesische wird heute allgemein als Primärzweig der sinotibetischen Sprachfamilie angesehen, die etwa 350 Sprachen mit 1,3 Mrd. Sprechern in China, dem Himalaya-Gebiet und Südostasien umfasst. Die meisten Klassifikationen des Sinotibetischen stellen das Chinesische dem Rest der tibetobirmanischen Sprachfamilie gegenüber, einige wenige Forscher betrachten das Sinitische als eine Untereinheit des Tibetobirmanischen, gleichrangig mit den vielen anderen Untergruppen dieser Einheit.
Das Chinesische hat zahllose Lexeme seines Grundwortschatzes mit anderen sinotibetischen Sprachen gemeinsam:
Außer dem gemeinsamen Basiswortschatz verbindet das Sinitische und Tibetobirmanische die ursprünglich gleiche Silbenstruktur (wie sie etwa im klassischen Tibetischen weitgehend erhalten ist und für das Altchinesische rekonstruiert werden kann) und eine weitverbreitete Derivationsmorphologie, die in gemeinsamen konsonantischen Präfixen und Suffixen mit bedeutungsändernder Funktion zum Ausdruck kommt. Eine relationale Morphologie (Veränderung der Nomina und Verben im Sinne einer Flexion) haben das Proto-Sinotibetische wie auch die modernen sinitischen Sprachen nicht ausgebildet, diese Form der Morphologie ist eine Innovation vieler tibetobirmanischer Sprachgruppen, die durch gebietsübergreifende Kontakte mit Nachbarsprachen und durch Überlagerung älterer Substratsprachen entstanden ist.
Andere Sprachen.
Genetische Verwandtschaft des Chinesischen mit Sprachen außerhalb des Tibetobirmanischen wird von der Linguistik nicht allgemein anerkannt, es existieren jedoch einige Versuche, das Chinesische in weit über die traditionellen Sprachfamilien hinausgehende Makrofamilien einzuordnen. Einige Forscher vertreten beispielsweise eine genetische Verwandtschaft mit den austronesischen Sprachen, den jenisseischen Sprachen oder sogar den kaukasischen oder den indogermanischen Sprachen, wofür Wortgleichungen wie chinesisch < *kwjəl „wer“ = lateinisch quis „wer“ herangezogen werden. Keiner dieser Versuche hat jedoch bisher die Zustimmung einer Mehrheit der Sprachwissenschaftler gewinnen können.
Lehnbeziehungen.
Aufgrund der jahrtausendelangen Koexistenz mit anderen, genetisch nicht verwandten Sprachen haben sich das Chinesische und verschiedene südost- und ostasiatische Sprachen gegenseitig stark beeinflusst. So finden sich in ihnen Hunderte von chinesischen Lehnwörtern, oft Bezeichnungen chinesischer Kulturgüter: > Koreanisch "čhäk," Bai "tshua˧˧." Diese Einflüsse haben sich in besonders hohem Maße auf Korea, Vietnam und Japan ausgewirkt, wo zudem auch die chinesische Schrift Anwendung findet und das klassische Chinesisch über Jahrhunderte als Schriftsprache benutzt wurde.
Auch das Chinesische selbst weist eine große Anzahl fremder Einflüsse auf. So sind einige wesentliche typologische Züge des modernen Chinesisch vermutlich auf Fremdeinfluss zurückzuführen, darunter die Ausbildung eines Tonsystems, die Aufgabe ererbter morphologischer Bildungsmittel und die obligatorische Anwendung von Zählwörtern. Fremdeinfluss zeigt sich auch in der Aufnahme nicht weniger Lehnwörter. Schon in sehr früher Zeit muss das Wort (altchinesisch *xlaʔ) aus den austroasiatischen Sprachen entlehnt worden sein, vgl. Mon klaʔ, Mundari "kula." Das Wort , das während der Han-Dynastie (206 v. Chr. bis 220 n. Chr.) das ältere verdrängte, wurde wohl während der Zeit der Zhou-Dynastie (um 1100–249 v. Chr.) aus dem Miao-Yao entlehnt. Auch aus nördlichen Nachbarsprachen wurden in vorgeschichtlicher Zeit Wörter übernommen, so beispielsweise , das sich in altaischen Sprachen wiederfindet: Mongolisch "tuɣul," Mandschurisch "tukšan." Besonders groß wurde die Zahl von Lehnwörtern im Chinesischen während der Han-Dynastie, als auch aus westlichen und nordwestlichen Nachbarsprachen Wörter übernommen wurden, beispielsweise aus einer iranischen Sprache, vgl. Persisch باده "bāda." Schwer nachweisbar sind Entlehnungen aus der Sprache der Xiongnu; hier ist mutmaßlich einzuordnen. Durch den starken Einfluss des Buddhismus während des 1. nachchristlichen Jahrtausends drang eine Vielzahl indischer Lehnwörter ins Chinesische ein: aus dem Sanskrit "candana," aus dem Sanskrit "śramaṇa." Nur wenige Lehnwörter hinterließ die mongolische Herrschaft der Yuan-Dynastie (1279–1368), beispielsweise aus dem Mongolischen "moku."
Im 16. Jahrhundert setzte ein starker europäischer Einfluss ein, der sich auch im chinesischen Wortschatz niederschlug. So wurden in dieser Zeit christliche Termini ins Chinesische entlehnt: aus dem spätlateinischen "." Seit dem 19. Jahrhundert wurden auch Bezeichnungen für Errungenschaften der europäischen Technik übernommen, wobei sich das Chinesische jedoch gegenüber Entlehnungen als wesentlich resistenter erwies als etwa das Japanische. Beispiele hierfür sind: aus dem Englischen "," aus dem Englischen "." In manchen Fällen fanden Lehnwörter über Dialekte den Weg ins Hochchinesische: z. B. aus dem Shanghaiischen "safa" vom Englischen "."
Eine besondere Erscheinung bildet eine Gruppe von Lehnwörtern insbesondere aus Japan, bei denen nicht die Aussprache, sondern die Schreibung entlehnt wird. Dies wird dadurch ermöglicht, dass das entlehnte Wort in der Ursprungssprache selbst mit chinesischen Schriftzeichen geschrieben wird. Über diese Route gelangten auch westliche Fachtermini aus der Medizin, die in Japan mit chinesischen Zeichen eingebürgert waren, nach China:
Verschriftlichung und soziokultureller Status.
Traditionelle Schrift.
Das Chinesische wird seit den frühesten bekannten Schriftzeugnissen aus dem 2. vorchristlichen Jahrtausend mit der chinesischen Schrift geschrieben. In der chinesischen Schrift wird – von Ausnahmen abgesehen – jedes Morphem mit einem eigenen Zeichen wiedergegeben. Da die chinesischen Morpheme einsilbig sind, lässt sich so jedem Zeichen ein einsilbiger Lautwert zuordnen. Entgegen einem weit verbreiteten Missverständnis werden synonyme, aber nicht homophone Wörter mit unterschiedlichen Zeichen geschrieben. So bedeuten sowohl das historisch ältere Zeichen "quǎn" als auch das historisch jüngere Schriftzeichen "gǒu" „Hund“, werden aber mit völlig anderen Zeichen geschrieben. Einige Zeichen gehen dabei auf piktographische Darstellungen des entsprechenden Wortes zurück, auch andere rein semantisch basierte Typen kommen vor.
Etwa 85 % der heutigen Zeichen enthalten aber phonologische Information und sind aus zwei Komponenten zusammengesetzt, von denen eine die Bedeutung angibt und die andere ein Morphem mit ähnlicher Aussprache darstellt. So besteht das Zeichen aus „Frau“ als Bedeutungskomponente (Radikal) und als Aussprachekomponente.
In einigen Fällen stellt ein Zeichen mehrere Morpheme dar, insbesondere etymologisch verwandte. Die Zahl aller chinesischen Zeichen ist aufgrund des morphemischen Prinzips verhältnismäßig hoch; bereits das Shuowen Jiezi () von 100 n. Chr. verzeichnet knapp 10.000 Zeichen; das Yitizi Zidian () von 2004 enthält 106.230 Zeichen, von denen sehr viele aber nicht mehr in Gebrauch sind oder lediglich seltene Schreibvarianten anderer Zeichen darstellen. Die durchschnittliche Zahl der Zeichen, die ein Chinese mit Universitätsabschluss beherrscht, beträgt aber weniger als 5000; etwa 2000 gelten für das Lesen einer hochchinesischen Zeitung als erforderlich.
Die chinesische Schrift ist nicht einheitlich. Seit der Schriftreform vom Jahre 1958 werden in der Volksrepublik China (und später auch in Singapur) offiziell die vereinfachten Zeichen (Kurzzeichen, ) verwendet, in Taiwan, Hongkong und Macau dagegen werden weiterhin die sogenannten „traditionellen Zeichen“ (Langzeichen, oder ), benutzt. Auch auf die Verschriftlichung anderer Sprachen, die chinesische Schriftzeichen nutzen, wie des Japanischen wurde die chinesische Schriftreform nicht angewendet; in Japan wurden aber bereits 1946 unabhängig vereinfachte Zeichenformen, auch "Shinjitai" genannt, eingeführt.
Neben der chinesischen Schrift waren in China auch einige andere Schriften in Gebrauch. Dazu zählt insbesondere die Nüshu, eine seit dem 15. Jahrhundert in der Provinz Hunan verwendete Frauenschrift. Unter der Yuan-Dynastie (1279–1368) wurde auch die phonetisch basierte Phagspa-Schrift für das Chinesische verwendet.
Transkriptionen.
Neben der chinesischen Schrift gibt es zahlreiche auf dem lateinischen Alphabet basierende Transkriptionssysteme für Hochchinesisch und die einzelnen Dialekte beziehungsweise Sprachen. In der Volksrepublik China wird Hanyu Pinyin (kurz: Pinyin) als offizielle Romanisierung für das Hochchinesische verwendet; ein weiteres, besonders vor der Einführung von Pinyin sehr weit verbreitetes Transkriptionssystem ist das Wade-Giles-System. Für die verschiedenen Dialekte bzw. Sprachen existieren keine allgemein anerkannten Transkriptionssysteme. Daher ist es für chinesisch nicht bewanderte Personen leicht verwirrend, wenn es zu einem chinesischen Begriff oder Namen historisch mehrere lateinisierte (romanisierte) Schreibweisen gibt. So beispielsweise die Schreibweisen der Name Mao Zedong (heute amtlich nach Pinyin) oder Mao Tse-tung (historisch nach W.G.), die Begriffe Dao (Pinyin) Tao (W.G.), Taijiquan (Pinyin) bzw. Tai Chi Chuan (W.G.) oder Gong fu (Pinyin) bzw. Kung Fu (W.G.), selten auch Gung Fu (inoffizielle kantonesische Umschrift). Frühere Formen des Chinesischen werden üblicherweise wie das Hochchinesische, folglich in Pinyin transkribiert, obwohl dies die Phonologie früherer Formen des Chinesischen nicht adäquat wiedergeben kann.
Muslimische Chinesen haben ihre Sprache auch in der arabisch-basierten Schrift Xiao’erjing geschrieben. Einige, die nach Zentralasien auswanderten, sind im 20. Jahrhundert zur kyrillischen Schrift übergegangen, siehe Dunganische Sprache.
Soziokultureller und offizieller Status.
Ursprünglich unterschieden sich die gesprochene und die geschriebene Sprache in China nicht wesentlich voneinander; die schriftliche Sprache folgte den Entwicklungen der gesprochenen Sprache. Seit der Qin-Dynastie (221–207 v. Chr.) wurden jedoch Texte aus der Spätzeit der Zhou-Dynastie für die geschriebene Sprache maßgeblich, sodass das klassische Chinesisch als Schriftsprache von der gesprochenen Sprache unabhängig wurde und in geschriebener Form allgemeines Verständigungsmedium über Dialektgrenzen hinaus bildete. Das klassische Chinesisch diente jedoch ausschließlich als geschriebene Sprache einer kleinen Elite, als gesprochene Sprache wurde spätestens seit der Qing-Dynastie (1644–1911) selbst von den hochgestellten Beamten der Dialekt der Hauptstadt benutzt. Beim Lesen von Texten in klassischem Chinesisch wurde der jeweilige lokale Dialekt angewendet, einige Dialekte besaßen dafür eigene phonologische Subsysteme, die sich von der gesprochenen Sprache unterschieden.
Vor allem im Zusammenhang mit der Ausbreitung des Buddhismus in China wurde volkstümliche Literatur zunehmend in der Volkssprache Baihua () abgefasst, die bei der schriftlichen Anwendung innerhalb Chinas bis zu einem gewissen Grad normiert war und sich mit wenigen Ausnahmen, wie dem im südlichen Min geschriebenen Lijingji aus dem 16. Jahrhundert, an frühen Formen der Mandarin-Dialekte orientierte. Möglicherweise kam es auch in der gesprochenen Sprache des 1. nachchristlichen Jahrtausends zu einer Standardisierung.
Erst gegen Ende des chinesischen Kaiserreiches, zu Beginn des 20. Jahrhunderts, schwand die Bedeutung des klassischen Chinesisch; als Amtssprache und als literarische Sprache wurde es bis zur Mitte des 20. Jahrhunderts vom Hochchinesischen abgelöst, das sich in Grammatik, Lexikon und insbesondere der Phonologie stark an den modernen Dialekt von Peking anlehnt. Auch für andere Dialektformen des Chinesischen wurden Verschriftlichungsversuche gemacht, jedoch verfügt nur das Kantonesische über eine etablierte Literatur in chinesischer Schrift. In einigen Dialekten wurde auch eine Verschriftlichung mittels lateinischer Schrift versucht.
Auch außerhalb der geschriebenen Sprache verdrängt das Hochchinesische zunehmend lokale Idiome, da das Hochchinesische landesweit an den Schulen gelehrt wird, wenngleich es die Dialekte als Umgangssprachen wohl nur stellenweise ersetzt.
Homophonie und Homonymie.
Da die chinesische Schrift über 10.000 verschiedene Logogramme umfasst, das gesprochene Hochchinesisch aber weniger als 1.700 verschiedene Sprechsilben, hat das Chinesische wesentlich mehr homophone Morpheme, also unterschiedliche Bedeutung tragende Wortbestandteile mit gleicher Aussprache, als irgendeine europäische Sprache. Daher entsprechen weder gesprochene Sprache noch lateinische Umschriften exakt den in chinesischen Zeichen geschriebenen Texten. Vereinfachte Umschriften, die die Töne nicht markieren, lassen die Homophonie noch ausgeprägter erscheinen, als sie tatsächlich ist.
Zudem gibt es im Chinesischen auch Homonyme, also unterschiedliche Begriffe, die mit demselben Wort bezeichnet werden. Trotz der sehr vielen verschiedenen Logogramme existieren auch einige Homographen, das heißt Wörter, die mit denselben Zeichen geschrieben werden. Obwohl die meisten chinesischen Homographen gleich ausgesprochen werden, gibt es auch einige mit unterschiedlicher Aussprache.
Periodisierung.
Das Chinesische ist eine der wenigen noch gesprochenen Sprachen mit einer mehr als dreitausendjährigen schriftlichen Tradition. Die Sprachentwicklung lässt sich unter syntaktischen und phonologischen Gesichtspunkten in mehrere Phasen unterteilen.
Die älteste durch schriftliche Überlieferung fassbare Form des Chinesischen ist die Sprache der Orakelknocheninschriften aus der Spätzeit der Shang-Dynastie (16.–11. Jahrhundert v. Chr.). Sie bilden den Vorläufer der Sprache der Zhou-Dynastie (11.–3. Jahrhundert v. Chr.), die als Altchinesisch () bezeichnet wird und deren Spätform als Klassisches Chinesisch bis in die Neuzeit als Schriftsprache konserviert wurde.
Nach der Zhou-Dynastie entfernte sich die gesprochene Sprache allmählich vom klassischen Chinesisch; erste grammatische Innovationen finden sich schon im 2. Jahrhundert v. Chr. Sie kennzeichnen das Mittelchinesische (), das vor allem die Sprache der volkstümlichen Literatur beeinflusste.
Die Zeit seit dem 15. Jahrhundert umfasst das moderne Chinesisch () und das zeitgenössische Chinesisch (; 1840–1949), das als Oberbegriff für die modernen chinesischen Sprachen dient.
Typologie.
In typologischer Hinsicht zeigt das moderne Chinesisch relativ wenige Übereinstimmungen mit den genetisch verwandten tibeto-birmanischen Sprachen, während sich wesentlich mehr Übereinstimmungen mit den über Jahrhunderte direkt benachbarten südostasiatischen Sprachen zeigen. Insbesondere ist das moderne Chinesische sehr stark isolierend und zeigt nur wenig Flexion; die syntaktischen Zusammenhänge werden demzufolge überwiegend durch die Satzstellung und freie Partikeln ausgedrückt. Jedoch kennt auch das moderne Chinesisch morphologische Prozesse zur Wort- und Formenbildung.
Phonologie.
Segmente.
Das Phoneminventar der verschiedenen chinesischen Sprachen weist eine große Diversität auf; einige Merkmale haben sich jedoch weit verbreitet; beispielsweise das Vorhandensein aspirierter Plosive und Affrikaten sowie in einem großen Teil der Dialekte der Verlust der stimmhaften Konsonanten. Die Min-Dialekte im Süden Chinas sind aus historischer Sicht sehr untypisch, da sie sehr konservativ sind, aus typologischer Sicht jedoch geben sie einen guten Querschnitt durch das Konsonanteninventar des Chinesischen, weshalb im Folgenden das Konsonantensystem des Min-Dialektes von Fuzhou (Min Dong) dargestellt ist:
Diese Konsonanten finden sich in nahezu allen modernen chinesischen Sprachen; die meisten haben verschiedene zusätzliche Phoneme. So gibt es beispielsweise im Yue Labiovelare, in einigen Dialekten einen palatalen Nasal (ɲ) und im Mandarin und Wu palatale Frikative und Affrikaten. Das Hochchinesische hat folgende Konsonantenphoneme (in Klammern die Pinyin-Umschrift):
Silbenbau.
Traditionell wird die chinesische Silbe in einen konsonantischen Anlaut () und einen Auslaut () aufgeteilt. Der Auslaut besteht aus einem Vokal, bei dem es sich auch um einen Di- oder Triphthong handeln kann, sowie einem optionalen Endkonsonanten (). So lässt sich die Silbe "xiang" in den Anlaut "x" und den Auslaut "iang" zerlegen, dieser wiederum wird in den Diphthong "ia" und den Endkonsonanten "ng" analysiert. Der Anlaut besteht in allen modernen chinesischen Sprachen immer – abgesehen von Affrikaten – aus einem einzelnen Konsonanten (oder ∅); es wird jedoch davon ausgegangen, dass das Altchinesische auch Konsonantencluster im Anlaut besaß. Im Auslaut lassen die modernen chinesischen Sprachen nur wenige Konsonanten zu; im Hochchinesischen beispielsweise nur "n" und "ŋ"; auch hier war jedoch die Freiheit im Altchinesischen vermutlich wesentlich größer. Aufgrund dieser stark eingeschränkten Möglichkeiten zur Silbenbildung ist die Homonymie im modernen Chinesisch sehr stark ausgeprägt.
Tonalität.
Das wohl offensichtlichste Merkmal der chinesischen Phonologie ist, dass die chinesischen Sprachen – wie viele genetisch nicht verwandte Nachbarsprachen – Tonsprachen sind. Die Anzahl der Töne, meist handelt es sich um Konturtöne, variiert in den verschiedenen Sprachen untereinander sehr stark. Um 800 n. Chr. besaß das Chinesische acht Töne (bzw. Tonhöhenverläufe), wobei jedoch nur drei Oppositionen tatsächlich phonemische Bedeutung hatten. In den verschiedenen modernen chinesischen Sprachen hat sich das antike Tonsystem stark verändert, das Hochchinesische etwa zeigt nur noch vier Töne, die aber alle phonemisch sind, wie die folgenden Beispiele zeigen (vergleiche den Artikel Töne des Hochchinesischen):
Der kantonesische Dialekt des Yue dagegen hat das antike System besser bewahrt und besitzt neun Töne (bzw. Tonverläufe), die in bestimmte Kategorien eingeteilt werden:
Es wird im Allgemeinen davon ausgegangen, dass das chinesische Tonsystem hauptsächlich unter dem Einfluss von erodierten Konsonanten am Silbenende entstanden ist; das Altchinesische war demzufolge nach der Meinung der Mehrzahl der Forscher noch keine Tonsprache.
Morphologie.
Wortbildung.
Grundlage der chinesischen Morphologie ist das einsilbige Morphem, dem in der geschriebenen Form der Sprache ein Zeichen entspricht. Beispiele sind im Hochchinesischen die selbstständigen Lexeme , , und Affixe wie das Pluralsuffix -. Ausnahmen sind Gruppen zweier aufeinanderfolgender Morpheme, die eine einzelne Silbe bilden. In einigen Fällen ist dies auf phonologische Veränderungen beim Zusammentreffen zweier Morpheme (sogenanntes Sandhi) zurückzuführen, wie in Hochchinesisch nà-ér > nàr „dort“, klassisches Chinesisch yě-hū > , Kantonesisch 嘅呀 kɛː˧˧ aː˧˧ > 嘎 kaː˥˥. Da die Affixe der altchinesischen Wortbildungsmorphologie keine eigene Silbe bildeten, gehören auch die unten besprochenen Derivate zu diesen Ausnahmen. Ob das Altchinesische auch mehrsilbige Morpheme besaß, die nur mit einem Zeichen geschrieben wurden, lässt sich bislang nicht klären.
Im Altchinesischen entsprachen die Morphemgrenzen in der bei weitem überwiegenden Mehrzahl der Fälle den Wortgrenzen. Seit der Zeit der Han-Dynastie wurden durch Zusammensetzung einsilbiger Wörter neue, zweisilbige und bimorphemische Lexeme gebildet. Viele solcher Zusammensetzungen weisen syntaktische Strukturen auf, die sich ebenso in Phrasen und Sätzen finden, weshalb die Trennung von Syntax und Morphologie problematisch ist. So sind viele Substantive wie Nominalphrasen mit einem Attribut und folgendem Kern gebildet: wörtlich: „Deutschland – Mensch“ = „Deutscher“, wörtlich: „derjenige, der aufzeichnet“ = „Journalist“. Ebenso können Verben durch eine Kombination eines Verbs mit einem Objekt gebildet werden: aus und . Andere Zusammensetzungen sind schwieriger zu analysieren, beispielsweise aus und dem Synonym .
Ein weiteres Bildungsmittel zur Wortderivation des alten wie des modernen Chinesisch stellen Affixe dar. Das Altchinesische verfügte über eine Vielzahl an Prä-, In- und Suffixen, die jedoch vielfach nur schwer nachzuweisen sind, da sie in der Schrift keine oder nur unzureichende Spuren hinterlassen. Besonders häufig findet sich ein Suffix *-s, mit dem sowohl Substantive als auch Verben gebildet werden konnten ( (*trje) „wissen“ > / zhì (*trjes) „Weisheit“; (*wjang) „König“ > (*wjangs) „herrschen“). Auch verschiedene In- und Präfixe lassen sich rekonstruieren.
Auch das moderne Chinesisch verfügt über einige Suffixe zur Derivation (Beispiele aus dem Hochchinesischen):
In verschiedenen chinesischen Dialekten finden sich auch Präfixe, wie das im Hakka vertretene Präfix ʔa˧˧- zur Bildung von Verwandtschaftsbezeichnungen: ʔa˧˧ kɔ˧˧ „älterer Bruder“ = Hochchinesische . Derivation oder Flexion durch Tonwechsel spielt im modernen Chinesisch eine eher geringe Rolle, beispielsweise bei der Bildung des perfektiven Aspekts im Kantonesischen: "sek˧˥" „aß, hat gegessen“ zu "sek˨˨" „essen“.
Pronomina.
Die Personalpronomina haben in verschiedenen Formen des Chinesischen die folgenden Formen:
Das frühe Altchinesisch unterschied bei den Personalpronomina die Numeri Singular und Plural sowie verschiedene syntaktische Funktionen; so diente in der 3. Person um 900 v. Chr. *kot (heute: jué) als Attribut, *tə (heute: zhī) als Objekt und möglicherweise *gə (heute: qí) als Subjekt. Im Klassischen Chinesisch wurde die Unterscheidung der Numeri aufgegeben, seit der Han-Zeit verschwand auch die syntaktische Unterscheidung. Dafür entwickelten sich seit der Tang-Dynastie neue Plurale, die nun durch Affixe wie děng, cáo, bèi gebildet wurden. Dieses System ist in seinen Grundzügen bislang unverändert geblieben und findet sich in den modernen chinesischen Sprachen wieder.
Syntax.
Allgemeines.
Da die chinesischen Sprachen in großem Maße isolierend sind, werden Beziehungen der Wörter untereinander vorrangig durch die vergleichsweise feste Satzstellung zum Ausdruck gebracht. Kongruenz ist nicht vorhanden; von den Personalpronomina des Alt- und Mittelchinesischen abgesehen werden auch keine Kasus markiert. In allen historischen und modernen Formen des Chinesischen ist die Stellung Subjekt – Verb – Objekt (SVO) vorherrschend, nur dass bei Subjekten Pro-Drop auftritt:
In bestimmten Fällen wie Topikalisierung und in negierten Sätzen kann das Objekt auch präverbal stehen. Die Satzstellung SOV findet sich in verschiedenen Formen des chinesischen vor allem in negierten Sätzen. So standen im Altchinesischen pronominale Objekte oft vor negierten Verben:
Die Satzstellung SOV ist seit etwa dem 6. Jahrhundert auch in anderen Kontexten möglich, wenn das Objekt mit einer Partikel (, und andere) eingeleitet wird:
In den meisten historischen und den nördlichen modernen Varianten des Chinesischen steht das indirekte Objekt vor dem direkten; in einigen heutigen südlichen Sprachen steht hingegen das direkte voran:
Eine wichtige Rolle in der chinesischen Syntax nimmt das Phänomen der Topikalisierung ein, bei der eine pragmatisch hervorgehobene Nominalphrase aus ihrer kanonischen Position an den Satzanfang gestellt wird. Im Altchinesischen wurden bei der Extraktion von Objekten und Attributen Resumptiva verwendet; im modernen Chinesisch sind diese nicht mehr vorhanden. Typisch für das moderne Chinesisch sind auch Topics, die hinter dem Subjekt stehen sowie solche, die keinen direkten syntaktischen Bezug zum folgenden Satz haben:
In Ergänzungsfragen stehen die Frageausdrücke im Chinesischen in situ. Markierung von Fragen mit Interrogativa durch finale Fragepartikeln ist in einigen antiken und modernen Varianten des Chinesischen möglich:
Ja-nein-Fragen werden meist mit finalen Partikeln markiert; seit dem 1. Jahrtausend n. Chr. finden sich auch Fragen der Form „A – nicht – A“:
Aspekt, Tempus, Aktionsart und Diathese.
Aspekt, Tempus und Aktionsart können unmarkiert bleiben oder durch Partikeln oder Suffixe, manchmal auch durch Hilfsverben, zum Ausdruck gebracht werden. Im frühen Altchinesisch waren diese Morpheme ausschließlich präverbal; im späteren Altchinesisch waren die wichtigsten Aspektpartikeln dagegen das vermutlich stativisch-durativische yě und das perfektivische yǐ, die am Satzende standen:
Seit dem Ende des 1. Jahrtausends n. Chr. sind auch Aspektpartikeln belegt, die zwischen Verb und Objekt stehen; diese Stellung ist in allen modernen chinesischen Sprachen weit verbreitet. Auch am Satzende und, vor allem im Min, vor dem Verb können weiterhin bestimmte Aspektpartikeln stehen. Die folgende Tabelle illustriert die Konstruktionen, die das Hochchinesische besitzt, um Aktionsarten auszudrücken:
Wenngleich alle chinesischen Sprachen äußerlich ähnliche Systeme besitzen, weisen die benutzten Morpheme große Divergenzen auf. Das Hakka etwa benutzt die präverbalen Aspektpartikeln ∅ (Imperfektiv), ʔɛ˧˨ (Perfektiv), tɛn˧˨ (Kontinuativ), kuɔ˦˥ („Erfahrungs-Perfektiv“).
Während das Aktiv im Chinesischen unmarkiert ist, stehen zur Markierung des Passivs unterschiedliche Möglichkeiten zur Verfügung. Im Altchinesischen blieb es ursprünglich ebenfalls unmarkiert und konnte nur indirekt durch Angabe des Agens in einer Präpositionalphrase angedeutet werden. Seit dem Ende der Zeit der Zhou-Dynastie bildeten sich Konstruktionen mit verschiedenen Hilfsverben wie , , , und , die das unmarkierte Passiv aber nicht verdrängten.
Verbserialisierung.
Ein wichtiges und produktives Merkmal der Syntax der jüngeren chinesischen Sprachen ist die Verbserialisierung, die seit dem frühen 1. Jahrtausend n. Chr. belegt ist. In diesen Strukturen folgen zwei Verbalphrasen, die in einer bestimmten semantischen Relation stehen, ohne formale Trennung aufeinander. In vielen Fällen ist das Verhältnis der beiden Verbalphrasen resultativ, die zweite gibt also das Ergebnis der ersten an:
Ebenfalls häufig sind serialisierte Verben, bei denen das zweite Verb die Richtung der Handlung ausdrückt:
Eine ähnliche Konstruktion liegt bei den sogenannten Koverben vor. Hierbei handelt es sich um transitive Verben, die nicht nur als selbstständige Verben auftreten können, sondern auch die Funktion von Präpositionen übernehmen können und andere Verben modifizieren:
Eine besondere Rolle nehmen verschiedene Serialverbkonstruktionen mit dem Morphem oder dessen Entsprechungen in anderen Sprachen ein. In einer Konstruktion, die als "Komplement des Grades" bekannt ist, markiert "de" ein Adjektiv, das ein Verb modifiziert. Hat das Verb ein Objekt, wird das Verb hinter dem Objekt wiederholt, oder das Objekt wird topikalisiert:
In manchen Dialekten wie dem Kantonesischen kann das Objekt auch hinter gestellt werden.
Außerdem können und die Negation oder deren dialektale Entsprechungen die Möglichkeit bzw. Unmöglichkeit markieren. Der Partikel folgt dabei ein Verb, das Resultat oder Richtung der Handlung angibt:
Nominalphrasen.
Attribute.
Im Chinesischen steht der Kopf einer Nominalphrase stets am Ende, Pronomina, Numeralia und Attribute stehen vor ihm und können von diesem durch eine Partikel getrennt werden. Diese Partikel hat in verschiedenen Dialekten unterschiedliche Formen; im Altchinesischen lautet sie beispielsweise , im Hochchinesischen . Bei dem Attribut kann es sich um eine eigene Nominalphrase handeln: klassisches Chinesisch „wessen – subordiniertes Partikel – Land“, modernes Chinesisch „hier – Attributpartikel – Menschen“, Moiyen (Hakka) ŋaɪ̯˩˩-"ɪ̯ɛ˥˥" su˧˧ „mein Buch“.
Ist diese durch ein Attribut erweitert, können auch komplizierte Ketten von Attributen entstehen, die als für das Chinesische typisch gelten können. Häufig handelt es sich bei dem Attribut aber nicht um ein Substantiv, sondern um ein nominalisiertes Verb, optional auch mit Ergänzungen wie Subjekt, Objekt und adverbialen Bestimmungen. Derartige Attribute erfüllen ähnliche semantische Funktionen wie Relativsätze europäischer Sprachen. Im folgenden Beispiel aus dem Hochchinesischen ist der Kern der Nominalphrase koreferent mit dem Subjekt des nominalisierten Verbs:
Der Kopf der Nominalphrase kann aber auch mit anderen Ergänzungen des nominalisierten Verbs, wie seinem Objekt, koreferent sein. In den meisten Dialekten ist dies nicht formal markiert, teilweise finden sich aber Resumptiva:
Das Altchinesische konnte in Fällen, wo der Kopf nicht mit dem Subjekt des Verbs koreferent ist, die Morpheme (präklassisch), (klassisch) einsetzen: „was abgeschnitten wurde“.
Zählwörter.
Ein wesentliches typologisches Merkmal, welches das moderne Chinesische mit anderen südostasiatischen Sprachen teilt, ist die Anwendung von Zählwörtern. Während im Altchinesischen Zahlen und Demonstrativpronomina direkt vor Substantiven stehen können (; ), muss in den modernen chinesischen Sprachen zwischen beiden Wörtern ein Zählwort stehen, dessen Wahl vom Substantiv abhängt: Hochchinesisch , . In den Yue- und Xiang-Dialekten werden Zählwörter auch zur Determination eines Substantives sowie zur Markierung eines Attributs benutzt: Kantonesisch „"kʰɵy˨˧ "puːn˧˥" syː˥˥"“, "„tsiː˥˥ pɐt˥˥“." Die Wahl des Zählwortes wird durch die Semantik des Substantivs bedingt: steht im Hochchinesischen bei Substantiven, die ein Ding bezeichnen, das einen Griff besitzt; mit werden Substantive konstruiert, die ein Gebäude bezeichnen usw. Eine Übersicht über wichtige Zählwörter des Hochchinesischen bietet der Artikel Liste chinesischer Zählwörter.
Sprachcode nach ISO 639.
Die ISO-Norm ISO 639 definiert Codes für die Auszeichnung von Sprachmaterialien. Die chinesischen Sprachen werden in der Norm unter den Sprachcodes codice_1 (ISO 639-1) und codice_2/codice_3 (ISO 639-2/T und /B) subsumiert. Die Norm ISO 639-3 führt den Sprachcode codice_2 als sog. Makrosprache ein – ein Konstrukt, welches für eine Gruppe von Sprachen angewandt wird, wenn diese als Einheit behandelt werden kann. Im Falle der chinesischen Sprachen ist dieser Faktor durch die gemeinsame geschriebene Form gegeben. Die subsumierten Einzelsprachen sind im Einzelnen: codice_5 (Gan), codice_6 (Hakka), codice_7 (Hui), codice_8 (Jin), codice_9 (Mandarin inkl. Standardchinesisch), codice_10 (Min Bei), codice_11 (Min Dong), codice_12 (Min Nan), codice_13 (Min Zhong), codice_14 (Pu-Xian), codice_15 (Wu), codice_16 (Xiang), codice_17 (Yue – Kantonesisch). Auch codice_18 (klassisches Chinesisch) zählt zu dieser Makrosprache, nicht aber codice_19 (Dunganisch). Zur Bezeichnung der gesamten Sprachgruppe führt die Norm ISO 639-5 den Code codice_20.
Literatur.
Allgemeines
Sprachgeschichte und historische Sprachen
Moderne Sprachen
Lexika
Weblinks.
Allgemeines
Wörterbücher |
891 | 3521169 | https://de.wikipedia.org/wiki?curid=891 | Carl Barks | Carl Barks (* 27. März 1901 in der Nähe von Merrill, Oregon; † 25. August 2000 in Grants Pass, Oregon) war ein US-amerikanischer Comicautor und -zeichner sowie Cartoonist und Maler. Er gilt als der bekannteste Disneyzeichner und erschuf zahlreiche Comic-Figuren des Disney-Kosmos wie Dagobert Duck. Aufgrund seiner Comics gilt er auch als Kultur- und Politikkritiker, wenngleich er dies stets abstritt.
Bedeutung.
Barks war der bekannteste Zeichner und Autor der US-amerikanischen Disney-Comics, insbesondere der Geschichten um die Familie Duck. Die zum Teil noch recht eindimensionalen Charaktere aus den Trickfilmen und den Zeitungscomics von Al Taliaferro differenzierte er und fügte neue Figuren hinzu. Er ist der geistige Vater des reichsten Manns der Welt "Dagobert Duck" ("Scrooge McDuck"), des genialen Erfinders "Daniel Düsentrieb" ("Gyro Gearloose") und der "Panzerknacker" ("Beagle Boys"). Auch der amerikanische Name der Heimatstadt der Ducks, Entenhausen ("Duckburg"), stammt von Barks. Vor seinem Wirken war außer "Donald Duck" nur dessen Freundin "Daisy Duck" vorhanden. Donalds Neffen "Tick, Trick und Track" ("Huey, Dewey & Louie") hatten ihren ersten Auftritt in dem Disney-Kurztrickfilm "Donald's Nephews" von 1938, der in wesentlichen Teilen von Barks stammt, der vor seiner Comic-Karriere einige Jahre als Trickfilmzeichner und -schreiber in den Disney-Studios arbeitete.
Carl Barks hat dazu noch viele weitere Enten-Figuren erfunden. Einige dieser Figuren, die ursprünglich nur für einen bestimmten Comic entworfen worden waren, wurden so populär, dass sie später ihre eigene Comic-Serie erhielten, z. B. "Oma Duck".
In den 1950er Jahren waren seine Comics in den USA so beliebt, dass er von den Lesern der Disney-Comics „the good artist“ (dt. "der gute Künstler") genannt wurde. Damals kannte noch niemand seinen Namen, weil alle Hefte der Disney-Verlage als Autorenvermerk nur die Marke „Walt Disney“ trugen. Erst mit Beginn der 1960er Jahre gelang es hartnäckigen Fans, seinen Namen herauszufinden und den Meister, der längst in Rente war, zu kontaktieren und besuchen.
Mit Erika Fuchs fanden die Comics von Carl Barks eine kongeniale Übersetzerin ins Deutsche. Bekannte Sprüche wie „Wo man hinschaut, nichts als Gegend“ oder „Dem Ingenieur ist nichts zu schwör“ stammen aus ihrer Feder. Ihre Sprache war weitaus feiner differenziert als das US-amerikanische Original, in dem Barks auch viele Slang-Worte verwendete.
Biographie.
Kindheit und Jugend.
Carl Barks wurde am 27. März des Jahres 1901 als zweiter Sohn des Landwirtes William Barks und von dessen Frau Arminta im US-Bundesstaat Oregon, unweit des Ortes Merrill auf einer Farm geboren. Bereits in jungen Jahren halfen Carl und sein zwei Jahre älterer Bruder Clyde nach der Schule ihrem Vater bei Farmarbeiten. 1911 verpachtete William Barks seine Farm und zog mit der Familie nach Santa Rosa in Kalifornien, um mit einer Pflaumenplantage sein Glück zu versuchen. Der Erfolg blieb jedoch aus, und als bei Carl Barks’ Mutter Krebs diagnostiziert wurde und sein Vater einen Nervenzusammenbruch erlitt, zog die Familie zurück in die bis dahin verpachtete Farm nach Merrill. Im Jahr 1916 starb seine Mutter im Alter von 56 Jahren. Carl Barks, der zu diesem Zeitpunkt gerade 15 Jahre alt war, brach daraufhin die Schule in der achten Klasse ab. Sein Gehör begann sich bereits in dieser Zeit deutlich zu verschlechtern. Im selben Jahr begann er einen Fernkurs an der "Landon School of Cartooning", er brach ihn jedoch nach nur vier Unterrichtsstunden wieder ab. Barks half vermehrt auf den Feldern mit, da aufgrund des Ersten Weltkrieges ein Arbeitskräftemangel herrschte und er sich mit den deshalb gezahlten, höheren Löhnen rasch seinen Auszug aus der elterlichen Farm finanzieren konnte. Nichtsdestoweniger habe er, nach eigener Aussage, aus dem kurzen Fernkurs und dem Studieren von Comicstrips in der täglichen Zeitung viel für seine spätere Karriere mitnehmen können. Im Dezember 1918 ging Carl Barks mit seinen Ersparnissen nach San Francisco, wo er als Laufbursche für eine Druckerei arbeitete. Mit Zeichnungen, die er in seiner Freizeit anfertigte, bewarb er sich bei lokalen Zeitungen, sie lehnten ihn jedoch allesamt ab. Schließlich kehrte er 1920 nach 18 Monaten ohne nennenswerte Erfolge zu seinem Vater auf die Farm nach Oregon zurück.
Frühe Berufserfahrungen und erste Heirat.
Carl Barks ging nun, wie schon vor seiner Abreise nach San Francisco, seinem Vater auf der Farm zur Hand. 1921 heiratete Barks Pearl Turner, die Tochter eines Sägewerksbesitzers, mit der er in den darauffolgenden Jahren die Töchter Peggy (* 23. Januar 1923) und Dorothy (* 26. November 1924) bekam. Carl Barks arbeitete in dieser Zeit auch im Sägewerk seines Schwiegervaters, weil auf der Farm nicht immer genug Arbeit vorhanden war, um die junge Familie zu versorgen. Da dies jedoch nur im Sommer möglich war, suchte er weiterhin eine feste Anstellung mit dauerhaften Einkommen. Diese fand er schließlich als Hilfsarbeiter in einer Reparaturwerkstatt für Eisenbahnen der Gesellschaft Pacific Fruit Express in Roseville. Die Familie zog in die Stadt nahe Sacramento und blieb dort bis 1930. In dieser Zeit zog sich Barks in seiner Freizeit immer mehr an den Zeichentisch zurück, was seiner Frau zunehmend missfiel. Obwohl er mit dem Verkauf erster Zeichnungen etwas Geld dazuverdiente, trennten sie sich 1930. Carl Barks kam kurzfristig bei seinen Schwiegereltern in Oregon unter und verkaufte nun regelmäßiger Zeichnungen an das Männermagazin "Calgary Eye-Opener", sodass er bald ein kleines Haus in Medford mieten konnte. Lange blieb er dort nicht, denn im November 1931 nahm er eine Festanstellung beim "Calgary Eye-Opener" an und zog nach Minneapolis, um in der Redaktion zu arbeiten. Bis 1935 steuerte er nicht nur Zeichnungen und Karikaturen für das Magazin bei, sondern auch kurze Geschichten und Gedichte.
Arbeit bei Disney.
1935 bewarb sich Carl Barks bei den Disney-Studios in Los Angeles, die für ihren ersten spielfilmlangen Zeichentrickfilm Schneewittchen und die sieben Zwerge noch Zeichner suchten. Seine Bewerbung hatte Erfolg, und so reiste er mit Clara Balken, die er in Minneapolis kennengelernt hatte, nach Los Angeles, wo er nach einer einmonatigen Ausbildung als Zwischenphasenzeichner übernommen wurde. In den Disney Studios kam Barks das erste Mal mit Donald Duck in Kontakt, für den er eine Slapstick-Szene mit einem automatischen Friseurstuhl entwarf, um von den mühseligen Zwischenphasenzeichnungen loszukommen und sich trotz seiner Schwerhörigkeit im Studio zu bewähren. Walt Disney gefiel diese Szene, und er versetzte ihn daraufhin in die Abteilung für Geschichtenentwicklung. 1938 heiratete Carl Barks zum zweiten Mal und erwarb drei Jahre später mit seiner Frau Clara eine kleine Farm in San Jacinto. Am 9. November 1942 kündigte er seine Anstellung bei Disney, um sich mit einer Hühnerzucht und der Aussicht, ein hauptberuflicher Comiczeichner zu werden, selbstständig zu machen.
Die Anfänge als Comiczeichner.
Carl Barks bewarb sich nach seiner Kündigung bei Disney Ende 1942 als Zeichner bei Western Publishing, jenem Verlag, der einige Monate zuvor bereits zwei Comics veröffentlicht hatte, an denen Barks mitgewirkt hatte. Die Antwort fiel positiv aus, und Barks erhielt das Skript zu "The Victory Garden" (deutsch "Gesundheitsgemüse"), aus dem er einen zehnseitigen Comic mit Donald zeichnen sollte. Weitere Geschichten für Zehnseiter und auch längere Donald-Duck-Abenteuer schrieb Barks in den nächsten Jahren selber. Als der Verlag 1947 mit dem Wunsch nach einer Weihnachtsgeschichte an Barks herantrat, entwarf er einen reichen Onkel für Donald: Scrooge McDuck (deutsch "Dagobert Duck") trat das erste Mal im Dezember 1947 in der Geschichte "Christmas On Bear Mountain" (deutsch "Die Mutprobe") auf. Ihm folgten weitere, von Barks erfundene Figuren wie Gustav Gans, Daniel Düsentrieb und später die Panzerknacker sowie Gundel Gaukeley. Dagobert Duck bekam 1953 beim gleichen Verlag seine eigene Comicreihe mit dem Titel "Uncle Scrooge", für die hauptsächlich Carl Barks die Abenteuer lieferte.
Zweite Scheidung und dritte Ehe.
Seine zweite Frau Clara verfiel zunehmend dem Alkohol und wurde dann aggressiv. Als ihr 1950 bei einer Krebsoperation ein Bein bis zum Knie abgenommen werden musste, versuchte Carl Barks sich als Pfleger. Doch auch dieser Einsatz konnte die Ehe nicht mehr retten, zumal sie weiterhin zur Flasche griff. Im Dezember 1951 wurden sie geschieden, und Barks musste mit 51 Jahren von vorne anfangen, denn ihm blieb nichts außer „zwei Decken, seiner Kleidung, dem Zeichenbrett und den "National-Geographic"-Ausgaben“. Doch Barks fühlte sich wie von einer Last befreit, fuhr durch das Land, sammelte Inspirationen und besuchte Ausstellungen. Auf einer solchen traf er 1952 auch Margaret Williams wieder, die sich bereits zehn Jahre zuvor bei ihm als Assistentin beworben hatte. Garé, wie Margaret von allen genannt wurde, hatte ebenfalls schon eine Scheidung hinter sich und war Landschaftsmalerin. Die beiden bezogen ein Haus im südkalifornischen Hemet und heirateten am 26. Juli 1954. Garé Barks unterstützte ihren Mann fortan bei seiner Arbeit, zeichnete Hintergründe, letterte und tuschte einige seiner Zeichnungen.
„Der gute Künstler“.
1959 begann Barks vermehrt auch Auftragsarbeiten von Western Publishing zu zeichnen, wie etwa die Geschichten in den Reihen "Daisy Duck’s Diary" oder "Grandma Duck’s Farm Friends", um sich selber keine neuen Handlungen mehr ausdenken zu müssen. Vom Jahr 1960 an erreichten ihn die ersten Fanbriefe, die sein Verlag, der auch Barks’ Adresse geheim hielt, bis dahin nicht weitergeleitet hatte. Da seine Geschichten stets nur mit "Walt Disney" signiert waren und nicht mit "Carl Barks", wusste lange Zeit niemand, wer der Autor war, den die Fans mit dem Ehrennamen "The good artist" (dt. "Der gute Künstler") bedachten. Berichte in der Lokalpresse in Barks’ Wohnorten über den einheimischen Comickünstler Ende der 1940er und Anfang der 1950er Jahre sowie ein längerer Artikel „The Comic World“ des Schriftstellers Charles Beaumont (1929–1967), der Barks bewunderte, in dem kurzlebigen amerikanischen Westküstenmagazin "Fortnight" 1955 fanden keinen größeren Widerhall. Einige Ideen, die ihm seine Fans seit Anfang der 1960er Jahre in Briefen schilderten, setzte er in den nächsten Jahren in seinen Comicgeschichten um. Am 30. Juni 1966 ging Carl Barks als Comiczeichner für Western Publishing offiziell in den Ruhestand, was ihn jedoch nicht davon abhielt, weitere Skripte an den Verlag zu schicken, die dann von anderen Zeichnern fertiggestellt wurden.
Die Ducks in Öl.
Carl Barks versuchte sich wie seine Frau Garé immer wieder an Landschaftsbildern mit Ölfarben. Kommerziell hatten seine Gemälde wenig Erfolg, doch Fans, die diese Bilder sahen, baten ihn, doch auch die Ducks in Öl zu verewigen. 1971 fragte Barks offiziell bei Disney an und war der erste Künstler, der eine Genehmigung dafür erhielt. Er malte seitdem für seine wachsende Fangemeinde auf Anfrage Titelbildmotive oder Szenen aus seinen Comics als Ölbilder nach und verkaufte diese. Einige besonders gefragte Motive wurden in Varianten mehrfach von ihm gemalt. Als 1976 auf der Comicmesse in San Diego ein Händler illegale Nachdrucke eines seiner Gemälde verkaufte, entzog Disney Carl Barks die Lizenz, die Ducks in Öl malen zu dürfen. Barks beschränkte sich danach auf Ölgemälde ohne Disneyfiguren, die jedoch längst nicht soviel Anklang bei den Fans fanden.
Siehe: Liste der Gemälde von Carl Barks
Die letzten Jahre.
In den folgenden Jahren war Carl Barks vor allem damit beschäftigt, seine Fanpost zu beantworten und jenen Verlegern mit Rat und Tat zur Seite zu stehen, die Sammelbände mit Nachdrucken seiner Comics oder Ölbilder herausgeben wollten. 1983 zog das Ehepaar Barks nach Grants Pass in Oregon, um etwas Abstand von den immer zudringlicheren Fans in Kalifornien zu bekommen. Garé Barks verstarb dort mit 75 Jahren am 10. März 1993. Im Sommer des darauffolgenden Jahres begab sich Barks zum 60. Geburtstag Donald Ducks auf Europareise und besuchte neben dem Egmont-Ehapa-Verlagshaus in Stuttgart auch Erika Fuchs in München, die alle seine Comics ins Deutsche übertragen hatte. Im Juli 1999 wurde bei ihm chronische lymphatische Leukämie diagnostiziert und Barks wurde – teilweise wegen der Chemotherapie – zunehmend schwächer. Fast ein Jahr später, im Juni 2000, entschloss er sich, seine medizinische Behandlung zu beenden. In der Nacht auf den 25. August 2000 starb Carl Barks im Alter von 99 Jahren in seinem Haus in Grants Pass im Schlaf.
Privates.
Carl Barks war dreimal verheiratet. Seine erste Frau Pearl, von der er sich 1930 scheiden ließ, verstarb 1987. Mit ihren gemeinsamen Töchtern Peggy und Dorothy hatte Barks nur wenig Kontakt. Peggy, die einen Sohn und zwei Töchter hatte, starb 1963 an Lungenkrebs. Dorothy hatte einen Sohn, sie lebte im US-Bundesstaat Washington und starb 2014. Seine zweite Frau Clara verstarb 1964, 13 Jahre nach ihrer Scheidung von Barks, der ihr bis zu ihrem Tode Alimente zahlte. Sein Bruder Clyde lebte in Tulelake (Kalifornien), wo er ein Hotel betrieb. Er verstarb 1983 und hinterließ die Kinder William und Maxine sowie seine Frau Zena May Dillard, die 1986 starb.
Meilensteine.
Das Lebenswerk von Carl Barks ist groß, als Produkt einer jahrzehntelangen Schaffenszeit schuf der Comic-Künstler im Auftrag verschiedener Verlage zwischen 1942 und 1966 Geschichten um die Duck-Familie, die im Gedächtnis der Nachwelt unvergessen blieben. Der Inducks-Katalog listet über 850 Disney-Comics für Western Publishing, an denen Barks beteiligt war, Cover und Illustrationen nicht mitgezählt. Der Bogen spannt sich dabei von seinem Erstling "Piratengold" ("Pirate Gold", 1942) bis zu seinen nach Abschluss seiner Karriere als Comic-Künstler vorerst letzten Zeichnungen in der Kurzgeschichte "Genau der richtige Job" ("The Dainty Daredevil", 1968). Als künstlerischer Höhepunkt gelten weithin die Jahre um 1950, also nach der Einführung der Figur des "Onkel Dagobert". Dieser war zunächst als eher unsympathische Figur im Stil seines literarischen Vorbilds Ebenezer Scrooge von Charles Dickens angelegt, doch gestaltete Barks seinen Charakter später milder und gelegentlich mit weichem Herz unter rauer Schale. Barks selber nannte in Interviews häufig als seine Lieblingsgeschichten "Im Land der viereckigen Eier" ("Lost in the Andes!" 1948) und "Im alten Kalifornien" ("In Old California!" 1951). Von vielen Fans wird als ihre Lieblingsgeschichte oft "Weihnachten für Kummersdorf" ("A Christmas for Shacktown", 1952) genannt.
Unter den zahlreichen Nutzern der Inducks-Datenbank können Noten für sämtliche dort eingetragene Geschichten abgegeben werden. Hierbei belegt derzeit Barks Klassiker "Wiedersehen mit Klondike" den ersten Platz von über 25.000 gelisteten Storys. Auch die Plätze 2 bis 21 hält im Moment Barks, wobei sich die Geschichten immer wieder gegenseitig von den Spitzenpositionen verdrängen. Insgesamt stammen 50 von den Top-100-Geschichten von Barks.
Barks zeichnete auch einige nicht in Entenhausen angesiedelte Comics, unter anderem für die Reihen "Barney Bear und Benny Burro" (in Deutschland 1991/92 zum Teil erschienen in der nach zwei Bänden eingestellten Reihe "Barks Classics") oder "Droppy".
Barks-Comics im deutschsprachigen Raum.
Bereits in den ersten deutschsprachigen "Micky-Maus"-Heften (seit September 1951) sowie in den "Micky-Maus-Sonderheften" (Nr. 3, 8, 10, 16, 18, 21, 23, 24 und 31) ab 1952 fanden sich Barks-Geschichten, deren Nachdrucke zuerst ab Mai 1965 vor allem in den Heften der Reihe Die tollsten Geschichten von Donald Duck – Sonderheft erschienen (diese sind auch als Nachdruck in 2. Auflage erschienen). Die Zeitschrift "Goofy" brachte ab 1979 regelmäßig Barks’ "Ten Pagers" (zehnseitige Geschichten) in der Rubrik "Nostalgoofy".
Umfassend wurde sein Werk neu aufgelegt in "Die besten Geschichten mit Donald Duck" (58 Alben von 1984 bis 1999), auch bekannt unter dem Titel "Donald Duck Klassik Album", und – im deutschsprachigen Raum erstmals systematisch – in der zwischen 1992 und 2004 erschienenen Barks Library, die 133 Alben in mehreren Teilserien umfasst und inzwischen überwiegend vergriffen ist. Die 51 Alben der Hauptserie erschienen auch in 17 gebundenen 3er-Bänden als "Barks Comics & Stories", seit Mai 2009 werden die 38 Alben der "Barks-Library"-Reihe "Barks – Onkel Dagobert" in 13 gebundenen 3er-Bänden neu aufgelegt; als gebundene Bände erschienen seitdem in gleicher Aufmachung die weiteren Werke von Carl Barks unter den Reihentiteln "Barks – Donald Duck", "Barks – Fähnlein Fieselschweif" und "Barks – Daisy & Oma Duck".
Als hochwertige 30-bändige Sammlerausgabe erschien seit Sommer 2005 im deutschsprachigen Raum und in einigen anderen nordeuropäischen Ländern die auf 10 Schuber mit jeweils drei gebundenen Halbleinenbänden großformatig angelegte "Carl Barks Collection", die sämtliche von Barks geschriebenen und gezeichneten Disney-Comics neben vielen kommentierenden Aufsätzen sowie weiteren Dokumenten über Barks enthält und im Dezember 2008 abgeschlossen wurde. Sie gilt zurzeit als "die ultimative Edition" von Carls Barks’ Œuvre im deutschsprachigen Raum.
Der Kulturkritiker.
Barks beobachtete die Entwicklung der Massenmedien in den USA mit großem Unbehagen. Wiederholt wies er in Interviews, die er seinen Anhängern und Journalisten gab, auf die Gefahren des Fernsehkonsums – besonders in Formen, wie er in den USA auftritt – hin. Diese Haltung macht sich auch in einigen seiner Comicgeschichten bemerkbar, so zum Beispiel in dem Zehnseiter "Die Zugkatastrophe".
Hintergründe seiner Werke.
Barks stritt zwar jegliche politische oder gesellschaftliche Intention seiner Werke ab, trotzdem fällt es bei manchen Geschichten, z. B. "Die Stadt der goldenen Dächer", schwer, die Kritik am (US-)Imperialismus zu übersehen.
Des Weiteren gibt er auch in manchen Werken die Berufe der Psychologen, Anwälte, Geheimdienstler usw. der Lächerlichkeit preis oder integriert Hitlers "Mein Kampf" in die Abbildung einer Müllkippe.
Auch den Vietnamkrieg behandelte Barks kritisch in seiner Geschichte "Der Schatz des Marco Polo". Die Geschichte ist einerseits durchgehend antikommunistisch, andererseits kommt aber auch Entenhausen (das die USA repräsentiert) nicht gut weg.
Diese Art von Kritik sorgte dafür, dass einige Werke von Barks stark zensiert oder lange Zeit gar nicht erst veröffentlicht wurden, weil sie für die "Walt Disney Studios" als politisch unerwünscht galten. Ein anderes Beispiel ist die Geschichte "Im Land der Zwergindianer", in der Barks auf Umweltprobleme und die Probleme indigener Völker aufmerksam macht.
Filmografie.
Folgende Filme wurden unter Beteiligung von Carl Barks fertiggestellt: |
892 | 234523362 | https://de.wikipedia.org/wiki?curid=892 | Charles de Gaulle | Charles André Joseph Marie de Gaulle (; * 22. November 1890 in Lille, Département Nord; † 9. November 1970 in Colombey-les-Deux-Églises, Département Haute-Marne) war ein französischer General und Staatsmann. Im Zweiten Weltkrieg führte er den Widerstand des "Freien Frankreichs" gegen die deutsche Besatzung an. Danach war er von 1944 bis 1946 Präsident der Provisorischen Regierung. Im Zuge des Algerienkriegs wurde er 1958 mit der Bildung einer Regierung als Ministerpräsident beauftragt und setzte eine Verfassungsreform durch, mit der die Fünfte Republik begründet wurde, deren Präsident er von Januar 1959 bis April 1969 war. Die auf ihn zurückgehende politische Ideologie des Gaullismus beeinflusst die französische Politik bis heute.
Herkunft und Bildung.
De Gaulle wuchs in einer katholisch-konservativ geprägten und gleichzeitig sozial fortschrittlichen Intellektuellenfamilie in Lille auf: Sein Großvater war Historiker, seine Großmutter Schriftstellerin. Sein Vater, Henri Charles Alexandre de Gaulle (1848–1932), der an verschiedenen katholischen Privatschulen lehrte, bevor er seine eigene gründete, ließ ihn die Werke von Barrès, Bergson, Péguy und Maurras entdecken. Schließlich hatte er auch eine Vorliebe für den nordfranzösischen Dichter Albert Samain. Väterlicherseits hatte de Gaulle Vorfahren, die zum alten Landadel der Normandie und Burgunds gehörten. Seine Mutter, Jeanne Caroline Marie Maillot (1860–1940), stammte aus einer Familie reicher Unternehmer aus Lille mit französischen, irischen (MacCartan), schottischen (Fleming) und deutschen (Kolb) Vorfahren.
Während der Dreyfus-Affäre distanzierte sich die Familie von reaktionär-nationalistischen Kreisen und unterstützte den aus antisemitischen Gründen verurteilten Alfred Dreyfus. 1908 trat de Gaulle in die Militärschule Saint-Cyr ein, die er 1912 mit Diplom und Beförderung zum "Sous-lieutenant" (dt.: Leutnant) verließ. Dort lernte er auch Deutsch. Anschließend wurde er in die französische Armee übernommen. Er wurde dem 33e régiment d’infanterie (dt.: 33. Infanterieregiment) in Arras zugeteilt, dessen Kommandeur seit 1910 Colonel (dt.: Oberst) Philippe Pétain war.
Erster Weltkrieg.
Zu Beginn des Ersten Weltkriegs stieg er vom Lieutenant zum Capitaine auf. Bereits im ersten Gefecht bei Dinant erlitt de Gaulle am 15. August 1914 eine Verwundung. Er kehrte dann als Chef der 7. Kompanie zum 33e régiment d’infanterie an die Champagne-Front zurück. Am 10. März 1915 wurde er erneut im Gefecht verwundet. Er war entschlossen, weiterzukämpfen, und widersetzte sich seinen Vorgesetzten, indem er auf die feindlichen Gräben feuern ließ. Wegen dieses Akts des Ungehorsams enthob man ihn für acht Tage seiner Funktionen. Dennoch hatte sich de Gaulle als fähiger Offizier hervorgetan und der Kommandant des 33e régiment d’infanterie bot ihm an, sein Adjutant zu werden.
Am 2. März 1916 wurde sein Regiment in der Schlacht um Verdun bei der Verteidigung des Dorfes Douaumont in der Flanke des Forts von Douaumont von den Deutschen attackiert. De Gaulles Kompanie war schließlich fast vollständig vernichtet, die Überlebenden in einer Ruine eingeschlossen. Laut offiziellem Bericht versuchte de Gaulle daraufhin einen Ausbruch, wurde durch einen Bajonettstich schwer verwundet und ohne Bewusstsein aufgefunden. Nach anderer Darstellung mehrerer Beteiligter ergab sich de Gaulle einer deutschen Einheit, ohne einen Ausbruchsversuch unternommen zu haben.
In deutscher Gefangenschaft erholte er sich von seiner Verwundung. Während der Internierung in Deutschland – zunächst in Osnabrück und Neisse – brachte man ihn nach zwei erfolglosen Fluchtversuchen von der Festung Rosenberg in Kronach in ein speziell für aufsässige Offiziere vorgesehenes Lager in der Festung Ingolstadt. In der Gefangenschaft lernte er Michail Tuchatschewski kennen. Er versuchte auch von dort zu fliehen. Einmal kam er bis in die Nähe von Ulm, ehe man ihn erneut fasste. 1918 kam de Gaulle schließlich auf die Wülzburg bei Weißenburg in Bayern. Ein „jämmerliches Exil“ („lamentable exile“), mit diesem Ausdruck beschrieb er seiner Mutter sein Schicksal eines Gefangenen.
Um die Langeweile zu ertragen, organisierte de Gaulle für seine Mitgefangenen umfangreiche Exposés über den Stand des laufenden Krieges. De Gaulles fünf Fluchtversuche scheiterten nicht zuletzt an seiner Körpergröße von 1,95 m, mit der er schnell auffiel. Darüber hinaus unterstützte er mehrere teilweise erfolgreiche Fluchtversuche anderer inhaftierter Kameraden. Nach dem Waffenstillstand im November 1918 wurde er von der Wülzburg entlassen. Von den zweieinhalb Jahren der Gefangenschaft behielt er eine bittere Erinnerung und schätzte sich selbst als „Heimkehrer“ und Soldat ein, der seinem Land nichts genützt hatte.
Zwischenkriegszeit.
Während des Polnisch-Sowjetischen Krieges 1919/1920 meldete sich de Gaulle freiwillig für den Dienst in der französischen Militärmission in Polen und fungierte ab dem 17. April 1919 als Infanterieausbilder der neugeschaffenen polnischen Armee. Er wollte durch den Einsatz an diesem entlegenen Kriegsschauplatz seiner militärischen Karriere einen Schub geben, da er sich infolge der Kriegsgefangenschaft während des Ersten Weltkrieges kaum hatte Verdienste erwerben können. Da ihm in Frankreich lediglich ein untergeordneter Posten als Referent beim Premierminister angeboten wurde, bei dem er Soldaten und Offiziere für Auszeichnungen vorschlagen sollte, verlängerte de Gaulle seinen Dienst in Polen und nahm im Mai 1920 an dem Angriff der polnischen Armee auf Kiew teil (polnisch-sowjetischer Krieg). Er wurde zum Stabschef General Henri Albert Niessels in Warschau befördert und erhielt die höchste polnische Militärauszeichnung Virtuti Militari. Einige Historiker nahmen fälschlich an, dass die Erfahrungen in Polen de Gaulles Ansichten in Bezug auf den Einsatz von Panzern und Flugzeugen und den Verzicht auf die traditionelle Kriegsführung mittels Schützengräben beeinflussten. Sein Biograph Eric Roussel (* 1951) weist demgegenüber darauf hin, dass das Konzept, Panzer für schnelle Vorstöße unabhängig von der Infanterie zu verwenden, erst 1927 durch den französischen General Aimé Doumenc entwickelt wurde.
Nach seiner Rückkehr aus Polen heiratete de Gaulle im April 1921 Yvonne Vendroux und nahm einen Posten als Lehrer an der renommierten Militärschule Saint-Cyr in Paris an, der Kaderschmiede der französischen Armee. De Gaulle war damit materiell gut abgesichert, geriet aber bald in Konflikt mit seinen Vorgesetzten aufgrund seines selbstbewussten Verhaltens und unkonventioneller Ansichten, die er in seinem Unterricht vertrat. Infolgedessen wurde er nicht befördert und wechselte 1925 in den persönlichen Stab des Marschalls Philippe Pétain. Gegenüber einem Freund soll er geäußert haben, dass er die Militärschule St.-Cyr nicht wieder betreten würde, außer als Direktor.
De Gaulles wichtigste Aufgabe bestand fortan darin, zwei Bücher vorzubereiten, die unter dem Namen des berühmten Marschalls erscheinen sollten, jedoch kam es mit Pétain zu Auseinandersetzungen über den Inhalt der Bücher und zu einer deutlichen Abkühlung in dem zuvor freundschaftlichen Verhältnis. Dennoch förderte Pétain de Gaulles Karriere: Im September 1927 übernahm de Gaulle als Bataillonschef ein aktives Kommando bei den französischen Besatzungstruppen in Trier. Ebenfalls setzte Pétain durch, dass de Gaulle im April 1927 eine Reihe von Vorträgen an der Militärschule St.-Cyr halten durfte, gegen den Willen des Schulleiters, General Pierre Héring. 1932 veröffentlicht de Gaulle den Inhalt dieser Vorträge in seinem Buch "Le fil de l'épée". Darin vertrat er die Ansicht, die französische Armee müsse das Amt eines Oberkommandierenden schaffen, der im Fall eines Krieges in alleiniger Verantwortung und mittels diktatorischer Vollmachten das Schicksal des Landes bestimmen solle. Diese Auffassung konnte sich wegen der Rivalität der Generäle im Generalstab und der traditionellen Feindschaft zwischen den Waffengattungen der französischen Streitkräfte nicht durchsetzen.
Von 1929 bis 1931 übernahm de Gaulle ein Kommando im französischen Mandatsgebiet Libanon. Dieser Posten, weit entfernt vom Hauptquartier in Paris, diente kaum seiner Karriere und widersprach zudem seinen persönlichen Ansichten, wonach die Kolonialarmeen bei der Verteidigung Frankreichs nur eine untergeordnete Rolle spielten. Wegen des Zerwürfnisses mit Pétain wurde ihm jedoch kein besseres Kommando angeboten. Von 1932 bis 1937 bekleidete de Gaulle eine untergeordnete Rolle im Nationalen Verteidigungsrat ("Conseil supérieur de la défense nationale"), dessen Aufgabe unter der Leitung von Marschall Pétain darin bestand, die französischen Streitkräfte auf einen möglichen Krieg vorzubereiten und über Kriegsstrategien, Bewaffnung und Aufstellung zu entscheiden. De Gaulles Rolle beschränkte sich darauf, Denkschriften für die Sitzungen des Verteidigungsrates vorzubereiten. Da er für eine offensive Kriegführung eintrat, die den Ansichten der meisten Generäle entgegenlief, blieben seine Entwürfe weitgehend unbeachtet.
Im Jahr 1934 veröffentlichte de Gaulle sein bis dahin bedeutendstes Buch, eine Sammlung von Aufsätzen unter dem Titel "Vers l’Armée de Métier" („In Richtung auf eine Berufsarmee“), und forderte darin eine Reorganisation der französischen Armee, die von einer schlecht ausgebildeten Freiwilligenarmee in eine Berufsarmee umgewandelt werden sollte. Allein diese sei in der Lage, im Falle eines Krieges das Land ausreichend zu schützen und moderne Waffen wie Flugzeuge und Panzer wirkungsvoll einzusetzen. Diese Schrift forderte auch zum ersten Mal die Schaffung von Panzerverbänden, die in der Lage wären, mit schnellen, motorisierten Verbänden ins Territorium des Feindes einzudringen, statt hinter der Maginot-Linie defensiv auf dessen Angriff zu warten. Nur so könne Frankreich seine momentane qualitative Überlegenheit nutzen und seine quantitative Unterlegenheit gegenüber Deutschland kompensieren. Diese Forderungen verband de Gaulle erneut mit der Idee, im Falle eines Krieges sämtliche Streitkräfte dem Kommando eines einzelnen Oberbefehlshabers zu unterstellen. Für diesen Posten sah er einen Mann vor, der „stark genug sei, seine Rolle auszufüllen, geschickt darin, die Zustimmung der Menschen zu gewinnen, groß genug für eine große Aufgabe“ – eine Art Diktator, der die Macht im Land übernehmen würde. Nach Ansicht des Historikers Eric Roussel bedeutete diese extreme Forderung einen schweren Fehler, denn dadurch wurde es schwierig, für die als dringlich empfundenen Militärreformen eine Mehrheit im Parlament zu gewinnen: Der sozialistische Ministerpräsident, Léon Blum, etwa befürchtete 1936, durch die Bildung einer Berufsarmee werde die Basis für einen künftigen Staatsstreich geschaffen. Da de Gaulle kaum Unterstützung von Seiten des Generalstabs erwarten konnte, erschien sein Projekt nicht durchführbar.
Unterdessen nahmen ausländische Militärs, insbesondere Heinz Guderian im deutschen Generalstab, de Gaulles Ideen interessiert zur Kenntnis und sahen sich in ihren eigenen Bestrebungen bestärkt, eine moderne Panzerwaffe zu schaffen; de Gaulles Gegner im französischen Generalstab dagegen, besonders die Generäle Maxime Weygand, Maurice Gamelin und Louis Maurin, lehnten den Plan entschieden ab, woraufhin auch Marschall Pétain im März 1935 verlauten ließ, dass er die Reformpläne seines ehemaligen Schützlings nicht unterstützen würde. De Gaulle entfaltete daraufhin in den folgenden Jahren eine politische Kampagne in der Presse und im Parlament, die ihm den Spitznamen "Colonel Motors" einbrachte, und gewann in allen politischen Lagern Befürworter, sodass am 15. März 1935 zumindest Teile der Reform im französischen Abgeordnetenhaus beschlossen und sechs motorisierte Verbände aufgestellt wurden, deren Angehörige Berufssoldaten sein sollten. Am 25. Dezember 1936 übertrug man de Gaulle das Kommando über einen dieser neuen Panzerverbände, das 507. Panzerregiment in Metz. Im Generalstab wurde die Reform jedoch verwässert, und es wurde bestimmt, dass diese Verbände ausschließlich der Defensive dienen und gemeinsam mit den (langsamen) Infanterieverbänden operieren sollten. Viele Militärhistoriker sehen darin eine wichtige Ursache für die Niederlage der französischen Armee im Mai 1940 gegenüber den schnellen deutschen Panzerarmeen. Obwohl de Gaulle mit seinem Reformkonzept letztlich scheiterte, hatte die politische Kampagne doch den Effekt, ihn bekannt zu machen; sie öffnete ihm den Weg in die Politik und damit auch in seine künftige Rolle eines Führers des französischen Widerstands im Zweiten Weltkrieg (siehe Forces françaises libres, Résistance).
Zweiter Weltkrieg.
Als der Zweite Weltkrieg ausbrach, war de Gaulle Colonel. Bei der Verteidigung gegen die deutsche Offensive erhielt er am 14. Mai 1940 das Kommando über die neue 4e division cuirassée (4. Panzerdivision). Am 17. Mai führte er mit 200 Panzern ohne Luftunterstützung einen Gegenangriff auf Montcornet nordöstlich von Laon. Er griff von der Aisne her nach Norden an und überrollte deutsche Fahrzeugkolonnen. Erst am Ortsrand von Montcornet gelang es Panzerabwehrkanonen und 8,8-cm-Geschützen, sie zu stoppen. Die Division de Gaulles musste sich nach Luftangriffen, einem Gegenangriff der deutschen 10. Panzer-Division und eigenen schweren Verlusten zurückziehen. Zwei Tage später kam sie nochmals bei Crécy-sur-Serre zum Einsatz. Dort wurde das Gefecht vor allem durch den Einsatz der Luftwaffe entschieden. De Gaulle warf man später vor, keine Luftunterstützung angefordert zu haben. Am 28. Mai hatte er mehr Erfolg, als seine Panzerdivision die Wehrmacht bei Caumont zum Rückzug zwang. Er war in der Phase der deutschen Invasion in Frankreich der einzige französische befehlshabende Offizier, dem es gelang, die Deutschen zu einem Rückzug zu zwingen. Am 1. Juni hatte er den temporären Dienstgrad eines "Général de brigade" (Brigadegeneral).
Am 6. Juni ernannte Ministerpräsident Paul Reynaud ihn zum Unterstaatssekretär für nationale Verteidigung und zum Verantwortlichen für die Koordination mit Großbritannien. Als Kabinettsmitglied lehnte er den Waffenstillstand von Compiègne (1940) ab und reiste am 15. Juni nach Großbritannien. Dort vereinbarte er mit Winston Churchill am 16. Juni eine Fortsetzung der britisch-französischen Kooperation gegen Deutschland. Als er am Abend nach Bordeaux zurückkehrte, dem provisorischen Sitz der französischen Regierung, schickte sich Marschall Pétain an, legal die Macht zu übernehmen. De Gaulle missbilligte die Politik Pétains, der den kapitulationsähnlichen Waffenstillstand mit dem Deutschen Reich zu unterzeichnen bereit war, und lehnte Pétains Tun als illegitim ab. Mit 100.000 Goldfranken aus einem Geheimfonds Paul Reynauds flog er am Morgen des 17. Juni 1940 von Bordeaux zurück nach London.
Appell vom 18. Juni.
Während Pétain ankündigte, mit Deutschland einen Waffenstillstand zu vereinbaren, erlaubte der britische Premierminister Churchill de Gaulle, über den Hörfunk der BBC zum französischen Volk zu sprechen. De Gaulle rief darin französische Offiziere und Soldaten, Ingenieure und Facharbeiter der Waffenindustrie im Vereinigten Königreich auf, ihm zu folgen, und beschwor, dass die Niederlage nicht endgültig sei („Was auch immer geschehen mag, die Flamme des französischen Widerstandes darf nicht erlöschen und wird auch nicht erlöschen“). Er betonte die Bedeutung der Unterstützung durch Großbritannien und der Vereinigten Staaten. In Frankreich konnte man den Appell zuerst am 18. Juni 1940 um 19 Uhr hören. Er wurde zudem in den Zeitungen des noch unbesetzten südlichen Landesteils abgedruckt und in den folgenden Tagen von der BBC wiederholt ausgestrahlt. Der Appell gilt als de Gaulles größte Rede; Régis Debray schreibt, auch wenn de Gaulles Appell „das Gesicht der Welt nicht verändert habe, so habe dank ihm immerhin Frankreich das seine gewahrt.“
Das britische Kabinett hatte im Vorfeld der Rede dem französischen Innenminister, Georges Mandel, vorgeschlagen, nach England zu kommen und einen Appell an die Franzosen zu richten. Im Gegensatz zu Blum, seinem Ministerpräsidenten, hatte Mandel zuvor in mahnenden Reden von der Bedrohung durch das Deutsche Reich staatsmännische Weitsicht bewiesen, doch hatte er es abgelehnt, Frankreich zu verlassen, um sich nicht dem Vorwurf der Fahnenflucht auszusetzen (ebenso wie Blum war er Jude), und stattdessen empfohlen, die führende Aufgabe in London de Gaulle zu übertragen.
Freies Frankreich.
Am 25. Juni 1940 gründete de Gaulle in London das Komitee "Freies Frankreich" (France libre) und wurde Chef der „Freien Französischen Streitkräfte“ ("Forces françaises libres", FFL) und des „Nationalen Verteidigungskomitees“. Daraufhin wurde de Gaulle vom Kriegsrat der Vichy-Regierung im August 1940 wegen Hochverrats in Abwesenheit zum Tode verurteilt.
Die meisten Staaten erkannten das Vichy-Regime Marschall Pétains als die legitime Regierung Frankreichs an. Churchill bemühte sich zwar anfangs diplomatisch um das Vichy-Regime, unterstützte dann aber de Gaulle und ließ die in Nordafrika in Mers-el-Kébir unter dem Kommando von Pétains Marineminister, Admiral François Darlan, vor Anker liegende französische Kriegsflotte am 3. Juli 1940 in der Operation Catapult zerstören.
Im Juni 1940 rief er die französischen Kolonien auf, ihn zu unterstützen. Französisch-Äquatorialafrika und Kamerun schlossen sich im August 1940 unter Félix Éboué dem France Libre an. Ab 1942 unterstellten sich auch Diego Suarez auf Madagaskar und Dakar in Französisch-Westafrika dem Freien Frankreich, das vom "Comité National Français" regiert wurde. De Gaulle sorgte insbesondere dafür, dass Frankreich im Lager der Alliierten durch die Freien Französischen Streitkräfte (FFL), die an verschiedenen Fronten den Kampf fortsetzten, stets präsent war. Unter anderem förderte er mittels André Dewavrin (Colonel Passy), Pierre Brossolette und besonders Jean Moulin die Résistance. Mit der Transformation zur "France combattante" (Kämpfendes Frankreich) strich er die politische Einheit des "France libre" mit der "Résistance intérieure" heraus.
Der Libanon (damals Großlibanon) wurde im September 1941 als eines der ersten französischen Protektorate durch alliierte Truppenverbände der Kontrolle des Vichy-Regimes entzogen. Bei der anschließenden Machtübernahme durch das „Freie Frankreich“ kamen de Gaulle seine Kontakte aus seiner Dienstzeit in Beirut 1929–1931 zugute. General Fuad Schihab, der spätere Staatspräsident, bildete einen Freiwilligenverband von 20.000 Mann, der zu Beginn der Kampagne des Freien Frankreichs einen erheblichen Teil des Truppenkontingents bildete.
De Gaulle konnte Churchill zur Unterzeichnung des "Accord de Chequers" (7. August 1940) bewegen, demzufolge Großbritannien die Integrität aller französischen Besitzungen und die „integrale Restauration und Unabhängigkeit und die Größe Frankreichs“ erhalten sollte. Außerdem erbot sich die Kriegsregierung Churchill, die Ausgaben des Freien Frankreichs zu finanzieren; de Gaulle bestand aber darauf, dass die Summen rückzahlbare Vorschüsse und keine Spenden seien, die später einen Schatten auf ihn und die Unabhängigkeit seiner Organisation geworfen hätten. Die Vorschüsse wurden noch vor Ende des Krieges zurückgezahlt.
Trotz der Verträge zwischen Churchill und de Gaulle waren die Beziehungen der beiden Männer angespannt. Mit Blick auf die Nachkriegsordnung bezeichnete Churchill de Gaulle in Telegrammen als „größten einzelnen Feind für den Frieden in Europa“ und „schlimmsten Feind Frankreichs“. Churchill kritisierte, dass de Gaulle „sich als Retter Frankreichs aufspielen will, ohne einen einzigen Soldaten zur Operation beizusteuern“ und dass sein Verhalten und seine Persönlichkeit das größte Hindernis für gute Beziehungen zwischen Frankreich und den Angloamerikanern seien. Über die Invasion in der Normandie informierte Churchill de Gaulle erst fünf Tage vor der Landung.
Auch die Beziehungen de Gaulles zum US-amerikanischen Präsidenten, Franklin D. Roosevelt, waren belastet – Roosevelt misstraute de Gaulle. De Gaulle seinerseits beklagte amerikanische Arroganz und sagte: „Ich bin zu arm, um mich zu beugen.“ Roosevelt unterstellte de Gaulle diktatorische Absichten. Roosevelts langjähriger Intimus, Admiral William Daniel Leahy, war vom 8. Januar 1941 bis zum 1. Mai 1942 US-Botschafter in Vichy-Frankreich.
Frankreich als Siegmacht.
Trotz de Gaulles Ausschlusses von der anglo-amerikanischen Landung in Nordafrika (Operation Torch) und vor allem trotz Roosevelts Unterstützung für Admiral François Darlan und General Henri Giraud, die nach der Landung in Nordafrika das Vichy-Regime mit US-amerikanischer Duldung in Algier fortzusetzen suchten, gelang es de Gaulle im Mai 1943, in Algier Fuß zu fassen. Er schuf von dort das Französische Komitee für die nationale Befreiung (CFLN), um die politischen Strömungen im befreiten Frankreich zu einen, und stand alsbald an dessen Spitze. Das CFLN bezeichnete sich vom Juni 1944 an als provisorische Regierung der Französischen Republik (Gouvernement provisoire de la République Française, GPRF) und zog am 25. August 1944 in das befreite Paris ein, wo tags darauf auf der Avenue des Champs-Élysées ein von de Gaulle angeführter öffentlicher Triumphzug durchgeführt wurde.
Danach gelang es de Gaulle, eine alliierte Militärregierung für die besetzten Gebiete in Frankreich zu verhindern und schnell den Forces françaises libres die Regierungsgewalt zu übertragen. In weiten Teilen der Bevölkerung wurde er als Befreier gefeiert, obwohl er bei der Landung in der Normandie und dem folgenden Vormarsch der Alliierten keine militärische Rolle gespielt hatte.
Als de Gaulle sich nach dem Einzug in Paris nicht zuerst bei den Forces françaises de l’intérieur (FFI) für ihre Unterstützung bedankte, sondern bei der Gendarmerie, die erst tags zuvor die Seiten gewechselt und sich von Deutschland losgesagt hatte, verstörte er damit viele Widerständler. Doch wollte er mit dieser Geste jedwede Auseinandersetzung unter den bewaffneten Franzosen vermeiden, die den Alliierten einen Anlass für die Errichtung eines Besatzungsregimes hätte liefern können. Zugleich betonte er mit seiner Rückkehr in das Kriegsministerium die Kontinuität der Dritten Französischen Republik und die Illegitimität der Vichy-Regierung. So erklärte de Gaulle, als der Vorsitzende des Conseil National de la Résistance, Georges Bidault, ihn nach seinem Einzug in Paris aufforderte, die Republik auszurufen:
Das Vichy-Regime floh, als die Besatzungstruppen der Wehrmacht sich infolge der Operation Dragoon zurückziehen mussten, nach Sigmaringen. Gleichzeitig setzte de Gaulle kompromisslos die Autorität der provisorischen Regierung gegenüber den Organisationen der Résistance durch; er löste deren Einheiten am 28. August 1944 auf und erklärte ihren Kommandanten, sie hätten nun ins zivile Leben zurückzukehren.
De Gaulle wollte die Säuberung des Staates von Kollaborateuren nicht den Siegermächten überlassen, sondern betrachtete dies als originäre Aufgabe der Franzosen selbst. Am 4. April 1944 nahm das CFLN zwei kommunistische Kommissare auf. Am 27. November 1944 amnestierte de Gaulle den bei Kriegsbeginn in die Sowjetunion desertierten Generalsekretär der KPF, Maurice Thorez. Im Februar 1945 erreichte er auf der Konferenz von Jalta die Anerkennung Frankreichs durch die drei großen Alliierten als eine der zukünftigen Besatzungsmächte Deutschlands. Anfang Dezember 1944 unterzeichnete de Gaulle einen auf 20 Jahre abgeschlossenen Hilfs- und Freundschaftsvertrag mit der Sowjetunion. Im Januar 1945 kam es zwischen de Gaulle und den USA zu Unstimmigkeiten bezüglich der Verteidigung Straßburgs während des Unternehmens Nordwind.
De Gaulle stellte seine Vision von der politischen Organisation eines demokratischen französischen Staates am 16. Juni 1946 in Bayeux vor. Die projektierten Reformen beinhalteten insbesondere eine Modernisierung des staatlichen Sozialsicherungssystems und das Frauenwahlrecht.
Vierte Republik.
Unmittelbare Nachkriegszeit und Vierte Republik.
Bereits am 16. Mai 1945 hatte de Gaulle die Aufnahme Frankreichs als ständiges Mitglied im Weltsicherheitsrat der Vereinten Nationen (UNO) durchgesetzt. Nach dem Krieg wurde er am 13. November 1945 zum Präsidenten der provisorischen französischen Regierung ernannt. Bereits am 20. Januar 1946 trat er jedoch nach Differenzen mit den seit den Wahlen im Oktober im Parlament (der Verfassunggebenden Versammlung) dominierenden Sozialdemokraten und Kommunisten zurück, weil er deren Verfassungsentwurf ablehnte, der die Macht beim Ein-Kammer-Parlament konzentriert hätte. Nachdem der erste Verfassungsentwurf im Referendum im Mai 1946 abgelehnt worden war, warb de Gaulle in seiner Rede von Bayeux am 16. Juni 1946 für seinen eigenen Entwurf einer politischen Ordnung mit einer stärkeren Stellung des Präsidenten. Dieser konnte sich aber auch in der zweiten Verfassunggebenden Versammlung nicht durchsetzen, die die Verfassung der Vierten Republik beschloss, die zwar eine zweite Parlamentskammer, aber ebenfalls ein rein parlamentarisches Regierungssystem vorsah.
Im Jahr 1947 gründete de Gaulle das Rassemblement du peuple français (RPF), eine politische Bewegung, die ihm helfen sollte, seine Vorstellungen von einer neuen Verfassung durchzusetzen. Im selben Jahr hielt er zwei als bedeutend geltende Reden: am 7. April 1947 in Straßburg und am 27. Juli 1947 in Rennes. Das RPF hatte bei den Kommunalwahlen im Oktober 1947 einen ersten Erfolg und stellte anschließend in mehreren großen Städten den Bürgermeister, de Gaulles Bruder Pierre wurde Vorsitzender des Gemeinderats von Paris. Die Forderung nach einer vorgezogenen Parlamentswahl, bei der sich das RPF gute Chancen ausrechnete, lehnten die Regierungsparteien (Sozialisten, Christdemokraten und Liberale) aber ab. Bei der Parlamentswahl 1952 schnitten die Gaullisten, auch aufgrund des zuvor zugunsten der Koalitionsparteien geänderten Wahlrechts, schwächer ab als erwartet. Nachdem seine Partei auch bei der Kommunalwahl im folgenden Jahr viele Bürgermeisterämter und Gemeinderatssitze wieder verloren hatte, gab de Gaulle am 6. Mai 1953 seine politischen Aktivitäten vorerst auf und zog sich nach Colombey-les-Deux-Églises zurück. Die folgende Phase im politischen Abseits bezeichnete er selbst später als "traversée du désert" („Gang durch die Wüste“). Er schrieb in dieser Zeit drei Bände seiner Memoiren.
Gründung der Fünften Republik (1958).
Nach dem Scheitern der Vierten Republik in Französisch-Indochina kam es im Zuge des Algerienkrieges 1958 zu einer konstitutionellen Krise: Da sie den Verbleib Algeriens bei Frankreich bedroht sahen, begannen führende Militärs am 13. Mai den Militärputsch in Algier, in dem bald die Rückkehr de Gaulles an die Macht gefordert wurde. Dessen Umfeld stand im Kontakt zu den Putschisten, und am 19. Mai gab er selbst öffentlich bekannt, für ein politisches Amt zur Verfügung zu stehen.
Nachdem die Putschisten in der Opération Résurrection am 24. Mai die Insel Korsika besetzt hatten und damit das französische Mutterland bedrohten, willigten Präsident René Coty und das Parlament in de Gaulles Bedingungen ein: Am 1. Juni 1958 wurde er Ministerpräsident mit weitreichenden Notstandsbefugnissen für die Dauer von sechs Monaten, unter Suspension des Parlaments und mit dem Recht, den Entwurf zu einer neuen Verfassung auszuarbeiten.
Im September nahm das Volk in einem Referendum die neue Verfassung mit dem von de Gaulle favorisierten Präsidialsystem mit 83 % an – die Fünfte Republik entstand. Alle Kolonien (Algerien wurde nicht als Kolonie, sondern als Bestandteil der Republik betrachtet) konnten wählen, ob sie an der Abstimmung teilnehmen oder ihre sofortige Unabhängigkeit wählen wollten – unter Fortfall aller weiteren französischen Unterstützung. Mit Ausnahme Guineas nahmen alle Kolonien an dem Referendum teil. Im November gewann de Gaulle die Parlamentswahlen und erhielt eine komfortable Mehrheit. Am 21. Dezember wurde er in indirekter Wahl mit 78 % der Stimmen zum Präsidenten der Französischen Republik gewählt.
Präsidentschaft.
De Gaulle übernahm das Amt des Staatspräsidenten am 8. Januar 1959. Er ergriff einschneidende Maßnahmen, um das Land zu revitalisieren, besonders die Einführung des neuen Franc, der 100 alten Francs entsprach. Er lehnte die Dominanz der USA und der Sowjetunion auf internationaler Ebene ab und behauptete mit dem Aufbau der Atomstreitmacht (erster Kernwaffentest am 13. Februar 1960) Frankreich als unabhängige Großmacht, die mit einer eigenen Nuklearschlagkraft ausgestattet wurde, die letztlich die Großbritanniens, der anderen westeuropäischen Atommacht, noch übertraf.
Jedoch ging es de Gaulle nicht nur um Politik, sondern auch um das nationale Bewusstsein am Ende einer Zeit der Krisen (Weltkrieg, Kolonialkriege etc.). Um die Franzosen zu begeistern, auch den Unpolitischen die nationale Größe vorzuführen und die Identifikation mit den nationalen Herausforderungen und Zielen zu stärken, ließ er z. B. den Spitzensport reorganisieren, setzte mit dem berühmten Bergsteiger Maurice Herzog ein nationales Symbol für erfolgreiche sportliche Leistung als Sportminister ein, zentralisierte die Talentauswahl und Spitzensportförderung, ließ Spitzensportler wie Staatsamateure finanzieren und sorgte für die Übereinstimmung von gesellschaftlichem Anspruch und Spitzensportorganisation.
Als Gründungsmitglied der Europäischen Wirtschaftsgemeinschaft (EWG) legte de Gaulle zweimal – am 14. Januar 1963 und am 19. Dezember 1967 – sein Veto gegen den Beitritt Großbritanniens ein.
Im April 1962 ersetzte de Gaulle den Premierminister, Michel Debré, durch Georges Pompidou. Im September 1962 schlug de Gaulle vor, die Verfassung dahingehend zu ändern, den Präsidenten der Republik per Direktwahl durch die Bevölkerung zu bestimmen. Die Reform der Verfassung trat gegen den Widerstand des Parlaments in Kraft. Im Oktober stellte das Parlament einen Misstrauensantrag gegen die Regierung Pompidou, aber de Gaulle lehnte den vom Premierminister selbst angebotenen Rücktritt ab und entschied, das Parlament aufzulösen. Aus der Neuwahl im November 1962 ging die gaullistische Parlamentsmehrheit gestärkt hervor. Die direkten Präsidentschaftswahlen fanden am 5. und 19. Dezember 1965 statt; in der Stichwahl de Gaulles gegen François Mitterrand erhielt Ersterer 55,2 % der abgegebenen Stimmen. Seine Gegner warfen ihm seinen Nationalismus und die abgeschwächte Wirtschaftskonjunktur in Frankreich vor.
Außenpolitik.
De Gaulle hatte sich zunächst für die Einheit des Mutterlandes und seiner Überseegebiete ausgesprochen; so sah die maßgeblich von ihm geprägte Verfassung der Fünften Republik eine Unabhängigkeit der Kolonialgebiete nicht vor. Unter dem Eindruck des Algerienkriegs ermöglichte jedoch im September 1959 eine Verfassungsänderung den Kolonien Unabhängigkeit unter fortbestehendem französischen Einfluss im Rahmen der Communauté française. Am 18. März 1962 schloss de Gaulle die Verträge von Évian, die auch Algerien ein Recht auf eine Volksabstimmung über seine Unabhängigkeit zusicherten. Diese fand am 8. April 1962 statt. Die Politik der „nationalen Unabhängigkeit“ („l’indépendance nationale“) und der Lösung von „amerikanischer Bevormundung“ wurden von da an verstärkt.
Auf internationalem Parkett stärkte de Gaulle die Unabhängigkeit Frankreichs weiterhin: Er trat 1960 nachdrücklich für ein „Europa der Vaterländer“ (siehe auch Intergouvernementalismus, Souveränismus) unter der Führung Frankreichs ein, für das er neben den EWG-Staaten auch Länder wie Polen, die Tschechoslowakei, Ungarn, Rumänien, Bulgarien und Griechenland gewinnen wollte. Dafür nahm er 1962 den Rücktritt von Premierminister Michel Debré in Kauf.
In seiner Deutschlandpolitik setzte de Gaulle 1945 die Ruhrfrage, die 1948/1949 zur Einrichtung des Ruhrstatuts führte, auf die Tagesordnung der internationalen Politik. Nachdem seine Regierung zunächst das Ziel verfolgt hatte, das Saarland sowie das Rheinland und Westfalen einschließlich des Ruhrgebiets von Deutschland zu lösen, nahm er zusammen mit den anderen Westalliierten großen Einfluss auf die Bildung einer in den Westen zu integrierenden Bundesrepublik Deutschland. Am 9. September 1962 hielt er in Ludwigsburg auf Deutsch eine vielbeachtete "Rede an die deutsche Jugend." Sie gilt als ein Meilenstein in den deutsch-französischen Beziehungen und als ein entscheidender Schritt auf dem Weg zum deutsch-französischen Freundschaftsvertrag (Élysée-Vertrag, Januar 1963).
De Gaulle verurteilte die Militärhilfe der USA an Südvietnam und forderte die USA im Interesse eines dauerhaften Friedens zum Abzug ihrer Truppen auf. Er verurteilte 1967 den israelischen Schlag gegen die ägyptische Blockade der Meerenge von Tiran (Sechstagekrieg) und die dauerhafte Besetzung des Gazastreifens und des Westjordanlands durch Israel. Unter de Gaulle näherte sich Frankreich, einst engster Verbündeter Israels, der arabischen Welt, insbesondere Ägypten, aber auch Syrien und dem Libanon an, verhängte ein Waffenembargo gegen Israel, ließ die bereits bezahlten Mirage-Kampfflugzeuge nicht an Israel ausliefern und überließ es von da an den Amerikanern, Israel zu bewaffnen. Zur Haltung de Gaulles trugen auch die zunehmenden israelischen Operationen im bis dahin prowestlichen Libanon bei. De Gaulle hatte 1929–1931 (s. o.) im damals als Völkerbundsmandat französisch verwalteten Libanon gelebt und fühlte sich zahlreichen Persönlichkeiten der frankophonen Oberschicht des Landes verbunden, die ihn auch zum Teil im Kampf des Freien Frankreichs im Zweiten Weltkrieg unterstützt hatten. Bis zur Präsidentschaft von Jacques Chirac (1995–2007) war die israelkritische, proarabische Orientierung französischer Außenpolitik eine gaullistische Konstante.
1958 lehnte de Gaulle die Unterstellung der französischen Mittelmeerflotte unter das NATO-Kommando ab. 1964 beendete er das amerikanische Projekt einer multilateralen Atomstreitmacht (MLF). Zwei Jahre später forderte de Gaulle Strukturänderungen der NATO und drohte mit dem Austritt Frankreichs. Nach Auslaufen eines Ultimatums, in dem er den Abzug von NATO-Truppen aus Frankreich bzw. ihre Unterstellung unter französisches Kommando gefordert hatte, zog sich Frankreich 1966 aus der integrierten militärischen Kommandostruktur der NATO zurück, blieb aber NATO-Mitglied. Gleichzeitig wurde das europäische NATO-Hauptquartier SHAPE von Rocquencourt nach Mons in Belgien verlegt.
Am 14. Dezember 1965 erklärte de Gaulle: „Selbstverständlich kann man auf den Stuhl wie ein Zicklein springen und rufen: ‚Europa, Europa, Europa!‘ Aber das führt zu gar nichts und bedeutet gar nichts.“ Dennoch war es Europa, das den Rahmen seiner Ambitionen festlegte, ein Europa, das selbst vom „Atlantik bis zum Ural“ reichte und den Eisernen Vorhang überwand. Tatsächlich war die Hauptstütze der französischen Außenpolitik die Annäherung an den anderen Schwerpunkt des Kontinents, die Bundesrepublik Deutschland, während man den „Angelsachsen“ den Rücken kehrte. Sein vertrauensvolles Verhältnis zum Bundeskanzler, Konrad Adenauer, und seine strategische Ausrichtung verhinderten eine Wiederholung der Politik Georges Clemenceaus, die das schwierige Verhältnis Frankreichs zu Deutschland nach dem Ersten Weltkrieg zusätzlich vergiftet hatte. Gemeinsam betrieben de Gaulle und Adenauer die deutsch-französische Aussöhnung, die mit einem deutsch-französischen Jugendwerk und zahlreichen Begegnungen gefördert wurde. Die Annäherung gipfelte im Élysée-Vertrag vom 22. Januar 1963.
Den Beitritt des Vereinigten Königreichs zur Europäischen Wirtschaftsgemeinschaft versuchte de Gaulle systematisch zu verhindern. Neben der Befürchtung, Großbritanniens „special relationship“ zu den USA könne es zu einem „trojanischen Pferd“ der USA in Europa machen, sollen auch der mögliche Verlust der französischen Hegemonie in der europäischen Gemeinschaft und die Ablösung des Französischen als Arbeitssprache der europäischen Institutionen eine Rolle gespielt haben. Noch beim Begräbnis Adenauers musste de Gaulle vom deutschen Bundespräsidenten zum Händedruck mit dem amerikanischen Präsidenten bewegt werden, nachdem beide sich zuvor demonstrativ aus dem Weg gegangen waren.
De Gaulle war antikommunistisch eingestellt. Allerdings ging er seit seiner Rückkehr an die Macht im Jahr 1958 davon aus, dass keine Bedrohung durch eine russische Invasion bestehe. Er propagierte die Normalisierung der Beziehungen zu den von ihm als „vergänglich“ empfundenen östlichen Regimen. Die Anerkennung der Volksrepublik China (27. Januar 1964) ging in diese Richtung, wie auch seine Reise in die Sowjetunion im Juni 1966.
De Gaulle schuf mit der Communauté française ein Gegenstück zum britischen Commonwealth of Nations, wobei die Communauté Française die Außen-, Verteidigungs- und Währungspolitik bestimmte. Alle ehemaligen Kolonien führten Referenden durch, in denen die Gründung der Communité bestätigt wurde. Lediglich in Guinea entschied die Bevölkerungsmehrheit anders. Mitglieder wurden Dahomey, die Elfenbeinküste, Gabun, Kongo, Madagaskar, Mauretanien, Niger, Obervolta, der Tschad, Senegal, Mali, Togo und Kamerun. Dabei spielte auch die "Communauté Financière d’Afrique" des CFA-Franc eine Rolle, bei der die französische Zentralbank die Parität des CFA zum französischen Franc jahrzehntelang stabil hielt. Durch Kooperationsabkommen sicherte sich de Gaulle starke französische Einflussmöglichkeiten. Ein Teil der Communauté Française schloss sich zur "Westafrikanischen Zollunion" (UDAO) zusammen, die 1966 zur Zoll- und Wirtschaftsunion UDEAO ausgebaut wurde. Weitere Einflussmöglichkeiten schuf de Gaulle seinem Land auch mit der Gründung der staatlichen Vorläufergesellschaft von Elf Aquitaine, ERAP, die unter dem Einfluss ihres langjährigen Chefs, des ehemaligen französischen Verteidigungsministers und Gründers des Auslandsgeheimdiensts DGSS, Pierre Guillaumat, dem französischen Nachrichtendienst eine Tarnung sowie finanzielle Ressourcen für Frankreichs Aktivitäten in Afrika bot.
Hauptsächlich in der Außenpolitik kam das gaullistische Denken vom Wesen der Nation zum Ausdruck: „eine gewisse Idee Frankreichs“. De Gaulle schöpfte seine Stärke aus dem Wissen über die Geschichte Frankreichs. Nach ihm war das Gewicht dieser Geschichte derart, dass sie Frankreich eine besondere Position im Konzert der Nationen schenkte. Für ihn und zahlreiche Franzosen waren England und die USA nur Sprösslinge Frankreichs. Gleichfalls bewertete er die Institution der Vereinten Nationen als lächerlich und nannte sie „das Ding“ („le machin“), was ihn jedoch nicht daran hinderte, den ständigen Sitz Frankreichs im Weltsicherheitsrat einzunehmen und für Frankreichs politische Zwecke zu nutzen.
Attentate auf de Gaulle.
Im Jahr 1962 kommt es zu einem Attentat auf den Staatspräsidenten. Jean Bastien-Thiry, ein von de Gaulle persönlich zum Oberstleutnant beförderter Soldat der französischen Armee, war mit der französischen Algerienpolitik nicht länger einverstanden und beschloss daher, mit Unterstützung der Organisation de l’armée secrète (OAS) den Staatspräsidenten zu entführen oder, falls sich eine Entführung als unmöglich erwies, ihn zu töten. Der Angriff fand am 22. August 1962 auf einer Straßenkreuzung in Clamart bei Paris statt. Der Anschlag scheiterte, da die elf Attentäter das für den Beginn der Aktion verabredete Zeichen in der Dunkelheit nicht sahen und das Feuer auf das Fahrzeug des Präsidenten zu spät eröffneten. Der Citroën DS wurde von mehreren Kugeln getroffen, doch das Präsidentenpaar wurde um wenige Zentimeter verfehlt. „Dies hätte ein schönes, sauberes Ende gemacht“, kommentierte de Gaulle später, als er sich das Einschussloch im Wagen ansah.
Die OAS setzte ihre Aktivitäten nach dem gescheiterten Attentat fort. Bis heute ist de Gaulles Algerienpolitik teilweise umstritten. Bastien-Thiry wurde gefasst, zum Tode verurteilt und am 11. März 1963 hingerichtet. Seine Komplizen kamen mit zum Teil geringeren Strafen davon. De Gaulle hatte eine Begnadigung Bastien-Thirys abgelehnt.
Das Attentat von Petit-Clamart diente Frederick Forsyth als Vorlage für seinen 1971 erschienenen Roman "Der Schakal", der zwei Jahre später verfilmt wurde.
Bereits etwa ein Jahr vor dem Zwischenfall in Clamart, am 8. September 1961, war mit dem Attentat von Pont-sur-Seine ein Mordanschlag auf de Gaulle gescheitert. Die Attentäter hatten sich ebenfalls der OAS zugehörig erklärt.
Atomstreitmacht Frankreich.
Überzeugt von der strategischen Bedeutung der Atomwaffe, engagierte de Gaulle das Land unter Protest der Opposition für die kostspielige Entwicklung der Force de frappe, von Spöttern, die sie für ein zu klein geratenes „Bömbchen“ („bombinette“) hielten, mitunter als „farce de frappe“ bezeichnet. De Gaulle antwortete ihnen: „In zehn Jahren werden wir etwas haben, womit wir 80 Millionen Russen töten können. Ich glaube nicht, dass man ein Volk angreift, welches die Fähigkeit hat, 80 Millionen Russen zu töten, selbst wenn man 800 Millionen Franzosen töten könnte, vorausgesetzt, es gäbe 800 Millionen Franzosen.“ 1960/61 veranlasste er in der algerischen Wüste vier oberirdische Kernwaffentests; Tausende trugen auf Dauer Gesundheitsschäden davon. Von 1966 bis zum Ende seiner Amtszeit im Jahr 1969 veranlasste er auf Atollen im Pazifik zehn weitere Atomtests, acht davon auf dem Mururoa- und drei auf dem Fangataufa-Atoll.
Für französische Unterstützung in der Berlin-Krise und der Kubakrise versprach der US-amerikanische Präsident, John F. Kennedy, Frankreich Hilfe in der Nuklearfrage, doch löste er sein Versprechen bis zu seiner Ermordung nicht ein. Die Nuklearfrage belastete die franko-amerikanischen Beziehungen während der ganzen 1960er Jahre. Erst mit Richard Nixon gab es ab 1969 erstmals einen amerikanischen Präsidenten, der frankreichfreundlich eingestellt war. Mit ihm teilte de Gaulle seine Geringschätzung für Ideologien, multilaterale Verträge und Institutionen. Nixon umschiffte zunächst den in der Nuklearfrage verpflichtenden Weg über die amerikanische Legislative, bevor er der nuklearen Zusammenarbeit mit Frankreich offiziell den Weg öffnete. Jedoch war das Gros der Arbeit französischerseits bereits geleistet: Am 24. August 1968 war es Frankreich ohne US-Hilfe gelungen, eine Wasserstoffbombe zur Detonation zu bringen (Operation Canopus).
Die Briten, deren Nuklearstreitmacht eng mit der der Amerikaner verknüpft war, fassten es als Ohrfeige auf, dass de Gaulle Frankreich zur dritten Atommacht des Westens machte. Deren Atomstreitkräfte verfügten über landgestützte Mittelstreckenraketen auf dem Plateau d’Albion (mittlerweile geschlossen), seegestützte Mittelstreckenraketen auf U-Booten und Atombomben, die von Flugzeugen abgeworfen werden konnten. Nicht zuletzt um auch auf diesem Gebiet von den beiden anderen Atommächten unabhängig zu sein, forcierte de Gaulle den Bau französischer Kampf- und Zivilflugzeuge (Dassault Mirage III bzw. Sud Aviation Caravelle) und unterzeichnete mit der Bundesrepublik Deutschland einen Vertrag zur Entwicklung des Airbus A300. Auch die europäische Trägerraketentechnik, deren ziviler Zweig die European Launcher Development Organisation (Europa-Rakete) war, wurde von de Gaulle in diesem Zusammenhang vorangetrieben.
Während François Mitterrand sich gegen das Atomprogramm sperrte, übertrug de Gaulle die Aufsicht des Projekts seinem Bruder, Jacques Mitterrand. Mitterrand vollzog in seiner Politik später einen Richtungswechsel: Während seiner Amtszeit als Präsident (ab 1981) führte er die Neutronenbombe ein.
Konversion des Dollarschatzes in Goldreserven.
Auf Anregung des französischen Ökonomen Jacques Rueff (1896–1978) war die Währungspolitik unter de Gaulle stark auf Gold ausgerichtet, um Frankreich von anderen nationalen Währungen unabhängig zu machen. Im Februar 1965 kündigte er an, Währungsreserven in US-Dollar im Rahmen des Bretton-Woods-Systems in Gold umzutauschen. Bis zum Sommer 1966 erhöhte Frankreich so den Goldanteil seiner Reserven auf 86 Prozent. Im Unterschied zu anderen Ländern, die im gleichen Zeitraum Dollar in Gold tauschten, darunter auch die Bundesrepublik Deutschland, beließ Frankreich das Gold nicht in den Tresoren der Federal Reserve, sondern bestand darauf, die Goldbarren nach Frankreich zu verschiffen, damit sie nicht „dem Zugriff einer fremden Macht preisgegeben“ seien. Sein Ziel, zum Goldstandard zurückzukehren, erreichte de Gaulle indes nicht.
Die Affaire des „Québec Libre“.
1967 hielt sich de Gaulle in Kanada auf, um an der 100-Jahr-Feier des Landes und der Weltausstellung Expo 67 teilzunehmen. Dabei provozierte er einen diplomatischen Skandal, als er zum Abschluss einer emotionsgeladenen Rede vor 100.000 Menschen in Montréal, der größten Stadt der überwiegend französischsprachigen Provinz Québec, ausrief: „Vive le Québec libre!“ („Es lebe das freie Québec!“). Bei den Zuschauern auf den Straßen der Stadt lösten seine Worte großen Beifall aus. „Ich werde euch ein Geheimnis verraten, das ihr niemandem weitererzählen sollt“, hatte er zuvor vor dem Bürgern Montréals formuliert, „unterwegs hierher habe ich eine Atmosphäre erlebt, die mich an die Befreiung [Frankreichs am Ende des Zweiten Weltkriegs] erinnerte.“ Lester Pearson, Kanadas Premierminister, nannte de Gaulles Äußerungen „inakzeptabel“; de Gaulle antwortete ihm, dass das Wort „inakzeptabel“ selbst inakzeptabel sei, sagte den vorgesehenen Besuch in der kanadischen Hauptstadt, Ottawa, ab und flog nach Frankreich zurück. De Gaulle erklärte, mit seiner Rede den Frankokanadiern zu helfen, „sich selbst zu befreien“, da „nach einem Jahrhundert der Unterdrückung, das für sie nach der englischen Eroberung folgte, ihnen nunmehr auch das zweite Jahrhundert […] in ihrem eigenen Land weder Freiheit noch Gleichheit noch Brüderlichkeit brachte“. Die "New York Times" bewertete dies als „groben Akt gaullistischer Einmischung in die inneren Angelegenheiten Kanadas“ und als „Eskalation des Streites, der während des Besuchs General de Gaulles in Kanada begann“; laut einer Umfrage des französischen Magazins "L’Express" verurteilten 56 Prozent der befragten Pariser das Auftreten ihres Präsidenten.
Die Maiunruhen von 1968.
Die Unruhen im Mai 1968 in Frankreich waren eine weitere Herausforderung für de Gaulle. Am 24. Mai, zwei Wochen nach Beginn der Unruhen, nahm er erstmals in Rundfunk und Fernsehen Stellung zu den Forderungen der Demonstranten und versprach vage, ein Referendum über Reformen auf den Weg zu bringen. Unterdessen forderten die Demonstranten de Gaulle zum Rücktritt auf. Am 29. Mai reiste de Gaulle heimlich ins deutsche Baden-Baden; der Zweck dieser Reise bleibt unklar. Ein als mögliche Erklärung oft genanntes Treffen mit General Jacques Massu hält der Historiker Norbert Frei für unwahrscheinlich, sondern geht davon aus, dass „die Staatskrise in diesem Moment in eine Nervenkrise übergegangen war“ und de Gaulle Abstand brauchte.
Nach seiner Rückkehr nach Colombey-les-Deux-Églises kündigte de Gaulle am 30. Mai 1968 in einer Rundfunkrede Neuwahlen an: „Als Inhaber der Legitimität, die mir die Nation und die Republik verliehen haben, habe ich in den zurückliegenden 24 Stunden alle Eventualitäten erwogen, die es mir ermöglichen würden, diese Legitimität zu erhalten. Ich habe meine Entschlüsse gefasst. Unter den gegenwärtigen Umständen werde ich mich nicht zurückziehen. Ich werde nicht den Premierminister wechseln, der die Anerkennung von uns allen verdient. Ich löse heute die Nationalversammlung auf und beauftrage die Präfekten [...], die Subversion zu jeder Zeit und an jedem Ort zu verhindern. Was die Legislativwahlen angeht, so werden sie in den von der Verfassung vorgesehenen Fristen stattfinden, zumindest bis zu dem Zeitpunkt, an dem man hört, dass das ganze französische Volk mundtot gemacht wurde und man es davon abhält, seinem Willen Ausdruck zu verleihen, es davon abhält zu leben, durch dieselben Maßnahmen, durch die man versucht, die Studenten vom Studieren abzuhalten, die Lehrer vom Lehren, die Arbeiter vom Arbeiten. Die [von den Demonstranten ergriffenen] Mittel sind Einschüchterung, Vergiftung und Tyrannei, seit langem ausgeübt von organisierten Gruppen und einer Partei, die ein durch und durch totalitäres Projekt ist.“ (Hiermit meinte er die Kommunistische Partei Frankreichs.)
In dieser Rede erkannten seine Anhänger den de Gaulle der großen Tage wieder. Am 30. Mai 1968 hielten sie eine Demonstration ab, an der nach Angaben der Organisatoren eine Million, nach Angaben der Polizei 300.000 Menschen teilnahmen. Kurz darauf, im Juni 1968, erwiesen sich die Parlamentswahlen als großer Erfolg für die Gaullisten, die 358 von 487 Sitzen in der Nationalversammlung erhielten. Am 13. Juli 1968 wurde Georges Pompidou im Amt des Premierministers von Maurice Couve de Murville abgelöst.
Referendum zur Regionalreform und Rücktritt de Gaulles.
Im Februar 1969 kündigte de Gaulle an, noch im Frühjahr desselben Jahres ein Referendum über die Reform der Regionalverwaltung und des Senats abzuhalten. Wie 1962 sollte eine Verfassungsänderung ohne Beteiligung des Parlaments durchgesetzt werden. Im April kündigte de Gaulle an, dass er im Falle einer Ablehnung zurücktreten werde. Valéry Giscard d’Estaing mit seiner Partei, den Républicains indépendants, schloss sich mit den Sozialisten zusammen, die de Gaulles Vorhaben ablehnten. Obwohl das eigentliche Ziel einer Regionalreform beim Stimmvolk des traditionell zentralistisch regierten französischen Staates populär war, wurde das Referendum mit 52,46 % der Stimmen abgelehnt, und de Gaulle löste sein Versprechen ein und gab am 28. April 1969 kurz nach Mitternacht seinen Rücktritt vom Amt des Präsidenten der Republik bekannt.
Als Interimspräsident bis zur Neuwahl im Juni 1969 fungierte ordnungsgemäß der Präsident des Senats, Alain Poher. Am 20. Juni 1969 trat der Gaullist Georges Pompidou, der am 15. Juni die Stichwahl für das Präsidentenamt gegen den sozialen Christdemokraten Alain Poher gewonnen hatte, die Nachfolge Charles de Gaulles an.
Tod und Begräbnis.
Nach seinem Rücktritt hielt sich de Gaulle einen Monat in Irland auf, von wo aus er per Brief wählte, und zog sich dann nach Colombey-les-Deux-Églises zurück, wo er an seinem (unvollendeten) Buch "Mémoires d’espoir" arbeitete. Nach einer Reise nach Spanien im Juni 1970 starb Charles de Gaulle am 9. November 1970 in Colombey-les-Deux-Églises an der Ruptur eines Aortenaneurysmas.
Sein Testament hatte er zur Zeit des Begräbnisses von General Jean de Lattre de Tassigny (1952) abgefasst. Dieser war nach seinem Tod vom offiziellen Frankreich in einer Art und Weise vereinnahmt worden, die de Gaulle verabscheute. Deshalb regelte de Gaulle die Modalitäten seines eigenen Begräbnisses in allen Einzelheiten und bestimmte:
Am 12. November 1970 wurde de Gaulle in Colombey an der Seite seiner Tochter, Anne, beigesetzt. Vom Familienanwesen "" in die Kirche des Ortes wurde der Sarg auf einem Panzerwagen des Typs Panhard EBR überführt. Der Zeremonie wohnten etwa 350 Compagnons de la Libération bei.
Ebenfalls am 12. November 1970 fand zu Ehren des Verstorbenen in der Kathedrale Notre-Dame de Paris ein großes Requiem für ausländische Staatschefs statt. Anwesend waren US-Präsident Richard Nixon, der sowjetische Präsident Nikolai Podgorny, der britische Premierminister Edward Heath, Josip Broz Tito (Jugoslawien), Indira Gandhi (Indien), Fidel Castro (Kuba), Olof Palme (Schweden), Kaiser Haile Selassie (Äthiopien), Schah Mohammad Reza Pahlavi (Iran), König Bhumibol (Thailand), Königin Juliana (Niederlande), König Baudouin (Belgien), der britische Thronfolger, Prinz Charles, der Fürst von Monaco und der Großherzog von Luxemburg. Neben dem deutschen Bundespräsidenten, Gustav Heinemann, nahmen auch die früheren Bundeskanzler, Ludwig Erhard und Kurt Georg Kiesinger, teil.
Erinnerung.
Zahlreiche öffentliche Straßen und Gebäude in Frankreich sind nach Charles de Gaulle benannt. Im Besonderen die Place Charles-de-Gaulle (Place de l'Étoile) in Paris und der Flughafen Paris-Roissy – Charles de Gaulle. Sein Name wurde auch dem gegenwärtig letzten französischen Flugzeugträger, der "Charles de Gaulle", gegeben. Sein Wohnhaus in Colombey, die "Boisserie," ist heute ein Museum, ebenso sein Geburtshaus in Lille.
De Gaulle im Urteil von Zeitgenossen und der Nachwelt.
Churchill beschrieb de Gaulle als eine „Figur von echter Größe“. In seinem Nachruf in der Wochenzeitung "Die Zeit" schrieb Theo Sommer, de Gaulle sei ein Mann des 17. oder 18. Jahrhunderts gewesen, der die Zukunft verfehlte, weil er „Vergangenheit restaurieren“ wollte. Innenpolitisch sei er den Problemen des Landes allein mit „altfränkischer Mythologie“ nicht beigekommen, seine Außenpolitik habe sich als eine unstete Folge leerer Gesten entpuppt, sein exzentrischer Auftritt in Québec (Kanada) könne nur belächelt werden. „Alles in allem hat Charles de Gaulle nicht viel Bleibendes bewirkt. Sein Anspruch war größer als seine Kraft, und es lag etwas Manisches in der Art, wie er diesen Anspruch verfocht. (…) Daß er voll verfehlter Ideen war, ist offenkundig. Niemand jedoch bestreitet, daß auch seine Fehler Format besaßen.“ Der linke Revolutionstheoretiker und Philosoph Régis Debray bezeichnete de Gaulle als „super-scharfsichtig“, da viele seiner Vorhersagen (vom Fall des Kommunismus bis zur Wiedervereinigung Deutschlands) sich nach seinem Tod bewahrheiteten.
Der deutsche Historiker Ernst Weisenfeld sah eine große Wertbeständigkeit sämtlicher wichtiger Entscheidungen de Gaulles in seinen zehn Regierungsjahren. Von der Direktwahl des Staatspräsidenten über die Atomwaffen, den Austritt aus der NATO bis hin zur unabhängigen Außenpolitik seien die großen Entscheidungen de Gaulles auch nach seinem Abtritt von der politischen Bühne Bestandteil des Programms aller großen Parteien Frankreichs geworden. Der Historiker Wilfried Loth unterstreicht die historischen Verdienste de Gaulles, die jedoch von seiner Selbststilisierung als „Retter der Nation“ und der Kritik daran überschattet worden seien: „Er hat dem vielfältigen Widerstand gegen die Integration Frankreichs in Hitlers Europa einen Kristallisationspunkt geboten und damit an führender Stelle dazu beigetragen, dass sich mit der Befreiung Frankreichs ein neuer demokratischer Konsens bilden konnte. Er hat die Handlungsfähigkeit des politischen Systems gestärkt und die Modernisierung der Wirtschaft entschieden vorangetrieben. […] Schließlich hat er wichtige Impulse zur Entwicklung eines unabhängigen Europas und zur Überwindung kommunistischer Parteiherrschaft in seinem östlichen Teil gegeben“.
Nach Umfragen betrachten 70 Prozent der französischen Bevölkerung de Gaulle als die wichtigste Gestalt der gesamten französischen Geschichte. Als bleibende Leistungen de Gaulles werden vor allem der entschlossene Widerstand gegen das nationalsozialistische Deutschland und die Verfassung der Fünften Republik genannt.
Familie.
Charles de Gaulle hatte drei Brüder und eine Schwester:
Charles de Gaulle heiratete am 7. April 1921 Yvonne Vendroux (* 22. Mai 1900 in Calais; † 8. November 1979 in Paris). Der Ehe entstammen drei Kinder:
Der Front-National-Politiker Charles de Gaulle (* 25. September 1948 in Dijon) ist sein Enkel.
Sonstiges.
Als Präsident Frankreichs war Charles de Gaulle von Amts wegen auch Kofürst von Andorra. |
893 | 9787 | https://de.wikipedia.org/wiki?curid=893 | Chemnitz (Familienname) | Chemnitz ist ein deutscher Familienname. |
895 | 231830079 | https://de.wikipedia.org/wiki?curid=895 | Castel del Monte | Das Castel del Monte (ursprünglich "castrum Sancta Maria de Monte") ist ein Bauwerk aus der Zeit des Stauferkaisers Friedrich II. in Apulien im Südosten Italiens. Das Schloss wurde von 1240 bis um 1250 errichtet, wahrscheinlich aber nie vollendet. Insbesondere der Innenausbau ist anscheinend nicht beendet worden.
Lage und Architektur.
Das Castel del Monte liegt im Gemeindegebiet von Andria, einer Stadt in der Umgebung von Bari. Sein Grundriss ist achteckig. An jeder der Ecken steht ein Turm mit ebenfalls achteckigem Grundriss. Das Hauptachteck ist 25 Meter hoch, die Türme 26 Meter. Die Länge der Seiten des Hauptachtecks beträgt 16,50 Meter, die der Türme je 3,10 Meter. Je sechs Seiten der Turm-Achtecke sind ausgeführt, zwei entfallen durch die Verbindung mit dem Hauptgebäude. Der Haupteingang ist nach Osten ausgerichtet. Der Durchmesser des Innenhofs beträgt, jeweils zwischen gegenüberliegenden Wänden gemessen, 17,63 bis 17,86 Meter. Bemerkenswert sind die Abweichungen der Wandbreiten im Innenhof, diese liegen zwischen 6,96 und 7,92 Metern.
Deutungen der Funktion und Form des Kastells.
Über die Funktion der Burg ist gerätselt worden, wobei die achteckige Grundrissfigur phantastische Gedanken beflügelte. Die eher sachlichen Deutungen reichen von einem Jagdschloss bis hin zu einem Gebäude zur Aufbewahrung des Staatsschatzes. Besonders in den 1930er bis 1950er Jahren beliebt war die Deutung als "Steinerne Krone Apuliens" (Willemsen), als welche Castel del Monte angeblich die Macht Friedrichs II. symbolisieren sollte. Das Castel del Monte wird häufig auch als der Wehrbau und der Lieblingssitz Friedrichs II. bezeichnet. Ursache für die zahlreichen Vermutungen ist nicht zuletzt die spärliche Datenlage. Sicher ist, dass Friedrich II. mit einem Schreiben vom 28. Januar 1240 Richard von Montefuscolo, Justitiar der Capitanata, befahl, Vorbereitungen für den Bau eines "castrum" zu treffen. Der Bau sollte bei der Kirche Santa Maria del Monte erfolgen. Am Bau existieren jedoch keine Einrichtungen wie Gräben, Arsenale, Schießscharten oder Mannschaftsräume, die auf die Verwendung als Festung schließen lassen. Stattdessen wurde das Gebäude mit Schmuck am Hauptportal und den Fenstern, aufwändigen Sanitäreinrichtungen und Kaminen ausgestattet.
Unregelmäßigkeiten in den Abmessungen – zum Beispiel bei den Wandbreiten des Innenhofes – haben zu Überlegungen geführt, ob diese absichtlich so geplant wurden, um bestimmte Effekte hervorzurufen. So entspricht die Länge des Schattens am Tag der Herbst-Tagundnachtgleiche der Hofbreite, einen Monat später der Summe aus Hof- und Saalbreite und einen weiteren Monat später erstreckt er sich bis zur Außenkante der Türme.
Bau.
Der Baustein des Mauermantels ist heller gelblicher oder grauweißer in der Umgebung gebrochener Kalkstein. Das Material des Eingangsportals und einiger ausgewählter Bauelemente ist "Breccia rossa" (= rote Brekzie), ein Konglomeratgestein, einige der Säulen in den Innenräumen sind aus grau-orangefarbenem Marmor. Der ursprüngliche Fußboden aus farbigem Mosaik ist nur noch in Spuren erhalten.
Die Räume sind in zwei Geschossen um den achtseitigen Innenhof angeordnet. Die äußeren Ecken des Oktogons sind wiederum mit acht Türmen besetzt, die jeweils mit zwei Seiten in die Mauer eingebunden sind, sodass sechs Seiten freiliegen. Nur drei enthalten Wendeltreppen, in den anderen fünf sind Räume verschiedener Zweckbestimmung, u. a. Bäder und Toiletten, untergebracht. Jeder Raum im Erdgeschoss verfügt über ein einfaches Monoforium, im Obergeschoss über ein gotisch beeinflusstes Biforium. Ausnahme davon ist der Saal Richtung Andria, der über ein Triforium verfügt. Die Gewölbe sind durch kräftige Kreuzrippen betont, die auf Halbsäulen auslaufen und an deren Kreuzungspunkt sich in fast allen Räumen ein verzierter Schlussstein befindet.
Eingangsportal.
Dem Eingangsportal hat der Bauherr besondere Aufmerksamkeit gewidmet, wie auch in seinen anderen Bauten. Hier wird dem Besucher der Herrschaftsanspruch des Kaisers schon am Eingang vermittelt: Die schon von weitem sichtbare plastische Betonung des Portals, also seine Pilasterrahmung, der Architrav dazwischen und der Flachgiebel zitieren die Antike, die Kapitelle erinnern an die Zisterziensergotik und die flache Rechteckumfassung des oberen Portalbereiches ist von islamischer Architektur beeinflusst. Auch der farbige Prunk des Portals mutet fast orientalisch an. Die Löwen auf den Säulen gehören zur apulischen Romanik. All das wird hier in der Portalarchitektur in eine neue Einheit gebracht, genauso wie Friedrich II. selbst von Anfang an das Imperium unter seiner Herrschaft in neuem Glanz vereinen wollte.
Es gibt einen schmalen Schlitz im Mauerwerk zwischen der äußeren Schale und der dadurch entstehenden inneren Portalzone. Hier konnte früher ein Fallgitter herabgelassen werden, um unerwünschten Besuch abzuhalten. Solche Sicherungsmaßnahmen gegen Feinde bestimmten – einer älteren Theorie zufolge – auch die Struktur des Gangsystems im Innern der Burg.
Gänge und Zimmer.
Castel del Monte wird von einem äußerst raffinierten Gangsystem durchzogen. Man konnte durchaus nicht von jedem Eingang aus in jeden Raum gelangen, zwei Räume sind nur durch einen einzigen Zugang zu erreichen. So gelangt man vom Eingangsraum, in dem heute der Eintritt zu bezahlen ist, ausschließlich in den rechts davon liegenden Raum (heute ein Souvenirladen) und von dort ausschließlich in den Innenhof. Letzteres Portal, wie alle anderen aus "Breccia rossa," ist auf der Innenseite verziert, außen, zum Innenhof hin, dagegen schmucklos. Bei den beiden anderen, unterschiedlich gestalteten Portalen zum Innenhof ist es umgekehrt, dort befindet sich die verzierte Seite außen. Dadurch ist dem Besucher auf dem vorgegebenen Weg immer die verzierte Seite zugewandt. Die Räume ohne Portal haben nur schmucklose Monoforien oder Okuli. Die beiden Räume, die nur einen Zugang haben, verfügen nicht nur über einen Kamin, sondern außerdem über Sanitäranlagen im angrenzenden Turm. In einem der beiden Räume sind geringe Reste eines Mosaikfußbodens erhalten.
Das Obergeschoss ist durch Spitzblendbögen und Pilaster gegliedert. Hier treten besonders drei Rundbogenfenster, ebenfalls aus "Breccia rossa," hervor, von denen sich nur eines über einem Portal des Erdgeschosses befindet. Da es im Obergeschoss einen umlaufenden Holzbalkon gab, dienten sie wohl auch als Zugang zum Balkon. Die übrigen Räume haben als Fenster nur einfache Monoforien. Die Wände sind teilweise mit Opus reticulatum verziert, die Marmorverkleidungen wurden während der Plünderungen des 18. Jh. entfernt.
Früher glaubte man, dass der Kaiser Grund hatte, vor Attentaten auf der Hut zu sein, und dass er sich in seinem angeblichen „Jagdschloss“ dadurch sicherte, dass jeder, der ihn in seinen Räumen aufsuchen wollte, nicht anders konnte, als vorher nacheinander eine festgelegte Reihe von anderen Räumen zu passieren, in denen man ihn auf Waffen etc. untersuchen konnte. De Tommasi weist aber darauf hin, dass die verschiedenen Räume einfach verschiedene Funktionen hatten und der Gesichtspunkt der sozialen Rangfolge hier eine Rolle spielte und nicht die unbewiesene Hypothese eines Labyrinths zum Schutz des Kaisers.
In den Türmen gingen die Gänge in Wendeltreppen über, die sorgfältig aus Stein gebaut waren. In anderen Pfalzanlagen und auch in den Treppentürmen der Kirchen hat man in solchen Fällen meistens Holz verwendet. Oben war der Turm mit einem kleinen Kreuzrippengewölbe abgeschlossen, dessen Kragsteine die Form von Köpfen hatten. Es handelt sich also um ein in allen Einzelheiten genau durchdachtes und in mancher Hinsicht bis heute geheimnisvolles Bauwerk.
Neuere Geschichte.
Von 1522 bis 1876 gehörte das Schloss der Familie Carafa, die 1552 zu Herzögen von Andria und Castel del Monte erhoben wurden. Nach Jahrhunderten in relativer Vergessenheit begann die kulturelle und baugeschichtliche Wiederentdeckung des Kastells nach ersten Erwähnungen durch Pacichelli (1690) mit einer ersten systematischen Baubeschreibung durch Troyli (1749). Erst Henry Swinburne (1743–1803), der sich in seinen Reisebeschreibungen mit dem rätselhaften Bau beschäftigte, löste ein breiteres Interesse aus, das auch den Beginn der wissenschaftlichen Bearbeitungen und Auseinandersetzung mit diesem Bau europaweit markiert.
Zwei jungen deutschen Architekten, Heinrich Wilhelm Schulz (1808–1855) aus Dresden und Anton Hallmann (1812–1845) aus Hannover, kommt das Verdienst zu, 1831 die erste architektonische Aufmessung und historische Dokumentation des Bauwerks vorgenommen zu haben. Ziel ihrer Arbeiten war dabei „die Bestandsaufnahme mit Vermessung und Baubeschreibung sowie die historische Verortung des Bauwerks auf dem Wege systematischer Urkundenstudien“ zu leisten, deren Ergebnisse erst postum 1860 im Druck erschienen. Ihre Berichte, die Schulz und Hallmann noch im Winter 1835/36 in Rom vortrugen, bildeten die Grundlage und Hinweise für zwei Franzosen, den Historiker Huillard-Bréholles (1817–1871) und den Architekten Baltard (1805–1874), die auf den Spuren der beiden Deutschen ihre eigene Dokumentation des Castel mit detaillierten Plänen des Bauwerks erstellen und bereits 1844 in Paris veröffentlichen konnten. Honoré Théodoric d’Albert, Herzog von Luynes, förderte dieses Projekt finanziell.
1876 wurde das Castel nach vielen Jahrzehnten des Leerstands und der Plünderung vom italienischen Staat für 25.000 Lire erworben. Um 1900 begannen Restaurierungsarbeiten, die im damaligen Geschmack der Zeit ausgeführt wurden: Alle beschädigten Steine wurden durch Nachbildungen ersetzt, der ursprüngliche Bauzustand wurde mit modernen Materialien nachgebildet, die zwischenzeitliche Geschichte des Baus überdeckt und zugetüncht. Am Ende stand das Castel äußerlich wieder „wie neu“ da. Seit 1936 ist das Bauwerk ein Nationaldenkmal Italiens. Als exemplarisch für die ideologisierte Rezeption des Stauferkaisers Friedrich II. und seiner Bauwerke im faschistischen Italien und im nationalsozialistischen Deutschland kann der Auftrag der Dienststelle Ribbentrop und der Deutsch-Italienischen Gesellschaft, Walther Wüster u. a. gesehen werden, 1940 ein Modell Castel del Montes im Maßstab von 1:50 anzufertigen, das Adolf Hitler zum Jahreswechsel 1941 persönlich in Berlin übergeben wurde.
Zu Beginn der ersten Restaurierungsarbeiten (weitere folgten in den 1970er und 1980er Jahren) war – wie ältere Fotografien belegen – rund um das Castel noch ein Schuttkegel von über zwei Metern Höhe vorhanden. Um die Hauptzugangstreppe freizulegen, wurde dieser Schuttberg damals ohne weitere bautechnische Untersuchung abtransportiert. Dieser Schuttkegel enthielt – wie die damaligen Akten vermerken – viele skulptierte Elemente und zerbrochene Mauerquader.
Moderne Vermessungen unter Wulf Schirmer 1990–1996 haben die Basis für eine sachliche Beschäftigung mit dem Bauwerk "Castel del Monte" geschaffen.
Castel del Monte ist seit 1996 UNESCO-Welterbe und seit 2001 auf der Rückseite der italienischen 1-Cent-Münze abgebildet.
In dem Film "Der Name der Rose" ist nach dem Vorbild des Castel del Monte in noch gesteigerter Höhe das geheimnisvolle "Ädificium" gebaut worden, das die Bibliothek enthält, um die sich die Handlung des Romans von Umberto Eco dreht. |
896 | 233915434 | https://de.wikipedia.org/wiki?curid=896 | ISO-Container | ISO-Container sind genormte Großraumbehälter (Seefracht-Container, engl. "freight containers") aus Stahl, die ein einfaches und schnelles Verladen, Befördern, Lagern und Entladen von Gütern ermöglichen.
Die einschlägigen Normen (zum Beispiel Maße, Halterungen, Stapelbarkeit) wurden koordiniert von der Internationalen Seeschifffahrts-Organisation (IMO) beschlossen und sind in der ISO-Norm 668 festgelegt.
Container für Luftfracht sind nach den Standards der International Civil Aviation Organization (ICAO) genormt und unterliegen anderen Regeln.
Wechselaufbauten haben ähnliche Befestigungsecken in den gleichen Längsabständen wie 20-Fuß-ISO-Container, sind jedoch etwas breiter und damit innen europalettengerecht weit.
Die am weitesten verbreiteten ISO-Container haben eine Breite von 8 Fuß (2,4384 m), eine Höhe von 8 Fuß 6 Zoll = 8½ Fuß (2,591 Meter) und sind entweder 20 Fuß (6,058 m) oder 40 Fuß (12,192 m) lang. Daraus ergeben sich die als Beladungs-Maßeinheiten verwendeten Abkürzungen „TEU“ "(Twenty-foot Equivalent Unit)" und „FEU“ "(Forty-foot Equivalent Unit)"; es wird beispielsweise zur Benennung der Ladefähigkeit von Containerschiffen, von Umschlagsmengen in Häfen oder von Güterbahnhöfen verwendet.
Allgemeines.
Container für Seefracht können eine Transportkette über Land und Wasser durchlaufen, ohne dass einzelne Gebinde in Häfen oder Bahnhöfen umgeladen werden müssen. Die Container mit stabilem Rahmen, festen Wänden und wasserdichten Türen können in mehr als fünf Lagen übereinander und in mehr als zwanzig Stapeln dicht nebeneinander gestaut werden. Diese Stapel werden für den Seetransport durch Laschen gezurrt.
Im Landverkehr auf der Straße oder im Bahnverkehr sind diese Vorteile der Container gegenüber Sattelaufliegern und Wechselbehältern nicht bedeutsam.
Man unterscheidet zwischen FCL-Verladung "(Full Container Load)", bei welcher der Versender den Container selbst belädt und der Empfänger selbst entlädt, sowie LCL-Verladung "(Less than a Container Load)", bei welcher der Versender die Ware per Stückgut an den Transporteur sendet, der diese zusammen mit Stückgut-Sendungen anderer Versender in den Container verlädt, im Zielhafen wieder entlädt und per Stückgut an die Empfänger verteilt.
„Nach ISO-Minimalanforderungen können sechs voll beladene Container übereinander gestapelt werden. Viele Container sind allerdings auf eine Stapelhöhe von neun und mehr vollen Behältern ausgelegt.“ Je nachdem ob im Laderaum oder an Deck des Containerschiffs gelagert wird, sind weitere Einflüsse wie Wind und Wellenschlag zu beachten, die zu den Schiffsbewegungen (Quer- und Längsbeschleunigung) hinzu kommen. An Deck werden die Container mit "Twistlocks" und Laschstangen/Spannschrauben gesichert, im Laderaum meistens durch Zellgerüste beziehungsweise "Cellguides". Da zwei 20′-Container zusammen 76 mm kürzer sind als ein 40′-Container, die Cellguides aber vielfach für 40′-Container bemessen sind, kommen in solchen Fällen zwischen zwei 20′-Containern Staustücke "(Twist Stacker)" zum Einsatz, um ein Verrutschen zu verhindern.
Bauformen.
Es gibt verschiedene Spezialversionen der Container, so zum Beispiel Kühlcontainer für verderbliche Fracht, Tankcontainer für flüssige und gasförmige Substanzen, Auto-Container für den Pkw-Transport, Wohncontainer für provisorische Unterkünfte sowie Container für die Beförderung lebender Tiere.
Kennzeichen.
Jeder einzelne Container besitzt eine eigene Nummer. Sie besteht aus vier Großbuchstaben, dem Präfix, der für den Eigentümer des Containers steht, und sechs Ziffern plus einer Kontrollziffer.
Diese Nummern sind lediglich in Klarschrift auf den fünf Außenseiten aufgebracht. Maschinenlesbare Codes werden nicht verwendet, so dass zum automatischen Identifizieren Beleuchtungs- und Kamerasysteme verwendet werden müssen. Durch stets wiederholtes Lesen und Weitermelden von Identität und Standort bei jedem Durchgang oder Umschlag können Weg und Transportfortschritt jedes einzelnen Containers auf seiner Reise verfolgt werden.
Schiffsgrößen.
Vollcontainerschiffe werden nach ihrer Transportkapazität in Schiffsgrößen und Wasserstraßen eingeteilt. 2018 hatten die größten Containerschiffe der 2. Generation der Triple-E-Klasse eine Kapazität von rund 20.586 TEU, die der OOCL G-Klasse 21.100 TEU. Die 2019 zuerst gelieferten MSC Megamax-24 Schiffe haben eine Kapazität von rund 23.800 TEU.
Geschichte.
Als Urheber der Maße des ISO-Containers gilt der US-Amerikaner Malcom P. McLean, der 1956 zum ersten Mal Großbehälter für den Transport auf Lkw und Schiffen einsetzte. Um das übliche Umladen im Hafen einsparen zu können, soll er als junger Fuhrunternehmer im Jahr 1937 die Idee gehabt haben, zuerst ganze Lastwagen auf Schiffe zu verladen, später nur die Anhänger beziehungsweise Sattelauflieger mitsamt ihren geladenen Behältnissen und schließlich nur noch die Behältnisse selbst.
McLean gründete die Reederei "Sea-Land Corporation" und ließ alte Öltanker so umbauen, dass an Deck zusätzlich Container geladen werden konnten. Die erste Fahrt führte die so umgebaute "Ideal X" am 26. April 1956 mit 58 Containern von Newark (New Jersey) nach Houston (Texas). Es dauerte jedoch noch zehn Jahre, bis am 2. Mai 1966 ein Schiff mit Containern, die "Fairland", in einem europäischen Hafen (Rotterdam) anlegte; vier Tage später erreichte das Schiff Bremen. Den Durchbruch hatte der Unternehmer McLean schließlich mit der Frachtversorgung des US-Militärs während des Vietnamkriegs, der von 1955 bis 1975 dauerte.
Container wurden damals noch ausschließlich nach amerikanischen Normen gebaut. Da deren Maße nicht auf europäische Straßenverhältnisse anwendbar waren, wurden nach langen Verhandlungen die bis heute genutzten ISO-Normcontainer eingeführt.
Das erste deutsche Containerschiff, die "Bell Vanguard", lief 1966 bei der Hamburger Werft J. J. Sietas vom Stapel. 1981 war die "Frankfurt Express" der Hapag-Lloyd mit einer Stellplatzkapazität von 3420 TEU das bis dahin größte Containerschiff der Welt.
Aufbau.
Container bestehen zum Großteil aus Stahl (meist dem widerstandsfähigen COR-TEN-Stahl). Die Herstellung eines Standardcontainers erfolgt in mehreren Schritten: Zuerst wird die "Superstructure", das Grundgerüst des Containers aus besonders stabilen Stahlteilen, geschweißt. An deren Ecken befinden sich die Stahlguss-Containerecken, im Fachjargon auch "corner-castings" oder schlicht "corners" genannt. Anschließend werden am Boden in Längsrichtung Streben eingezogen. Auf diesen Streben wird der Containerboden montiert, der aus mehreren Lagen von mit Schutzmitteln behandeltem Holz besteht. Da der Boden sehr tragfähig und widerstandsfähig sein muss, bestehen die verwendeten Sperrholzplatten meist aus tropischen Harthölzern. Inzwischen wird auch Material aus Bambus für die Containerböden benutzt, deren Pflanzen zehnmal schneller nachwachsen als tropische Hartholzbäume. Auch die Benutzung von Kompositwerkstoffen mit recyceltem Kunststoff wird untersucht ("Wood Plastic Composit Floorboards" für Maersk Container Industry (MCI)).
Die Wände des Containers bestehen aus Trapez-Stahlblech "(Corrugation)" oder seltener glattem Stahlblech. Zuletzt werden das Containerdach und die Türen montiert. Danach wird der Container mit einer schützenden Lackierung versehen und erhält seine Containernummer.
Für die Reederei Hapag-Lloyd wurde 2015 ein neuer Container-Typ mit Stahlboden statt des Holzbodens konstruiert. Durch die spezielle Konstruktion der Sicken im Stahl ist dieser "Steel Floor Container" bis zu 150 kg leichter als ältere Container.
Zur Qualitätskontrolle werden mehrere Container jeder Baureihe stichprobenartig von einer Klassifikationsgesellschaft geprüft. Entsprechen die Container den Anforderungen, erhält die Baureihe die CSC-Zulassung. Die meisten Container werden heute in China produziert. Der Preis für Seecontainer schwankt aufgrund der volatilen Stahlpreise und Dollarkurse. In der Regel bewegte sich der Preis zwischen 1950 und 2300 US-Dollar.
Infolge der weltweiten Corona-Pandemie, gestiegenen Stahlpreisen und erhöhter Nachfrage lag der Preis für einen Neucontainer mit Liefertermin Sommer 2021 bei 6200 US-$.
Optional können an Containern Zusatzelemente angebracht werden, darunter
Containertypen.
Standardcontainer.
Für den Transport von in Faltschachteln oder Kisten beziehungsweise auf Transportpaletten gepackten Gütern mit gewöhnlichen Abmessungen werden Standardcontainer in den Größen 20 ft, 40 ft und 45 ft High-Cube eingesetzt.
Auf dem nordamerikanischen Markt werden zunehmend High-Cube-Container (HC) mit 45′, 48′ und sogar 53′ (16,15 m) Länge eingesetzt. Für schwere Güter (zum Beispiel schwere Maschinenteile) stehen 20′-"heavy-tested"-Container (HT) zur Verfügung, die dasselbe maximale Gesamtgewicht aufweisen wie normale 40′- und 45′-Container, das heißt 30 US-Tonnen (27,21554 ISO-Tonnen [t]).
Um ISO-Container (außen ca. 244 cm, innen ca. 235 cm breit) effizient zu füllen wurde das Containermaß für Paletten entwickelt: 1140 × 1140 mm. Neben zwei dieser Paletten verbleibt nur 7 cm Innenbreite als Rangierspielraum.
Für den europäischen Markt gibt es Container mit etwas breiterem Innenraum, die es erlauben, zwei Europaletten quer nebeneinander einzustellen; diese werden als Binnencontainer oder "Pallet Wide" (PW) bezeichnet. Außerdem erlaubt auch der im nordamerikanischen Binnenverkehr sehr gebräuchliche 53′-Container dank seiner Innenbreite von 2,515 m den Transport von zwei Europaletten quer nebeneinander.
Bei Einsatz von Lang-LKW des Typs „verlängerter Sattelauflieger“ (auch als „Eurotrailer“ bezeichnet) können auch 48'-Container mit bis zu 36 Euro-Paletten im europäischen Straßennetz bewegt werden, da die zulässige Gesamtlänge von 16,50 m auf 17,88 m steigt. Entsprechende Fahrzeuge dürfen zunächst befristet bis zum 31. Dezember 2023 getestet werden; Spediteure und die DEKRA fordern mit Verweis auf den Klimaschutz jedoch die unbefristete Freigabe.
Die in der Tabelle angegebenen Werte für Abmessungen und Gewichte beziehen sich auf Normwerte. In der Praxis können die Daten bedingt durch verschiedene Baureihen geringfügig abweichen.
Standardcontainer sind 8 Fuß und 6 Zoll hoch (2,59 m). Weiterhin gibt es für den Großteil der Containerarten auch die Ausführung „High-Cube“ ("HC", auch als HQ "High-Quantity" bezeichnet). Diese Container haben eine Höhe von 9 Fuß und 6 Zoll (2,90 m). Die Abmessungen sind immer so gewählt, dass Container auch mit Lkw, Eisenbahn und Binnenschiff befördert werden können.
Tara und Wiegen.
Das Leergewicht des Standardcontainers liegt bei 2300 Kilogramm (kg) für einen 20-Fuß-Container und 3900 kg für einen 40-Fuß-Container. Die Zuladung beträgt bei 20-Fuß-Containern rund 21,7 Tonnen (t) bei 33 Kubikmeter (m³) Volumen. Ein 40-Fuß-Container fasst 26,5 t bei 67,6 m³ Volumen. Dies sind Standard-Angaben. Jedoch sollte bei der Beladung von Containern beachtet werden, dass in vielen Ländern für den Straßentransport ein Maximalgewicht inklusive Fahrzeug gilt. Ein 40-Fuß-Container, der mit 26,5 t Ladungsgewicht gepackt ist, kann in Deutschland und Österreich beispielsweise auf der Straße befördert werden, weil im kombinierten Verkehr (d. h. Schiene – Straße – Wasserweg) 44 t Gesamtgewicht zulässig sind. Ein Container, sowohl 40-Fuß- als auch 45-Fuß-HC, darf ein Bruttogewicht von 30.480 kg haben.
Für den Transport von ISO-Containern mit Seeschiffen gilt seit Sommer 2016 eine Verpflichtung, das Gewicht der einzelnen Container vor oder bei der Verladung festzustellen (durch Wiegen) und festzuhalten (als Bestandteil der Schiffspapiere). Hintergrund ist das Internationale Übereinkommen zur Sicherheit auf See (SOLAS).
Bei der Lagerung im Freien können üblicherweise bis zu sechs Container übereinandergestapelt werden.
Sondergrößen.
Auch im ISO-System gibt es eine Vielzahl an Sondermaßen:
Für den doppelstöckigen Bahntransport wurden in China und Indien höhenreduzierte und dabei eventuell etwas verbreitere Container entwickelt. In Indien gibt es den Begriff Dwarf Container (Zwerg).
Kühlcontainer (Reefer).
Kühlcontainer (engl. "reefer container") werden in zwei Kategorien eingeteilt: Container, die mit Kaltluft aus der schiffsfesten Ladungskühlanlage gekühlt werden "(Conair-Container, Porthole-Container)," und Container mit integrierter Kälteanlage (Integralcontainer, "Integral-Reefer").
Conair-Container sind doppelwandige, mit einer Wärmedämmung versehene Container, die auf einer Stirnseite zwei übereinanderliegende kreisrunde Öffnungen "(Portholes)" besitzen, die von Federverschlüssen geschützt werden. Diese Öffnungen dienen der Zu- und Abfuhr von Frischluft. Wird der Conair-Container in ein mit Conair-Kühlanlage ausgerüstetes Schiff geladen, öffnen sich die Verschlüsse, und Kühlluft, die von der zentralen Kühlanlage erzeugt wird, kann im Container zirkulieren. Diese Container wurden inzwischen von Integralcontainern abgelöst, da sie aufgrund der fehlenden Eigenständigkeit nur schwer im Inland und auf nicht präparierten Schiffen genutzt werden konnten (Clip-On-Unit notwendig, siehe unten).
Integralcontainer verfügen über eine eigene Kühleinheit, die in der der Tür gegenüberliegenden Stirnwand eingebaut ist und mit elektrischem Strom betrieben wird. Jeder Container kann separat auf eine Kühl- oder Heiztemperatur eingestellt werden, die von der eingebauten Elektronik laufend überwacht und aufgezeichnet wird. Beim Inlandstransport benötigt der Container keine Clip-On-Unit (siehe unten), sondern kann mittels eines am Lkw-Chassis montierten Gensets (Generator) mit Strom versorgt werden. Die Gesamtzahl aller Kühlcontainer betrug Ende 2012 rund 2,2 Mio. TEU.
Um das zusätzliche Gewicht der Kühlanlage zu kompensieren, werden bei Integral-Reefern häufig Wände aus Aluminium verbaut.
Bei den Kühlcontainern unterscheidet sich bedingt durch die Isolation des Weiteren die Innenbreite/-länge/-höhe von der eines normalen ISO-Containers.
Tankcontainer.
Bei Tankcontainern (englisch: tanktainer) handelt es sich um einen Tank für flüssige oder gasförmige Stoffe, der in einen Rahmen eingebettet ist, der der "Superstructure" einer TEU oder FEU entspricht. Je nach Transportgut können Kühl-, Heiz- oder Rühraggregate eingebaut sein. Insbesondere bei Stoffen mit hoher Dichte muss das Gesamtgewicht für die Ladeposition im Schiff beziehungsweise das Transportmittel berücksichtigt werden. Tankcontainer erhöhen massiv die Umschlagsgeschwindigkeit gegenüber Tankwagen.
Weitere Containerarten.
Auf der Grundlage der ISO-Container haben sich weitere Containertypen entwickelt.
Die wichtigsten sind:
Zerlegbare Seecontainer.
Die unausgeglichenen Handelsströme zwischen Osten und Westen machen es erforderlich, leere Container zu repositionieren, also an einen Ort zu bringen, an dem diese wieder Ladung aufnehmen können. Weltweit werden ca. 30 % aller Seecontainer ohne Ladung umgeschlagen. Leere Container verursachen hohe Kosten für den Transport, Lagerung und Verladung. Der Containerverkehr wächst weltweit um ca. 7 % pro Jahr. Damit steigen der Leertransport- und Lagerflächenbedarf erheblich, was zu nicht unerheblichen Kosten führt.
Ein Ansatz, um das Leercontainer-Problem zu verringern, ist, die Container zusammenzuklappen. So können mehrere leere Container auf einem Stellplatz "(= Slot)" transportiert und gelagert werden. In der Vergangenheit hat es eine Reihe von Versuchen gegeben, die Logistikkette mit klappbaren Seecontainern zu verbessern. Diese Systeme sind jedoch alle gescheitert.
Gründe hierfür:
Klappcontainer-Projekte:
Das OpenSeaContainer-Projekt greift den Ansatz des Unternehmens Leanbox auf, die einen Container entwickelt hat, den man mit der Hilfe einer speziellen Maschine zerlegen und remontieren kann. Die Rechte an diesem See-Container sind an die "Peer Engineering Plattform" PeerToProduct.com übergegangen. PeerToProduct hat die Konstruktionsdaten und Testresultate unter einer speziellen GNU General Public License für physische Produkte veröffentlicht.
Weitere Container.
Militär, Feuerwehren und der Katastrophenschutz verwenden ebenfalls Containersysteme im ISO-Format um Module für einen bestimmten Zweck an einen bestimmten Einsatzort zu versetzen und das Ladefahrzeug anderweitig verwenden zu können, in der Regel zum Transport weiterer Module:
Kennzeichnung.
Die großen, offen sichtbaren und visuell/optisch lesbaren Kennzeichen gemäß ISO 6346 für Container in Bauformen gemäß ISO 668 dienen der Transportabwicklung. Diese Kennzeichen dienen allenfalls mittelbar der Transportsicherheit oder dem Schutz der Ladung oder des Transportfahrzeugs.
Die Container tragen verschiedene Kennzeichen als
Für alle Zwecke wird bisher ein Kennzeichen des Herstellers auf dem Typenschild und eine Klarschriftkennzeichnung auf fünf der Oberflächen (Unterseite ohne Kennzeichen) verwendet. Optisch besser lesbare Codes und/oder elektronisch lesbare Kennzeichen wurden bisher nicht standardisiert.
Die Kennzeichnung von Containern in Klarschrift ist nach ISO 6346 international einheitlich genormt. Diese Norm beschreibt lediglich optisch lesbare Kennzeichen in Klarschrift. Gemäß ISO 15459-2 ist die herausgebende Stelle "(issuing agency)" für diese Kennzeichen das "Internationale Containerbüro" Bureau International des Containers et du Transport Intermodal (BIC) mit Sitz in Paris.
Jeder Container erhält dort bei der Registrierung seine weltweit eindeutige Containernummer, die an beiden Stirnfronten deutlich sichtbar angebracht wird. Sie besteht aus vier Standardbuchstaben (jeweils A–Z, an vierter Stelle bisher jedoch nur bis U), sechs Ziffern sowie einer aus allen 10 Zeichen und Stellen errechneten Prüfziffer, die eine fehlerhafte Erfassung durch Zahlendreher nahezu ausschließt. Eine Online-Überprüfung ist in einer Eingabemaske auf der Website der BIC möglich. Die Berechnung der Prüfziffer wird in der Norm EN 13044-1 Anlage A beschrieben.
Die Containernummer des ganz oben abgebildeten 40-Fuß-Containers ist an der dritten Stelle ungenau lesbar und bietet daher ein gutes Beispiel: weder ein Q noch ein G führen hier zum Ziel (Prüfziffer jeweils 3), erst die korrekte Eingabe „LSCU 107737“ gibt die 9 zurück. Das Beispiel zeigt jedoch auch, dass Nummern mit den ähnlichen Buchstaben G und Q verwechselt werden können (oder auch andere Buchstaben mit 10 Positionen Abstand im Alphabet, wie zum Beispiel H und R).
Die Standardisierung der Container und ihrer Kennzeichen wird in der ISO-Kommission "JTC1", einer gemeinsamen Kommission der TC104 und TC122, betrieben, die von Reedereien und Verladern dominiert wird.
Weitere, aber nur in einzelnen Relationen verbreitete Kennzeichen nach dem Stand der Technik sind solche mit RTLS-Tags nach ISO/IEC 18000 und mit optischen Codes, auch mit Data Matrix Codes nach ISO/IEC 16022. Die Standardisierung dieser Kennzeichen entwickelt sich allmählich weiter.
Im Zuge der Verbreitung der "pallet-wide"-Container in Europa wurde die Intermodal Loading Unit (ILU) Initiative der EU gestartet. Diese zeigte Vorteile, wenn der Transport per Container und Wechselbehälter vereinheitlicht wird. Dies führte zur Einführung des "ILU-Codes" per Standard EN 13044, der das gleiche Format wie der bei ISO-Containern verwendete BIC-Code hat – das Internationale Containerbüro BIC verpflichtete sich, für ISO-Container nur Eigentümercodes zu vergeben, die an vierter Stelle ein U, J oder Z haben. Die neugeschaffene Vergabestelle der UIRR "(Internationale Vereinigung der Gesellschaften für den Kombinierten Verkehr Schiene-Straße)" wird für Wechselbehälter nur Eigentümercodes vergeben, die an vierter Stelle ein A, B, C, D oder K enthalten – Inhaber eines BIC-U können die Ausgabe eines ILU-K mit gleicher voranstehender Ziffernfolge beantragen. Seit Juli 2011 begann die Vergabe der ILU-Codes, seit Juli 2014 werden im intermodalen Verkehr nur noch Wechselbehälter mit ILU-Code akzeptiert und ab Juli 2019 müssen alle Behälter ein standardkonformes Schild tragen.
Transportsicherheit und Schutz.
Die Transportsicherheit der Container wird im Grundsatz nach denselben Kriterien organisiert wie vor deren Einführung (ca. seit 1968) bereits im europäischen und US-amerikanischen Eisenbahnverkehr üblich. Neu eingeführt und ebenfalls international einheitlich genormt sind gegenüber anderen Transportformen die genormten Eckbeschläge für die Handhabung. Neu gegenüber den seinerzeit üblichen Standards im Eisenbahnverkehr (um 1968) haben die Container
Anders als im europäischen Eisenbahnverkehr für Güterwagen üblich tragen die Container
Weitere technisch aufwändige Sicherheitseinrichtungen sind in einzelnen Fällen in Gebrauch, wie:
Verschlusszustand und Sicherheitsinformation.
Der Container wird durch den Versender gepackt. Dieser trägt auch die Gewähr für die ordnungsgemäße Deklaration des Inhalts (nur in den Begleitpapieren) und dessen sichere Befestigung (zur Vermeidung von Schwerpunktsänderungen). In der weiteren Handhabung durch den Frachtführer (Spediteur, Reeder) und durch den Verladebetrieb gibt es weltweit keinerlei Gebrauch von Einrichtungen, die feststellen können:
Daher werden alle erweiterten Maßnahmen zur Containersicherheit allein auf die Unversehrtheit des Verschlusszustandes abgestellt. Ein erkennbar geöffneter Container bleibt daher so lange stehen, bis die Unbedenklichkeit des Verschlusszustandes erneut geprüft und bescheinigt wurde.
Die Transportsicherheit wird jeweils vorlaufend zum physischen Transport dokumentiert und wiederholt durch zertifizierte Transportunternehmen geprüft. Spätestens 24 Stunden vor dem Verladen wird eine verlässliche Sicherheitsinformation durch den Zoll festgestellt oder der Container bleibt stehen, bis diese Information mit demselben Zeitabstand zur Verladung verfügbar ist. Einzelheiten zum Kontrollverfahren werden fortlaufend den Risikoanalysen der Sicherheitsbehörden und des Zolls angepasst.
Für Luftfrachtcontainer gibt es keinen vergleichbaren Verschlusszustand.
ISO-Container und Arbeitsschutz.
Öffnen und Entladen von ISO-Containern für Kontrollzwecke oder zum Warenumschlag bergen vielfältige Gefährdungen und Gesundheitsrisiken. Davon betroffen sind etwa Beschäftigte im Hafen, die Frachtcontainer für Kontrollzwecke oder zum Umladen der Ware öffnen. Aus Studien ergibt sich, dass etwa jeder fünfte Import-Frachtcontainer gesundheitsgefährdende Schadstoffkonzentrationen aufweist.
Die durch Begasungsmittelrückstände, Industriechemikalien oder Schimmel belastete Containerluft kann beim Einatmen zu einer Gesundheitsgefährdung der Beschäftigten führen. Darüber hinaus bestehen auch mechanische Unfallgefahren, zum Beispiel durch herabfallendes oder umstürzendes Ladegut.
Für begaste Frachtcontainer gibt es Kennzeichnungsvorschriften mit Warnhinweisen. Häufig fehlen diese Kennzeichnungen jedoch oder weisen Mängel auf, sodass unerwartete gefährliche Situationen entstehen können. Als „begast“ geltende Container dürfen nach der Gefahrstoffverordnung nur durch sach- oder fachkundige Personen geöffnet werden. Entsprechende Regelungen fehlen jedoch für Industriechemikalien und biologische Agenzien. Im Rahmen der Gefährdungsbeurteilung müssen alle möglichen Gefährdungen und Belastungen beim Umgang mit ISO-Containern und geeignete Schutzmaßnahmen vorab abgeklärt werden.
Aufgrund der geringen Umwelt-Stabilität von Coronaviren erscheint eine Übertragung des Erregers beim Umgang mit Containern in den meisten Fällen unwahrscheinlich.
ISO-Container als Geldanlage.
Investments in ISO-Container galten für lange Zeit als lukrativ, zeigten sich aber Mitte der 2010er Jahre nach Insolvenzen der Hamburger Magellan-Gruppe sowie Subunternehmen der P&R-Gruppe tendenziell als Fehlinvestition. Ab 2019 waren nach COVID-19-Pandemie und tagelanger Blockade des Suezkanals aufgrund einer Schiffshavarie ISO-Container sehr knapp. |
897 | 2234691 | https://de.wikipedia.org/wiki?curid=897 | Hexencoven | |
898 | 114381 | https://de.wikipedia.org/wiki?curid=898 | Carotine | Carotine (Plural zu "Carotin", von lateinisch "carota" „Karotte“) sind zu den Terpenen zählende ungesättigte Kohlenwasserstoffe mit der Summenformel C40Hx, die als rotgelbe Naturfarbstoffe in vielen Pflanzen vorkommen, besonders in deren farbigen Früchten, Wurzeln und Blättern.
Die Carotine gehören zu den sekundären Pflanzenstoffen; sie werden von Pflanzen aufgebaut – Tiere können dies im Allgemeinen nicht – und stellen Pigmente dar, die teils als akzessorisches Pigment bei der Photosynthese mitwirken, indem Doppelbindungen ihrer Kohlenstoffkette Licht bestimmter Wellenlängen absorbieren. Chemisch handelt es sich um Tetraterpene, deren Enden als Jonon-Ringe vorliegen können. Carotine sind unpolar, daher lipophil und kaum wasserlöslich. Sie enthalten neben Kohlenstoff- nur Wasserstoffatome und treten in zahlreichen Varianten auf. Die Xanthophylle enthalten dagegen außerdem Sauerstoff; Carotine und Xanthophylle bilden die beiden Hauptgruppen der Carotinoide.
Das bekannteste Carotin ist das β-Carotin (beta-Carotin). Es ist die wichtigste Vorstufe von Vitamin A und wird deswegen auch als Provitamin A bezeichnet. Neben β-Carotin können auch α- (alpha-) und γ-Carotin (gamma-Carotin) sowie β-Cryptoxanthin in Vitamin A umgewandelt werden. Die verschiedenen Vorstufen haben jedoch auch von Vitamin A unabhängige Wirkungen.
In Pflanzen haben Carotine eine Funktion bei der Photosynthese und schützen vor den schädlichen Auswirkungen der UV-Strahlen. In den Wurzeln von Pflanzen gebildet, übernehmen sie dort den Schutz vor Infektionen.
Der Mensch nimmt mit seiner Nahrung in größeren Mengen α- und β-Carotin, α- und β-Cryptoxanthin sowie Lycopin auf. Die Funktionen und Wirkungen der Carotine im menschlichen Körper werden mehr und mehr bekannt, sind aber teils umstritten. So lassen etwa neuere Studien Zweifel an der krebshemmenden Wirkung aufkommen. Eine generell zellschützende Wirkung als Antioxidantien kann ihnen jedoch zugeschrieben werden.
Natürliches Vorkommen.
α-Carotin (Alpha-Carotin) ist mit β-Carotin der Farbstoff der Karotte und mit Lycopin das Rot der Tomate. Auch die gelben bis roten Farbstoffe in Spinat, Salat, Orangen, Bohnen, Broccoli und Paprika sind Carotine.
β-Carotin (Beta-Carotin, INN: Betacaroten) ist die wichtigste Vorstufe von Retinol (Vitamin A) und wird deshalb auch als Provitamin A bezeichnet.
Die besten Quellen von Beta-Carotin sind Grünkohl, tiefgelbe bis orange Früchte und Gemüse, aber auch dunkelgrüne Gemüsesorten. Grünkohl hat mit 8,68 mg β-Carotin/100 g den höchsten Gehalt an Beta-Carotin von allen Lebensmitteln.
Beispiele:
Nomenklatur.
Die IUPAC empfiehlt abweichend eine Nomenklatur der Carotine entsprechend deren Endgruppen, wobei β oder ε für Jononringe enthaltende und ψ für offenkettige Endstrukturen stehen. Somit heißt α-Carotin auch β,ε-Carotin, β-Carotin auch β,β-Carotin, γ-Carotin auch β,ψ-Carotin, δ-Carotin auch ε,ψ-Carotin und Lycopin nach IUPAC-konformer Nomenklatur auch ψ,ψ-Carotin. Die vorgenannten Verbindungen haben alle die gleiche Summenformel C40H56, ebenso wie ε-Carotin (epsilon-Carotin, ε,ε-Carotin), anders als beispielsweise ζ-Carotin (zeta-Carotin, Tetrahydro-ψ,ψ-carotin; C40H60), eine aus Phytoen (Octahydro-ψ,ψ-carotin; C40H64) gebildete Vorstufe von Neurosporin (Dihydro-ψ,ψ-carotin; C40H58) wie darüber von Lycopin bei der Biosynthese von Carotinoiden in Pflanzen und in einigen Schlauchpilzen, beispielsweise Neurospora crassa.
Analytik.
Zur zuverlässigen qualitativen und quantitativen Bestimmung der Carotine in humanen Blut-/Plasmaproben eignet sich nach angemessener Probenvorbereitung die Kopplung der HPLC mit der Massenspektrometrie. Die analytische Technik eignet sich ebenfalls nach spezifischer Probenvorbereitung zur Bestimmung der Carotine in pflanzlichem Material. Auch zur Analytik von Ölen ist die Methodik einsetzbar.
Verwendung als Lebensmittelfarbstoff.
Aus Pflanzen extrahiertes oder synthetisch hergestelltes Beta-Carotin wird als Lebensmittelfarbstoff ("", siehe Lebensmittelzusatzstoff) sowie als Beigabe zu Vitaminpräparaten verwendet. Beta-Carotin wird vielen Lebensmitteln wie zum Beispiel Butter, Margarinen, Süßwaren, Molkereiprodukten und Limonaden in teilweise sehr hohen Mengen zugesetzt, um dem Verbraucher das von ihm erwartete Bild der Ware (Farbe) zu bieten. Ansonsten wären beispielsweise Margarinen mehr oder weniger weiß bis hellgrau. Die meisten Fette sind im "reinen" Zustand weiß – die üblicherweise mit Fetten assoziierten Farben kommen von entsprechenden Spurenstoffen. Der gelbliche Ton von menschlichem Körperfett (z. B. Talg) und Butter basiert auf natürlicherweise enthaltenem Carotin und kann je nach Ernährung variieren.
Resorption im menschlichen Darm.
Die Aufnahme von β-Carotin ist schlechter als von Vitamin A. Es muss etwa sechsmal so viel β-Carotin aufgenommen werden, um dem Körper die gleiche Menge Vitamin A zur Verfügung zu stellen. Die beiden Stoffe sind frei kombinierbar. Die Deutsche Gesellschaft für Ernährung (DGE) empfiehlt für gesunde Erwachsene eine tägliche Zufuhr von 0,8 bis 1,1 mg Vitamin A.
Gesundheitliche Aspekte.
Anders als bei Vitamin A kann es beim Menschen nach übermäßiger Zufuhr von Carotinen mit Provitamin-A-Aktivität nicht zu einer Hypervitaminose kommen. Dies liegt an der geringeren Resorptionsrate für Carotine (20–35 % für β-Carotin) sowie an der begrenzten Kapazität zur Umwandlung in Vitamin A. Die enzymatisch gesteuerte Konversion zu Vitamin A hängt von der Höhe der β-Carotin- und Proteinzufuhr, der Vitamin-E-Versorgung und der gleichzeitigen Fettzufuhr ab. Auch der Vitamin-A-Status spielt eine große Rolle: Je besser die Vitamin-A-Versorgung, desto geringer die Enzymaktivität.
Der Mensch transportiert einen Großteil aufgenommener Carotinoide in unveränderter Form, während die Ratte Carotinoide nahezu vollständig konvertiert. Carotinoide finden sich in verschiedenen Organen des Menschen. Die höchsten Konzentrationen lassen sich in der Leber, der Nebenniere, den Hoden und dem Gelbkörper feststellen. Niere, Lunge, Muskeln, Herz, Gehirn oder Haut weisen dagegen geringere Carotinoidspiegel auf.
Ein Überschuss an Carotinoiden als Folge der langandauernden, übermäßigen Zufuhr macht sich beim Menschen optisch als Gelbfärbung der Haut bemerkbar („Carotinodermie“, „Karottenikterus“, Carotinämie). Betroffen sind zunächst der Bereich der Nasolabialfalten, die Palmarseite der Hände und die Fußsohlen. Die Gelbfärbung geht zurück, wenn die Überversorgung eingestellt wird.
Teratogene Effekte des β-Carotin sind nicht bekannt. Sogar hohe supplementierte Tagesdosen (20–30 mg) oder eine überaus carotinreiche Ernährung über lange Zeiträume sind nicht mit einer Toxizität verbunden.
Allerdings steht die mehrjährige Supplementierung von β-Carotin im Verdacht, bei Rauchern und Trinkern das Inzidenzrisiko für Lungenkrebs und Darmkrebs zu erhöhen. So wurde in einer australischen Studie im Journal of the National Cancer Institute vom 21. Mai 2003, die den Effekt als Sonnenschutzmittel untersuchen wollte, bei Rauchern und Personen, die regelmäßig mehr als ein alkoholisches Getränk pro Tag zu sich nahmen, eine doppelte Anzahl von Adenomen des Dickdarms – den Vorstufen von Darmkrebs – gefunden. Bei Nichtrauchern und Nichttrinkern reduzierte sich stattdessen deren Auftreten um 44 %. Die American Cancer Society verlangt Warnschilder auf β-Carotin-haltigen Waren, um Raucher auf ein möglicherweise gesteigertes Lungenkrebsrisiko hinzuweisen.
Nach Anordnung des Bundesinstituts für Arzneimittel müssen seit Mai 2006 alle Arzneimittel, die zwischen 2 mg und 20 mg β-Carotin enthalten, mit dem Warnhinweis versehen werden, dass „starke Raucher“ („20 oder mehr Zigaretten“ täglich) diese Arzneimittel nicht über einen längeren Zeitraum einnehmen sollten. Arzneimittel mit mehr als 20 mg β-Carotin müssen nach dieser Anordnung unter „Gegenanzeigen“ erwähnen, dass das Arzneimittel von starken Rauchern nicht eingenommen werden darf. Auf das in klinischen Studien festgestellte, erhöhte Risiko für
das Auftreten von Lungenkrebserkrankungen bei Rauchern muss jeweils zusätzlich hingewiesen werden. Für Arzneimitteln, die β-Carotin nur als Hilfsstoff enthalten und bei deren Anwendung mehr als 2 mg β-Carotin pro Tag eingenommen werden, wurde die Zulassung zum 1. Juli 2006 widerrufen.
Durch die Studien kann keine Aussage darüber getroffen werden, ob durch den Konsum von naturbelassenen Lebensmitteln mit natürlichem Carotingehalt eine Gefahr bestehen könnte; allerdings ist der Anteil von β-Carotin in naturbelassenen Lebensmitteln und Säften oftmals merklich geringer als in künstlich damit angereicherten.
Im Rahmen der sogenannten CARET-Studie wurde in den 1990er Jahren der Effekt einer Supplementierung von täglich 30 mg β-Carotin in Kombination mit 25.000 I.E. Retinylpalmitat auf das Inzidenzrisiko für verschiedene Krebserkrankungen sowie die Mortalität untersucht. Es nahmen 18.314 Personen teil, deren Inzidenzrisiko für Lungenkrebs erhöht war, weil sie entweder eine langjährige Raucherkarriere hinter sich hatten oder Asbeststaub ausgesetzt waren. Die Forscher fanden als mutmaßliche Supplementierungsfolge neben der weiteren Risikoerhöhung für Lungenkrebs auch eine erhöhte Sterblichkeit infolge einer Herz-Kreislauf-Erkrankung.
Historisches.
Carotin wurde zuerst von Ferdinand Wackenroder entdeckt, der es aus Karotten isolierte. William Christopher Zeise erkannte, dass es sich um einen Kohlenwasserstoff handelt. Paul Karrer, der 1937 für seine Untersuchungen an Carotinoiden, Flavinen und Vitaminen den Nobelpreis für Chemie erhielt, hatte 1930 die korrekte Konstitutionsformel des beta-Carotins aufgestellt. Zur Strukturaufklärung nutzte er Abbaureaktionen mit Ozon, Kaliumpermanganat oder Chromsäure. Die genaue Anordnung der Atome von β-Carotin wurde mit Hilfe der Röntgenstrukturanalyse bestimmt und 1964 bekanntgegeben. |
899 | 853339 | https://de.wikipedia.org/wiki?curid=899 | Chemisches Element | Ein chemisches Element ist ein Reinstoff, der mit chemischen Methoden nicht mehr in andere Stoffe zerlegt werden kann. Die Elemente sind die Grundstoffe der chemischen Reaktionen. Die kleinste mögliche Menge eines Elements ist das Atom. Alle Atome eines Elements haben dieselbe Anzahl an Protonen im Atomkern (die Ordnungszahl). Daher haben sie den gleichen Aufbau der Elektronenhülle und verhalten sich folglich auch chemisch gleich.
Ein Element wird durch ein Elementsymbol bezeichnet, eine Abkürzung, die meist vom lateinischen Namen des Elements (beispielsweise Pb von "plumbum", Fe von "ferrum") abgeleitet ist. Die Elemente werden im Periodensystem nach steigender Kernladungszahl angeordnet. Insgesamt sind bis heute 118 Elemente nachgewiesen worden. Davon kommen die Elemente mit Ordnungszahl von 1 bis 94 auf der Erde natürlich vor, allerdings oft in Form von chemischen Verbindungen und zum Teil nur in äußerst geringen Spuren, z. B. als kurzlebige Zwischenprodukte im radioaktiven Zerfall. 80 der 118 bekannten chemischen Elemente haben mindestens ein stabiles Nuklid.
Geschichte.
Begriffsgeschichte.
Der Begriff "chemisches Element" (von lateinisch "elementum" im Sinne eines aristotelischen Elements als „nicht weiter Teilbares“) entstand ab dem 17. Jahrhundert, als zunehmend erkannt wurde, dass der Elementbegriff der Alchemie untauglich für eine wissenschaftliche Aufklärung der vielfältigen Eigenschaften von Stoffen und ihren Reaktionen miteinander ist. Einen maßgeblichen Schritt tat Etienne de Clave, der 1641 die Definition gab, "Elemente" seien „einfache Stoffe, aus denen die gemischten Stoffe zusammengesetzt sind und in welche die gemischten Stoffe letztlich wieder zerlegt werden können“. Robert Boyle veröffentlichte 1661 unter dem Titel "The Sceptical Chymist" eine einflussreiche Kritik an den Unzulänglichkeiten der Alchemie. Darin führte er aus, dass man unter "chemischen Elementen" diejenigen primitiven Stoffe verstehen sollte, „die weder aus anderen Substanzen noch auseinander entstanden sind, sondern die Bestandteile bilden, aus denen gemischte Stoffe bestehen“.
Beide Forscher stellten sich damit einerseits in Gegensatz zur herrschenden Vier-Elemente-Lehre der Alchemisten, die alle Stoffe durch unterschiedliche Mischungen von "Feuer", "Wasser", "Luft" und "Erde" zu erklären suchte, und machten den Begriff "Element" überhaupt der näheren experimentellen Erforschung zugänglich. Andererseits blieben sie der Alchemie verhaftet, indem sie annahmen, einzeln könnten diese "Elemente" nicht in der Wirklichkeit vorkommen, vielmehr sei jeder reale Stoff eine Mischung "sämtlicher Elemente" gleichzeitig. Boyle bezweifelte, dass es solche "Elemente" überhaupt gibt. Ganz im Geist der damals aufkommenden Mechanik nahm er an, die einheitlich erscheinenden Stoffe bestünden aus einheitlichen "kleinen Teilchen", die ihrerseits in jeweils wohlbestimmter Weise aus kleinsten "Korpuskeln" zusammengesetzt sind. Die Vielfalt der Stoffe und ihrer Reaktionen erklärte er durch die unzähligen möglichen Arten, in denen sich die "Korpuskeln" zu diesen, für jeden Stoff charakteristischen Teilchen verbinden können. Als Folge einer Umlagerung der "Korpuskel" sah er auch die in der Alchemie gesuchte Transmutation als möglich an, d. h. die "Umwandlung" eines "Elements" (z. B. Blei) in ein anderes (z. B. Gold).
Doch war Boyle damit der Wegbereiter für Antoine Laurent de Lavoisier, der zwar die "Korpuskeln" als metaphysische Spekulation abtat, aber 1789 die "chemischen Elemente" dadurch charakterisierte, dass sie nicht in andere Substanzen zerlegt werden konnten. Genauer: Alle Stoffe sollten als "elementar", d. h. nicht zusammengesetzt, gelten, solange keine Methoden zur weiteren Abtrennung einzelner Bestandteile gefunden wären.
Auf diese Definition gestützt, eröffneten Lavoisiers außerordentlich genaue Beobachtungen an chemischen und physikalischen Stoffumwandlungen den Weg zur modernen Chemie. Insbesondere entdeckte er die "Erhaltung der Gesamtmasse bei allen Stoffumwandlungen" und bestimmte die genauen "Massenverhältnisse", in denen "reine Elemente" miteinander reagieren. So wurde John Dalton auf das Gesetz der multiplen Proportionen geführt, das er 1803 durch die Annahme der Existenz "unveränderlicher" und "unzerstörbarer" kleinster Materieteilchen, der Atome, wissenschaftlich begründen konnte. Nach Dalton wird ein "Element" durch eine Sorte einheitlicher Atome definiert, die sich nach festen Regeln mit anderen Atomen verbinden können. Das unterschiedliche Verhalten der "Elemente" wird dadurch erklärt, dass ihre "Atomsorten" sich in "Masse", "Größe" und "Bindungsmöglichkeiten" zu anderen Atomen unterscheiden. Daraus entsteht u. a. die Möglichkeit, die relativen Atommassen der verschiedenen "Elemente" untereinander zu bestimmen, wodurch die Atome erstmals zum Gegenstand der experimentellen Naturwissenschaft wurden.
Daltons Ansatz erwies sich in der Interpretation der "chemischen Reaktionen" und "Verbindungen" als außerordentlich erfolgreich. Seine Definitionen von "Element" und "Atom" wurden daher beibehalten, auch als die Annahmen der "Unveränderlichkeit der Atome" (insbesondere ihrer Unteilbarkeit) und der "Gleichheit aller Atome desselben Elements" durch Beobachtungen an den 1896 entdeckten radioaktiven Elementen endgültig widerlegt wurden: 1902 erklärte Ernest Rutherford in seiner "Transmutationstheorie" die radioaktiven Zerfallsreihen als Folge von Teilungen der Atome und weiteren Elementumwandlungen. 1910 entdeckte Frederick Soddy, dass Atome desselben radioaktiven Elements in verschiedenen Zerfallsreihen mit "verschiedener Masse" auftreten können (Isotopie). Ab 1920 wurden diese Erscheinungen dann bei allen Elementen gefunden.
In der ersten Hälfte des 20. Jahrhunderts wurde der "Atombau" dahingehend geklärt, dass das chemische Verhalten weitestgehend von der "negativ" geladenen "Elektronenhülle" des Atoms bestimmt wird, die ihrerseits durch die "positive" Ladung des Atomkerns bestimmt ist. Daher geht der heutige Begriff des chemischen Elements von der elektrischen Ladung des Atomkerns aus. Sie ist durch die Anzahl der im Kern vorhandenen Protonen gegeben, die daher als chemische Ordnungszahl des Atoms bzw. des Elements bezeichnet wird.
Rückblickend auf die ursprünglichen Definitionen für den Begriff "Element" von Clave, Boyle und Lavoisier (s. o.) und auch auf die Boyleschen "Korpuskeln" scheint es, dass die besten Realisierungen dieser seinerzeit hypothetischen Vorstellungen nicht durch die heutigen chemischen Elemente und Atome, sondern durch die "Atombausteine" Proton, Neutron, Elektron gegeben sind.
Entdeckungsgeschichte.
In der Antike und bis weit ins Mittelalter war man der Auffassung, dass die Welt aus den vier Elementen Erde, Wasser, Luft und Feuer aufgebaut ist.
Von den Elementen im heutigen Sinne waren in der Antike nur zehn Elemente in Reinform bekannt, die entweder natürlich (d. h. gediegen) vorkamen oder aus Erz geschmolzen werden konnten: Kohlenstoff, Schwefel, Eisen, Kupfer, Zink, Silber, Zinn, Gold, Quecksilber und Blei. Im Laufe der mittelalterlichen Bergbaugeschichte wurden dann, vor allem im Erzgebirge, in "Erzen" geringe Mengen an Beimengungen unbekannter Metalle entdeckt und nach Berggeistern benannt (Cobalt, Nickel). Die Entdeckung des Phosphors 1669 durch Hennig Brand läutete schließlich das Zeitalter der Entdeckung der meisten Elemente ein, einschließlich des Urans aus Pechblende durch Martin Heinrich Klaproth 1789.
Vor dem Jahre 1751 waren folgende 9 Nebengruppenelemente bekannt: Eisen, Cobalt, Nickel, Kupfer, Zink, Silber, Platin, Gold sowie Quecksilber, ferner die 8 Hauptgruppenelemente Kohlenstoff, Phosphor, Schwefel, Arsen, Zinn, Antimon, Blei und Bismut. Im Jahr 1751 waren also insgesamt 17 Elemente bekannt.
Vom Jahre 1751 bis zum Jahre 1800 kamen noch 13 weitere Elemente hinzu: Wasserstoff, Titan, Chrom, Mangan, Yttrium, Zirconium, Molybdän, Wolfram, Uran, Stickstoff, Sauerstoff, Chlor und Tellur.
In der Zeit vom Jahre 1800 bis zum Jahre 1830 wurden insgesamt 22 neue Elemente entdeckt: die Nebengruppenelemente Vanadium, Tantal, Rhodium, Palladium, Cadmium, Osmium, Iridium und die seltene Erde Thorium, ferner die Hauptgruppenelemente Lithium, Beryllium, Natrium, Magnesium, Kalium, Calcium, Strontium, Barium, Bor, Aluminium, Silicium, Selen, Iod und Brom.
Elf weitere Elemente traten zwischen dem Jahre 1830 bis 1869 hinzu. Sie waren auch ein Marker für den technisch-wissenschaftlichen Entwicklungszustand, denn es wurden auch schwer auffindbare und seltene Elemente entdeckt und beschrieben. Es waren Helium, Rubidium, Caesium, Indium, Thallium, Niob, Ruthenium, Lanthan, Cer, Terbium, Erbium. Somit waren bis zum Jahr 1869 63 Elemente entdeckt worden.
Im Laufe des 19. Jahrhunderts wurden die Metalle der Seltenen Erden entdeckt, womit fast alle natürlich vorkommenden Elemente bekannt waren. In dieser Zeit wurden auch viele hypothetische Elemente postuliert, die später wieder verworfen wurden, so etwa das Nebulium. Im 20. und dem begonnenen 21. Jahrhundert wurden viele in der Natur nicht vorkommende Elemente – die Transurane – künstlich erzeugt, teils in Kernreaktoren, teils in Teilchenbeschleunigern. Allen diesen Elementen ist gemeinsam, dass sie instabil sind, d. h., dass sie sich unterschiedlich schnell in andere Elemente umwandeln. Mit der Entdeckung weiterer solcher kurzlebiger Elemente ist zu rechnen; sie entstehen jeweils in nur äußerst geringen Mengen. Ihren Namen erhielten die Elemente jeweils von ihrem Entdecker, was im 20. Jahrhundert zu einer Elementnamensgebungskontroverse führte. Elemente, die noch nicht erzeugt oder benannt wurden, tragen Systematische Elementnamen.
Ordnungssystem.
Die Elemente ordnet man nach ihrer Kernladungszahl (Ordnungszahl) und der Elektronenkonfiguration ihrer Atome im "Periodensystem der Elemente" (PSE) in Gruppen und Perioden an. Dieses System wurde vom russischen Gelehrten Dmitri Iwanowitsch Mendelejew zeitgleich mit dem deutschen Arzt und Chemiker Lothar Meyer 1869 begründet.
Eigenschaften.
Identifiziert werden chemische Elemente mittels Nachweisreaktionen der Analytischen Chemie.
Viele Eigenschaften der Elemente lassen sich aus dem Aufbau ihrer Atome ableiten. Diverse historisch gewachsene Atommodelle, insbesondere das erfolgreiche Bohrsche Schalenmodell, liefern dazu die theoretischen Grundlagen.
Alle Atome eines Elements haben im elektrisch ungeladenen Zustand ebenso viele Elektronen in der Elektronenhülle wie Protonen im Atomkern. Ordnet man die Elemente gemäß wachsender Protonenzahl (Ordnungszahl) im sogenannten Periodensystem an, ergeben sich periodisch wiederkehrende Eigenschaften (siehe Hauptgruppe, Nebengruppe).
Bei chemischen Reaktionen werden nur die Elektronen auf den Außenschalen der Reaktionspartner umgeordnet, der Atomkern bleibt hingegen unverändert. Atome „suchen“ "primär" die sogenannte "Edelgaskonfiguration" (Stabilität wegen abgeschlossener Außenschale) zu erreichen, auch wenn das zu Lasten der "elektrischen Neutralität" geht, und streben nur "sekundär" nach Ladungsausgleich der Gesamtkonfiguration. Beschrieben wird dieses „Bestreben“ durch die Elektronegativität. Edelgase, also Elemente mit im neutralen Zustand abgeschlossener Außenschale, sind reaktionsarm und bilden nur unter drastischen Bedingungen Verbindungen.
Eine eindeutige „Identifizierung“ der Elektronen eines Elements liefert das "Quantenzahlenquartett": Hauptquantenzahl, Nebenquantenzahl, Magnetquantenzahl, Spinquantenzahl, also quantenphysikalische Elementeigenschaften.
Isotope, Nuklide.
Alle Atome "desselben" Elements haben dieselbe Anzahl Protonen, sie können aber verschieden viele Neutronen enthalten. Diese nur in ihrer Neutronenzahl verschiedenen Arten sind die Isotope des betreffenden Elements. Die allgemeine Bezeichnung für eine durch Protonenzahl und Neutronenzahl festgelegte Atomart ist Nuklid.
Vom Wasserstoff existieren in natürlichen Vorkommen beispielsweise drei Isotope: Protium (keine Neutronen), Deuterium (1 Neutron), Tritium (2 Neutronen). Der Kern des häufigsten Wasserstoffisotops formula_1 (Protium, 99,9851 %) besteht aus einem einzelnen Proton. Deuterium tritt in natürlichem Wasserstoff nur mit einem Anteil von 0,0149 % auf, Tritium mit < 10−10 %.
Der häufigste Heliumatomkern formula_2 besteht aus zwei Protonen und zwei Neutronen. Es gibt in natürlichen Vorkommen mit einem Anteil von nur 0,000137 % aber auch das Isotop formula_3, Helium-3, dessen Kern nur ein Neutron enthält.
Natürliches Chlor (17 Protonen) besteht aus einer Mischung aus Isotopen mit 18 Neutronen (75,8 %) und 20 Neutronen (24,2 %).
Masse.
Die Atommassen der Isotope sind "annähernd", aber nicht genau ganzzahlige Vielfache der Masse des Wasserstoffatoms. Die Ursache für diese unter 0,9 Prozent liegenden Abweichungen sind:
Die letzten beiden Effekte kompensieren einander nur teilweise.
Rein- und Mischelemente.
Chemische Elemente, die in ihren natürlichen Vorkommen nur eine Sorte von Atomen aufweisen, heißen Reinelemente; wenn sie dagegen aus zwei oder mehr Isotopen bestehen, heißen sie Mischelemente. Die meisten Elemente sind Mischelemente. Es existieren 19 "stabile" und drei "langlebige instabile" Reinelemente (Bismut, Thorium und Plutonium), insgesamt also 22 Reinelemente.
Im Periodensystem steht für Mischelemente die durchschnittliche Atommasse gemäß den relativen Häufigkeiten der Isotope. Das natürliche Mischverhältnis ist bei einem Element meist konstant, kann bei einigen Elementen aber lokal schwanken. Blei zum Beispiel zeigt je nach Herkunft (Lagerstätte) unterschiedliche durchschnittliche Atommassen. 2010 beschloss die IUPAC, dass zukünftig für die Elemente Wasserstoff, Bor, Lithium, Kohlenstoff, Stickstoff, Sauerstoff, Silicium, Schwefel, Chlor und Thallium im Periodensystem die Masse als Massen"bereich" anzugeben ist.
Die Begriffe "Reinstoff" und "Reinelement" sowie "Stoffgemisch" und "Mischelement" sind strikt zu unterscheiden.
Aggregatzustand, Dichte.
Die meisten Elemente sind bei Standardbedingungen
Die Atommasse-leichtesten 2, nämlich H und He, weiters N und O und die zwei leichtesten Halogene sind gasförmig.
Flüssig sind nur Brom und – bei erstaunlich großer Atommasse – nur noch Hg Quecksilber.
Die Dichte korreliert oft mit der Atommasse, bei Gasen sehr genau mit der Molekülmasse. Lithium hat etwa die halbe Dichte von Wasser, die schwersten Elemente (Au, Os, W) haben etwa die 20-fache Dichte von Wasser.
Chemische Bindungen.
Chemische Elemente können, bis auf einige Edelgase, chemische Bindungen eingehen. Dabei sind mehrere der elementaren Atome zu Molekülen, Ionenkristallen, Komplexen oder metallischen Verbindungen zusammengeschlossen.
Bilden Elemente chemische Bindungen "mit sich selbst", so nennt man den Reinstoff ebenfalls Element:
Bei vielen Gasen wie "Chlor" Cl oder "Fluor" F bilden zwei Atome desselben Elements eine kovalente Bindung aus und werden zu einem Elementmolekül, hierbei Cl2 und F2. Sauerstoff bildet neben O2 auch weniger stabile dreiatomige O3-Moleküle aus, Schwefel bildet ringförmige aus "sechs bis acht" Atomen.
Wenn Elemente eine chemische Bindung mit "anderen" Elementen eingehen, entstehen chemische Verbindungen. Wasser mit der Summenformel H2O ist beispielsweise eine Verbindung aus den Elementen Wasserstoff H (2 Atome pro Molekül) und Sauerstoff (1 Atom pro Molekül).
Grundsätzlich gibt es vier Arten von chemischen Verbindungen zwischen den Atomen unterschiedlicher Elemente:
Die Entstehung von Elementen.
Bereits beim Urknall entstanden die "leichten" Elemente Wasserstoff (ca. 75 %) und Helium (ca. 25 %), zusammen mit geringen Mengen Lithium und Beryllium.
Am Anfang der Kosmochemie steht daher der Wasserstoff mit einer relativen Atommasse von ca. 1,0 u (ein Proton). "Schwerere" Elemente entstehen im Universum durch Kernreaktionen in den Sternen. In Hauptreihen-Sternen, wie unserer Sonne, verschmelzen unter hoher Temperatur (mehrere Millionen Grad Celsius) und hohem Druck beispielsweise vier Wasserstoffatomkerne über mehrere Zwischenstufen zu einem Heliumatomkern (relative Atommasse ca. 4,0 u). Dieser ist ein wenig leichter als die vier Protonen zusammen, die Massendifferenz wird als Energie frei.
Diese Fusion (Atome mit geringerer Protonenzahl verschmelzen zu höheren) geht in den meisten Sternen bis zur Entstehung von Kohlenstoff, in "massereichen" bis zur Bildung von Eisen weiter, dem am "dichtesten" gepackten Atomkern. Dies erfolgt immer unter "Abgabe" von Energie, wobei die Energieausbeute mit zunehmender Ordnungszahl der gebildeten Elemente bis zum Eisen immer geringer wird. Die Fusionsreaktionen zu "schwereren" Kernen würden eine "Zufuhr" von Energie erfordern.
Schwerere Elemente als Eisen entstehen deshalb nicht durch "Kernfusion", sondern durch Neutroneneinfang bestehender Atome, die dabei in Elemente höherer Ordnungszahl umgewandelt werden. Dies geschieht bei massearmen Sternen im sogenannten s-Prozess, bei "massereichen" am Ende der Lebenszeit von Sternen während einer Supernova im r-Prozess.
Die entstandenen Elemente gelangen (kontinuierlich durch Sonnenwind oder explosiv in einer Supernova) in das interstellare Medium und stehen für die Bildung der nächsten "Sterngeneration" oder anderen astronomischen Objekten zur Verfügung. Jüngere "Sternensysteme" enthalten daher bereits von Anfang an geringe Mengen "schwererer Elemente", die Planeten wie in unserem Sonnensystem bilden können.
Statistik der chemischen Elemente.
Von den 118 bekannten Elementen (Stand 2015) sind 80 stabil. Alle stabilen Elemente kommen auf der Erde natürlich vor, ebenso 14 radioaktive (siehe Elementhäufigkeit). Weitere radioaktive Elemente wurden "künstlich" hergestellt, ihre Zahl wird vermutlich weiter steigen.
Die Elemente lassen sich nach verschiedenen Kriterien unterteilen. Am häufigsten ist die Unterteilung in solche Elemente, die Metalle bilden und den Großteil der Elemente ausmachen, sowie in Nichtmetalle und die Zwischenstufe Halbmetalle.
Zur Gruppe der Nichtmetalle gehören nur 17 aller Elemente, diese bilden bei Standardbedingungen keine Metalle. Davon liegen die sechs Edelgase einatomig vor, weil deren Atome keine Moleküle bilden, d. h. nicht miteinander reagieren. Dagegen verbinden sich andere mit Atomen des gleichen Elements zu Molekülen. Dazu zählen die weiteren fünf unter Normalbedingungen gasförmigen Elemente: Wasserstoff (H2), Stickstoff (N2), Sauerstoff (O2), Fluor (F2) und Chlor (Cl2) sowie das flüssige Brom (Br2) und das feste Iod (I2).
Häufigkeit der chemischen Elemente.
Die Häufigkeit der chemischen Elemente unterscheidet sich je nach dem betrachteten Bereich.
Im Universum ist sie eng verknüpft mit den Entstehungsprozessen im kosmologischen Zeitrahmen (Nukleosynthese). Dort ist das weitaus häufigste Element der Wasserstoff, gefolgt von seinem einfachsten "Fusionsprodukt" Helium, die beide schon bald nach dem "Urknall" entstanden. Die nächsthäufigsten Elemente sind "Kohlenstoff" und "Sauerstoff". Lithium, Beryllium und Bor entstanden ebenfalls beim Urknall, jedoch in wesentlich geringeren Mengen.
Helium, Kohlenstoff und Sauerstoff sowie alle anderen Atomsorten wurden durch "Kernfusion" in Sternen oder durch andere astrophysikalische Vorgänge gebildet. Dabei entstanden häufiger Atome mit "gerader Protonenzahl", wie Sauerstoff, Neon, Eisen oder Schwefel, während Elemente mit "ungerader Protonenzahl" seltener sind. Diese Regel wird nach dem US-amerikanischen Chemiker William Draper Harkins (1873–1951) "Harkinssche Regel" genannt. Markant ist die besondere Häufigkeit des Eisens als Endpunkt der möglichen "Kernfusion" in Sternen.
Die Verteilung auf der Erde unterscheidet sich von derjenigen, die im gesamten Universum vorherrscht. Insbesondere sind auf der Erde vergleichsweise geringe Mengen Wasserstoff und Helium vorhanden, weil diese Gase vom Schwerefeld der Erde nicht festgehalten werden können; im Sonnensystem befinden sie sich vor allem in den Gasplaneten wie Jupiter und Neptun. Auf Gesteinsplaneten wie der Erde überwiegen die schwereren Elemente, vor allem Sauerstoff, Silicium, Aluminium und Eisen.
Organismen bestehen hauptsächlich aus "Wasserstoff", "Sauerstoff", "Kohlenstoff" und "Stickstoff".
In dem jeweils betrachteten Bereich sehr häufig vorkommende Elemente bezeichnet man als Mengenelemente, sehr seltene als Spurenelemente. |
902 | 530688 | https://de.wikipedia.org/wiki?curid=902 | Chemiker | Ein Chemiker ist ein Naturwissenschaftler, der sich mit Themen aus der Chemie befasst. Die Tätigkeitsbezeichnung Chemiker ist nicht geschützt. Hingegen ist der früher vergebene akademische Grad Diplom-Chemiker (Dipl.-Chem.) staatlich geschützt und setzte ein Hochschulstudium mit erfolgreich bestandenem Diplom voraus. Mit der Abschaffung der Diplomstudiengänge im Zuge des Bologna-Prozesses ersetzte der Bachelor- bzw. der Master-Grad den Diplom-Grad bei neu erworbenen Abschlüssen als Berufsbezeichnung.
Studium zum Chemiker in Deutschland.
Im Zuge des Bologna-Prozesses gingen die Diplomstudiengänge sowohl an Universitäten wie an Fachhochschulen weitgehend in den sechssemestrigen Bachelor-Studiengang mit anschließendem, optionalem viersemestrigem Master-Studium über. Daneben haben sich mehrere Ingenieurstudiengänge mit Schwerpunkt Chemie, speziell an Fachhochschulen, etabliert. Wenn die Bachelorstudien so akkreditiert sind, dass 180 Credits erzielt werden, können Absolventen von Fachhochschulen an Universitäten (und umgekehrt) ein Masterstudium beginnen; hat ein Masterstudium 120 Credits, können auch Absolventen einer Fachhochschule eine Promotion beginnen.
Im Jahr 2018 boten in der Bundesrepublik Deutschland 54 Universitäten und 24 Fachhochschulen ein Studium der Chemie an. Ein Chemiestudium besteht sowohl im Bachelor- wie im Masterstudium aus Vorlesungen, Seminaren und Übungen, Klausuren und mündlichen Prüfungen sowie den regelmäßigen lehrveranstaltungsbegleitenden Praktika im Labor. In den Praktika werden handwerkliche Fähigkeiten und das wissenschaftliche, systematische Arbeiten erlernt. Die Leistungsnachweise (im Jargon „Scheine“ genannt) werden vor allem durch Klausuren, mündliche Prüfungen und Testaten für bestandene Praktika erbracht.
Nach dem Bachelorstudium schließen Studierende von Universitäten nahezu vollständig und Studierende der Fachhochschulen zu rund 70 Prozent ein Masterstudium an. Nach dem Masterstudium beginnen Absolventen einer Universität zu rund 85 Prozent mit einer Promotion, Absolventen von Fachhochschulen zu rund 10 Prozent.
Bis zur Einführung des Bologna-Prozesses begann ein Diplomstudium Chemie an einer Universität mit einem viersemestrigen Grundstudium, das mit der nicht berufsqualifizierenden Vordiplom-Prüfung abgeschlossen wurde. An das Grundstudium schloss ein dreisemestriges Hauptstudium an, in dem eine Spezialisierung stattfand. Die häufigsten waren Organische Chemie, Anorganische Chemie und Physikalische Chemie. Es folgten die meist mündlichen Diplomprüfungen und eine sechs- bis neunmonatige Diplomarbeit. An Fachhochschulen folgte auf ein sechssemestriges Studium, meist ohne Vordiplom eine einsemestrige Diplomarbeit.
Promotion der Chemiker in Deutschland.
Nach einem Masterabschluss kann nach einer meist drei- bis vierjährigen Doktorarbeit die Promotion zum Doktor der Naturwissenschaften (Dr. rer. nat.) erfolgen. Bei technischer Ausrichtung des Promotionsthemas und einer entsprechend absolvierten Masterausbildung ist auch der Doktor der Ingenieurwissenschaften (Dr.-Ing.) möglich.
Die Dauer richtet sich vor allem danach, ob der Doktorand während seiner Tätigkeit nur seine Promotionsziele verfolgen kann oder, was an Hochschulen die Regel ist, durch zusätzliche Verpflichtungen eingebunden wird, wie die Einbeziehung in das Schreiben von Drittmittelanträgen für neue Projekte, den Einsatz in der Lehre oder die Übernahme von Verwaltungsaufgaben am Lehrstuhl des betreuenden Professors. Schwer vergleichbar wird die Promotionsdauer auch dadurch, dass ein Teil der Doktoranden die erfolgreichen Aufgabenstellungen von vorherigen Doktoranden nach deren Promotion weiterbearbeitet und dabei Konzept und Aufbau ihrer Vorgänger weiterbenutzt, während ein anderer Teil der Doktoranden absolut neue Themen erstmals zu bearbeiten versucht. Die Bezahlung des Doktoranden erfolgt in der Regel nach dem TV-L (bei Promotion an Hochschulen/Universitäten) bzw. nach dem TVöD (bei Promotion an Forschungseinrichtungen, z. B. der Fraunhofer-Gesellschaft) Max-Planck-Gesellschaft oder anderen Großforschungseinrichtungen. Meist wird eine Doktorandenstelle mit einem 50 %-Vertrag eines wissenschaftlichen Mitarbeitenden doriert, seltener mit einer 2/3-Stelle. Stipendien sind eine weitere Möglichkeit der Finanzierung.
Zweck und Ziele der Promotion.
Die abgeschlossene Promotion soll den Nachweis zur selbständigen Forschungstätigkeit, also der wissenschaftlichen Erarbeitung und Bearbeitung eines Themas erbringen. Das beinhaltet eine weitestgehend individuelle Versuchsplanung, den Versuchsaufbau und die Versuchsdurchführung einschließlich der Ergebnisauswertung bis zur Ergebnispublikation (Dissertationsschrift) mit Einordnung in den wissenschaftlichen Kontext.
Die Promotion ist erforderlich für Tätigkeiten in der Forschung an Universitäten, in der Industrie oder in Forschungsinstituten wie der Helmholtz-Gemeinschaft Deutscher Forschungszentren, der Max-Planck-Gesellschaft, der Fraunhofer-Gesellschaft oder auch der Leibniz-Gemeinschaft.
Beschäftigung.
Die drei wichtigsten Arbeitgeber von Chemikern sind akademische Einrichtungen, die Industrie, insbesondere die chemische Industrie und die pharmazeutische Industrie, sowie staatliche Laboratorien. Die Chemie ist in der Regel in mehrere große Teildisziplinen unterteilt. Es gibt mehrere interdisziplinäre und spezialisiertere Hauptbereiche der Chemie. Es gibt große Überschneidungen zwischen verschiedenen Zweigen der Chemie sowie mit anderen wissenschaftlichen Bereichen wie Biologie, Medizin, Physik, Radiologie und mehreren Ingenieurdisziplinen.
Auf die Promotion aufbauende Qualifikationen.
Promovierte Diplom-Chemiker mit dem Berufsziel des Hochschullehrers schließen in der Regel eine bis zu sechs Jahren andauernde Juniorprofessur oder eine Habilitation an die Promotion an. Eine weitere Möglichkeit zum Erlangen von zusätzlichen Erfahrungen und zur Erweiterung der Publikationsliste bieten Post-Doc-Stellen im In- und Ausland. Sie dienen vor allem dem Sammeln der von den Einstellenden der Industrie gewünschten „Auslandserfahrung“ und zum „Sprachkenntnis-“ und „Flexibilitätsnachweis“.
Chemiker-Gesellschaften im deutschsprachigen Raum.
Die Gesellschaft Deutscher Chemiker (GDCh), die Fachorganisation der Chemiker in Deutschland, hat über 27.000 Mitglieder. Die Gesellschaft Österreichischer Chemiker (GÖCH) verfügt über etwa 1.900 Mitglieder. Die Schweizerische Chemische Gesellschaft (SCG) hatte Anfang 2016 2.700 Mitglieder.
Historisches.
Historische Bezeichnungen für den Chemiker.
Für diejenigen, die sich mit der "Chemie" beschäftigten, die früher auch "Chymie" genannt wurde, wurden verschiedene Begriffe nebeneinander und synonym verwendet: Im 17. Jahrhundert waren das die Bezeichnungen "Chymicus", "Chemicus", "Chemiker" und "Chemist". Auch im 18. Jahrhundert und in der ersten Hälfte des 19. Jahrhunderts wurden die Begriffe "Chymicus", "Chymiker", "Chymist", "Chemicus" und "Chemist" benutzt und in der Regel mit „Misch- und Scheidekünstler“ erklärt. Johann Wolfgang von Goethe nutzte die Begriffe "Chemist", "Chemiker" und – seltener – "Chemicus"; ebenso verwendete Johann Bartholomäus Trommsdorff abwechselnd "Chemiker" oder "Chemist"/"Chemisten". Im Laufe des 19. Jahrhunderts setzte sich die Bezeichnung „Chemiker“ durch. Das hängt damit zusammen, dass sich in vielen analogen Fällen (wie "Akademiker" und "Botaniker") die Bildungen mit der Endung -"iker" durchgesetzt haben und dass bei den Formen mit -"ist" Endbetonungen vorliegen, während die Bildungen mit -"iker" auf der vorletzten Silbe betont werden.
Herausbildung des Chemikerberufs.
In Deutschland führte Johann Bartholomäus Trommsdorff nach 1800 einen systematischen Chemieunterricht durch, der sich aber vor allem an Pharmazeuten richtete. 1824 erhielt Justus Liebig eine Professur in Gießen und bildete dort systematisch Chemiker aus.
1877 erschien in Deutschland die erste Ausgabe der Chemiker-Zeitung, 1887 in Österreich die Österreichische Chemiker-Zeitung, was zeigt, dass der Beruf des Chemikers zu diesem Zeitpunkt etabliert war. |
905 | 278952 | https://de.wikipedia.org/wiki?curid=905 | Chinook | Chinook steht für:
Orte in den Vereinigten Staaten: |
906 | 275801 | https://de.wikipedia.org/wiki?curid=906 | Carl Friedrich Gauß | Johann Carl Friedrich Gauß (latinisiert "Carolus Fridericus Gauss;" * 30. April 1777 in Braunschweig, Fürstentum Braunschweig-Wolfenbüttel; † 23. Februar 1855 in Göttingen, Königreich Hannover) war ein deutscher Mathematiker, Statistiker, Astronom, Geodät, Elektrotechniker und Physiker.
Wegen seiner überragenden wissenschaftlichen Leistungen galt er bereits zu seinen Lebzeiten als "Princeps mathematicorum" (Fürst der Mathematiker). Seine Tätigkeit erstreckte sich neben der Reinen Mathematik auch auf angewandte Gebiete, zum Beispiel war er mit der Landesvermessung des Königreichs Hannover beauftragt, er erfand zusammen mit Wilhelm Eduard Weber als einer der Ersten elektromagnetische Telegrafie und beide wandten sie als Erste über längere Strecken an, er entwickelte Magnetometer und er initiierte ein weltweites Netz von Stationen zur Erforschung des Erdmagnetismus.
Epochale Bedeutung.
Mit 18 Jahren entwickelte Gauß die Grundlagen der modernen Ausgleichungsrechnung und der mathematischen Statistik (Methode der kleinsten Quadrate), mit der er 1801 die Wiederentdeckung des ersten Asteroiden Ceres ermöglichte. Auf Gauß gehen die nichteuklidische Geometrie, zahlreiche mathematische Funktionen, Integralsätze, die Normalverteilung, erste Lösungen für elliptische Integrale und die gaußsche Krümmung zurück. 1807 wurde er zum Universitätsprofessor und Sternwartendirektor in Göttingen berufen und später mit der Landesvermessung des Königreichs Hannover betraut. Neben der Zahlentheorie und der Potentialtheorie erforschte er u. a. das Erdmagnetfeld.
Bereits 1856 ließ der König von Hannover Medaillen mit dem Bild von Gauß und der Inschrift (dem Fürsten der Mathematiker) prägen. Da Gauß nur einen Bruchteil seiner Entdeckungen veröffentlichte, erschlossen sich die Tiefgründigkeit und die Reichweite seines Werks der Nachwelt in vollem Umfang erst, als 1898 sein Tagebuch entdeckt und der Nachlass bekannt wurde.
Nach Gauß sind viele mathematisch-physikalische Phänomene und Lösungen benannt, mehrere Vermessungs- und Aussichtstürme, zahlreiche Schulen, außerdem Forschungszentren und wissenschaftliche Ehrungen wie die seit 1949 verliehene Carl-Friedrich-Gauß-Medaille der Braunschweigischen Wissenschaftlichen Gesellschaft und die festliche Gauß-Vorlesung, die seit 2001 in jedem Semester an einer anderen deutschen Hochschule stattfindet.
Leben.
Eltern, Kindheit und Jugend.
Carl Friedrich kam am 30. April 1777 als Sohn der Eheleute Gauß in Braunschweig zur Welt. Sein Geburtshaus am Wendengraben in der Wilhelmstraße 30 – in dessen Erdgeschoss später das Gauß-Museum eingerichtet wurde – überstand den Zweiten Weltkrieg nicht. Dort wuchs er als einziges gemeinsames Kind seiner Eltern auf; aus einer früheren Ehe des Vaters gab es noch einen älteren Stiefbruder. Sein Vater Gebhard Dietrich Gauß (1744–1808) übte verschiedene Berufe aus, er war unter anderem Gärtner, Schlachter, Maurer, Kaufmannsassistent und Schatzmeister einer kleinen Versicherungsgesellschaft. Die ein Jahr ältere Dorothea Bentze (1743–1839) arbeitete vor der Heirat als Dienstmädchen und wurde dessen zweite Frau. Sie war die Tochter eines Steinmetzen aus Velpke, der früh starb, und wird als klug, von heiterem Sinn und festem Charakter geschildert. Gauß’ Beziehung zu seiner Mutter blieb zeitlebens eng; zuletzt wohnte die 96-Jährige bei ihm in Göttingen.
Anekdoten besagen, dass bereits der dreijährige Carl Friedrich seinen Vater bei der Lohnabrechnung korrigiert hätte. Später sagte Gauß von sich selbst scherzhaft, er habe das Rechnen vor dem Sprechen gelernt. Die Gabe, als Rechenkünstler auch komplizierteste Rechnungen im Kopf durchzuführen, hatte er noch in hohem Alter. Nach einer Erzählung von Wolfgang Sartorius von Waltershausen fiel das mathematische Talent des kleinen Carl Friedrich auf, als er nach zwei Jahren Elementarunterricht in die Rechenklasse der Catherinen-Volksschule kam:
Dort pflegte der Lehrer Büttner seine Schüler mit längeren Rechenaufgaben zu beschäftigen, während er mit einer Karbatsche in der Hand auf und ab ging. Eine Aufgabe war die Summation einer arithmetischen Reihe; wer fertig war, legte seine Tafel mit den Rechnungen für die Lösung auf das Pult. Mit den Worten „ligget se“ in Braunschweiger Plattdeutsch legte der neunjährige Gauß verblüffend rasch seine auf den Tisch, die nur eine einzige Zahl trug. Nachdem Gauß’ außergewöhnliche Begabung erkannt war, beschaffte man zunächst ein anderes Rechenbuch aus Hamburg, bevor der Assistent Martin Bartels brauchbare mathematische Bücher zum gemeinsamen Studium besorgte und dafür sorgte, dass Gauß 1788 das Martino-Katharineum Braunschweig besuchen konnte.
Das elegante Verfahren, mit dem „der kleine Gauß“ die Lösung so rasch im Kopf errechnete, wird heute Gaußsche Summenformel genannt. Um die Summe einer arithmetischen Reihe, beispielsweise der natürlichen Zahlen von 1 bis 100, zu berechnen, werden hierbei Paare gleicher Teilsumme gebildet, zum Beispiel 50 Paare mit der Summe 101 (1 + 100, 2 + 99, …, 50 + 51), womit 5050 als Ergebnis rasch zu erhalten ist.
Als der „Wunderknabe“ Gauß vierzehn Jahre alt war, wurde er dem Herzog Karl Wilhelm Ferdinand von Braunschweig vorgestellt. Dieser unterstützte ihn sodann finanziell. So konnte Gauß 1792–1795 am Collegium Carolinum in Braunschweig studieren, das zwischen höherer Schule und Hochschule anzusiedeln ist und der Vorgänger der heutigen Technischen Universität in Braunschweig ist. Dort war es der Professor Eberhard August Wilhelm von Zimmermann, der sein mathematisches Talent erkannte, ihn förderte und ihm ein väterlicher Freund wurde.
Studienjahre.
Im Oktober 1795 wechselte Gauß an die Georg-August-Universität Göttingen. Dort hörte er bei Christian Gottlob Heyne Vorlesungen über Klassische Philologie, die ihn damals genauso wie die Mathematik interessierte. Letztere wurde durch Abraham Gotthelf Kästner, der zugleich Dichter war, repräsentiert. Bei Georg Christoph Lichtenberg hörte er im Sommersemester 1796 Experimentalphysik und sehr wahrscheinlich im folgenden Wintersemester Astronomie. In Göttingen schloss er Freundschaft mit Wolfgang Bolyai.
Im Alter von 18 Jahren gelang es Gauß als Erstem, die Möglichkeit zur Konstruktion mit Zirkel und Lineal des regelmäßigen Siebzehnecks zu beweisen, und zwar auf Basis einer rein algebraischen Überlegung – eine sensationelle Entdeckung; denn seit der Antike hatte es auf diesem Gebiet kaum noch Fortschritte gegeben. Danach konzentrierte er sich auf das Studium der Mathematik, das er 1799 mit seiner Doktorarbeit an der Universität Helmstedt abschloss. Die Mathematik war vertreten durch Johann Friedrich Pfaff, der sein Doktorvater wurde. Und der Herzog von Braunschweig legte Wert darauf, dass Gauß nicht an einer „ausländischen“ Universität promoviert werden sollte.
Ehen, Familie und Kinder.
Im November 1804 verlobte er sich mit der von ihm länger umworbenen Johanna Elisabeth Rosina Osthoff (* 8. Mai 1780; † 11. Oktober 1809), der Tochter eines Weißgerbers aus Braunschweig, und heiratete sie am 9. Oktober 1805. Am 21. August 1806 wurde in Braunschweig ihr erstes Kind geboren, Joseph Gauß († 4. Juli 1873). Seinen Vornamen bekam der Sohn nach Giuseppe Piazzi, dem Entdecker der Ceres, eines Kleinplaneten, dessen Wiederauffindung 1801 Gauß’ Bahnberechnung ermöglicht hatte.
Schon bald nach dem Umzug der Familie nach Göttingen wurde am 29. Februar 1808 die Tochter Wilhelmine, genannt Minna, geboren, im folgenden Jahr am 10. September 1809 der Sohn Louis. Einen Monat danach, am 11. Oktober 1809, starb Johanna Gauß im Kindbett, Louis wenige Monate später am 1. März 1810. Durch den Tod Johannas fiel Gauß eine Zeit lang in eine Depression; aus dem Oktober 1809 stammt eine von Gauß verfasste bewegende Klage, die in seinem Nachlass gefunden wurde. Der Finder Carl August Gauß (1849–1927) war sein einziger in Deutschland geborener Enkel, Sohn von Joseph und Besitzer des Guts Lohne bei Hannover. Wilhelmine heiratete den Orientalisten Heinrich Ewald, der später als einer der Göttinger Sieben das Königreich Hannover verließ und Professor an der Universität Tübingen wurde.
Am 4. August 1810 heiratete der Witwer, der zwei kleine Kinder zu versorgen hatte, Friederica Wilhelmine Waldeck (genannt "Minna;" * 15. April 1788; † 12. September 1831), Tochter des Göttinger Rechtswissenschaftlers Johann Peter Waldeck, die die beste Freundin seiner verstorbenen Frau gewesen war. Mit ihr hatte er drei Kinder. Eugen Gauß zerstritt sich als Student der Rechte mit seinem Vater und wanderte 1830 nach Amerika aus, wo er als Kaufmann lebte und die „First National Bank“ von St. Charles gründete. Wilhelm Gauß folgte Eugen 1837 in die Vereinigten Staaten und brachte es ebenfalls zu Wohlstand. Seine jüngste Tochter Therese Staufenau führte ihrem Vater nach dem Tod der Mutter bis zu seinem Tod den Haushalt. Minna Gauß war nach 13-jähriger Leidenszeit an Tuberkulose verstorben.
Spätere Jahre.
Nach seiner Promotion lebte Gauß in Braunschweig von dem kleinen Gehalt, das ihm der Herzog zahlte, und arbeitete an seinen "Disquisitiones Arithmeticae."
Einen Ruf an die Petersburger Akademie der Wissenschaften lehnte Gauß aus Dankbarkeit gegenüber dem Herzog von Braunschweig ab, wohl auch in der Hoffnung, dass dieser ihm eine Sternwarte in Braunschweig bauen würde. Nach dem plötzlichen Tod des Herzogs nach der Schlacht bei Jena und Auerstedt wurde Gauß im November 1807 Professor an der Georg-August-Universität Göttingen und Direktor der Sternwarte Göttingen. Dort musste er Lehrveranstaltungen halten, gegen die er eine Abneigung entwickelte. Die praktische Astronomie wurde dort durch Karl Ludwig Harding vertreten, den mathematischen Lehrstuhl hatte Bernhard Friedrich Thibaut inne. Mehrere seiner Studenten wurden einflussreiche Mathematiker, darunter Richard Dedekind und Bernhard Riemann sowie der Mathematikhistoriker Moritz Cantor.
In fortgeschrittenem Alter beschäftigte er sich zunehmend mit Literatur und war ein eifriger Zeitungsleser. Seine Lieblingsschriftsteller waren Jean Paul und Walter Scott. Er sprach fließend Englisch und Französisch und las, neben seiner Vertrautheit mit den klassischen Sprachen der Antike aus seiner Jugendzeit, mehrere moderne europäische Sprachen (Spanisch, Italienisch, Dänisch, Schwedisch), wobei er zuletzt noch Russisch lernte und sich versuchsweise mit Sanskrit befasste, das ihm aber nicht zusagte.
Seit 1804 war er korrespondierendes Mitglied der Académie des sciences und ab 1820 "associé étranger" der Akademie. Ebenfalls 1804 wurde er Fellow der Royal Society und 1820 der Royal Society of Edinburgh. 1808 wurde er zum korrespondierenden und 1820 zum auswärtigen Mitglied der Bayerischen Akademie der Wissenschaften sowie 1822 in die American Academy of Arts and Sciences gewählt.
1838 erhielt er die Copley-Medaille der Royal Society. 1842 wurde er in die Friedensklasse des Ordens Pour le Mérite aufgenommen. Im selben Jahr lehnte er einen Ruf an die Universität Wien ab. 1845 wurde er Geheimer Hofrat und 1846 zum dritten Mal Dekan der Philosophischen Fakultät. 1849 feierte er sein Goldenes Doktorjubiläum und wurde Ehrenbürger von Braunschweig und Göttingen. Sein letzter wissenschaftlicher Austausch war über eine Verbesserung des Foucaultschen Pendels in einem Brief an Alexander von Humboldt 1853.
Er sammelte numerische und statistische Daten aller Art und führte zum Beispiel Listen über die Lebenserwartung berühmter Männer (in Tagen gerechnet). So schrieb er am 7. Dezember 1853 an seinen Freund und Kanzler seines Ordens Alexander von Humboldt u. a.: „Es ist übermorgen der Tag, wo Sie, mein hochverehrter Freund, in ein Gebiet übergehen, in welches noch keiner der Koryphäen der exacten Wissenschaften eingedrungen ist, der Tag, wo Sie dasselbe Alter erreichen, in welchem Newton seine durch 30.766 Tage gemessene irdische Laufbahn geschlossen hat. Und Newtons Kräfte waren in diesem Stadium gänzlich erschöpft: Sie stehen zur höchsten Freude der ganzen wissenschaftlichen Welt noch im Vollgenuss Ihrer bewundernswürdigen Kraft da. Mögen Sie in diesem Genuss noch viele Jahre bleiben.“ Gauß interessierte sich für Musik, besuchte Konzerte und sang viel. Ob er ein Instrument spielte, ist nicht bekannt. Er befasste sich mit Aktienspekulation und hinterließ bei seinem Tod ein beträchtliches Vermögen von 170.000 Talern (bei einem Professoren-Grundgehalt von 1000 Talern jährlich) überwiegend in Wertpapieren, darunter vielfach von Eisenbahnen. Hierzu findet sich eine der wenigen Stellen im Briefwechsel, in denen er sich kritisch zur Politik und zu mit dieser kooperierenden Banken äußert; denn von ihm erworbene Eisenbahnaktien von Hessen-Darmstadt verloren drastisch an Wert, als bekannt wurde, dass die Eisenbahn jederzeit verstaatlicht werden konnte.
Er war noch gegen Ende seines Lebens wissenschaftlich aktiv und hielt 1850/51 Vorlesungen über die Methode der kleinsten Quadrate. Zwei seiner bedeutendsten Schüler, Bernhard Riemann (der bei Gauß 1851 promoviert wurde und Gauß 1854 mit seinem Habilitationsvortrag über die Grundlagen der Riemannschen Geometrie stark beeindruckte) und Richard Dedekind, hatte er erst gegen Ende seiner Laufbahn.
Gauß war sehr konservativ und monarchistisch eingestellt, die Deutsche Revolution 1848/1849 hieß er nicht gut.
Tod.
Gauß litt in seinen letzten Jahren an Herzinsuffizienz (diagnostiziert als "Wassersucht") und an Schlaflosigkeit. Im Juni 1854 reiste er mit seiner Tochter Therese Staufenau zur Baustelle der Eisenbahn von Hannover nach Göttingen, wobei die vorüberfahrende Eisenbahn die Pferde scheuen ließ und die Kutsche umwarf, der Kutscher wurde schwer verletzt, Gauß und seine Tochter blieben unverletzt. Gauß nahm noch an der Einweihung der Eisenbahnlinie am 31. Juli 1854 teil, danach war er durch Krankheit zunehmend auf sein Haus eingeschränkt. Er starb am 23. Februar 1855 morgens um 1:05 Uhr in Göttingen in seinem Lehnstuhl.
Das Granitgrabmal im neugotischen Stil auf dem Göttinger Albani-Friedhof wurde erst im Januar 1859 aufgestellt und entstand nach einem Entwurf von 1856 des hannoverschen Architekten Heinrich Köhler durch den hannoverschen Bildhauer Carl Dopmeyer; das Bronzemedaillon schuf der Bildhauer Heinrich Hesemann. Das Grab galt bald und bis heute als Göttinger Sehenswürdigkeit, auch noch nachdem 1899 auf dem Stadtwall das Gauß-Krüger-Denkmal des Bildhauers Ferdinand Hartzer eingeweiht worden war.
Leistungen.
Begründung und Beiträge zur nicht-euklidischen Geometrie.
Gauß misstraute bereits mit zwölf Jahren der Beweisführung in der elementaren Geometrie und ahnte mit sechzehn Jahren, dass es neben der Euklidischen Geometrie noch eine Nichteuklidische Geometrie geben musste.
Diese Arbeiten vertiefte er in den 1820er Jahren: Unabhängig von János Bolyai und Nikolai Iwanowitsch Lobatschewski bemerkte er, dass Euklids Parallelenaxiom nicht denknotwendig ist. Seine Gedanken zur nichteuklidischen Geometrie veröffentlichte er jedoch nicht, nach den Berichten seiner Vertrauten vermutlich aus Furcht vor dem Unverständnis der Zeitgenossen. Als ihm sein Studienfreund Wolfgang Bolyai, mit dem er korrespondierte, allerdings von den Arbeiten seines Sohnes János Bolyai berichtete, lobte er ihn zwar, konnte es aber nicht unterlassen zu erwähnen, dass er selbst schon sehr viel früher darauf gekommen war („[die Arbeit Deines Sohnes] loben hiesse mich selbst loben“). Er habe darüber nichts veröffentlicht, da er „das Geschrei der Böotier scheue“. Lobatschewskis Arbeiten fand Gauß so interessant, dass er noch in fortgeschrittenem Alter die Russische Sprache lernte, um sie zu studieren.
Primzahlverteilung und Methode der kleinsten Quadrate.
Mit 18 Jahren entdeckte er einige Eigenschaften der Primzahlverteilung und fand die Methode der kleinsten Quadrate, bei der es darum geht, die Summe der Quadrate von Abweichungen zu minimieren. Er sah vorläufig von einer Veröffentlichung ab. Nachdem Adrien-Marie Legendre 1805 seine „Méthode des moindres carrés“ in einer Abhandlung veröffentlicht hatte und Gauß seine Ergebnisse erst 1809 bekannt machte, entstand daraus ein Prioritätsstreit.
Nach dieser Methode lässt sich etwa das wahrscheinlichste Ergebnis für eine neue Messung aus einer genügend großen Zahl vorheriger Messungen ermitteln. Auf dieser Basis untersuchte er später Theorien zur Berechnung von Flächeninhalten unter Kurven (numerische Integration), die ihn zur gaußschen Glockenkurve gelangen ließen. Die zugehörige Funktion ist bekannt als die Dichte der Normalverteilung und wird bei vielen Aufgaben zur Wahrscheinlichkeitsrechnung angewandt, wo sie die (asymptotische, das heißt für genügend große Datenmengen gültige) Verteilungsfunktion der Summe von zufällig um einen Mittelwert streuenden Daten ist. Gauß selbst machte davon unter anderem in seiner erfolgreichen Verwaltung der Witwen- und Waisenkasse der Göttinger Universität Gebrauch. Er stellte über mehrere Jahre eine gründliche Analyse an, in der er zu dem Schluss kam, dass die Pensionen leicht erhöht werden konnten. Damit legte Gauß auch Grundlagen in der Versicherungsmathematik.
Einführung der elliptischen Funktionen.
Als 19-Jähriger führte er 1796, bei Betrachtungen über die Bogenlänge auf einer Lemniskate in Abhängigkeit von der Entfernung des Kurvenpunktes zum Ursprung, mit den lemniskatischen Sinusfunktionen die historisch ersten, heute so genannten elliptischen Funktionen ein. Seine Notizen darüber hat er jedoch nie veröffentlicht. Diese Arbeiten stehen in Zusammenhang mit seiner Untersuchung des arithmetisch-geometrischen Mittels. Die eigentliche Entwicklung der Theorie der elliptischen Funktionen, den Umkehrfunktionen der schon länger bekannten elliptischen Integrale, erfolgte durch Niels Henrik Abel (1827) und Carl Gustav Jacobi.
Fundamentalsatz der Algebra, Beiträge zur Verwendung komplexer Zahlen.
Gauß erfasste früh den Nutzen komplexer Zahlen, so in seiner Doktorarbeit von 1799, die einen Beweis des Fundamentalsatzes der Algebra enthält. Dieser Satz besagt, dass jede algebraische Gleichung mit Grad größer als null mindestens eine reelle oder komplexe Lösung besitzt. Den älteren Beweis von Jean-Baptiste le Rond d’Alembert kritisierte Gauß als ungenügend, aber auch sein eigener Beweis erfüllt noch nicht die späteren Ansprüche an topologische Strenge. Gauß kam auf den Beweis des Fundamentalsatzes noch mehrfach zurück und gab neue Beweise 1815 und 1816.
Gauß kannte spätestens 1811 die geometrische Darstellung komplexer Zahlen in einer Zahlenebene (gaußsche Zahlenebene), die schon Jean-Robert Argand 1806 und Caspar Wessel 1797 gefunden hatten. In dem Brief an Bessel, in dem er dies mitteilt, wurde auch deutlich, dass er weitere wichtige Konzepte der Funktionentheorie wie das Kurvenintegral im Komplexen und den Cauchyschen Integralsatz kannte und erste Ansätze zu Perioden von Integralen. Er veröffentlichte darüber aber nichts bis 1831, als er in seinem Aufsatz zur Zahlentheorie "Theoria biquadratorum" den Namen "komplexe Zahl" einführte. In der Veröffentlichung der Begründung der komplexen Analysis war ihm inzwischen Augustin-Louis Cauchy (1821, 1825) zuvorgekommen. 1849 veröffentlicht er zu seinem Goldenen Doktorjubiläum eine verbesserte Version seiner Dissertation zum Fundamentalsatz der Algebra, in der er im Gegensatz zur ersten Version explizit komplexe Zahlen benutzt.
Beiträge zur Zahlentheorie.
Am 30. März 1796, einen Monat vor seinem neunzehnten Geburtstag, bewies er die Konstruierbarkeit des regelmäßigen Siebzehnecks und lieferte damit die erste nennenswerte Ergänzung euklidischer Konstruktionen seit 2000 Jahren. Dies war aber nur ein Nebenergebnis bei der Arbeit für sein zahlentheoretisch viel weiterreichendes Werk "Disquisitiones Arithmeticae."
Eine erste Ankündigung dieses Werkes fand sich am 1. Juni 1796 im "Intelligenzblatt der Allgemeinen Literatur-Zeitung" in Jena. Die 1801 erschienenen "Disquisitiones" wurden grundlegend für die weitere Entwicklung der Zahlentheorie, zu der einer seiner Hauptbeiträge der Beweis des quadratischen Reziprozitätsgesetzes war, das die Lösbarkeit von quadratischen Gleichungen „mod p“ beschreibt und für das er im Laufe seines Lebens fast ein Dutzend verschiedene Beweise fand. Neben dem Aufbau der elementaren Zahlentheorie auf modularer Arithmetik findet sich eine Diskussion von Kettenbrüchen und der Kreisteilung, mit einer berühmten Andeutung über ähnliche Sätze bei der Lemniskate und anderen elliptischen Funktionen, die später Niels Henrik Abel und andere anregten. Einen Großteil des Werks nimmt die Theorie der quadratischen Formen ein, deren Geschlechtertheorie er entwickelt.
Es finden sich aber noch viele weitere tiefliegende Resultate, oft nur kurz angedeutet, in diesem Buch, die die Arbeit späterer Generationen von Zahlentheoretikern in vielfältiger Weise befruchteten. Der Zahlentheoretiker Peter Gustav Lejeune Dirichlet berichtete, er habe die Disquisitiones sein Leben lang bei der Arbeit stets griffbereit gehabt. Das Gleiche gilt für die beiden Arbeiten über biquadratische Reziprozitätsgesetze von 1825 und 1831, in denen er die gaußschen Zahlen einführt (ganzzahliges Gitter in komplexer Zahlenebene). Die Arbeiten sind wahrscheinlich Teil einer geplanten Fortsetzung der "Disquisitiones", die aber nie erschien. Beweise für diese Gesetze gab dann Gotthold Eisenstein 1844.
André Weil regte die Lektüre dieser Arbeiten (und einiger Stellen im Tagebuch, wo es in versteckter Form um Lösung von Gleichungen über endlichen Körpern geht) nach seinen eigenen Angaben zu seinen Arbeiten über die Weil-Vermutungen an. Gauß kannte zwar den Primzahlsatz, veröffentlichte ihn aber nicht.
Gauß förderte auf diesem Gebiet eine der ersten Mathematikerinnen der Neuzeit, Sophie Germain. Gauß korrespondierte mit ihr ab 1804 über Zahlentheorie, wobei sie sich erst eines männlichen Pseudonyms bediente. Erst 1806 gab sie ihre weibliche Identität preis, als sie sich nach der Besetzung Braunschweigs bei dessen französischem Kommandanten für seine Sicherheit verwendete. Gauß lobte ihre Arbeit und ihr tiefes Verständnis der Zahlentheorie und bat sie, ihm für sein Preisgeld, das er mit dem Lalande-Preis erhielt, 1810 in Paris eine genaue Pendeluhr zu besorgen.
Beiträge zur Astronomie.
Nach der Fertigstellung der "Disquisitiones" wandte sich Gauß der Astronomie zu. Anlass hierfür war die Entdeckung des Zwergplaneten Ceres durch Giuseppe Piazzi am 1. Januar 1801, dessen Position am Himmel der Astronom kurz nach seiner Entdeckung wieder verloren hatte. Der 24-jährige Gauß schaffte es, die Bahn mit Hilfe einer neuen indirekten Methode der Bahnbestimmung und seiner Ausgleichsrechnungen auf Basis der "Methode der kleinsten Quadrate" so zu berechnen, dass Franz Xaver von Zach ihn am 7. Dezember 1801 und – bestätigt – am 31. Dezember 1801 wiederfinden konnte. Heinrich Wilhelm Olbers bestätigte dies unabhängig von Zach durch Beobachtung am 1. und 2. Januar 1802.
Das Problem der Wiederauffindung der Ceres als solches lag darin, dass durch die Beobachtungen weder der "Ort," ein Stück der "Bahn," noch die "Entfernung" bekannt sind, sondern nur die "Richtungen" der Beobachtung. Dies führt auf die Suche einer Ellipse und nicht nach einem Kreis, wie ihn Gauß’ Konkurrenten ansetzten. Einer der Brennpunkte der Ellipse ist bekannt (die Sonne selbst), und die Bögen der Bahn der Ceres zwischen den Richtungen der Beobachtung werden nach dem zweiten Keplerschen Gesetz durchlaufen, das heißt, die Zeiten verhalten sich wie die vom Leitstrahl überstrichenen Flächen. Außerdem ist für die rechnerische Lösung bekannt, dass die Beobachtungen selbst von einem Kegelschnitt im Raum ausgehen, der Erdbahn selbst.
Im Grundsatz führt das Problem auf eine Gleichung achten Grades, deren triviale Lösung die Erdbahn selbst ist. Durch umfangreiche Nebenbedingungen und die von Gauß entwickelte "Methode der kleinsten Quadrate" gelang es dem 24-Jährigen, für die Bahn der Ceres für den 25. November bis 31. Dezember 1801 den von ihm berechneten Ort anzugeben. Damit konnte Zach am letzten Tag der Vorhersage Ceres wiederfinden. Der Ort lag nicht weniger als 7° (d. h. 13,5 Vollmondbreiten) östlich der Stelle, wo die anderen Astronomen Ceres vermutet hatten, was nicht nur Zach, sondern auch Olbers gebührend würdigte.
Diese Arbeiten, die Gauß noch vor seiner Ernennung zum Sternwarten-Direktor in Göttingen unternahm, machten ihn mehr noch als seine Zahlentheorie in Europa mit einem Schlag bekannt und verschafften ihm unter anderem eine Einladung an die Akademie nach Sankt Petersburg, deren korrespondierendes Mitglied er 1802 wurde.
Die in diesem Zusammenhang von Gauß gefundene iterative Methode wird noch heute angewandt, weil sie es einerseits ermöglicht, alle bekannten Kräfte ohne erheblichen Mehraufwand in das physikalisch-mathematische Modell einzubauen, und andererseits computertechnisch einfach handhabbar ist.
Gauß beschäftigte sich danach noch mit der Bahn des Asteroiden Pallas, auf deren Berechnung die Pariser Akademie ein Preisgeld ausgesetzt hatte, konnte die Lösung jedoch nicht finden. Seine Erfahrungen mit der Bahnbestimmung von Himmelskörpern mündeten jedoch 1809 in seinem Werk "Theoria motus corporum coelestium in sectionibus conicis solem ambientium."
Beiträge zur Potentialtheorie.
In der Potentialtheorie und Physik ist der gaußsche Integralsatz (1835, veröffentlicht erst 1867) grundlegend. Er identifiziert in einem Vektorfeld das Integral der Divergenz (Ableitungsvektor angewandt auf das Vektorfeld) über ein Volumen mit dem Integral des Vektorfeldes über die Oberfläche dieses Volumens.
Landvermessung und Erfindung des Heliotrops.
Auf dem Gebiet der Geodäsie sammelte Gauß zwischen 1797 und 1801 die ersten Erfahrungen, als er dem französischen Generalquartiermeister Lecoq bei dessen Landesvermessung des Herzogtums Westfalen als Berater zur Seite stand. 1816 wurde sein ehemaliger Schüler Heinrich Christian Schumacher vom König von Dänemark mit der Durchführung einer Breiten- und Längengradmessung in dänischem Gebiet beauftragt. Im Anschluss daran erhielt Gauss von 1820 bis 1826 die Leitung der Landesvermessung des Königreichs Hannover („gaußsche Landesaufnahme“), wobei ihm zeitweise sein Sohn Joseph assistierte, der in der Hannoverschen Armee als Artillerieoffizier tätig war. Diese Vermessung setzte die dänische auf hannoverschem Gebiet nach Süden fort, wobei Gauß die von Schumacher gemessene Braaker Basis mitbenutzte. Durch die von ihm erfundene Methode der kleinsten Quadrate und die systematische Lösung umfangreicher linearer Gleichungssysteme (gaußsches Eliminationsverfahren) gelang ihm eine erhebliche Steigerung der Genauigkeit. Auch für die praktische Durchführung interessierte er sich: Er erfand als Messinstrument das über Sonnenspiegel beleuchtete Heliotrop.
Gaußsche Krümmung und Geodäsie.
In diesen Jahren beschäftigte er sich – angeregt durch die Geodäsie und die Karten-Theorie – mit der Theorie der Differentialgeometrie der Flächen, führte unter anderem die gaußsche Krümmung ein und bewies sein "Theorema egregium." Dieses besagt, dass die gaußsche Krümmung, die durch die Hauptkrümmungen einer Fläche im Raum definiert ist, allein durch Maße der inneren Geometrie, d. h. durch Messungen innerhalb der Fläche, bestimmt werden kann. Daher ist die gaußsche Krümmung unabhängig von der Einbettung der Fläche in den dreidimensionalen Raum, sie ändert sich also bei längentreuen Abbildungen von Flächen aufeinander nicht. Aus diesem Grund kann keine maßstabsgetreue Weltkarte erstellt werden.
Wolfgang Sartorius von Waltershausen berichtet, Gauß habe bei Gelegenheit der Hannoverschen Landesvermessung empirisch nach einer Abweichung der Winkelsumme besonders großer Dreiecke vom euklidischen Wert 180° gesucht – wie etwa bei dem von Gauß gemessenen planen Dreieck, das vom Brocken im Harz, dem Inselsberg im Thüringer Wald und dem Hohen Hagen bei Dransfeld gebildet wird. Max Jammer schrieb über diese gaußsche Messung und ihr Ergebnis:
Der Winkelexzess in diesem Dreieck beträgt aufgrund der Größe der Erde nur 0,25 Winkelminuten. Die oben erwähnte Vermutung zur Motivation ist Gegenstand von Spekulationen.
Magnetismus, Elektrizität und Telegrafie.
Zusammen mit Wilhelm Eduard Weber arbeitete er ab 1831 auf dem Gebiet des Magnetismus. Weber erfand mit Gauß 1833 eine elektromagnetische Telegraphenanlage mit einem Relais ähnlichen Prinzip, die seine Sternwarte mit dem physikalischen Institut über eine Entfernung von 1100 Metern verband. Dabei verwendeten sie der Telegrafie angepasste Galvanometer und Magnetometer und entwickelten mehrere Versionen. Der Leiter bestand aus zwei Kupferdrähten (später Eisendrähte), die jeweils zwei Spulen miteinander verbanden: eine in Webers Kabinett und eine in der Sternwarte von Gauß. Beide Spulen waren locker um einen Magnetstab gewickelt und konnten entlang des Stabes bewegt werden. Das zwei Jahre zuvor entdeckte Prinzip der elektromagnetischen Induktion löste bei einer Bewegung der Sender-Spule, die um einen Stabmagneten gewickelt war, einen Stromstoß aus, der über den Draht zur anderen Spule geleitet und dort wieder in Bewegung übersetzt wurde. Das Ausschlagen des in einem Holzrahmen befestigten Stabmagneten mit Spule beim Empfänger (das ein Relais oder Magnetometer bzw. Spiegelgalvanometer ähnliches Prinzip darstellte) wurde dabei durch ein System von Spiegeln und Fernrohren vergrößert und sichtbar gemacht. Buchstaben wurden über einen Binärcode dargestellt, der der Stromrichtung entsprach (der Spiegel im Empfänger wurde jeweils nach links oder rechts gedreht). Die erste Nachricht war wahrscheinlich "Wissen vor meinen, Sein vor scheinen" – diese Nachricht fand sich in den Aufzeichnungen von Gauß in Binärcode. Nach anderen Quellen kündigten sie die Ankunft eines Dieners an, der sonst die Botschaften überbrachte ("Michelmann kommt"). Bereits zwei Jahre vor Gauß und Weber entwickelte Joseph Henry und ein Jahr vor Gauß und Weber entwickelte Paul Ludwig Schilling von Cannstatt eine elektromagnetische Telegrafieapparatur, es kam bei beiden aber zu keiner Anwendung über längere Strecken und er fand auch keine größere Aufmerksamkeit. 1845 wurde die Anlage von Gauß und Weber durch einen Blitzschlag zerstört, wobei auch der Hut einer Dame in Brand geriet. Ein Stall, an dem die Leitung vorbeiging, blieb aber verschont, was ansonsten einen möglichen Stadtbrand ausgelöst haben könnte. Die kommerzielle Anwendung erfolgte aber durch andere, insbesondere durch Samuel Morse in den USA einige Jahre nach der Erfindung von Gauß und Weber. Gauß sah aber die Möglichkeiten der Anwendung zum Beispiel im großräumigen russischen Reich und für die Eisenbahn und sie verfassten ein entsprechendes Memorandum, was sich in Deutschland aber damals wegen der Kosten für die Leitungen nicht realisierte. Obwohl sie darüber auch veröffentlichten, geriet auch die Telegrafenerfindung von Gauß und Weber in den Jahren darauf fast in Vergessenheit und andere reklamierten die Erfindung für sich.
Mit Weber zusammen entwickelte er das CGS-Einheitensystem, das 1881 auf einem internationalen Kongress in Paris zur Grundlage der elektrotechnischen Maßeinheiten bestimmt wurde. Er organisierte ein weltweites Netz von Beobachtungsstationen (Magnetischer Verein), um das erdmagnetische Feld zu vermessen.
Gauß fand bei seinen Experimenten zur Elektrizitätslehre 1833 vor Gustav Robert Kirchhoff (1845) die Kirchhoffschen Regeln für Stromkreise.
Sonstiges.
Von ihm stammt die Gaußsche Osterformel zur Berechnung des Osterdatums, und er entwickelte auch eine Pessach-Formel.
Arbeitsweise von Gauß.
Gauß arbeitete auf vielen Gebieten, veröffentlichte seine Ergebnisse jedoch erst, wenn eine Theorie seiner Meinung nach vollständig war. Dies führte dazu, dass er Kollegen gelegentlich darauf hinwies, dieses oder jenes Resultat schon lange bewiesen zu haben, es wegen der Unvollständigkeit der zugrundeliegenden Theorie oder der ihm fehlenden, zum schnellen Arbeiten nötigen Unbekümmertheit nur noch nicht präsentiert zu haben.
Bezeichnenderweise besaß Gauß ein Petschaft, das einen von wenigen Früchten behangenen Baum mit dem Motto "Pauca sed Matura" („Weniges, aber Reifes“) zeigte. Einer Anekdote zufolge lehnte er es gegenüber Bekannten, die um Gauß’ umfangreiche Arbeiten wussten, ab, diesen Wahlspruch zu ersetzen, z. B. durch "Multa nec immatura" („Vieles, aber nicht Unreifes“), da er nach seinem Bekunden lieber eine Entdeckung einem anderen überließ, als sie nicht vollständig ausgearbeitet unter seinem Namen zu veröffentlichen. Das ersparte ihm Zeit in den Bereichen, die Gauß eher als Randthemen betrachtete, so dass er diese Zeit auf seine originäre Arbeit verwenden konnte.
Gauß’ wissenschaftlicher Nachlass wird in den Spezialsammlungen der Niedersächsischen Staats- und Universitätsbibliothek Göttingen aufbewahrt.
Sonstiges.
Nach seinem Tod wurde das Gehirn entnommen. Es wurde mehrfach, zuletzt 1998, mit verschiedenen Methoden untersucht, aber ohne einen besonderen Befund, der seine mathematischen Fähigkeiten erklären würde. Es befindet sich heute separat, in Formalin konserviert, in der "Abteilung für Ethik und Geschichte der Medizin" der Medizinischen Fakultät der Universität Göttingen.
Im Herbst 2013 wurde an der Universität Göttingen eine Verwechslung aufgedeckt: Die zu diesem Zeitpunkt über 150 Jahre alten Gehirnpräparate des Mathematikers Gauß und des Göttinger Mediziners Conrad Heinrich Fuchs sind – wahrscheinlich schon bald nach der Entnahme – vertauscht worden. Beide Präparate wurden in der Anatomischen Sammlung der Göttinger Universitätsklinik in Gläsern mit Formaldehyd aufbewahrt. Das Originalgehirn von Gauß befand sich im Glas mit der Aufschrift „C. H. Fuchs“, und das Fuchs-Gehirn war etikettiert mit „C. F. Gauss“. Damit sind die bisherigen Untersuchungsergebnisse über das Gehirn von Gauß obsolet. Die Wissenschaftlerin Renate Schweizer befasste sich wegen der vom vermeintlichen Gehirn von Gauß angefertigten MRT-Bilder, die eine seltene Zweiteilung der Zentralfurche zeigten, erneut mit den Präparaten und entdeckte, dass diese Auffälligkeit in Zeichnungen, die kurz nach Gauß’ Tod erstellt worden waren, fehlte.
Gauß als Namensgeber.
Von Gauß entwickelte Methoden oder Ideen, die seinen Namen tragen, sind:
Methoden und Ideen, die teilweise auf seinen Arbeiten beruhen, sind:
Zu seinen Ehren benannt sind:
Schriften.
Gesamtausgabe.
In den Bänden 10 und 11 finden sich ausführliche Kommentare von Paul Bachmann (Zahlentheorie), Ludwig Schlesinger (Funktionentheorie), Alexander Ostrowski (Algebra), Paul Stäckel (Geometrie), Oskar Bolza (Variationsrechnung), Philipp Maennchen (Gauß als Rechner), Harald Geppert (Mechanik, Potentialtheorie), Andreas Galle (Geodäsie), Clemens Schaefer (Physik) und Martin Brendel (Astronomie). Herausgeber war zuerst Ernst Schering, dann Felix Klein.
Denkmäler.
Gaußsteine.
Zu den zahlreichen auf Anleitung von Gauß aufgestellten Vermessungssteinen gehören:
Bildnisse.
Von Gauß gibt es relativ viele Bildnisse, unter anderem: |
908 | 403636 | https://de.wikipedia.org/wiki?curid=908 | Containerschiff | Ein Containerschiff ist ein Schiffstyp, der für den Transport von ISO-Containern ausgelegt ist.
Die Ladungskapazität von Containerschiffen wird in TEU ("Twenty-foot Equivalent Units", vgl. Tonnage) angegeben und entspricht der Anzahl von 20-Fuß-Containern, die geladen werden können. Üblich sind auch 40-Fuß-Container (gemessen in FEU wie "Forty-foot Equivalent Unit"), seit Mitte der 1990er Jahre ebenso 45-, 48- und 53-Fuß-Container sowie die seltener anzutreffenden 30-Fuß-Container, die allerdings an Deck geladen werden müssen, da die "Cellguides" (Führungsschienen in der Vertikalen) nur für 40-Fuß-Container ausgelegt sind. Für sehr große bzw. schwere Stückgüter existieren auch so genannte "Flat Racks", Open-Top-Container oder "platforms", die im Verbund mit Standard-Containern geladen werden können.
Bis zu einer Ladungskapazität von 3400 TEU besitzen Containerschiffe teilweise eigenes Ladegeschirr, Schiffe mit höheren Kapazitäten benötigen für den Containerumschlag entsprechende Suprastruktur im Hafen. Dies sind üblicherweise Containerbrücken an Containerterminals. Die Tendenz hin zu immer größeren Containerschiffen bewirkt eine steigende Konzentration der möglichen Anlaufpunkte für Containerschiffe auf relativ wenige, zentrale Containerhäfen, über die ein Großteil des Seehandels abläuft. Diese Häfen werden zu Hubs; von und nach dort fahren kleinere Containerschiffe, z. B. Feederschiffe (siehe auch Umladeproblem – ein Optimierungsproblem aus dem Bereich der Logistik).
Geschichte.
Das Containerschiff entstand in den 1950er Jahren in den Vereinigten Staaten. Nach der 1955 in Dienst gestellten "Clifford J. Rogers" mit noch sehr kleinen Containern folgte 1956 der umgebaute Tanker "Ideal X" des Speditionsunternehmers Malcolm McLean. Dieser fing damit an, die Aufliegergehäuse von Sattelschleppern ohne Fahrgestell über größere Seestrecken mit dem Schiff zu befördern. 1960 gründete McLean die Reederei Sea-Land Corporation. Schon in der ersten Hälfte der 1960er Jahre entstanden als Semicontainerschiffe geplante Neubauten, wie die 1963 in Dienst gestellte Tobias Mærsk, 1964 wurde in Australien mit der "Kooringa" der erste als Vollcontainerschiff für ISO-Container geplante Neubau in Betrieb genommen.
Die Schiffe sind so eingerichtet, dass Container „längs“ zur Schiffsachse in Ladebuchten oder auf Deck gestapelt werden. Cellguides sind vertikale Schienen zur Führung und Befestigung der Container. In eine Zelle passt genau ein Stapel aus 40-Fuß-Containern. Wird ein Platz mit zwei längs aneinandergestellten 20-Fuß-Container genutzt, wird dieses Paar am Stoß mit Schraubarmaturen verbunden.
Mitte der 1960er Jahre gab es in den Vereinigten Staaten bereits 171 (allerdings nahezu alles umgebaute) Containerschiffe. 1966 lief erstmals in Deutschland das Containerschiff "Fairland" der Reederei Sea-Land in Bremen ein. Schon am 31. Juli 1968 waren weltweit 102 Semi- oder Vollcontainerschiffe beauftragt oder in Bau. Ab 1968 begann die Umstellung der wichtigsten Liniendienste auf den Containerverkehr, zunächst im Nordatlantikverkehr (zwischen USA/Ostküste und Westeuropa), ab Oktober 1968 der Transpazifikdienst zwischen Japan–USA/Westküste. Hier wurde von der NYK Line die "Hakone Maru" eingesetzt. Ende 1968 wurden vom Bremer Vulkan mit der "Weser Express" für den Norddeutschen Lloyd sowie von Blohm + Voss, Hamburg, mit der "Elbe Express" für die HAPAG die ersten Containerschiffe (je 750 TEU) in Deutschland gebaut. Sie kamen mit den Schwesterschiffen "Rhein Express" und "Mosel Express" auf der Nordatlantik-Route in Betrieb. Ebenfalls 1968 setzte die Hamburger Reederei August Bolten mit der "Bärbel Bolten" (140 TEU) ein weiteres Vollcontainerschiff unter deutscher Flagge ein.
Am 1. Juli 1970 betrug der weltweite Bestand an Semi- und Vollcontainerschiffen 201 Einheiten (davon 154 Vollcontainerschiffe), im Jahr darauf betrug der Bestand an Vollcontainerschiffen 231 Einheiten. 1969 erfolgte die Umstellung des Liniendienstes Europa–Australien/Neuseeland auf den Containerverkehr, Ende 1971 Europa–Fernost, im Mai 1977 Europa–Südafrika sowie Europa–Karibik / Golf von Mexiko. 1981 folgte die Route Südafrika–Fernost (Safari-Dienst). Damit war die Umstellung der wichtigsten Linienverbindungen auf den Containerverkehr abgeschlossen.
1984 bot die Reederei United States Lines erstmals einen in östliche Richtung laufenden "Round the World Service" an. Dieser mit zwölf Schiffen der American-New-York-Klasse betriebene Dienst endete nach sechs Monaten mit dem Konkurs der Reederei. Ein im gleichen Jahr von der Evergreen Marine aus Taiwan via Panamakanal und Sueskanal mit jeweils zwölf Schiffen in beiden Richtungen gestarteter Dienst wurde etwa 1999 wieder aufgegeben, da ein Linienverkehr von Punkt A nach B effizienter ist. In den 1990er Jahren ging auch die deutsche Senator Lines mit einem "Round the World Service" an den Start, stellte ihn jedoch zu Gunsten eines "Pendulum Service" ein.
Als Containermaße haben sich 20 bzw. 40 ft Länge, 8 ft Breite und 8 ft 6 in Höhe international durchgesetzt. Das alte von Sea Land eingeführte Containermaß von 35 ft ist weggefallen, vielmehr werden heute vermehrt auch 40-ft- und 45-ft-"High-Cube"-Container eingesetzt, innerhalb der USA auch 53-Fuß-Container, da dort längere Sattelzüge als in Europa zulässig sind.
Anfang 2020 waren die Frachtraten wegen der Auswirkungen der COVID-19-Pandemie auf die Weltwirtschaft stark eingebrochen, ein Container von China nach Europa kostete nur noch rund 800 Dollar statt davor 1000 Dollar, Schiffe mit einer Gesamtkapazität von 2,4 Millionen Standardcontainern (TEU) waren als Auflieger vorübergehend unbeschäftigt. Doch schon im August 2020 belebte sich der weltweite Schiffsverkehr deutlich, die Größe der inaktiven Flotte sank auf unter eine Million TEU.
Im vierten Quartal 2020 setzte ein regelrechter Boom in der Container-Schifffahrt ein. Die Zahl der Neubestellungen von Schiffen der HMM Megamax-Klasse erreichte mit einer Gesamtkapazität von 673.500 TEU das höchste Niveau seit dem dritten Quartal 2015. Für den Zeitraum bis 2024 rechnet DHL mit jährlichen Steigerungsraten im weltweiten Containerverkehr zwischen drei und vier Prozent, beim Verkehr von Asien nach Europa wird eine Zunahme um 3,7 % vorhergesagt, von Asien nach Nordamerika ein Plus von 3,9 %. Die Frachtraten von Shanghai nach Hamburg und Los Angeles sind im Januar 2021 förmlich explodiert, auf bis zu 9520 Dollar pro Container, die Umsätze und Gewinne der Reedereien sind 2020 gegenüber 2019 enorm gestiegen, bei Hapag-Lloyd um 82 %, bei Maersk um 181 %, bei CMA CGM um 803 %.
Nach den statistischen Erhebungen des Branchendienstes "Alphaliner" waren im Februar 2021 weltweit 6220 Containerschiffe mit einer Ladekapazität von 24,35 Millionen TEU im Einsatz. Die größten drei Reedereien nach Marktanteil waren demnach A. P. Møller-Mærsk (16,9 %), Mediterranean Shipping Company (15,9 %) und die COSCO Group (12,5 %). Größte deutsche Gesellschaft ist Hapag-Lloyd auf Platz 5 mit 7,2 %.
Technische Entwicklung.
Containerschiffe wurden zunächst in Generationen eingeteilt, dann fanden von Wasserstraßen abgeleitete Schiffsgrößen wie "Panamax" Verwendung, schließlich Klassifizierungen wie "VLCS" and "ULCS".
Erste und zweite Generation.
Die ersten Containerschiffe Anfang der 1960er Jahre waren umgebaute Massengutfrachter oder Tanker. Der Umbau bestehender Schiffe war kostengünstiger und weniger riskant, da Container erst langsam Verbreitung fanden. Diese Schiffe hatten Kräne an Bord, da die meisten Hafenterminals noch nicht für den Containerumschlag ausgerüstet waren. Außerdem waren sie mit einer Geschwindigkeit von etwa 18 bis 20 Knoten relativ langsam und konnten Container nur auf den umgerüsteten Decks und nicht im Bauchraum befördern. Schließlich wurden auch Neubauten dieses Types in Auftrag gegeben, der die erste Generation von Containerschiffen bildet, die bis zu 1.000 TEU transportieren konnten. Die Größe der 1968 gebauten Containerschiffe war die Maßeinheit für ein Schiff der ersten Generation.
Mit der massiven Verbreitung des Containers Anfang der 1970er Jahre begann der Bau der zu der zweiten Generation gehörenden Vollcontainerschiffe ("engl. fully cellular containership"). Zu den ersten ausschließlich für den Containerumschlag gebauten Schiffsklassen gehören die "Typ-C7-Klasse" mit der "American Lancer" (1968) oder die Encounter-Bay-Klasse (1969). Die Zellen, in denen Container übereinander gestapelt werden, bieten den großen Vorteil, dass auch die Schiffskapazität unter Deck genutzt werden kann, was zu einer Verdopplung der TEU-Menge führte. Zur Erhöhung der Kapazität wurden zudem die Kräne aus der Schiffskonstruktion entfernt, da mittlerweile spezialisierte Containerterminals diese Aufgabe übernahmen. Diese Vollcontainerschiffe waren mit einer Geschwindigkeit von 20 bis 24 Knoten auch erheblich schneller als ihre Vorgängergeneration.
Panamax-Schiffe.
Lange Zeit lag die Obergrenze der Abmessungen von Containerschiffen bei 275 m Länge und 32,3 m Breite, damit sie den (alten) Panamakanal durchfahren konnten. Schiffe dieser Größe wurden früher als 3. Generation bezeichnet.
Seit etwa 1988 bezeichnet man als "Panamax" die Schiffe, die auch die maximale Länge von Panamakanal-Schleusen (294 Meter) nutzen (und nicht nur die Breite).
In der Anfangsphase (etwa 1972) waren maximal 3000 TEU die Obergrenze des technisch Umsetzbaren, 1988 waren es 4300 TEU. Spätere „Panamax“-Neubauten konnten bis zu 5060 TEU laden.
Für größere Schiffstypen mit mehr als 32,3 m Breite ist der Name "Post-Panamax" gebräuchlich. Schiffe mit über 7000 TEU werden (Stand 2011) als "Super-Post-Panamax-" oder "Post-Panamax-Plus"-Schiffe bezeichnet, die über 11.000 TEU als "New Panamax".
Post-Panamax-Schiffe.
Die ersten Containerschiffe, die breiter als 32,3 m (Panamakanal-Schleusen) waren, sind die fünf Schiffe der President-Truman-Klasse der "American President Lines" (APL, USA). Sie wurden 1988 von der Werft Bremer Vulkan (Vegesack) und HDW (Kiel) gebaut und nur im Trans-Pazifik-Dienst der Reederei eingesetzt. Sie waren 275,0 m ü. a. lang und 38,5 m breit bei 61.296 BRZ, 53.613 tdw und konnten maximal 4400 TEU befördern. An Deck wurden maximal 15 Container nebeneinander gestaut.
1991 wurde von der Daewoo Heavy Industries die "CGM Normandie" für die französische CGM (heutige CMA CGM) gebaut. Sie hatte eine Kapazität von 4410 TEU und war das erste Post-Panamax-Schiff im Europa–Fernost-Dienst. Auch hier konnten bei einer Schiffsbreite von 38,0 m 15 Container nebeneinander an Deck platziert werden. 1992 folgte die "Bunga Pelangi" für die Reederei MISC (Malaysia International Shipping Corporation Berhad) mit ähnlichen Abmessungen.
1994/1995 folgten die "Nedlloyd Hongkong" und "Nedlloyd Honshu" als erste und einzige Post-Panamax-Open-Top-Schiffe für Royal Nedlloyd. Aus Japan folgten ab Dezember 1994 drei Schiffe der "NYK-Altair"-Klasse für die NYK Line, fünf baugleiche Schiffe für die Mitsui O.S.K. Lines und die "OOCL-California"-Klasse der Reederei OOCL (Hongkong), die erstmals mit 40 Metern Breite auf Deck 16 Container nebeneinander stauen konnten.
1995 wurden für American President Lines (APL) weitere sechs Post-Panamax-Schiffe (C11-Klasse) gebaut, jeweils drei bei HDW (Kiel) und Daewoo Heavy Industries. APL hatte zu dieser Zeit (bis Anfang 1999) mit insgesamt elf solchen Schiffen die größte Post-Panamax-Flotte.
Die ersten über 300 Meter langen Containerschiffe wurden ab 1996 mit dem Regina-Mærsk-Typ von der dänischen Odense Staalskibsværft gebaut. Mit einer Breite von 42,8 Metern können sie 17 Containerreihen nebeneinander stauen. Die Stellplatzkapazität von 7000 TEU war über 50 % größer als die der bisherigen Rekordhalter – einen solchen Größensprung hatte es bis dahin noch nicht gegeben.
Projekte und fertige Konstruktionsentwürfe von Klassifizierungsgesellschaften oder/und Bauwerften für einen als Suezmax-Containerschiff bezeichneten Typ für bis zu 14.000 TEU gibt es seit etwa 1996. Seit dem Ausbau des Suezkanals können jedoch auch größere Schiffe wie die Emma-Mærsk-Klasse den Suezkanal passieren. Auch sind Entwürfe für ein Malaccamax-Containerschiff für 21.000 TEU bereits durchgerechnet. Hierbei blieben jedoch die Begrenzungen bei den Abfertigungskapazitäten und die Tiefgangsbeschränkungen in den Containerhäfen unberücksichtigt.
Die deutsche "Hapag-Lloyd AG" hielt sehr lange ausschließlich am Panamax-Schiffstyp fest und begann als letzte der größeren Container-Reedereien erst im Jahr 2001 mit dem Neubau eines ersten Post-Panamax-Schiffs, der "Hamburg Express".
2005 wurde mit der "MSC Pamela" das erste Containerschiff mit 45,6 m Breite in Dienst gestellt, hier können erstmals 18 Container nebeneinander gestaut werden.
Very Large Container Ships (VLCS).
Die Odense-Werft realisierte ab September 2006 mit der "Emma-Mærsk-Klasse" einen sehr großen Containerschiffstyp mit einer Tragfähigkeit von 14.770 TEU. Er kommt trotz seiner Größe mit einer Schiffsschraube aus; sie wird angetrieben von einem 14-Zylinder-Wärtsilä-RT-flex-96-C-B-Zweitakt-Motor mit weit über 80 MW Leistung. Die acht Schiffe der "Emma-Mærsk"-Klasse, die einheitlich mit „E“ beginnende Mærsk-Namen tragen, können bei 56,4 m Breite 22 Container nebeneinander auf Deck laden. Sie sind 397 m lang und haben einen Maximaltiefgang von 16 m. Bis zu elf Containerlagen übereinander werden im Rumpf des Schiffes, darüber maximal neun Lagen an Deck gestapelt. Es gibt Anschlüsse für 1000 Kühlcontainer.
2016 wurde begonnen, die Containerkapazität der Schiffe durch Erhöhung der Deckshäuser und Laschbrücken bei Beihai Shipbuilding in Qingdao um etwa 3.100 TEU zu vergrößern. Die Umbauten sollen 2018 abgeschlossen werden. Die Containerkapazität erhöht sich auf 17.816 TEU.
Im Jahr 2008 wurde die "MSC Daniela" in Dienst genommen. Sie ist im Dienst der Mediterranean Shipping Company. Mit einer Länge von 366 m und Breite von 51,2 m ist der vom Germanischen Lloyd klassifizierte „Megaboxer“ für den neuen Schleusenkanal des Panamakanals ausgelegt und kann 13.800 TEU transportieren. Das Typschiff der MSC-Daniela-Klasse leitete den Bau einer Serie von Schwesterschiffen ein, zu der auch die – allerdings anders motorisierte – CMA CGM Christophe Colomb gehört.
Ultra Large Container Ships (ULCS).
Maersk bestellte im Februar 2011 zehn 18.270-TEU-Schiffe der Triple-E-Klasse mit einer Option auf 20 weitere Schiffe. Im Juni 2011 wurde die Option auf den Bau von weiteren zehn Schiffen eingelöst, wodurch sich die Bauorder auf 20 Schiffe erhöhte. Sie sind mit zwei Hauptmaschinen ausgestattet. Ihre Maximalgeschwindigkeit beträgt 23 Knoten (die der Emma-Maersk-Klasse 25 Knoten). Auch sind die Schiffe darauf ausgelegt, bei niedrigerer Geschwindigkeit treibstoffsparend betrieben zu werden (Slow steaming).
„Triple E“ steht für „economy of scale, energy efficiency and environmentally improved“, also für wirtschaftlich durch Größe, energieeffizient und umweltfreundlicher. Ende 2012 fuhren weltweit 163 Containerschiffe mit einer Kapazität von mehr als 10.000 TEU, inklusive der 20 Triple-E von Maersk waren 120 weitere bestellt. Das erste dieser Schiffe hatte am 23. Februar 2013 in Korea seinen "semi-launch".
Anfang März 2015 gab die japanische Reederei "Mitsui O.S.K. Lines" die ersten Einheiten mit über 20.000 Stellplätzen in Auftrag. Der MOL 20.000-TEU-Typ kam 2017 in Fahrt. Nach Auffassung von Schifffahrtsexperten war damit das „Ende der Fahnenstange“ erreicht, andere Experten erwarteten bereits innerhalb weniger Jahre Schiffe mit 22.000 TEU und mehr. Eine Studie der OECD ergab 2015, dass die Kostenersparnis in der Ultra-Large-Klasse sehr gering ist. Außerdem sei das wirtschaftliche Risiko enorm hoch, da sich die größten Schiffe nur rechnen, wenn sie wirklich voll beladen sind. Letztlich profitierten nur noch „koreanische Werften“ von „XXL-Schiffen“.
Seit 2019 werden Schiffe der 24.000-TEU-Klasse in Dienst gestellt.
Inzwischen wird die ökologische und ökonomische Sinnhaftigkeit der übergroßen Containerschiffe infrage gestellt.
Entwicklung der Schiffsgröße.
Anmerkungen
Die zur jeweiligen Zeit größten Containerschiffe der Welt. Bei den Schiffen einer baugleichen Baureihe wird nur das erste Schiff der Baureihe aufgelistet. Aktueller Rekordhalter sowie die aktuellen Höchstwerte in Fettschrift
Kühlcontainerschiffe.
Containerschiffe mit mehr als 50 Kühlcontainern wurden häufig auch als Kühlcontainerschiffe bezeichnet. Der Markt der Kühlcontainer nimmt stark zu und stellt eine ernsthafte Konkurrenz zu den Kühlschiffen dar. 1972 begann United Fruit (heute Chiquita) mit dem Befördern von Bananen in Kühlcontainern. Einer der Gründe dafür ist, dass schnelleres Löschen des Schiffes im Hafen möglich wird. Dafür werden auch lukenlose Schiffe eingesetzt, um direkt mit einem Kran an die Container zu gelangen. Die ersten lukenlosen Kühlcontainerschiffe wurden im Jahr 1999 von HDW hergestellt und boten Stellplätze für 990 TEU Kühlcontainer sowie 33 TEU ungekühlte Container. Diese Schiffe sind für Dole im Einsatz und bedienen den Fruchttransport von Mittelamerika in die USA. Heute gehört Hamburg Süd zu einer der größten Reedereien, die sich auf den Transport von Kühlcontainern von und nach Südamerika spezialisiert haben.
Die Schiffe der „Monte“-Klasse mit 5500 TEU und „Rio“-Klasse mit 5905 TEU der Hamburg Süd sind die Containerschiffe mit der größten Kühlkapazität. Sie haben 1365 Anschlüsse für Kühlcontainer, das sind Stellplätze für rund 2500 TEU Kühlcontainer an und unter Deck.
Lukendeckellose Containerschiffe.
Seit 1990 werden lukendeckellose Containerschiffe gebaut. Das sind Schiffe, deren Laderäume keine Lukendeckel (bzw. nur auf erstem und zweitem Laderaum hinter dem Wellenbrecher) haben, wodurch die Be- und Entladezeiten verringert werden sowie das Gewicht der Lukendeckel eingespart wird. Ein spezieller Bug gegen hohe Wellen und ein leistungsfähiges Pumpsystem sind dafür nötig. Das weltweit erste Schiff dieser Bauart war die Bell Pioneer. Die bisher einzigen großen Containerschiffe in dieser Bauweise betrieb Nedlloyd, später Royal P&O Nedlloyd NV, jetzt Mærsk mit den fünf 1991/1992 gebauten Panamax-Schiffen vom Ultimate-Container-Carrier-Typ, sowie den zwei weltweit ersten Postpanamax-Open-Top-Schiffen "Nedlloyd Hongkong" und "Nedlloyd Honshu", Baujahr 1994.
Aus Gründen der Schiffsfestigkeit (Torsion), der Schiffssicherheit und der Wirtschaftlichkeit ist man jedoch wieder davon abgekommen, Open-Top-Schiffe mit mehr als 1000 TEU zu bauen. Dadurch, dass die Lukendeckel fehlen, muss höherfester Stahl eingesetzt und zusätzlich die Gurtung versteift werden, was aus wirtschaftlicher Sicht zu teuer ist. Außerdem ist ein hoher Freibord nötig, um eindringendes Seewasser zu minimieren. (Siehe die Feederschiffe der Werft Sietas, die auch nur im mittleren Laderaum keine Deckel mehr haben, dafür aber hochgezogene Lukenkumminge.)
Antrieb.
Die Containerschiffe der ersten und zweiten Generation hatten Einschraubenantrieb (Dampfturbine oder Dieselmotor). Die Schiffe der dritten Generation (Baujahre 1971–1981) waren anfangs für 27–28 Knoten konzipiert. Dafür waren Zweischraubenantriebe (Turbine oder Diesel) bzw. sogar Dreischraubenantriebe mit drei Dieselmotoren notwendig. Ein weiteres Konzept, das in dieser Generation von Containerschiffen erstmals umgesetzt wurde, waren die Gasturbinenschiffe des Euroliner-Typs. Dieser Antrieb, bisher nur von Militärschiffen bekannt, stellte sich jedoch, insbesondere nach der Ölkrise Anfang der 1970er Jahre, schnell als unwirtschaftlich heraus. Erste große Panamaxschiffe mit Einschraubenantrieb wurden ab Ende 1980 in Dienst gestellt, als erstmals leistungsfähige Dieselmotoren mit 50.000 PS zur Verfügung standen und somit auf die teureren Mehrschraubenantriebe verzichtet werden konnte. Seit Ende der 1970er Jahre wurden wegen der hohen Rohölpreise und des Verzichts auf die sehr hohe Geschwindigkeit von 28 Knoten fast alle turbinenangetriebenen Containerschiffe auf Dieselmotorantrieb umgebaut, da diese erheblich weniger Brennstoff verbrauchen. Auch gab es Umbauten hinsichtlich des Antriebs von 2 Turbinen / 2 Propellern auf 1 Turbine / 1 Propeller, wie zum Beispiel die vier Hapag-Lloyd-Schiffe vom Typ „Hamburg Express“. Die gängige Dienstgeschwindigkeit fast aller großen Containerschiffe lag dann bei 24, Ende der 2000er Jahre bei 25 Knoten.
Die im Mai 2006 von der Volkswerft Stralsund gelieferte "Mærsk Boston" als Typschiff von sieben sehr schnellen Panamax-Containerschiffen, erreicht mit einem Zwölfzylinder-Sulzer-Dieselmotor eine Dienstgeschwindigkeit von 29,2 Knoten und ist das schnellste Containerschiff der Welt.
Die bis zum Jahr 2005 größten eingebauten Dieselmotoren waren Zwölfzylinder-Zweitakt-Reihenmotoren der Typen MAN-B&W 12K98ME/MC mit 69,1 MW bei 94–104/min bzw. von Wärtsilä-Sulzer 12RT-flex96C Common Rail mit 68,7 MW bei 100/min.
Ein Problem bei der Verwirklichung der über 12.000-TEU-Containerschiffe ist die Antriebsanlage. Die Reeder wollten bis zur Krise im Jahr 2008 nur Containerschiffe mit einer Dauergeschwindigkeit von 25 Knoten (plus Reserven), um die Schiffe (besonders wenn sie im Liniendienst fahren) in bestehende Umläufe integrieren zu können. Dafür wurde bei der Emma-Mærsk-Klasse statt eines bisher weit verbreiteten Zwölfzylinder-Reihen-Dieselmotors mit 90.000 oder 93.000 PS ein 14-Zylinder-Dieselmotor des Typs Wärtsilä/Sulzer 14RT-flex96C mit 108.908 PS Leistung eingebaut. Der Propeller hat circa 10,0 m Durchmesser und wiegt etwa 130 Tonnen, um die größere Motorkraft bei gleicher Drehzahl des Motors (94–104/min) in Vortrieb umzusetzen.
Angesichts hoher Kraftstoffkosten und einer seit Mitte 2008 andauernden Schifffahrtskrise fahren die meisten Schiffe inzwischen deutlich langsamer als vor Beginn der Krise („Slow steaming“). Bei den neu in Auftrag gegebenen, größten Containerschiffen der Maersk Line mit einer Kapazität von 18.000 TEU wurde die Maximalgeschwindigkeit auf 23 Knoten herabgesetzt und ein Zweischraubenantrieb verbaut. Bei bereits in Betrieb befindlichen Schiffen konnte es sich sogar rentieren, die Bugwulst umzubauen und durch eine Form zu ersetzen, die für eine geringere Geschwindigkeit optimiert ist. Die neuen Nasen sollen 1–2 % Kraftstoff sparen. Die Schiffe der UASC-A19-Klasse, die zu den größten Containerschiffen der Welt zählen, ist für eine Betriebsgeschwindigkeit (operation speed) von nur noch 12 bis 18 Knoten ausgelegt.
Umweltaspekte.
Die Treibhausgasemissionen durch die Seeschifffahrt in der EU haben zwischen 1990 und 2008 um 48 Prozent zugenommen und machten so im Jahr 2015 rund 13 Prozent der gesamten Emissionen des Verkehrs in der EU aus.
Es steht in der Kritik, dass es in Hafenstädten Fahrverbote für Dieselautos gibt, während Schiffe im Hafen mit laufender Diesel-Energieversorgung die Luft belasten. Eine Lösung soll ein Pilotprojekt anbieten, bei dem Schiffe mit einem externen Aggregat auf LNG-Basis versorgt werden. Der Generator hat die Maße eines 40-Fuß-Containers und kann damit einfach auf einem Containerschiff geladen werden. Problematisch sind (Stand 2018) die noch fehlende Normung der Schiffs-Anschlusstechnik und die vielerorts nicht vorhandene LNG-Infrastruktur.
Werften.
Große Containerschiffe mit über 7000 TEU wurden unter anderem auf folgenden Werften gebaut:
Europa.
Odense Staalskibsværft (Odense Steel Shipyard), Dänemark (2012 geschlossen)
Containerschiffe deutscher Werften.
In der Anfangsphase der Containerisierung von 1968 bis 1977 wurde eine beträchtliche Zahl an großen Containerschiffen der 1. bis 3. Generation von deutschen Werften gebaut, die damals auf diesem Sektor führend waren:
Die derzeit größten bei einer deutschen Werft gebauten Containerschiffe wurden ab Herbst 2005 bei der Volkswerft Stralsund, Stralsund gebaut. Das Typschiff, die "Mærsk Boston" wurde am 24. März 2006 getauft und im Mai 2006 abgeliefert. Sie sind vom Typ VWS 4000 und maßen 294,1 m Länge ü.a. und 32,18 m Breite bei einer Kapazität von 4250 TEU. Der Antrieb besteht aus einem Sulzer 12 RTA 96C Diesel mit 93.400 PS. Dadurch wird eine Dienstgeschwindigkeit von 29,2 Knoten erreicht, es sind die schnellsten Containerschiffe der Welt.
Containerschiffe der Größe 2500/2700 TEU (Typ CV 2500/2700) bauten HDW in Kiel, SSW in Bremerhaven, Nordseewerke in Emden, Blohm + Voss in Hamburg, Volkswerft in Stralsund, Aker Werften in Wismar und Rostock-Warnemünde.
Die Werft J. J. Sietas in Hamburg war eine Zeitlang führend in Konstruktion und Bau von Containerschiffen bis 1200 TEU Größe (Feederschiffe).
Sietas baute von 2001 bis 2007 zwölf Einheiten des Sietas Typ 170. Das erste abgelieferte 1700-TEU-Schiff war die "Safmarine Mbashe".
Im November 2011 meldete Sietas Insolvenz an.
Reedereien.
Die größten Containerschiff-Reedereien der Welt.
"Stand: Juni 2019"
Die 20 größten Containerschiffs-Reedereien beherrschen etwa 89 % des Marktes.
Die deutsche Reederei "Hapag-Lloyd AG", von 1976 bis 1983 noch größte Containerschiffsreederei der Welt, war seit vielen Jahren nicht mehr unter den „Top 10“ der Rangliste. Im August 2005 wurde die Übernahme von CP Ships durch Hapag-Lloyd bekanntgegeben. Hierzu bedurfte es einer Kapitalerhöhung von einer Milliarde Euro. Hapag-Lloyd rückte damit auf Platz 6 der großen Container-Reedereien.
Am 11. Mai 2005 wurde offiziell bekanntgegeben, dass Mærsk-Sealand für 2,96 Milliarden US-Dollar (entspr. 2,3 Mrd. Euro) P&O Nedlloyd übernehmen wollte. Die P&O-Nedlloyd-Aktie war am 10. Mai mit 41 US-Dollar bewertet, Mærsk-Sealand bot den Aktionären in einem bis zum 5. August 2005 terminierten Übernahmeangebot 57 US-Dollar pro Aktie. Mitte August 2005 war die Übernahme abgeschlossen. Die P&O Nedlloyd existiert seit Februar 2006 nicht mehr. Sie wurde vollständig in die „Mærsk Line“ integriert. Durch die Übernahme erhöhte der Marktführer Mærsk seinen Marktanteil von 12 auf 18 Prozent am Weltcontainerverkehr.
Allianzen.
1969 erfolgte auf der Route "Europa–Australien/Neuseeland" die Umstellung des Liniendienstes auf Containerverkehr mit Schiffen der zweiten Generation ("ANZECS"-Dienst). Er wurde durch Hapag-Lloyd, Deutschland, der Overseas Containers Limited (OCL), Großbritannien (ein Zusammenschluss von fünf bedeutenden englischen Linienreedereien), der Associated Container Transportation (ACT), Großbritannien, der Nedlloyd, Niederlande, der Australian National Line und der New Zealand Shipping Company gegründet.
Die wichtigste und ladungsstärkste Schifffahrtsverbindung ist die "Europa–Fernost"-Route. 1968 wurde von den großen Linienreedereien die Umstellung auf den Containerverkehr beschlossen.
Hier gab es ab 1971 die erste große Allianz, den "TRIO-Dienst" (von Reedereien aus drei Ländern gegründet). Die Umstellung auf Containerverkehr bedeutete für die damalige Zeit ein solch großes Investitionsvolumen, dass keine Reederei es allein finanzieren konnte oder wollte. Es wurden hier die damals größten und schnellsten Containerschiffe der 3. Generation in der Zeit von November 1971 bis Juli 1973 in Fahrt gesetzt. Der TRIO-Dienst wurde durch die Reedereien NYK Line / Japan (3, ab 1976 4 Schiffe), Mitsui O.S.K. Lines / Japan (2, ab 1977 3 Schiffe), Hapag-Lloyd / Deutschland (4, ab 1981 5 Schiffe), Overseas Container Line (OCL) / Großbritannien (5, ab 1989 7 Schiffe; wurde später von P&O übernommen) und Ben Line-Ellerman / Großbritannien (3 Schiffe) gebildet. Der "TRIO"-Dienst wurde Anfang 1991 aufgelöst, wobei jedoch die Hapag-Lloyd AG und die NYK Line weiterhin mit anderen Reedereien zusammenarbeiten.
Die zweite Gruppe war ab 1972 der "Scandutch Service" der Reedereien Wilh. Wilhelmsen / Norwegen, Det Østasiatiske Kompagni (EAC) / Dänemark, Broström / Schweden und Nedlloyd / Niederlande. CGM / Frankreich trat 1973 bei und "Malaysian Intern. Shipping Co." (MISC) 1977. Auch diese Allianz wurde 1991 beendet.
Die dritte Allianz wurde 1975 gegründet mit dem "ACE-Dienst" (Asian Container Europe) der Reedereien K-Line / Japan, Orient Overseas Container Line (OOCL) / Hongkong, Neptune Orient Lines (NOL) / Singapur und Compagnie Maritime Belge (CMB) / Belgien.
Von 1991 bis 1996 gab es eine Allianz zwischen Mærsk Line und P&O. Von 1996 an arbeitete Marktführer Mærsk Line aber mit der amerikanischen Sea Land Corp. global zusammen. Die Ergänzung war so günstig, dass Mærsk die US-Reederei 1999 fast komplett übernommen hat.
1991 begannen die drei skandinavischen Reedereien sowie Ben Line und Ellermann den BEN-EAC-Dienst. Der BEN-EAC-Dienst wurde 1993 komplett von Mærsk-Line übernommen.
Von 1996 bis 2001 gab es die "Global Alliance" der Reedereien Hapag-Lloyd AG, NYK Line, NOL und P&O. Royal Nedlloyd trat nach der Fusion mit P&O 1997 bei.
1977 begann der Containerverkehr auf der Route "Europa–Südafrika", genannt "SAECS"-Dienst, gegründet durch die Reedereien Deutsche Afrika Linien (Hamburg), "Compagnie Maritime Belge", "Royal Nedlloyd", "Overseas Container Line" (später P&O) und Safmarine, Südafrika. Hier wurden neun moderne 2400 TEU Zweischrauben-Containerschiffe eingesetzt. Dieser Dienst wird auch heute noch von Mærsk Line, Safmarine, CGM (nur bis Ende der 1990er Jahre), und Deutsche Afrika Linie bedient, seit Februar 2006 ist Mitsui-OSK Lines noch hinzugetreten. Inzwischen werden moderne 4500–5000-TEU-Schiffe (Sling 1) sowie 1800-TEU-Schiffe (Sling 2) eingesetzt.
Derzeitige Allianzen.
Reederei-Allianzen müssen von der amerikanischen Federal Maritime Commission anerkannt werden, außerdem gibt es die Wettbewerbsbehörde in Singapur.
Die drei größten Allianzen waren Mitte 2017:
Die Zahlen in Klammern geben den Stellenwert der jeweiligen Reederei im weltweiten Ranking an.
Sonstiges.
Containerschiffe im deutschen Management mit Stand 2004 bis zu einer Größe von 7500 TEU wurden in einer illustrierten Flottenliste als Buch mit Schiffsliste und Federzeichnungen veröffentlicht.
Der Dokumentarfilm "Stählerne Einsamkeit" von Gabriel Pielke zeigt die Arbeits- und Lebensbedingungen der Schiffsbesatzung an Bord der 300 m langen und 40 m breiten MS EVER CONQUEST mit einer Ladekapazität von ca. 8.000 TEU als eines der größten und modernsten Containerschiffe der NSB Niederelbe Schiffahrtsgesellschaft in 2006–2007 im EVERGREEN–Liniendienst zwischen der Volksrepublik China und Europa und veranschaulichte somit u. a. auch die an Land eher unbekannte Arbeits- und Lebensumgebung von Seeleuten als insbesondere der Internationalen Seeschiffahrts-Organisation IMO allgemein bekannten „Entstehungsort“ auch von Seafarer Fatigue in der modernen Berufsschifffahrt.
2008 (in diesem Jahr endete eine Blütezeit und eine mehrjährige Schifffahrtskrise begann) wurde ein Containerschiff durchschnittlich nach 27 Jahren verschrottet. 2015 wurde ein Containerschiff durchschnittlich nach 22 Jahren verschrottet. |
909 | 4169125 | https://de.wikipedia.org/wiki?curid=909 | C (Programmiersprache) | C ist eine imperative und prozedurale Programmiersprache, die der Informatiker Dennis Ritchie in den frühen 1970er Jahren an den Bell Laboratories entwickelte. Seitdem ist sie eine der am weitesten verbreiteten Programmiersprachen.
Die Anwendungsbereiche von C sind sehr verschieden. Sie wird zur System- und Anwendungsprogrammierung eingesetzt. Die grundlegenden Programme aller Unix-Systeme und die Systemkernel vieler Betriebssysteme sind in C programmiert. Zahlreiche Sprachen, wie C++, Objective-C, C#, D, Java, JavaScript, LSL, PHP, Vala oder Perl, orientieren sich an der Syntax und anderen Eigenschaften von C.
Geschichte.
Entstehung.
C wurde 1969–1973 von Dennis Ritchie in den Bell Laboratories für die Programmierung des damals neuen Unix-Betriebssystems entwickelt. Er stützte sich dabei auf die Programmiersprache B, die Ken Thompson und Dennis Ritchie in den Jahren 1969/70 geschrieben hatten – der Name C entstand als Weiterentwicklung von B. B wiederum geht auf die von Martin Richards Mitte der 1960er-Jahre entwickelte Programmiersprache BCPL zurück. Ursprünglich war der Name NB („New B“) vorgesehen, daraus wurde schließlich C. Ritchie schrieb auch den ersten Compiler für C. 1973 war die Sprache so weit ausgereift, dass man nun den Unix-Kernel für die PDP-11 neu in C schreiben konnte.
Weitere Entwicklung.
K&R C erweiterte die Sprache um neue Schlüsselwörter wie codice_1 oder codice_2 und führte die von Mike Lesk entwickelte I/O-Standardbibliothek und auf Empfehlung von Alan Snyder den Präprozessor ein.
Standards.
C ist eine Programmiersprache, die auf fast allen Computersystemen zur Verfügung steht. Um den Wildwuchs zahlreicher Dialekte einzudämmen, wurde C mehrfach standardisiert (C89/C90, C99, C11). Abgesehen vom Mikrocontrollerbereich, wo eigene Dialekte existieren, sind die meisten aktuellen PC-/Server-Implementierungen eng an den Standard angelehnt; eine vollständige Implementierung aktueller Standards ist aber selten. In den meisten C-Systemen mit Laufzeitumgebung steht auch die genormte C-Standard-Bibliothek zur Verfügung. Dadurch können C-Programme, die keine sehr hardwarenahe Programmierung enthalten, in der Regel gut auf andere Zielsysteme portiert werden.
Das Normungsgremium von C ist die ISO/IEC – Arbeitsgruppe JTC1/SC22/WG14 – C, kurz als "WG14" bekannt.
Die nationalen Standardisierungsorganisationen übernehmen die Veröffentlichungen des internationalen Standards in an ihre Bedürfnisse angepasster Form.
K&R C.
Bis ins Jahr 1989 gab es keinen offiziellen Standard der Sprache. Seit 1978 galt hingegen das Buch "The C Programming Language" als informeller De-facto-Standard, welches Brian W. Kernighan und Dennis Ritchie im selben Jahr veröffentlicht hatten. Bezeichnet wird diese Spezifikation als K&R C.
Da in den folgenden Jahren die Zahl an Erweiterungen der Sprache ständig wuchs, man sich nicht auf eine gemeinsame Standard-Bibliothek einigen konnte und nicht einmal die UNIX-Compiler K&R C vollständig implementierten, wurde beschlossen, einen offiziellen Standard festzulegen. Nachdem dieser schließlich im Jahr 1989 erschienen war, blieb K&R C zwar noch für einige Jahre De-facto-Standard vieler Programmierer, verlor dann aber rasch an Bedeutung.
ANSI C.
Im Jahr 1983 setzte das American National Standards Institute (ANSI) ein Komitee namens X3J11 ein, das 1989 seine Arbeit abschloss und die Norm "ANSI X3.159-1989 Programming Language C" verabschiedete. Diese Version der Sprache C wird auch kurz als ANSI C, Standard C oder C89 bezeichnet.
Ein Jahr später übernahm die International Organization for Standardization (ISO) den bis dahin rein amerikanischen Standard auch als internationale Norm, die "ISO/IEC 9899:1990", kurz auch als C90 bezeichnet. Die Namen C89 und C90 beziehen sich also auf dieselbe Version von C.
Nach der ersten Entwicklung durch ANSI und ISO wurde der Sprachstandard für einige Jahre kaum geändert. Erst 1995 erschien das "Normative Amendment 1" zu C90. Es hieß "ISO/IEC 9899/AMD1:1995" und wird auch kurz als C95 bezeichnet. Neben der Korrektur einiger Details wurden mit C95 internationale Schriftsätze besser unterstützt.
C99.
Nach einigen kleineren Revisionen erschien im Jahr 1999 der neue Standard "ISO/IEC 9899:1999", kurz C99. Er war größtenteils mit C90 kompatibel und führte einige neue, teilweise von C++ übernommene Features ein, von denen einige bereits zuvor von verschiedenen Compilern implementiert worden waren. C99 wurde im Lauf der Jahre durch drei "Technical Corrigendas" ergänzt.
C11.
Im Jahr 2007 begann die Entwicklung eines neuen Standards mit dem inoffiziellen Arbeitstitel "C1X". Er wurde im Dezember 2011 veröffentlicht und ist in der Kurzform als C11 bekannt. Neben einer besseren Kompatibilität mit C++ wurden der Sprache wiederum neue Features hinzugefügt.
C18.
Diese Norm entspricht der von C11 mit der Ausnahme von Fehlerkorrekturen und einem neuen Wert von __STDC_VERSION__ und wird daher im selben Umfang wie C11 unterstützt.
Der Standard wurde im Juni 2018 unter der Norm "ISO/IEC 9899:2018" freigegeben.
Verwendung.
Trotz des eher hohen Alters ist die Sprache C auch heute weit verbreitet und wird sowohl im Hochschulbereich als auch in der Industrie und im Open-Source-Bereich verwendet.
System- und Anwendungsprogrammierung.
Das Haupteinsatzgebiet von C liegt in der Systemprogrammierung, insbesondere von eingebetteten Systemen, Treibern und Betriebssystemkernen. Der Grund liegt in der Kombination von erwünschten Charakteristiken wie Portabilität und Effizienz mit der Möglichkeit, Hardware direkt anzusprechen und dabei niedrige Anforderungen an eine Laufzeitumgebung zu haben.
Auch Anwendungssoftware wird oft in C erstellt, wobei die Relevanz der Sprache hier hinter andere zurückfiel, das ist besonders deutlich auf mobilen Plattformen. Viele Programmierschnittstellen für Anwendungsprogramme und Betriebssystem-APIs werden in Form von C-Schnittstellen implementiert, zum Beispiel Win32.
Implementierung anderer Sprachen.
Wegen der hohen Ausführungsgeschwindigkeit und geringen Codegröße werden Compiler, Programmbibliotheken und Interpreter anderer höherer Programmiersprachen (wie z. B. die Java Virtual Machine) oft in C implementiert.
C wird als Zwischencode einiger Implementierungen höherer Programmiersprachen verwendet. Dabei wird diese zuerst in C-Code übersetzt, der dann kompiliert wird. Dieser Ansatz wird verwendet, um ohne maschinenspezifische Entwicklung für den Codegenerator die Portabilität zu erhöhen (C-Compiler existieren für nahezu jede Plattform).
Einige Compiler, die C auf diese Art benutzen, sind Chicken, EiffelStudio, Esterel, PyPy, Sather, Squeak und Vala.
C wurde allerdings als Programmiersprache und nicht als Zielsprache für Compiler entworfen. Als Zwischensprache ist es daher eher schlecht geeignet. Das führte zu C-basierten Zwischensprachen wie C−−.
C wird oft für die Erstellung von "Anbindungen" (englisch bindings) genutzt (zum Beispiel Java Native Interface). Diese Anbindungen erlauben es Programmen, die in einer anderen Hochsprache geschrieben sind, Funktionen aufzurufen, die in C implementiert wurden. Der umgekehrte Weg ist oft ebenfalls möglich und kann verwendet werden, um in C geschriebene Programme mit einer anderen Sprache zu erweitern (z. B. mod perl).
Syntax.
C ist case-sensitiv.
Außerdem besitzt C eine sehr kleine Menge an Schlüsselwörtern. Die Anzahl der Schlüsselwörter ist so gering, weil fast alle Aufgaben, welche in anderen Sprachen über eigene Schlüsselwörter realisiert werden, über Funktionen der C-Standard-Bibliothek realisiert werden (zum Beispiel die Ein- und Ausgabe über Konsole oder Dateien, dynamische Speicherverwaltung usw.).
In C89 gibt es 32 Schlüsselwörter:
Mit C99 kamen fünf weitere dazu:
Mit C11 kamen sieben weitere hinzu:
Hallo-Welt-Programm.
Eine einfache Version des Hallo-Welt-Programms in C ist diejenige, die Ritchie und Kernighan selbst in der zweiten Auflage ihres Buches "The C Programming Language" verwendet haben. Zu beachten ist, dass im älteren ANSI C Standard kein Rückgabetyp angegeben werden muss, da der Compiler von einem impliziten int als Rückgabetyp ausgeht.
main()
printf("hello, world\n");
Datentypen.
char.
Zum Speichern eines Zeichens (sowie von kleinen Zahlen) verwendet man in C üblicherweise den Datentyp Character, geschrieben als codice_3.
Vom Computer tatsächlich gespeichert wird nicht das Zeichen (wie zum Beispiel „A“), sondern eine gleichbedeutende mindestens acht Bit lange Binärzahl (z. B. 01000001). Diese Binärzahl steht im Speicher und kann anhand einer Tabelle jederzeit automatisch in den entsprechenden Buchstaben umgewandelt werden, wobei der aktuelle Zeichensatz bzw. die Codepage der Systemumgebung entscheidend ist. Zum Beispiel steht 01000001 gemäß der ASCII-Tabelle für das Zeichen „A“.
Um auch Zeichen aus Zeichensätzen aufnehmen zu können, die mehr Zeichen umfassen als der relativ kleine ASCII-Zeichensatz, wurde mit codice_4 bald ein zweiter für Zeichen konzipierter Datentyp eingeführt.
// gespeichert wird nicht das Zeichen „A“, sondern meist ein Byte ("01000001")
char zeichen = 'A';
// gibt das Zeichen mit der Ordnungszahl 65 aus (in ASCII ein „A“)
printf("%c", 65);
int.
Zum Speichern einer Ganzzahl (wie zum Beispiel 3) verwendet man eine Variable vom Datentyp Integer, geschrieben als codice_5. Die Größe eines Integers beträgt heutzutage (je nach Prozessorarchitektur und Betriebssystem) meist 32 Bit, oft aber auch schon 64 und manchmal noch 16 Bit. In 16 Bit lassen sich 65536 verschiedene Werte speichern. Um die Verwendung von negativen Zahlen zu ermöglichen, reicht der Wertebereich bei 16 Bit gewöhnlich von -32768 bis 32767. Werden keine negativen Zahlen benötigt, kann der Programmierer mit codice_6 aber einen vorzeichenlosen Integer verwenden. Bei 16 Bit großen Integern ergibt das einen Wertebereich von 0 bis 65535.
Um den Wertebereich eines Integers zu verkleinern oder zu vergrößern, stellt man ihm einen der Qualifizierer codice_7, codice_1 oder codice_9 voran. Das Schlüsselwort codice_5 kann dann auch weggelassen werden, so ist codice_1 gleichbedeutend mit codice_12. Um zwischen vorzeichenbehafteten und vorzeichenlosen Ganzzahlen zu wechseln, gibt es die beiden Qualifizierer codice_13 und codice_2. Für einen vorzeichenbehafteten Integer kann der Qualifizierer aber auch weggelassen werden, so ist codice_15 gleichbedeutend mit codice_5. Die C-Standard-Bibliothek ergänzt diese Datentypen über die plattformunabhängige Header-Datei codice_17 in der ein Set von Ganzzahltypen mit fester Länge definiert ist. Obwohl der Datentyp codice_3 für Textzeichen vorgesehen ist, können dessen Werte auch als ganze Zahlen mit einem Wertebereich von 0 bis 255 (unsigned) oder von -128 bis +127 (signed) verwendet werden.
char ganzzahl = 1; // mindestens 8 Bit, also 256 mögliche Werte
short ganzzahl = 2; // mindestens 16 Bit, also 65536 mögliche Werte
int ganzzahl = 3; // mindestens 16 Bit, also 65536 mögliche Werte
long ganzzahl = 4; // mindestens 32 Bit, also 4294967296 mögliche Werte
long long ganzzahl = 5; // mindestens 64 Bit, also 18446744073709551616 mögliche Werte
float und double.
Zahlen mit Nachkommastellen werden in einem der drei Datentypen codice_19, codice_20 und codice_21 gespeichert. In den meisten C-Implementierungen entsprechen die Datentypen float und double dem international gültigen Standard für binäre Gleitpunktarithmetiken (IEC 559, im Jahr 1989 aus dem älteren amerikanischen Standard IEEE 754 hervorgegangen). Ein float implementiert das „einfach lange Format“, ein double das „doppelt lange Format“. Dabei umfasst ein float 32 Bit, ein double 64 Bit. doubles sind also genauer. Floats werden aufgrund dieses Umstands nur noch in speziellen Fällen verwendet. Die Größe von long doubles ist je nach Implementierung unterschiedlich, ein long double darf aber auf keinen Fall kleiner sein als ein double. Die genauen Eigenschaften und Wertebereiche auf der benutzten Architektur können über die Headerdatei codice_22 ermittelt werden.
// Genauigkeit ist jeweils implementierungsabhängig
float kommazahl = 0.000001f;
double kommazahl = 0.000000000000002;
long double kommazahl = 0.3l;
void.
Der Datentyp codice_23 wird im C-Standard als „unvollständiger Typ“ bezeichnet. Man kann keine Variablen von diesem Typ erzeugen. Verwendet wird codice_23 erstens, wenn eine Funktion keinen Wert zurückgeben soll, zweitens wenn explizit eine leere Parameterliste für eine Funktion verlangt wird und drittens, wenn ein Zeiger auf „Objekte beliebigen Typs“ zeigen soll.
// Deklaration einer Funktion, die keinen Wert zurückgibt
void funktionsname();
// Deklaration einer Funktion, die int zurückgibt und keine Parameter akzeptiert
int funktionsname(void);
// Zeiger auf ein Objekt von beliebigem Typ
void* zeigername;
Zeiger.
Wie in anderen Programmiersprachen sind Zeiger in C Variablen, die statt eines direkt verwendbaren Wertes (wie das Zeichen „A“ oder die Zahl 5) eine Speicheradresse (wie etwa die Adresse 170234) speichern. Die Adressen im Speicher sind durchnummeriert. An der Speicheradresse 170234 könnte zum Beispiel der Wert 00000001 gespeichert sein (Binärwert der Dezimalzahl 1). Zeiger ermöglichen es, auf den Wert zuzugreifen, der an einer Speicheradresse liegt. Dieser Wert kann wiederum eine Adresse sein, die auf eine weitere Speicheradresse zeigt. Bei der Deklaration eines Zeigers wird zuerst der Datentyp des Objekts angegeben, auf das gezeigt wird, danach ein Asterisk, danach der gewünschte Name des Zeigers.
char* zeiger; // kann die Adresse eines Characters speichern
double* zeiger; // kann die Adresse eines Doubles speichern
Felder.
Wie in anderen Programmiersprachen verwendet man Arrays in C um mehrere Werte desselben Datentyps zu speichern. Die Werte eines Arrays haben aufeinanderfolgende Speicheradressen. Die Anzahl der verschiedenen Werte eines Arrays ist als Index des Feldes festgelegt. Da es in C keinen eigenen Datentyp für Strings gibt, werden Arrays auch verwendet, um Zeichenfolgen zu speichern.
// Definition eines Arrays mit 3 ganzzahligen Werten
int zahlen[] = { 17, 0, 3 };
// Array, das zur Speicherung eines Strings verwendet wird
char string[] = "Hallo, Welt!\n";
struct.
Um verschiedenartige Daten in einer Variable zu speichern, verwendet man Structures, geschrieben als codice_25. Auf diese Weise können Variablen verschiedenen Datentyps zusammengefasst werden.
struct person {
char* vorname;
char nachname[20];
int alter;
double groesse;
enum.
Wie in anderen Programmiersprachen dient ein Enum in C dazu, mehrere konstante Werte zu einem Typ zu kombinieren.
enum Temperatur { WARM, KALT, MITTEL };
enum Temperatur heutige_temperatur = WARM;
if (heutige_temperatur == KALT)
printf("Warm anziehen!"); // wird nicht ausgegeben, da es heute „WARM“ ist
typedef.
Das Schlüsselwort typedef wird zur Erstellung eines Alias für einen Datentyp verwendet.
// legt den Alias "Ganzzahl" für den Datentyp "int" an
typedef int Ganzzahl;
// ist jetzt gleichbedeutend zu: int a, b;
Ganzzahl a, b;
_Bool.
Bis zum C99-Standard gab es keinen Datentyp zum Speichern eines Wahrheitswerts. Erst seit 1999 können Variablen als codice_26 deklariert werden und einen der beiden Werte 0 (falsch) oder 1 (wahr) aufnehmen.
_Bool a = 1; // seit C99
Durch explizite Verwendung des Headers codice_27 ist die verbreitete Verwendung des logischen Datentyps codice_28 mit den zwei möglichen Ausprägungen codice_29 bzw. codice_30 möglich:
bool a = true; // seit C99
_Complex und _Imaginary.
Seit C99 gibt es drei Gleitkomma-Datentypen für komplexe Zahlen, welche aus den drei Gleitkommatypen abgeleitet sind: codice_31, codice_32 und codice_33. Ebenfalls in C99 eingeführt wurden Gleitkomma-Datentypen für rein imaginäre Zahlen: codice_34, codice_35 und codice_36.
Funktionen.
Ein C-Programm besteht aus der codice_37-Funktion und optional aus weiteren Funktionen. Weitere Funktionen können entweder selbst definiert werden oder vorgefertigt aus der C-Standard-Bibliothek übernommen werden.
main.
Jedes C-Programm muss eine Funktion mit dem Namen codice_37 haben, anderenfalls wird das Programm nicht kompiliert. Die codice_37-Funktion ist der Einsprungpunkt eines C-Programms, das heißt die Programmausführung beginnt immer mit dieser Funktion.
// das kürzeste mögliche standardkonforme C89-Programm
// das kürzeste mögliche standardkonforme C99-Programm
Außer der codice_37-Funktion müssen in einem C-Programm keine weiteren Funktionen enthalten sein. Sollen andere Funktionen ausgeführt werden, müssen sie in der codice_37-Funktion aufgerufen werden. Die codice_37-Funktion wird deshalb auch als Hauptprogramm bezeichnet, alle weiteren Funktionen als Unterprogramme.
Selbstdefinierte Funktionen.
In C lassen sich beliebig viele Funktionen selbst definieren. Eine Funktionsdefinition besteht erstens aus dem Datentyp des Rückgabewerts, zweitens dem Namen der Funktion, drittens einer eingeklammerten Liste von Parametern und viertens einem eingeklammerten Funktionsrumpf, in welchem ausprogrammiert wird, was die Funktion tun soll.
// Datentyp des Rückgabewerts, Funktionsname und zwei Parameter
int summe(int x, int y) {
// Funktionsrumpf, hier wird die Summe berechnet und zurückgegeben
return x + y;
int main() {
// die Funktion wird mit den Werten 2 und 3 aufgerufen, der Rückgabewert
// wird in der Variable „ergebnis“ gespeichert
int ergebnis = summe(2, 3);
// main gibt den Wert von „ergebnis“ zurück
return ergebnis;
Für die Definition einer Funktion, die nichts zurückgeben soll, verwendet man das Schlüsselwort codice_23. Ebenso falls der Funktion keine Parameter übergeben werden sollen.
void begruessung() {
puts("Hi!");
return;
Funktionen der C-Standard-Bibliothek.
Die Funktionen der Standard-Bibliothek sind nicht Teil der Programmiersprache C. Sie werden bei jedem standardkonformen Compiler im hosted environment mitgeliefert und können verwendet werden, sobald man die jeweils entsprechende Header-Datei eingebunden hat. Beispielsweise dient die Funktion codice_44 zur Ausgabe von Text. Sie kann verwendet werden, nachdem man die Header-Datei codice_45 eingebunden hat.
int main() {
printf("hello world!\n");
return 0;
Anweisungen.
Eine Funktion besteht aus Anweisungen. Wie in den meisten Programmiersprachen sind die wichtigsten Anweisungen: Deklarationen und Definitionen, Zuweisungen, bedingte Anweisungen, Anweisungen die Schleifen umsetzen sowie Funktionsaufrufe. Im folgenden, eher sinnlosen Programm finden sich Beispiele.
// Unterprogramme
void funktion_die_nichts_tut() { // Definition
return; // Return-Anweisung
int plus_eins_funktion(int argument) { // Definition
return argument + 1; // Return-Anweisung
// Hauptprogramm
int main() { // Definition
int zahl; // Definition
funktion_die_nichts_tut(); // Funktionsaufruf
zahl = 5; // Zuweisung
zahl = plus_eins_funktion(zahl); // Funktionsaufruf und Zuweisung
if (zahl > 5) // bedingte Anweisung
zahl -= 1; // Zuweisung: der Wert von „zahl“ ist wieder „5“
return 0; // Return-Anweisung
Namensgebung.
Beim Benennen von eigenen Variablen, Konstanten, Funktionen und Datentypen muss man sich an einige Regeln zur Namensgebung halten. Erstens muss das erste Zeichen eines Bezeichners ein Buchstabe oder Unterstrich sein. Zweitens dürfen die folgenden Zeichen nur die Buchstaben A bis Z und a bis z, Ziffern und der Unterstrich sein. Und drittens darf der Name keines der Schlüsselwörter sein.
Seit C95 sind auch Zeichen aus dem Universal Coded Character Set in Bezeichnern erlaubt, sofern die Implementierung es unterstützt. Die erlaubten Zeichen sind in Anhang D des ISO-C-Standards aufgelistet. Vereinfacht gesagt, sind es all jene Zeichen, die in irgendeiner Sprache als "Buchstabe" oder buchstabenähnliches Zeichen Verwendung finden.
Ab C99 lassen sich diese Zeichen plattformunabhängig über eine Escape-Sequenz wie folgt ersetzen:
Bestimmte Bezeichner sind außerdem "für die Implementierung" reserviert:
Erweiterungen am Sprachkern, die neue Schlüsselwörter erfordern, verwenden dafür ebenfalls Namen aus diesem reservierten Bereich, um zu vermeiden, dass sie mit Bezeichnern in existierenden C-Programmen kollidieren, z. B. codice_48, codice_49, codice_50.
Standardbibliothek.
Die C-Standard-Bibliothek ist integraler Bestandteil einer "gehosteten" (engl. ') C-Implementierung. Sie enthält unter anderem Makros und Funktionen, die mittels der Standard-Header-Datei verfügbar gemacht werden. Auf "freistehenden" (englisch ') Implementationen dagegen kann der Umfang der Standardbibliothek eingeschränkt sein.
Die Standardbibliothek ist aufgeteilt in mehrere Standard-Header-Dateien, die hinzugelinkte Bibliothek ist jedoch oft eine einzige große Datei.
Module.
Eine Modularisierung in C erfolgt auf Dateiebene. Eine Datei bildet eine Übersetzungseinheit; intern benötigte Funktionen und Variablen können so vor anderen Dateien verborgen werden. Die Bekanntgabe der öffentlichen Funktionsschnittstellen erfolgt mit sogenannten Header-Dateien. Damit verfügt C über ein schwach ausgeprägtes Modulkonzept.
Das globale Sprachdesign sieht vor, dass ein Programm aus mehreren Modulen bestehen kann.
Für jedes Modul existiert eine Quellcode-Datei (mit der Endung .c) und eine Header-Datei (mit der Endung .h). Die Quellcode-Datei enthält im Wesentlichen die Implementierung, die Header-Datei das Interface nach außen. Beide Dateien konsistent zu halten, ist bei C (wie auch bei C++, aber nicht mehr in C#) Aufgabe des Programmierers.
Module, die Funktionen aus anderen Modulen benutzen, inkludieren deren Header-Dateien und geben dem Compiler damit die notwendigen Informationen über die vorhandenen Funktionen, Aufrufkonventionen, Typen und Konstanten.
Jedes Modul kann für sich übersetzt werden und erzeugt eine Object-Datei.
Mehrere Object-Dateien können zu einer Bibliothek zusammengefasst oder einzeln verwendet werden.
Mehrere Object-Dateien sowie Bibliotheken (die auch nur eine Sammlung von Objekt-Dateien sind) können mittels "Linker" (deutsch: "Binder") zu einem ausführbaren Programm gebunden werden.
Undefiniertes Verhalten.
Undefiniertes Verhalten (undefined behavior) ist nach der Definition des C-Standards „Verhalten bei Verwendung eines nicht portablen oder fehlerhaften Programmkonstrukts oder von fehlerhaften Daten, an die diese internationale Norm keine Anforderungen stellt“. Dies kann beispielsweise die Dereferenzierung eines Nullzeigers, die Division durch Null, der Zugriff auf Variablen durch Zeiger eines falschen Typs oder ein Überlauf bei vorzeichenbehafteten Ganzzahlen sein.
Unter der Annahme, dass undefiniertes Verhalten in einem korrekten Programm nicht vorkommt, optimieren bestimmte Compiler solche Konstrukte in einer Weise, die das beobachtbare Verhalten verändern kann, etwa durch Entfernen von Code, der als nicht erreichbar eingestuft wird.
Allgemein kann diese Art der Optimierung dazu führen, dass getestete Programme mit anderen Optimierungsstufen oder neueren Compilerversionen fehlerhaftes Verhalten zeigen. Dieses Compilerverhalten wird teilweise kontrovers diskutiert. Auch kann in der hardwarenahen Programmierung mit C die Verwendung von z. B. Überläufen oder uninitialisierten Variablen zur Laufzeitoptimierung des Codes genutzt werden.
Geht der Compiler z. B. bei einer Schleife
for (int i=n; i<n+10; i++)
davon aus, dass kein Überlauf auftritt und sie daher höchstens zehnmal durchlaufen wird, kann dies ihn dazu veranlassen, eine vorherige Überprüfung auf Überlauf
if (n < n + 10)
als unnötigen Code entfernen. Solche Optimierungen können ihrerseits zu unerwünschtem Verhalten einschließlich registrierter Sicherheitslücken führen (siehe z. B.: CVE) führen.
Compiler.
Am weitesten verbreitet ist der seit 1987 bestehende freie C-Compiler der GNU Compiler Collection. Unter Windows ist auch der seit 1993 entwickelte Compiler Visual C++ weit verbreitet. Neben diesen beiden stehen zahlreiche weitere Compiler zur Verfügung.
Da es in C vergleichsweise wenige Schlüsselwörter gibt, ergibt sich der Vorteil eines sehr einfachen, kleinen Compilers. Auf neuen Computersystemen ist C deshalb oft die erste verfügbare Programmiersprache (nach Maschinencode und Assembler).
Beziehung zu Assembler, Portierbarkeit.
Die Programmiersprache C wurde mit dem Ziel entwickelt, eine echte Sprachabstraktion zur Assemblersprache zu implementieren. Es sollte eine direkte Zuordnung zu wenigen Maschineninstruktionen geben, um die Abhängigkeit von einer Laufzeitumgebung zu minimieren. Als Resultat dieses Designs ist es möglich, C-Code auf einer sehr hardwarenahen Ebene zu schreiben, analog zu Assemblerbefehlen. Die Portierung eines C-Compilers auf eine neue Prozessorplattform ist, verglichen mit anderen Sprachen, wenig aufwändig. Bspw. ist der freie GNU-C-Compiler (gcc) für eine Vielzahl unterschiedlicher Prozessoren und Betriebssysteme verfügbar. Für den Entwickler bedeutet das, dass unabhängig von der Zielplattform fast immer auch ein C-Compiler existiert. C unterstützt damit wesentlich die Portierbarkeit von Programmen, sofern der Programmierer auf Assemblerteile im Quelltext und/oder hardwarespezifische C-Konstrukte verzichten kann. In der Mikrocontroller-Programmierung ist C die mit Abstand am häufigsten verwendete Hochsprache.
Sicherheit.
Konzeptionell ist C auf eine einfache Kompilierbarkeit der Quelltexte und für den schnellen Ablauf des Programmcodes ausgelegt. Die Compiler erzeugen in der Regel aber nur wenig Code zur Gewährleistung der Datensicherheit und Betriebssicherheit während der Laufzeit der Programme. Daher wird zunehmend versucht, diese Mängel durch formale Verifikation aufzudecken und zu korrigieren beziehungsweise durch zusätzliche vom Programmierer zu erstellende Quelltexte zu beheben.
C schränkt direkte Speicherzugriffe kaum ein. Dadurch kann der Compiler (anders als zum Beispiel in Pascal) nur sehr eingeschränkt bei der Fehlersuche helfen. Aus diesem Grund ist C für sicherheitskritische Anwendungen (Medizintechnik, Verkehrsleittechnik, Raumfahrt) weniger geeignet. Wenn in diesen Bereichen dennoch C eingesetzt wird, so wird in der Regel versucht, die Qualität der erstellten Programme durch zusätzliche Prüfungen wie Softwaretests mit hoher Testabdeckung zu erhöhen.
C enthält einige sicherheitskritische Funktionen; so überschreibt zum Beispiel codice_51, in alten Standards eine Funktion der Standardbibliothek, fremde Speicherbereiche (Pufferüberlauf), wenn es auf eine unpassende (zu lange) Eingabe stößt. Der Fehler ist innerhalb von C weder bemerk- noch abfangbar. Um den großen Vorteil von C – die Existenz zahlreicher älterer Quellcodes – nicht zu verlieren, unterstützen auch aktuelle Implementierungen weiterhin diese und ähnliche Funktionen, warnen jedoch in der Regel, wenn sie beim Übersetzen im Quelltext benutzt werden. codice_51 wurde mit C11 endgültig aus der Sprachspezifikation entfernt.
C ist nicht typsicher, da verschiedene Datentypen zuweisungskompatibel gehandhabt werden können.
Literatur.
Einführungen
Fortgeschritten
Handbücher
K&R C
K&R2 |
910 | 1791236 | https://de.wikipedia.org/wiki?curid=910 | Claire Danes | Claire Catherine Danes (* 12. April 1979 in New York City) ist eine US-amerikanische Schauspielerin.
Leben und Karriere.
Danes wurde in New York City als Tochter eines Künstlerpaares geboren. Ihre Mutter Carla Danes ist Bildhauerin und Grafikerin und agierte von 1993 bis 1999 auch als Managerin ihrer Tochter, ihr Vater Christopher Danes ist Architekturfotograf. Sie wuchs mit ihrem älteren Bruder Asa (* 1972), der heute als Anwalt arbeitet, in SoHo auf. Im Alter von sechs Jahren begann Danes mit Unterricht in Modern Dance und mit elf Jahren nahm sie am Lee Strasberg Theatre and Film Institute Schauspielunterricht. Woraufhin sie auf die Junior High School "Professional Performing Arts School" wechselte. Danes erzählt, dass sich ihr Fokus im Alter von neun Jahren vom Tanzen mehr hin zur Schauspielerei verlagerte.
1992 spielte sie in einer Episodenrolle in der Fernsehserie "Law & Order". Als Zwölfjährige bekam sie ein Angebot für eine Rolle in Steven Spielbergs "Schindlers Liste". Als man ihr jedoch für die Zeit der Dreharbeiten in Polen keinen Privatlehrer zusagen konnte, lehnten ihre Eltern die Rolle ab. 1994 spielte sie an der Seite von Winona Ryder in der Filmadaption "Betty und ihre Schwestern" Beth March. Sie besuchte die New York City Lab School for Collaborative Studies und ging für ein Jahr in die Dalton School, bevor sie mit ihren Eltern nach Santa Monica umzog, um die Rolle in "My So-Called Life" zu spielen. Ihre Hauptrolle in der Fernsehserie "Willkommen im Leben" (1994–1995) brachte Danes ihren ersten Golden Globe und eine Emmy-Nominierung ein und machte sie und ihren TV-Partner Jared Leto zu Filmstars. Ihr nun höherer Bekanntheitsgrad führte zu weiteren Filmrollen wie der Film "Familienfest und andere Schwierigkeiten" von Jodie Foster. 1996 folgte "I Love You, I Love You Not" und "Schatten einer Liebe" ("To Gillian on Her 37th Birthday"). Ihre erste Hauptrolle im Kino hatte sie 1996 mit einer modernen Variante von "William Shakespeares Romeo + Julia" neben Leonardo DiCaprio. Der Film bedeutete ihren internationalen Durchbruch als Filmschauspielerin. Danes wurde unter anderem mit dem London Critics’ Circle Film Award und dem MTV Movie Award ausgezeichnet. Für den Film "Titanic" wurde Claire Danes die Hauptrolle der Rose angeboten. Sie lehnte jedoch ab, weil sie kurz zuvor in "Romeo & Julia" schon mit Leonardo DiCaprio zusammen gespielt hatte und befürchtete, nicht mehr „von ihm loszukommen“. 1997 spielte sie in "Der Regenmacher" von Francis Ford Coppola neben Matt Damon und Danny DeVito und in Oliver Stones Film "U-Turn – Kein Weg zurück" war sie neben Sean Penn, Nick Nolte und Joaquin Phoenix zu sehen. 1997 machte Danes am "Lycée Français de Los Angeles" ihren Abschluss. 1998 begann sie nach 13 Filmen in fünf Jahren ein Psychologiestudium an der Yale University, mit einem von Oliver Stone verfassten Empfehlungsschreiben. Nach zwei Jahren brach sie das Studium ab um sich wieder auf ihre Filmkarriere zu konzentrieren. So war sie 2002 in "Igby" und dem Oscar-Nominierten "The Hours – Von Ewigkeit zu Ewigkeit" zu sehen. 2003 folgte "Terminator 3 – Rebellion der Maschinen", für die Rolle Danes erst einen Tag vor Beginn der Dreharbeiten engagiert wurde. 2004 spielte sie in der Filmkomödie "Stage Beauty". Für ihre Darstellung 2005 in "Shopgirl" und "Die Familie Stone – Verloben verboten!" wurde sie von Kritikern gelobt. In dem Fantasyfilm "Der Sternwanderer" von Regisseur Matthew Vaughn war sie 2007 neben Michelle Pfeiffer und Charlie Cox zu sehen. 2008 in "Ich & Orson Welles" mit Zac Efron.
Für die Titelrolle der autistischen Tierwissenschaftlerin Temple Grandin in dem HBO-Fernsehfilm "Du gehst nicht allein" erhielt sie den Emmy, ihren zweiten Golden Globe und den Screen Actors Guild Award. Der Film wurde gut aufgenommen und Grandin selbst war von Danes Darstellung begeistert. Von 2011 bis 2020 spielte sie über acht Staffeln die Hauptrolle der Carrie Mathison in der Showtime-Serie "Homeland", für die sie 2012 und 2013 mit zwei Golden Globes sowie zwei Emmys ausgezeichnet wurde. Im September 2015 bekam sie den 2559. Stern auf dem Hollywood Walk of Fame. 2018 war sie neben Jim Parsons und Octavia Spencer in dem Filmdrama "Ein Kind wie Jake" zu sehen.
Privates.
Claire Danes hatte Beziehungen mit dem Schauspieler Matt Damon, dem australischen Musiker Ben Lee sowie mit dem Schauspieler Billy Crudup. Seit September 2009 ist Claire Danes mit ihrem Schauspielkollegen Hugh Dancy verheiratet, den sie 2006 bei den Dreharbeiten zum Film "Spuren eines Lebens" kennengelernt hat. Die beiden haben zwei Söhne (* 2012, * 2018). |
911 | 284660 | https://de.wikipedia.org/wiki?curid=911 | C | C bzw. c (gesprochen: []) ist der dritte Buchstabe des klassischen und modernen lateinischen Alphabets. Er bezeichnete zunächst die velaren Verschlusslaute /k/ und /g/ (letzterer seit dem 3. Jh. v. Chr. durch das neugeschaffene G vertreten); infolge der seit dem Spätlateinischen bezeugten Assibilierung vor Vorderzungenvokal bezeichnet "c" in den meisten romanischen und noch vielen anderen Sprachen auch eine (post-)alveolare Affrikate (ital. , dt., poln., tschech. ) oder einen dentalen oder alveolaren Reibelaut (engl., franz. , span. []). Der Buchstabe C hat in deutschsprachigen Texten eine durchschnittliche Häufigkeit von 3,06 %.
Das Fingeralphabet für Gehörlose bzw. Schwerhörige stellt den Buchstaben "C" dar, indem der Daumen und restliche Finger einen offenen Halbkreis bilden.
Aussprache.
In den meisten romanischen Sprachen sowie verbreitet in der mittelalterlichen und neuzeitlichen Aussprache des Lateins und zahlreicher daraus entlehnter Wörter steht "c" vor Konsonanten und hinteren Vokalen (einschließlich /a/) für den stimmlosen velaren Plosiv /k/, vor ursprünglichen Vorderzungenvokalen "e", "i" (auch vor lat. "ae", "oe", "y") dagegen für einen Zischlaut (je nach Sprache und Sprachstufe eine Affrikate , oder ein reiner Frikativ /s/, , ; vgl. Romanische Palatalisierung). Die Verteilung dieser Allophone nach darauffolgendem Vokal wird gelegentlich in sprachspezifischer Lautschrift durch die Reihe ka – ce/ze – ci/zi – ko – ku (sogenannte Ka-ze-zi-ko-ku-Regel) wiedergegeben oder einen Merkspruch folgender Art zusammengefasst: „Vor "a, o, u" sprich "c" wie "k", vor "e" und "i" sprich "c" wie "z".“ Wo ein solcher Zischlaut vor einem hinteren Konsonanten wie /a/, /o/, /u/ (oder einem erst später daraus entstandenen Vorderzungenvokal, etwa frz. [y] < lat. /u/) steht, wird er oft durch "ç", "z", oder (im Italienischen) den Digraphen "ci" bezeichnet. Umgekehrt tritt für den Velaren vor vorderem Vokal "k", im Französischen regelmäßig "qu", im Italienischen "ch" ein. Darüber hinaus wird der Buchstabe "c" zum Teil auch allgemein durch "z" bzw. "k" ersetzt, z. B. im heutigen Deutsch bei lateinischen Lehnwörtern: "Zirkus" statt "Circus".
Außerhalb des Italienischen steht der Digraph "ch" in vielen romanischen Sprachen ebenfalls für einen Zischlaut, im Deutschen und im Gälischen für einen velaren oder palatalen Reibelaut. Meist dient die Kombination ck im Deutschen als Variante von "k" zur Kennzeichnung eines Silbengelenks, steht also nach kurzen geschlossenen Silben; es findet sich aber bei norddeutschen Orts- und Familiennamen teilweise ein "ck" auch nach offenen Silben bzw. langen Vokalen (z. B. "Mecklenburg" (ˈmeː-), Buddenbroock); der Trigraph "sch" stellt den Laut [] dar (wie in "Schule").
Herkunft.
Die aus der protosinaitischen Schrift stammende Urform des Buchstabens stellt einen Fuß dar. Im phönizischen Alphabet wurde diese Bedeutung beibehalten. Der Buchstabe erhielt den Namen Gimel (Kamel) und hatte den Lautwert [g]. Die Griechen übernahmen den Buchstaben als Gamma. Zu Beginn wurde das Gamma in einer Form geschrieben, die wie ein Dach aussah (ähnlich dem späteren Lambda). Bis zur klassischen Zeit entwickelte sich das Gamma zu Γ weiter. Mit dafür verantwortlich war wahrscheinlich neben dem Wechsel der Schreibrichtung von rechts-nach-links auf links-nach-rechts auch der notwendige Wechsel der Schreibwerkzeuge zum Beschreiben von organischen Stoffen.
Als die Etrusker das frühgriechische Alphabet übernahmen, hatten sie keine Verwendung für das Gamma, da im Etruskischen stimmhafte Verschlusslaute wie [g] nicht vorkamen. Allerdings hatte die etruskische Sprache drei k-Laute. Die Etrusker veränderten daher den Lautwert des Buchstabens, um den stimmlosen Verschlusslaut [k] vor [e] oder [i] wiederzugeben.
Mit eben dem Lautwert wanderte das Zeichen C dann in das lateinische Alphabet und wurde von den Römern, die durchaus zwischen der Tenuis K und der Media G unterschieden, so ursprünglich für die Laute [g] und [k], genauer, für die Silben [ge]; [gi] und [ke]; [ki] gesetzt. Wenn auch in archaischer Zeit in der lateinischen Schriftpraxis drei von ihren nachfolgenden Lauten unterschiedlich gefärbte [k]-Laute zeichenmäßig noch nicht konsequent unterschieden wurden, so setzte doch eine Differenzierung ein, nämlich C vor [e], [i], K vor [a] und Liquiden, Q vor [o], [u], von denen der Erstere auch noch für unser heutiges G verantwortlich ist.
Bereits im 4. Jahrhundert v. Chr. kam dieser Prozess zum Abschluss, indem der Buchstabe Q nur noch vor das konsonantische [u] gestellt, während der Buchstabe K ab dem 3. Jahrhundert v. Chr. nur noch in formelhaften Abkürzungen, wie Kal. = Kalendae und dem Brandmal K. = Kalumniator vorkam. Beide Buchstaben wurden zugunsten des C verdrängt.
Zunächst wurde das C auch noch für den [g]-Laut verwendet. Nach Plutarch (Quest. Rom. 54) war es 230 v. Chr. der Schreibschulen-Betreiber Spurius Carvilius Ruga, der durch Hinzufügung eines Striches das G als eigenständigen Buchstaben schuf und ihn an die Stelle ins Alphabet einfügte, welche der [ts]-Laut, also das griechische Zeta, im griechischen Alphabet einnahm. Der entsprechende Buchstabe Z an dieser Stelle war im Lateinischen zuvor durch den Censor Appius Claudius Caecus seit 312 v. Chr. (Marc. Capella: 1,3) obsolet geworden, da er im Lateinischen außer als Zahlzeichen keinen wirklichen Nutzen hatte. Im Unterschied dazu wurde bei der späteren Einfügung des griechischen Y und der erneuten Übernahme des Z aus dem Griechischen das lateinische Alphabet am Ende ergänzt.
Erhalten blieb das Zeichen C als [ge]-Laut nur in den Abkürzungen C. ≙ Gaius und CN. ≙ Gnaeus.
Zitat.
"Da wir, gleich den Griechen und Slaven, die tenuis des gutturallauts mit K ausdrücken, so ist dafür das aus dem lateinischen Alphabet entnommene C ganz überflüssig, fehlt darum auch der gothischen und altnordischen schrift, die Slaven verwenden es für S, die Polen und Böhmen für Z." (…) "unentbehrlich aber bleibt, solange wir für die kehlaspirata kein einfaches Zeichen, wie die Gothen das gr. X, annehmen, C in CH." (aus dem Grimmschen Wörterbuch) |
912 | 275706 | https://de.wikipedia.org/wiki?curid=912 | C4 | C4, C 4 oder C-4 steht für:
Kraftfahrzeuge:
C.4 steht für: |
913 | 38244 | https://de.wikipedia.org/wiki?curid=913 | Chemische Waffe | Chemische Waffen (auch Chemiewaffen) sind toxisch wirkende feste, flüssige oder (als Giftgas) gasförmige Substanzen oder Gemische, die – in Verbindung mit der notwendigen Waffentechnik zur Ausbringung (Granaten, Sprühvorrichtungen) – ursprünglich hergestellt wurden, um Menschen in kriegerischen Auseinandersetzungen sowie bei Terror- und Sabotageakten zeitweilig kampf- bzw. handlungsunfähig zu machen oder zu töten. In der 1997 in Kraft getretenen Chemiewaffenkonvention wird die Verwendung auf jede Chemikalie in Waffen erweitert, deren toxische Eigenschaften Menschen oder Tieren zeitweiligen oder permanenten Schaden zufügen, und auch die zu ihrer Produktion verwendeten Vorgängerstoffe werden, sofern sie nicht für eine andere Form der Weiterverarbeitung vorgesehen sind, zu den chemischen Waffen gezählt. Im erweiterten Sinn werden auch Brand- (Napalm), Nebel- und Rauchstoffe sowie Entlaubungsmittel (Herbizide) und Nesselstoffe zu den chemischen Waffen gerechnet. Chemische Waffen gehören zu den Massenvernichtungswaffen (CBRN-Waffen).
Geschichte.
Bereits im Peloponnesischen Krieg 431 bis 404 v. Chr. setzten die Spartaner Brandkörper ein, die hohe Luftkonzentrationen von Schwefeldioxid verursachten. Bei der Eroberung von Dura Europos setzten die Sassaniden 256 n. Chr. gegen die Römer auch Naphtha ein. In der Schlacht bei Liegnitz (1241) wurden die christlichen Ritter von den Mongolen durch „dampfausstoßende Kriegsmaschinen“ in Schrecken versetzt.
Die ersten modernen chemischen Waffen sind im Ersten Weltkrieg eingesetzt worden. Es handelte sich um unmittelbar einsatzbereite "unitäre" Kampfstoffe, die zunächst auf Substanzen basierten, die bereits in der chemischen Industrie verwendet wurden, also in ausreichend großen Mengen vorhanden waren; das waren Gase wie Chlor, Phosgen, Cyanwasserstoff (Blausäure) oder Arsin. Diese hatten jedoch zwei große Nachteile: Zum einen waren sie durch wechselnde Windrichtungen unberechenbar (so konnte eine Gaswolke auf die eigene Stellung zurückgeweht werden), und andererseits verflüchtigte sich das Gas relativ schnell. Daher sind die meisten späteren chemischen Kampfstoffe Flüssigkeiten, die als Aerosole versprüht werden. Das hat zur Folge, dass die Substanzen an Boden, Kleidung, Haut und Gasmasken klebenbleiben und auch in die Filter eindringen können. Deshalb ist die Verweildauer viel länger als bei Gas.
Das Hauptziel der neueren Kampfstoffe ist nicht allein die Lunge, sondern auch die Haut. Ein solcher Kampfstoff diffundiert durch die Haut hindurch in die Blutbahn und wird so schnell im ganzen Organismus verteilt. Daher stellen nur Ganzkörperschutzanzüge einen ausreichenden Schutz gegen Kampfstoffe dar. Ein bekannter und wichtiger Kampfstoff dieser Gruppe ist Schwefellost, auch bekannt unter dem Namen Senfgas.
Dass bereits 21 Jahre vor dem Ersten Weltkrieg die Entwicklung von Chemiewaffen politisch relevant war, zeigt ein Artikel der "Times" von 1893, in dem das "War Office Explosives Committee" die Unmöglichkeit thematisierte, Tests der neuen Waffen geheim zu halten:
Erster Weltkrieg.
Im Ersten Weltkrieg kam es zum ersten Einsatz von chemischen Kampfstoffen im August 1914 durch französische Truppen, die Xylylbromid – ein für die Pariser Polizei entwickeltes Tränengas – gegen deutsche Truppen einsetzten. Erste Versuche beider Seiten mit Stoffen wie Bromessigsäureethylester (durch Frankreich im März 1915) und o-Dianisidinchlorsulfonat, einem feinkristallinen Pulver, das Schleimhäute der Augen und Nase reizte (durch Deutschland am 27. Oktober 1914 bei Neuve-Chapelle), verliefen nicht zufriedenstellend, da die Stoffe sich beim Abschuss durch die entstehende Hitze zersetzten.
In großem Umfang setzte zuerst das deutsche Heer Kampfgase ein, als Ende Januar 1915 an der Ostfront bei Bolimów in Polen bei einer Offensive der 9. Armee mit Xylylbromid gefüllte Geschosse gegen russische Truppen abgefeuert wurden. 18.000 Gasgranaten waren bereitgestellt worden, deren Wirkung aber durch Kälte und Schnee nahezu aufgehoben wurde. Ungleich bekannter wurde jedoch der erste wirkungsvolle Einsatz von chemischen Waffen an der Westfront vom 22. April 1915 in der Zweiten Flandernschlacht bei Ypern. Das deutsche XV. Armee-Korps unter General der Infanterie von Deimling ließ 150 Tonnen Chlorgas nach dem so genannten Haberschen Blasverfahren aus Flaschen entweichen. Eingeatmetes Chlorgas führt zu einem lebensbedrohlichen toxischen Lungenödem. Da Chlor schwerer als Luft ist, sank das Gas in die französischen Schützengräben und forderte dort angeblich rund 5000 Tote und 10.000 Verletzte; heute geht man von 1.200 Toten und 3.000 Verwundeten aus.
Frankreich setzte als erste der kriegführenden Nationen am 22. Februar 1916 Phosgen (COCl2) in Reinform ein, nachdem deutsche Gastruppen eine Mischung aus Chlorgas mit einem etwa fünfprozentigen Zusatz von Phosgen bereits Ende Mai 1915 an der Ostfront in Bolimów an der Bzura gegen russische Truppen sowie an der Westfront am 31. Mai 1915 bei Ypern gegen französische Truppen verwendet hatten. Phosgen wird der größte Anteil an allen Gasverletzten zugeschrieben. Später wurden die Kampfstoffe mittels Giftgasgranaten verschossen, bei denen durch farbige Kreuze (Blaukreuz, Gelbkreuz, Grünkreuz und Weißkreuz) erkennbar war, welche Art von Kampfstoff sie enthielten.
An der Westfront wurde verstärkt „Gelbkreuz“ eingesetzt, das für Hautkampfstoffe stand.
Buntschießen.
Während des Ersten Weltkrieges wurden Kampfstoffe in der Spätphase häufig kombiniert eingesetzt. Stark reizend wirkende Kampfstoffe in Aerosol- oder Pulverform wie Blaukreuz konnten die Filter der Gasmasken durchdringen und zwangen die Träger, die Gasmaske abzunehmen. Gleichzeitig mit diesen Maskenbrechern wurden lungenschädigende Kampfstoffe wie Grünkreuz eingesetzt. Der kombinierte Einsatz verschiedener Kampfstoffe zu diesem Zweck wurde als „Buntschießen“ oder „Buntkreuz“ bezeichnet.
Bei der Offensive deutscher und österreichisch-ungarischer Verbände im Raum Flitsch-Tolmein (Schlacht von Karfreit oder auch Zwölfte Isonzoschlacht) am 24. Oktober 1917 wurde der Angriff durch „Buntschießen“ von Gasbatterien vorbereitet. Die italienischen Soldaten verfügten nur über ungenügende oder gar keine Schutzbekleidung – in diesem Abschnitt starben durch den Gasangriff über 5.000 Italiener. Die angreifenden Verbände hatten es dadurch erheblich leichter, den Durchbruch durch die italienische Front zu erreichen. Auch die psychische Wirkung auf die Italiener war verheerend. Sehr viele Soldaten ergaben sich den Angreifern, die Kampfmoral sank drastisch. Die italienische Front musste bis an den Piave zurückgenommen werden; zur Verstärkung wurden französische und britische Verbände an diese Front verlegt. Die Italiener konnten die Lage nach einer Reorganisation später selbst wieder stabilisieren. Im Juni 1918 versuchte Österreich-Ungarn in einer letzten Offensive, den Piave zu überschreiten. Der Angriff war jedoch nicht erfolgreich, da zum einen die Italiener besser gegen Gasangriffe gerüstet waren und zum anderen ein Teil der chemischen Waffen zu lange gelagert worden war und damit seine Wirksamkeit verloren hatte.
Ein weiterer militärisch erfolgreicher Fall von Buntschießen, wie von Oberst Georg Bruchmüller erfunden, erfolgte bei der Deutschen Frühjahrsoffensive vom 21. März bis 17. Juli 1918 an der Westfront in Nordfrankreich. Dabei lag das Augenmerk nicht auf einer langen Artillerievorbereitung und einem schwerfälligen Angriff auf breiter Front, sondern auf einem kurzen, aber zusätzlich durch gemischten Einsatz von Gasgranaten effektiven Artillerieschlag. Danach sollten die sogenannten Sturmbataillone nachrücken und verbliebene Widerstandsnester ausräumen. Der gemischte Gaseinsatz lähmte dabei die Widerstandskraft des Gegners entscheidend.
Bewertung von chemischen Kampfstoffen als Kriegswaffe.
Chemische Kampfstoffe werden heute allgemein als die schrecklichsten Waffen des Ersten Weltkrieges angesehen. Sie verursachten kurzzeitig große Ausfälle, wobei allerdings im Vergleich zu anderen damaligen Waffen die Todesraten sehr gering waren. Trotz der teilweise qualvollen Verletzungen waren die Heilungschancen besser als im Vergleich zu Verwundungen durch Schussverletzungen oder Artillerie; abgesehen von den Spätfolgen wie zum Beispiel Hautkrebs im Falle von S-Lost, die zum Teil erst nach Jahrzehnten eintraten.
Chemische Waffen verursachten im Ersten Weltkrieg auf beiden Seiten insgesamt etwa 90.000 Tote und 1,2 Millionen Verwundete, wobei aufgrund mangelhafter Schutzausrüstung allein auf Russland mehr als die Hälfte dieser Toten entfiel. An der Westfront hatten die Alliierten etwa doppelt so hohe Verluste wie die Deutschen. Deutschland und Österreich-Ungarn rüsteten ihre Soldaten mit wirksameren Gasmasken aus und konnten so höhere Verluste bei Gasangriffen vermeiden.
Aufgrund der verhältnismäßig niedrigen Todesrate (manche Historiker nehmen an, dass insgesamt nur 18.000 Mann an der Westfront durch Gasangriffe starben) und der teilweise unkalkulierbaren Wirkung infolge von nicht vorhersehbaren Faktoren wie bspw. wechselnde Windrichtungen gilt Giftgas im Ersten Weltkrieg als eine wenig effektive Waffe.
Zwischen den Weltkriegen (1918 bis 1939).
Im Ersten Weltkrieg hatte die Flugzeugtechnik deutliche Fortschritte gemacht: Reichweite, Zuverlässigkeit, Geschwindigkeit und maximale Zuladung hatten stark zugenommen. Auch hatten alle Seiten die Nützlichkeit von Aufklärungsflugzeugen erkannt.
Ab 1919 wurde das Konzept der kolonialen Herrschaft und Kontrolle aus der Luft von Winston Churchill erstmals umgesetzt. Die Royal Air Force sollte dabei die Kontrolle über die Kolonien im Nahen Osten übernehmen und ausführen. Neben konventionellen Waffen wurden dabei auch Giftgaseinsätze aus der Luft erwogen und von Churchill ausdrücklich gefordert. Aufgrund von technischen Problemen wurde Giftgas nur mit den bereits im Ersten Weltkrieg erprobten Methoden gegen die arabische Bevölkerung im Irak angewandt. Dabei kam es auch zu Giftgaseinsätzen gegen die Kurden in Sulaimaniyya im heutigen Irak.
Vorbehalte britischer Militärs wies Churchill zurück und erklärte: „Ich verstehe die Zimperlichkeit bezüglich des Einsatzes von Gas nicht. Ich bin sehr dafür, Giftgas gegen unzivilisierte Stämme einzusetzen“, ließ er verlauten. Das eingesetzte Gas müsse ja nicht tödlich sein, sondern nur „große Schmerzen hervorrufen und einen umfassenden Terror verbreiten“.
Ein Verband der sowjetischen Armee, zusammengesetzt vorwiegend aus Einheiten der Tscheka, setzte während des Bauernaufstands von Tambow 1920/21 chemische Kampfstoffe zur Bekämpfung der aufständischen Bauern ein.
Im Rifkrieg in Nordmarokko setzte Spanien ab 1924 chemische Waffen gegen die aufständischen Rifkabylen, einen Berber-Stamm, ein. Dabei wurde Spanien von Frankreich und in einem Geheimvertrag von der deutschen Reichswehr unterstützt.
Ein weiteres Mal wurde Giftgas vom faschistischen Italien im Zweiten Italienisch-Libyschen Krieg sowie im Abessinienkrieg verwendet. Italien setzte Giftgasbomben in Äthiopien ein, nachdem die äthiopische Weihnachtsoffensive erfolgreich italienische Truppen zurückgedrängt und Versorgungslinien unterbrochen hatte. Die äthiopischen Truppen waren sehr schlecht ausgerüstet und viele Krieger kämpften noch mit Speeren. Die Krieger trugen traditionelle Kleidung und verfügten über keine Schutzausrüstung, so dass besonders das hautschädigende Senfgas zu hohen Verlusten führte. Laut sowjetischen Schätzungen kamen durch den Einsatz von Giftgas 15.000 bis 50.000 Äthiopier ums Leben.
Der deutschen Reichswehr waren die Entwicklung und der Besitz von chemischen Waffen durch den Versailler Vertrag verboten. Um das Verbot zu umgehen, kooperierte Deutschland ab 1923 mit der Sowjetunion (siehe: Vertrag von Rapallo) und erprobte auf dem Testgelände Tomka chemische Waffen. Eine Zusammenarbeit fand auch mit Spanien statt.
In den USA wurden Chemiewaffen zwischen den Weltkriegen weiterentwickelt. Zuständig dafür war neben der American Chemical Society (Institut für Chemie an der Northwestern University) eine Militärbehörde, die "National Association for Chemical Defense". Deren Leiter H. Edmund Bullis empfahl 1928 sogar den Polizeibehörden den Einsatz dieser „höchst effektiven und zugleich humansten aller Waffen“, eben Chemiewaffen. In Cleveland und Chicago testeten Polizisten in dem Jahr „erfolgreich“ aus „genialen“ Füllfederhalter-großen oder aus normalen Pistolen abgefeuerte neuartige Gase, die „gezeigt haben, dass man drei oder vier Männer, die zusammen nicht weiter als fünf Meter entfernt stehen, mit einem einzigen Schuss nachhaltig ausschalten kann“. Auch Kneipen, die illegal Alkohol ausschenkten (Speakeasys), könne man mit Chemiewaffen „mindestens einen Monat lang unbewohnbar“ machen. Bullis setzte sich vehement gegen ein weltweites Verbot von chemischen Waffen im Krieg ein, mit der Begründung:
Er nannte als Beispiel den Austritt toxischen Phosgengases aus einem Kesselwagen bei der Chemischen Fabrik Stoltzenberg in Hamburg. Das Deutsche Reich durfte eigentlich solche Giftgase gar nicht herstellen und lagern.
Die englische Öffentlichkeit diskutierte nach dem Ersten Weltkrieg über eine stärkere Zusammenlegung von ziviler und militärischer Forschung, wozu auch die Entwicklung neuer Chemiewaffen gehörte. „Die ganze Zukunft der chemischen Kriegführung hängt von der Farbstoffindustrie ab“, schrieb 1920 der Kriegskorrespondent der Londoner Times.
Genfer Protokoll.
Die Verwendung von vergiftenden Waffen war schon vor dem Ersten Weltkrieg durch die Haager Landkriegsordnung geächtet, deren Formulierung bot jedoch ausreichend Spielraum zu verschiedenen Auslegungen, so dass der Einsatz von Giftgas nicht eindeutig verboten war. Angesichts der Gräuel im Ersten Weltkrieg wurde 1925 im Genfer Protokoll die Anwendung von Giftgasen und bakteriologischen Mitteln ausdrücklich verboten.
Die Ratifizierung erfolgte zögerlich:
1926: Frankreich, 1928: Italien, Sowjetunion (Erklärung),
1929: Deutschland, 1930: Großbritannien, 1970: Japan, 1975: USA.
Viele der Unterzeichnerstaaten behielten sich bestimmte Handlungen vor, namentlich
Der Vertrag ist nur ein Verbot des "Erst"einsatzes von B- und C-Waffen.
Zweiter Weltkrieg.
Bereits 1935 erschien das Lehrbuch "Schulversuche zur Chemie der Kampfstoffe: ein Experimentierbuch zum Gas- und Luftschutz" in Berlin. Der Autor Kintoff leitet zu einfachen Versuchen an und erläutert die Funktion der Gasmaske.
Während des Zweiten Weltkrieges setzte das Kaiserreich Japan als einzige Nation chemische Waffen ein. Diese wurden zusammen mit biologischen Waffen in der Republik China gegen chinesische Truppen und auch zur gezielten Massentötung von Zivilisten eingesetzt.
Nach Erkenntnissen der Historiker Yoshiaki Yoshimi und Seiya Matsuno erhielt Okamura Yasuji vom Kaiser Hirohito die Erlaubnis, chemische Waffen während dieser Gefechte einzusetzen. Zum Beispiel ermächtigte der Kaiser den Einsatz von Giftgas während der Schlacht um Wuhan von August bis Oktober 1938 in 375 verschiedenen Einsätzen gegen die 1,1 Millionen chinesischen Soldaten, von denen 400.000 während der Schlacht starben. Artikel 23 der Haager Konvention (1899 und 1907) und Artikel V des Vertrags in Bezug auf die Nutzung von U-Booten und Schadgasen in der Kriegführung vom 6. Februar 1921 verurteilten jedoch bereits den Einsatz von Giftgas. Während der Schlacht um Changsha im Herbst 1939 setzte die Kaiserlich Japanische Armee ebenfalls große Mengen Giftgas gegen chinesische Positionen ein. Ein weiteres Beispiel ist die Schlacht von Yichang im Oktober 1941, in der das 19. Artillerieregiment die 13. Brigade der 11. Armee durch Beschuss der chinesischen Streitkräfte mit 1.000 gelben Gasgranaten und 1.500 roten Gasgranaten unterstützte. Das Gebiet war mit chinesischen Zivilisten, deren Evakuierung durch die japanische Armee untersagt wurde, überfüllt. Von den rund 3.000 chinesischen Soldaten in dem Gebiet waren 1.600 von der Wirkung des Gases erheblich betroffen.
Während der Schlacht um Changde im November und Dezember 1943 versuchten Truppen der Kaiserlich Japanischen Armee, darunter die Einheit 516, zusammen mit der Versprühung von biologischen Kampfstoffen von Flugzeugen aus, durch den massiven Einsatz von Giftgas, welches hauptsächlich mit Artilleriegranaten sowohl auf chinesische Stellungen im Umland als auch in die Stadt abgeschossen wurde, den Widerstand der Verteidiger zu brechen. Bei dem eingesetzten Gas handelte es sich neben anderen Arten zur Hauptsache höchstwahrscheinlich um Senfgas und Lewisit. Im Laufe der Schlacht starben 50.000 chinesische Soldaten und 300.000 Zivilisten. Wie viele davon durch die biologischen und chemischen Waffen gestorben sind, ist ungeklärt. Sowohl die Einsätze von biologischen als auch von chemischen Waffen durch die Kaiserlich Japanische Armee werden zu den japanischen Kriegsverbrechen gezählt.
Zu den zahllosen Menschenexperimenten der japanischen Armee, darunter der Einheit 731, gehörte auch das Testen von Giftgas an gefangenen chinesischen Zivilisten. Im Jahr 2004 entdeckten Yuki Tanaka und Yoshimi im australischen Nationalarchiv Dokumente, die belegen, dass Zyanidgas im November 1944 auf den Kai-Inseln (Indonesien) an australischen und niederländischen Kriegsgefangenen getestet wurde.
Das Verbot der Anwendung von vergiftenden, chemischen und biologischen Waffen wurde im Zweiten Weltkrieg zumindest auf dem europäischen Kriegsschauplatz weitgehend beachtet, obwohl nicht alle beteiligten Länder dem Protokoll beigetreten waren. Ein weiterer wichtiger Aspekt war auch die gegenseitige Abschreckung, vergleichbar mit der atomaren Abschreckung im Kalten Krieg: Hätte eine der kriegführenden Parteien Giftgas eingesetzt, wurde als Folge eine Bombardierung des eigenen Territoriums mit chemischen Waffen durch Gegner befürchtet. Für den Fall, dass Deutschland an der Ostfront Kampfstoffe einsetzen sollte, hatte der britische Premierminister Churchill bereits im Mai 1942 mit einem Großeinsatz von Kampfstoffen gedroht. Ein amerikanischer Plan vom April 1944 sah für den Fall des Kampfstoffeinsatzes durch Deutschland einen Vergeltungsangriff gegen 30 große deutsche Städte vor. Innerhalb von 14 Tagen sollten in diesem Fall die Städte mit einer Gesamtfläche von 217 km² angegriffen und über ihnen insgesamt 15.345 t Senfgas (Lost) und 21.176 t Phosgen abgeworfen werden. Wegen der extrem hohen Kampfstoffkonzentration in diesem Fall (168 Gramm je Quadratmeter) gingen Schätzungen von 5,6 Millionen unmittelbar durch den Einsatz Getöteten und weiteren 12 Millionen an den Folgen des Angriffs Gestorbenen und Verletzten aus.
Auch wäre der Einsatz meist unvorteilhaft gewesen, da die eigenen Soldaten in der Offensive verseuchtes Gelände eingenommen hätten und daher selbst Vergiftungen zu fürchten gehabt hätten.
An den europäischen Fronten sind während des ganzen Zweiten Weltkriegs nur vier Fälle bekannt geworden, in denen Menschen durch Kampfstoffe getötet oder verletzt wurden, dabei handelte es sich um einen gezielten Kampfstoffeinsatz sowie drei Unfälle:
Im nationalsozialistischen Deutschen Reich wurde im Dezember 1936 bei I.G. Farben im Werk Leverkusen durch den Chemiker Gerhard Schrader der Nervenkampfstoff Tabun entdeckt. Im Dezember 1939 synthetisierte er den in seiner Wirkung noch stärkeren Giftstoff Sarin. Ab Frühjahr 1942 produzierte I.G. Farben in ihrem Werk in Dyhernfurth in Schlesien Tabun. 1944 entdeckte der Nobelpreisträger Richard Kuhn mit seinem Mitarbeiter, Konrad Henkel, den Kampfstoff Soman in einer vom Heereswaffenamt unterhaltenen Abteilung des Kaiser-Wilhelm-Instituts für medizinische Forschung in Heidelberg. Diese Nervengifte wurden aufgrund der Furcht vor einem Gegenschlag nicht eingesetzt. Da sie in gasförmiger Zubereitung – oft als Aerosol – eingesetzt werden sollten, werden diese Stoffe auch als "Nervengase" bezeichnet.
Deutschland hatte Ende der dreißiger Jahre als erste Nation die großtechnische (industrielle) Produktion von Nervenkampfstoffen entwickelt, war also als einzige Kriegspartei zur Herstellung von Nervenkampfstoffen im Kilogramm- und Tonnenbereich in der Lage. Dieser Umstand, gekoppelt mit der Verfügbarkeit modernster Trägersysteme wie der V-2, hätte die politische Führung in die Lage versetzt, einen strategischen Gaskrieg zu entfesseln, der unter Umständen von der Tragweite her ähnlich gravierend hätte sein können wie die Atombombenabwürfe auf Hiroshima und Nagasaki. Die verantwortliche Führung des deutschen Kampfgasentwicklungsprogramms verheimlichte Hitler gegenüber bewusst die tatsächlichen Möglichkeiten, denn eine Eskalation zum Gaskrieg wurde befürchtet, falls Hitler klar werden sollte, welche Wirkung beispielsweise ein mit Tabungefechtsköpfen bestückter V-2-Angriff auf London hätte haben können. Für den taktischen Einsatz waren bereits als Träger Werferwaffen (sog. Nebelwerfer) hergestellt und die entsprechenden Truppen (Nebeltruppe) geschult worden. Die oft geäußerte Vermutung, dass die Erfahrungen Hitlers im Ersten Weltkrieg ihn davon abgehalten haben sollen, chemische Kampfstoffe einsetzen zu lassen, entbehrt jeder Grundlage, da er selbst die Produktion dieser befahl und die Vorbereitungen für den Beginn eines Gaskrieges anordnete. Die Gründe dafür, dass die ab 1942 in großem Umfang produzierten Nervenkampfstoffe nicht zum Einsatz kamen, waren größtenteils logistischer (Rohstoffknappheit) und militärstrategischer Art. Ebenfalls von Bedeutung waren sowohl die deutsche Fehleinschätzung, die Alliierten würden ebenfalls über Nervenkampfstoffe verfügen, als auch die alliierte Androhung massiver Gegenschläge im Falle eines deutschen Ersteinsatzes chemischer Kampfstoffe. In einer Besprechung am 15. Mai 1943 im Führerhauptquartier hatte der Chemiker Otto Ambros erklärt, dass Tabun seit 1902 in der Literatur behandelt werde und Sarin sogar patentiert sei, und die Substanzen in den Patentschriften stünden. Daher sei er überzeugt, dass andere Länder diese Gase nicht nur rasch nachmachen können, sondern auch in weitaus größeren Mengen produzieren können.
In den Gaskammern der deutschen Vernichtungslager Auschwitz-Birkenau, Belzec, Sobibor, Mauthausen, Treblinka und Lublin-Majdanek wurden viele Opfer des Holocaust mit dem blausäurehaltigen Insektizid Zyklon B und in Gaswagen mit Motorabgasen (Kohlenstoffmonoxid) ermordet.
Nach 1945.
Nach dem Zweiten Weltkrieg wurden umfangreiche deutsche Bestände – zwischen 30.000 und 40.000 Tonnen chemischer Waffen – in der Nord- und Ostsee in der von US-amerikanischen Streitkräften geleiteten Operation Davy Jones’ Locker mitsamt ihren Transportschiffen versenkt, so vor der norwegischen Hafenstadt Arendal 1946. Die Versenkung der Schiffe erfolgte durch Sprengung oder Beschuss durch Bordwaffen begleitender britischer Kriegsschiffe. 1955/56 wurden Restbestände, die von der Royal Air Force gebunkert worden waren, in der Operation Sandcastle nordwestlich von Irland im Atlantik versenkt, so auch die SS Kotka. Von 1944 bis 1970 wurden von Seiten der United States Army in 26 so genannten Versenkungszonen ("dump zones") an der Ostküste der USA chemische Kampfstoffe versenkt, von denen aufgrund mangelnder oder unzureichender Dokumentation unklar ist, wo sie sich exakt befinden und welche Chemikalien in welcher Menge dort lagern.
Gesichert ist, dass Ägypten chemische Waffen im Jemen eingesetzt hat. Die Technologie dazu stammte aus der Sowjetunion, welche diese auch an andere mit ihr verbündete Staaten des Nahen Ostens – wie dem Irak – weitergegeben hatte.
Während anfangs von Frankreich und den USA noch konventionelle Brandbomben wie Napalm gegen die Nordvietnamesen und die FNL verwendet wurden, startete die Regierung Kennedy 1961 den systematischen Einsatz von Chemikalien gegen Nordvietnam. Die im Zuge der Operation Ranch Hand als Entlaubungsmittel eingesetzten Herbizide (vor allem Agent Orange) sollten dem Gegner die Deckung durch die Vegetation nehmen sowie seine Ernte vernichten. Agent Orange war mit 2,3,7,8-Tetrachlordibenzodioxin verunreinigt und verursachte dadurch schwere gesundheitliche Schäden unter der Bevölkerung und den Soldaten beider Seiten.
Erste Verhandlungen zu einem Chemiewaffenübereinkommen ("CWÜ", auch "Chemiewaffenkonvention" genannt) begannen 1968 mit der "Working Group on Chemical Weapons" bei der "Eighteen Nations Conference on Disarmament (ENCD)" der UN in Genf, die seit 1962 bestand. 1969 nahm eine "Conference of the Committee on Disarmament of the UN (CCD)" ihre Tätigkeit auf. Der angebliche Einsatz von Sarin gegen eigene Kräfte (Deserteure) in der "Operation Tailwind" im September 1970 in Laos entpuppte sich als politisch motivierte Falschmeldung. 1975 gab es 30 Teilnehmerstaaten für ein CWÜ; darunter waren auch die Bundesrepublik und die DDR. 1976 fanden bilaterale Verhandlungen von USA und UdSSR statt. Die Verhandlungen wurden im selben Jahr unterbrochen. Erst 1979 einigten sich die USA und UdSSR weitgehend über die Grundstruktur des Vertrags und weitgehend auch über Verifikationsmaßnahmen; ungelöst blieb aber die Frage von Ad-hoc-Verdachtskontrollen vor Ort. 1979 gab es ein "Committee on Disarmament of the United Nations" (CD); es hatte 40 Teilnehmerstaaten. 1980 bildete sich ein "Ad Hoc Committee on Chemical Weapons".
1981 beschuldigte der US-amerikanische Außenminister Alexander Haig die UdSSR und die von ihr unterstützte Vietnamesische Volksarmee, im Zweiten Laotischen Bürgerkrieg (1963–73) Mykotoxine eingesetzt zu haben, um Tausende von Hmong zu töten. Diese Vorwürfe konnten nicht bewiesen werden.
Ende der 1980er Jahre erkannte das US-Militär, dass die bisherigen, lange gelagerten Chemiewaffen bis spätestens 1990 zum Großteil zersetzt und damit militärisch unbrauchbar sein würden; daher unterschrieb Präsident Ronald Reagan 1987 ein Gesetz, um die alten chemischen Kampfstoffe zu zerstören und gegen neue, binäre Kampfstoffe zu ersetzen. Bei diesen wird nicht der endgültige und wirksame chemische Kampfstoff bereitgehalten, sondern verschiedene, stabilere und weniger korrosive Komponenten, die beim Einsatz der binären Waffen dann erst zum Wirkstoff reagieren.
Chemiewaffenübereinkommen (1992/1997).
Nach dem Ende des Kalten Krieges um 1990 änderte sich die geostrategische Lage deutlich. Es kam zu zahlreichen Abrüstungsverhandlungen zwischen westlichen Staaten und Nachfolgestaaten der Sowjetunion. Chemische Waffen (oft lagerten sie in inzwischen rostigen Tanks) galten vielen inzwischen als Altlast.
Schon Ende der 1980er Jahre verkündete der sowjetische Präsident Michail Gorbatschow auf Chemiewaffen künftig zu verzichten und diese vernichten zu wollen und lud 1987 internationale Beobachter in bis dahin geheime Chemiewaffenlabore ein. Schon 1990 kam es zu einem bilateralen Abkommen mit den USA (Chemiewaffenabkommen) über die Vernichtung von Chemiewaffen.
Am 3. September 1992 wurde das CWÜ von den Mitgliedstaaten der Genfer Abrüstungskonferenz (UNCD) verabschiedet.
Seit 13. Januar 1993 kann es unterzeichnet werden. Eine Unterzeichnung erfolgte durch etwa 150 Staaten, darunter USA und Russland.
Deutschland hat die Konvention 1994 ratifiziert, Österreich und die Schweiz 1995.
Am 29. April 1997 trat das Chemiewaffenübereinkommen in Kraft. 1997 erfolgte die Ratifizierung auch durch die USA und Russland. Die ratifizierenden Staaten haben sich durch das CWÜ unter anderem dazu verpflichtet, bis zum Jahr 2012 sämtliche Chemiewaffen unter internationaler Aufsicht zu vernichten.
Stand Juni 2018 sind 193 Staaten der Konvention beigetreten.
Als jüngstes Ratifizierungsland ist Palästina der Konvention am 16. Juni 2018 beigetreten. Im Januar 1993 unterzeichnet, aber bis heute noch nicht ratifiziert wurde der Vertrag von Israel und Myanmar. Vier Staaten haben die Konvention bisher weder unterzeichnet noch ratifiziert: Ägypten, Angola, Nordkorea und Südsudan. Die Einhaltung des Abkommens wird durch die Organisation für das Verbot chemischer Waffen, OVCW (englisch Organisation for the Prohibition of Chemical Weapons, OPCW) überwacht. Die OVCW ist eine internationale Organisation mit Sitz in Den Haag.
Erster Golfkrieg.
Schon zu Beginn des Ersten Golfkriegs setzte die irakische Armee auf Weisung Saddam Husseins chemische Waffen gegen den Iran ein. So warf die irakische Luftwaffe bereits 1980 speziell dafür entwickelte Kanister mit chemischen Kampfstoffen über iranischen Stellungen ab. Bekanntheit erlangte der Giftgasangriff auf die Fernverkehrsstraße am 9. August 1983 Rawanduz–Piranschahr.
Insgesamt wurden etwa 100.000 iranische Soldaten Opfer von Gasangriffen. Viele davon wurden durch Senfgas, das von einer mit deutscher Unterstützung gebauten Insektizid-Fabrik in Samarra in größerem Maße ab 1983 hergestellt wurde, verwundet. Etwa 20.000 davon wurden während des Einsatzes sofort hauptsächlich durch die Nervenkampfstoffe Tabun und VX getötet. Diese Zahlen schließen allerdings keine Zivilisten ein. Da Giftgas während der Kämpfe auch auf Stellungen und Posten abgeworfen wurde, die sich in oder um Dörfer befanden und deren Einwohner keine Möglichkeit hatten, sich gegen die Gase zu schützen, gab es auch unter der Zivilbevölkerung sehr viele Opfer. Außerdem wurden durch den Einsatz verschiedener Gase Gebiete mit gefährlichen chemischen Schadstoffen kontaminiert.
Der Irak setzte chemische Waffen auch gezielt ein, um Zivilisten zu töten. Tausende wurden bei Giftgasangriffen auf Dörfer, Städte und Frontkrankenhäuser getötet, so auch beim Giftgasangriff auf Sardasht vom 28. Juni 1987. Bekanntestes Beispiel ist der Giftgasangriff auf Halabdscha am 16. März 1988, bei dem etwa 5.000 irakische Kurden getötet und 7.000 bis 10.000 so schwer verletzt wurden, dass viele von ihnen später starben. Die irakischen Streitkräfte setzten mehrere verschiedene Gase gleichzeitig ein. Dazu gehören Nervenkampfstoffe wie Tabun, Sarin und möglicherweise VX, aber auch Senfgas und ein Cyanidkampfstoff.
Im Rahmen der Vorbereitung auf den Ersten und Zweiten Irakkrieg kam es zu Auseinandersetzungen zwischen den USA und Deutschland über die Herkunft der irakischen Chemiewaffentechnologie.
Terrorismus.
1995 kam es beim Terror-Anschlag der japanischen Aum-Sekte zur Freisetzung des Nervengifts Sarin in der U-Bahn von Tokyo. Es gab 13 Tote und 6.252 Verletzte. Ein früherer Anschlag der Sekte mit 7 Toten und 500 Verletzten wurde erst im Nachhinein bekannt.
Im Oktober 2002 verwendeten russische Sicherheitskräfte in Moskau vermutlich das Opioid Carfentanyl und das Anästhetikum Halothan in Form eines Aerosol-Gas-Gemischs, um Terroristen kampfunfähig zu machen, die in einem Musical-Theater 800 Geiseln festhielten. Alle Geiselnehmer und über 129 Geiseln kamen ums Leben, die meisten aufgrund des Gases. Viele erlagen im Krankenhaus ihren Vergiftungen, wozu möglicherweise auch die fehlende Zusammenarbeit der Sicherheitskräfte mit den Ärzten beigetragen hat. Der Einsatz von Carfentanyl wurde offiziell nie bestätigt, möglicherweise im Hinblick auf die von Russland ratifizierte Chemiewaffenkonvention.
Während des Irakkrieges setzte eine Terrororganisation, bei der es sich Berichten zufolge um die al-Qaida handelte, chemische Waffen hauptsächlich gegen Zivilisten ein, aber auch gegen US-Soldaten und irakische Soldaten und Polizisten. Bei dem eingesetzten Gas handelte es sich um Chlorgas. Da die Anschläge alle unter freiem Himmel durchgeführt wurden, war die Zahl der Todesopfer meistens gering, die Zahl der Verletzten betrug jedoch oft mehrere hundert. Zu den am meisten wahrgenommenen Giftgasanschlägen im Irak zählen der Anschlag auf eine Polizeiwache am 6. April 2007 mit 27 Toten und der Anschlag auf einen Dorfmarkt in Abu Sayda am 15. Mai 2007 mit 45 Toten.
Bürgerkrieg Syrien (seit 2013).
Im Umland von Damaskus sind laut Chemiewaffeninspektoren der UNO in mehreren Dörfern Kampfmittel mit Sarin zum Einsatz gekommen. Der mögliche Einsatz von chemischen Waffen in drei weiteren Orten (Chan al-Asal und Scheich Maksud in der Provinz Aleppo sowie Sarakib, einer Kleinstadt nahe der Provinzhauptstadt Idlib,) soll untersucht werden.
Ein Untersuchungsbericht der Vereinten Nationen meldete im August 2016, man könne "die Nutzung der weltweit geächteten Massenvernichtungswaffen in drei Fällen eindeutig belegen und zuordnen." In zwei Fällen habe die syrische Armee die Giftbomben abgeworfen, in einem Fall die Miliz Islamischer Staat (IS). Diese Fälle waren der Einsatz von Chlorgas und eventuell anderer "giftiger Substanzen", die am 21. April 2014 und am 16. März 2015 in zwei Dörfern in der nordwestlichen Provinz Idlib aus Hubschraubern der syrischen Luftwaffe abgeworfen wurden. Die IS-Miliz verwendete am 21. August 2015 im Ort Marea nahe Aleppo Senfgas.
Chemische Waffen.
Chemische Kampfmittel.
Als chemische Kampf"mittel" bezeichnet man jede Art von Gegenständen (Munition, Schweltöpfe, aber auch im strengen Sinne z. B. einfache Flaschen), die es ermöglichen, einen chemischen Kampf"stoff" zu transportieren. Sie lassen sich nach ihrem Angriffsgebiet am menschlichen Körper beziehungsweise ihrer Wirkung einordnen. Eine Grenzziehung zwischen den einzelnen Gruppen ist dabei aber nicht immer eindeutig möglich. Auch ist bei manchen dieser Gruppen bereits die bloße Zuordnung zu den chemischen Kampfstoffen umstritten. Detaillierte Übersichtsarbeiten wurden von V. Pitschmann und von K. Ganesan u. a. vorgelegt.
Die chemischen Kampfmittel an sich werden in folgende Kategorien unterteilt:
Chemische Kampfstoffe.
Die chemischen Kampfstoffe im klassischen Sinn können erneut in verschiedene Kampfstoffklassen unterteilt werden, je nach Art und Ort ihrer Wirkung:
Viele chemische Kampfstoffe werden bevorzugt als Binärkampfstoffe eingesetzt, etwa die Nervenkampfstoffe Sarin, Soman und VX. Dabei werden zwei oder mehr im Vergleich zum Endstoff relativ ungefährliche Substanzen voneinander getrennt in einem Geschoss gelagert. Der eigentliche Kampfstoff entsteht erst nach dem Abschuss meist durch einfaches Vermischen der Komponenten, teilweise unter Zuhilfenahme eines geeigneten Reaktionsbeschleunigers. Vorteile sind die relativ gefahrlose Lagerung und Handhabung, da die verwendeten Chemikalien meist weniger giftig sowie besser lagerfähig als die Kampfstoffe selbst sind, das heißt, es tritt keine oder nur geringe Zersetzung der Chemikalien oder Korrosion der Geschosse auf.
Modernes Einsatzkonzept.
Der Einsatz von chemischen Waffen erfolgt in der Regel massiv und überraschend um möglichen Schutzmaßnahmen zuvorzukommen. Ein Einsatz ist lohnend, wenn mit minimalem Aufwand große Verluste erzielt werden können, wenn der Einsatz militärische Operationen erleichtert oder beschleunigt und wenn mangelnde Ausbildung und Schutzausrüstung einen Einsatz wirkungsvoll machen. So ist auch ein Einsatz als Terrorwaffe gegen zivile Infrastruktur denkbar. Der Einsatz von chemischen Waffen soll im Zielgebiet Verluste von mindestens 30–50 % verursachen, kritische Funktionen verlangsamen oder verunmöglichen und/oder die Nutzung von Gelände und Einrichtungen wie Flughäfen oder Seehäfen als verkehrstechnische Einrichtungen längerfristig unmöglich machen, ohne diese wie bei atomaren Einsatzmitteln zu zerstören. Eine Entgiftung ist aufwendig und zeitintensiv.
Im Gegensatz zu den frühen Kampfstoffen, die gasförmig waren, werden heute überwiegend flüssige Kampfstoffe (selten auch Feststoffe) verwendet. Diese werden als Aerosol eingesetzt. Man unterscheidet hierbei nach der Tropfengröße zwischen den zwei Einsatzarten flüchtig und sesshaft, je nach gewünschter Dauer der Sperrung von Gelände oder Einrichtungen.
Einsatz flüchtig.
Beim flüchtigen Einsatz werden sehr kleine Tropfen verwendet, die größtenteils augenblicklich verdampfen, so dass sehr schnell eine hohe Konzentration des Kampfstoffes wirksam werden kann (50 % als Dampf und 50 % als Feinaerosol). Dabei besteht die Gefahr der Kampfstoffausbreitung in der Windrichtung. Generell wird der flüchtige Einsatz zur Unterstützung von militärischen Operationen eingesetzt, was aber einen Einsatz gegen die Zivilbevölkerung nicht ausschließt. Die Belegungsdichte wird so gewählt, dass ein Atemzug in den meisten Fällen tödliche Mengen des Kampfstoffes enthält. Durch die rasche Verdampfung sollte das Gebiet nach maximal vier Stunden wieder ohne Schutzausrüstung passierbar sein. Ziel des Angriffes ist es, den Gegner im angegriffenen Gebiet stark zu schwächen, um das Durchbrechen feindlicher Linien zu erleichtern, jedoch ohne die eigenen Truppen durch Schutzanzüge zu behindern. Am besten für einen flüchtigen Einsatz geeignet sind die Kampfstoffe Sarin, Soman und Tabun (zusammengefasst unter dem Begriff G-Stoffe oder Trilone) sowie Blausäure. Letztere stellt eine Ausnahme dar, da sie äußerst leichtflüchtig und schon nach wenigen Minuten nicht mehr nachzuweisen ist (maximal 15 Minuten); man spricht hierbei von einem "superflüchtigen Kampfstoff". Allerdings erfordert Blausäure einen sehr großen Munitionsaufwand, um die nötige Kampfstoffkonzentration im Zielgebiet zu erreichen. Wahrscheinlichste Einsatzmittel für den flüchtigen Einsatz sind Mehrfachraketenwerfer, Fliegerbomben und Streubomben, da diese eine sehr hohe Belegungsdichte ermöglichen.
Einsatz sesshaft.
Beim sesshaften Einsatz werden vergleichsweise große Tropfen (0,1 mm bis 1 mm Durchmesser) eingesetzt. Aufgrund der Größe fallen die Tropfen schneller, die Dampfkonzentration ist wesentlich geringer (20 % Dampf, 80 % Tropfen), und ein Großteil des Kampfstoffes erreicht den Boden, wo er je nach Art des Kampfstoffes und der Witterung bis zu mehreren Wochen verbleiben kann. Ziel des Angriffes ist nicht die unmittelbare Vernichtung des Feindes, sondern die Einschränkung seiner Handlungsfreiheit. Schutz- und Dekontaminationsmaßnahmen kosten Zeit, kontaminiertes Gebiet ist nur mühsam zu durchqueren, und die Moral der Truppe leidet erheblich. Des Weiteren müssen kontaminierte Truppenteile evakuiert und ersetzt werden, bevor die Schutzanzüge gesättigt sind (normalerweise nach spätestens 12 Stunden). Die wahrscheinlichsten Ziele sind gegnerische Flankenstellungen (um deren Gegenangriff zu erschweren oder zu verhindern), Artilleriestellungen (Ausschalten der Feuerunterstützung), Kommandostände, taktische Reserven und Nachschubwege. Am besten für diese Einsatzart geeignet sind Loste (Senfgas/Yperit) und V-Stoffe (namentlich VX). Die möglichen Einsatzmittel sind vielfältig, da nicht auf die Belegungsdichte geachtet werden muss (Artillerie, Bomben, Kampfflugzeuge, Raketen, Marschflugkörper etc.). Eine Sonderform des sesshaften Einsatzes ist der Einsatz verdickter Kampfstoffe: Dem Kampfstoff werden hierbei Verdickungsmittel beigemischt, um dessen Viskosität und damit die Tropfengröße weiter zu erhöhen. Die Kampfstoffe erhalten dadurch eine honig- bis gummiartige Konsistenz. Dies führt wiederum zu einer geringeren Verdunstungsrate und damit größerer Sesshaftigkeit. Solche Kampfstoffe haben eine große Haftwirkung und können nur langsam in poröse Materialien eindringen. An geeigneten Stellen können verdickte Kampfstoffe wochenlang wirksam bleiben. Des Weiteren wird die Dekontamination stark erschwert. Hauptziele sind z. B. Flugplätze, um deren Benutzung langfristig zu unterbinden.
Einsatzmittel.
Obwohl Russland seine Bestände von chemischen Waffen vernichtet hat und die Vereinigten Staaten kurz vor Abschluss der Vernichtung ihrer Bestände stehen, sind die Technologien zum Ausbringen von Kampfstoffen weltweit bekannt und zum Teil auch verfügbar. Für chemische Kampfstoffe sind keine besondere Einsatzmittel nötig; es können Artilleriegeschütze, Raketenwerfer, ballistische Raketen, Lenkwaffen und Flugzeuge verwendet werden. Das Abblasen von chemischen Kampfstoffen aus Druckflaschen wie im Ersten Weltkrieg gilt heute als obsolet.
Artilleriegeschütze.
Seit dem Ersten Weltkrieg werden Mörser und Artilleriegeschütze als Einsatzmittel für chemische Kampfstoffe verwendet. Moderne Artilleriegeschütze erreichen bei einer Kadenz von 3–6 Schuss/Minute Schussdistanzen von 40–50 km. Mit Artilleriegeschützen kann zudem ein rascher Zielwechsel mit einer hohen Treffergenauigkeit erfolgen. Weiter können mit der Artillerie sowohl Einzel- wie auch Flächenziele bekämpft werden. In Abhängigkeit zum verwendeten Kaliber fasst ein Artilleriegeschoss 2–5 kg Kampfstoff. So war z. B. das 155 mm NATO-Geschoss "M122" mit 2,9 kg Sarin befüllt.
Mehrfachraketenwerfer.
Mehrfachraketenwerfer eignen sich besonders gut als Einsatzmittel für chemische Kampfstoffe. Mit ihnen wird im Zielgebiet innerhalb kurzer Zeit eine sehr hohe Belegungsdichte mit einer hohen Kampfstoffkonzentration erzielt. Moderne Mehrfachraketenwerfer erreichen bei einer Kadenz von 30–50 Schuss/Minute Schussdistanzen von 20–70 km. In Abhängigkeit zum verwendeten Kaliber fasst eine Artillerierakete 2–25 kg Kampfstoff. So war z. B. der "9N519"-Sprengkopf der 220 mm Rakete "9M27" für den sowjetischen Mehrfachraketenwerfer 9P140 Uragan mit 20 kg Soman befüllt. Eine Batterie mit vier Uragan-Werfern deckt mit insgesamt 64 Raketen eine Zielfläche von 650 × 650 m ein. Auf dieser Fläche werden so innerhalb von rund 20 Sekunden 1280 kg Nervenkampfstoff freigesetzt.
Ballistische Raketen.
Ballistische Raketen eignen sich zur Bekämpfung von Zielen weit hinter der Frontlinie wie z. B. Flugplätze, Nachschubdepots, Flugabwehrstellungen sowie militärische und zivile Infrastruktur. Solche Ziele werden mit Kurz- und Mittelstreckenraketen mit einer Reichweite von 50–1000 km bekämpft. Vorzugsweise erfolgt der Einsatz mit sesshaften Kampfstoffen, um die Zielgebiete für längere Zeit (Tage bis Wochen) zu verseuchen. Um den chemischen Kampfstoff effektiv im Zielgebiet zu verteilen, erfolgt die Detonation des Raketengefechtskopfes in der Regel durch Luftzündung einige 100 m über Zielgebiet. So werden aus dem flüssigen Kampfstoff Tropfen und Aerosole gebildet, welche sich in Abhängigkeit von Windgeschwindigkeit und -richtung über dem Zielgebiet verteilten. Die sowjetische Kurzstreckenrakete 9K72 Elbrus (NATO-Codename: SS-1c Scud-B) konnte einen Gefechtskopf mit 555 kg verdicktem VX über eine Distanz von 300 km ins Ziel bringen; durch Luftzündung verteilte sich der flüssige Kampfstoff über ein Gebiet von 0,6 × 4,0 km.
Weiter eignen sich ballistische Raketen auch zur Beladung mit Streumunition. Zum Beispiel konnte die US-amerikanische Kurzstreckenrakete MGM-52 Lance mit dem "E27"-Gefechtskopf für chemische Streumunition bestückt werden. Dieser Gefechtskopf fasste 1137 "M139"-Bomblets mit je 0,58 kg Sarin. Die Bomblets wurden in einer vorselektierten Höhe über dem Ziel ausgestoßen und gingen daraufhin in einem kreisförmigen Gebiet mit einem Radius von 200–250 m nieder.
Kampfflugzeuge.
Kampfflugzeuge eignen sich besonders für massive und überraschende Angriffe mit chemischen Kampfstoffen. Kampfflugzeuge können diese in einem Radius von mehreren 100 km, mit hoher Geschwindigkeit in verschiedenen Flughöhen zum Einsatz bringen. Die mitgeführte Kampfstoffmenge steht in Abhängigkeit zur Beladung des Kampfflugzeuges. Die Kampfstoffe können mit Fliegerbomben, Streubomben, Raketen oder durch versprühen ins Ziel gebracht werden.
Fliegerbomben mit chemischen Kampfstoffen sind sehr flexibel einsetzbar; sie können sowohl aus großer Höhe wie auch aus dem Tiefflug abgeworfen werden. Chemische Kampfstoffe können ebenso in Splitterbomben gefüllt werden, was zu einer kombinierten Wirkungsweise führt. Ein solches Beispiel stellt die sowjetische Fliegerbombe "ChAB-500 (9A1-483)" dar: Bei einem Gesamtgewicht von rund 300 kg enthielt diese Bombe 175 kg der Kampfstoffmischung "HL" (russische Bezeichnung "RK-7"), welche aus Schwefellost und Lewisit bestand. Bei der Detonation erzeugte sie neben dem Kampfstoffaerosol auch eine große Anzahl Stahlsplitter, welche mit hoher Energie freisetzt wurden. Kampfstofftanks, z. B. Abwurfbehälter, wie sie auch für Napalm verwendet werden, können ebenso mit chemischen Kampfstoffen befüllt werden. Diese Tanks zerplatzen beim Aufschlag auf der Erdoberfläche und der Kampfstoff wird verspritzt. Gegenüber Fliegerbomben mit einer Spreng- oder Zerlegladung wird in diesem Fall der Kampfstoff nur wenig verteilt (kein Aerosol, wenige Tropfen), und die Wirkung beschränkt sich auf ein sehr kleines Gebiet. Solche Kampfstofftanks setzte der Irak während des Ersten Golfkriegs ein.
Streubomben und Streumunitionsbehälter eignen sich zum Ausbringen von chemischen Kampfstoffen aus mittlerer Flughöhe wie aus dem Tiefflug. Mit Streumunition wird in einem großen Zielgebiet innerhalb kurzer Zeit eine sehr hohe Belegungsdichte mit einer hohen Kampfstoffkonzentration erzielt. Die United States Air Force hatte in den 1970er-Jahren den Streumunitionsbehälter "CBU-15" im Bestand. Bei einem Gesamtgewicht von rund 340 kg war dieser mit 40 "BLU-19"-Bomblets beladen, die je 1,8 kg Sarin enthielten. Die Bomblets konnten sowohl im Reihenwurf oder auch alle zeitgleich abgeworfen werden. Die F-4 Phantom II konnte z. B. vier CBU-15-Behälter transportieren.
Sprühtanks für chemische Kampfstoffe eignen sich zum Ausbringen von chemischen Kampfstoffen aus mittlerer Flughöhe wie aus dem Tiefflug. Der flüssige Kampfstoff wird so primär als Aerosol über ein großes Gebiet verteilt. Die Sowjetunion hatte unter anderem den Sprühtank "WAP-1000 (BATT)" im Bestand, welcher 700 kg Cyanwasserstoff fasste. Dagegen besaßen die USA den Sprühtank "TMU-28", welcher mit 595 kg VX befüllt war. Beide Sprühtanks konnten im Tiefflug und bei hoher Geschwindigkeit eingesetzt werden. Sprüheinsätze von Kampfstoffen in Form von Agrarflugzeugen sowie das Abregnen aus großer Flughöhe gelten heute als überholt.
Marschflugkörper.
Während des Kalten Krieges wurden Versuche mit Marschflugkörpern zum Ausbringen von Kampfstoffen durchgeführt. Obwohl vermutlich keine solchen Gefechtsköpfe fertig entwickelt wurden, ist dieses Einsatzmittel durchaus denkbar.
Antipersonenminen.
Antipersonenminen mit chemischen Kampfstoffen werden zum anhaltenden Sperren von Geländeabschnitten, auf dem Rückzug sowie bei Verzögerungsgefechten eingesetzt. Während des Kalten Krieges hatten sowohl die Sowjetunion wie auch die Vereinigten Staaten Antipersonenminen mit chemischen Kampfstoffen in ihren Arsenalen. Die Sowjetunion hatte unter anderem die Kampfstoffmine "ChF-2" mit der Kampfstoffmischung "HL" (Schwefellost und Lewisit) im Bestand. In den Vereinigten Staaten war dies die Mine "M23". Diese wog 10,3 kg und hatte eine 0,37 kg wiegende Sprengstoffladung. Als Kampfstoff wurden 4,8 kg VX verwendet.
Einfluss von Landform, Wetter und Vegetation.
Die Landform, das Wetter sowie die Vegetation haben einen entscheidenden Einfluss auf Ausbreitung, Wirksamkeit und Wirkungsdauer von chemischen Kampfstoffen.
Landform und Vegetation.
Berg- und Talwind-Zirkulationen sowie das Land-See-Windsystem können die Ausbreitung von Kampfstoffwolken beeinflussen. In Senken und Tälern können sich Kampstoffwolken ansammeln und ihre Wirksamkeit länger beibehalten. Weiters beeinflusst auch die Vegetation die Wirkungsweise und -dauer von chemischen Kampfstoffen: Gelände mit niedriger Vegetation (Weide, Gras) kann nach einem Einsatz flüchtig, in der Regel nach 12–24 Stunden ohne große Gefahr wieder betreten werden; bei hoher und üppiger Vegetation (Felder, Hecken, Unterholz) bleiben chemische Kampfstoffe wesentlich länger wirksam. Auch in Wäldern und in überbauten Gebieten (Dörfer, Städte) behalten chemische Kampfstoffe wesentlich länger ihre Wirksamkeit bei.
Wetter.
Temperatur, Wind und Sonnenstrahlung haben entscheidenden Einfluss auf Ausbreitung, Wirksamkeit und Wirkungsdauer von chemischen Kampfstoffen. Bei hohen Temperaturen verdampft insbesondere der sesshaft eingesetzte Kampfstoff rascher. So tendierten die während des Ersten Golfkriegs eingesetzten Lost-Kampfstoffe bei den dortigen hohen Temperaturen zum raschen Verdampfen. Diese vermehrten Dämpfe führten entsprechend bei den Opfern zu einer überaus starken Schädigung der Hautoberflächen sowie der Atemwege. Dagegen können sehr tiefe Temperaturen zu einem Verfestigen des flüssigen Kampfstoffes führen. Hohe Windgeschwindigkeiten verdünnen die Kampfstoffwolke schneller, niedrige Windgeschwindigkeiten verteilen den Kampfstoff hingegen zu wenig und zu langsam. Ideal ist eine Windgeschwindigkeit von 5–20 km/h. Durch Sonneneinstrahlung können Aufwinde entstehen, die eine Kampfstoffwolke zu rasch verdünnen. Dagegen können bei geringer oder fehlender Sonneneinstrahlung nur schwache Aufwinde entstehen, was die Wirksamkeit einer Kampfstoffwolke verbessert. Regen kann flüssigen Kampfstoff in den Boden schwemmen, wobei der Kampfstoff weiterhin wirksam bleibt. Die idealen Verhältnisse für den Einsatz von chemischen Kampfstoffen in Mitteleuropa herrschen während klaren Nächten, kurz vor Sonnenuntergang oder kurz vor Sonnenaufgang.
Internationale Ächtung.
Seit 1997 sind chemische Waffen durch die Chemiewaffenkonvention international offiziell geächtet; auch die Entwicklung, Herstellung und Lagerung sind verboten. Dennoch bleiben die USA nach wie vor größter Besitzer chemischer Kampfstoffe.
Vernichtung.
Albanien.
Mitte Juli 2007 wurde mitgeteilt, dass Albanien als weltweit erster Staat seine sämtlichen Bestände an chemischen Waffen nachweislich vernichtet hat. Die Finanzierung des Projektes erfolgte mit insgesamt 48 Millionen US-Dollar. Die Vernichtung der Kampfstoffe Schwefellost, Lewisit, Adamsit und Chloracetophenon dauerte von Februar bis Juli 2007.
Deutschland.
In Deutschland wurden chemische Kampfstoffe im Zweiten Weltkrieg unter anderem bei der Firma ORGACID in Ammendorf und in beiden Weltkriegen in Munster hergestellt. Nach Ende des Krieges verblieben beträchtliche Mengen an Waffen in den Produktionsstätten. Sie wurden von den Alliierten beschlagnahmt und auf diverse Schiffe (z. B. SMS "Berlin") geladen, die dann im Skagerrak versenkt wurden. Aus heutiger Sicht wäre dies eine Umweltstraftat, war aber damals erlaubt.
Heute ist an den ehemaligen Produktionsstandorten nur noch verseuchter Boden übrig, der in zwei Entsorgungsanlagen der Gesellschaft zur Entsorgung von chemischen Kampfstoffen und Rüstungsaltlasten mbH (GEKA) kontrolliert vernichtet wird. In den Anlagen der bundeseigenen Gesellschaft wird kontaminierter Boden zuerst „gewaschen“, um die hochkontaminierten Bereiche abzutrennen. Diese werden mit Kalk vermischt und in einer Plasmaanlage bei 1350 bis 1550 °C im Lichtbogen geschmolzen. Es entsteht dabei nach dem Abkühlen glasartige Schlacke, in der nichtbrennbare Stoffe gebunden sind sowie Verbrennungsgase. Mit Chemikalien befüllte Munition wird vorher in einem so genannten Sprengofen gesprengt. In beiden Fällen werden die Gase ausgewaschen und anschließend die Salze ausgefällt.
Eine aktuelle Übersicht der augenblicklichen Entsorgungsaktivitäten gab ein Fernsehbeitrag der ARD im August 2020.
Russland.
Russland übernahm von der ehemaligen Sowjetunion rund 40.000 Tonnen Chemiewaffen.
Am 1. April 2006 wurde die zweite russische Anlage zur Vernichtung von Chemiewaffen in Kambarka, Republik Udmurtien in Betrieb genommen. In der Anlage, die mit deutscher Hilfe finanziert wurde, wurden 6.350 t arsenhaltiger Hautkampfstoff beseitigt, deren Vernichtungskosten über 270 Millionen Euro betragen. Deutschland trägt davon 90 Millionen Euro. Die erste C-Waffen-Vernichtungsanlage wurde im Dezember 2002 in der Kleinstadt Gorny im Gebiet Saratow am Mittellauf der Wolga gebaut. Außerhalb von Potschep, im Gebiet Brjansk, lagern abgefüllt in über 67.000 Fliegerbomben rund 7.500 t der Nervenkampfstoffe VX, Sarin und Soman. In einem ersten Schritt wurden die Kampfstoffe von russischer Seite waffenuntauglich gemacht und ab 2009 eine Anlage mit Hochturbulenzreaktoren zur thermischen Entsorgung der Kampfstoffe in Betrieb genommen.
Die etwa 400 km östlich von Moskau gelegene Stadt Dserschinsk wurde 2006, 2007 und 2013 vom amerikanischen Blacksmith Institute zu einem der zehn am stärksten verseuchten Orte der Welt „nominiert“. Wasser und Böden sind hier hochgradig mit Chemikalien aus der Zeit der Chemiewaffenproduktion im Kalten Krieg verseucht, da neben Leckagen und anderen Unfällen in den Jahren 1930 bis 1998 etwa 300.000 Tonnen chemischer Abfälle unsachgemäß entsorgt wurden. Über laufende Sanierungsmaßnahmen ist bislang nichts bekannt.
Am 27. September 2017 wurde bekanntgegeben, dass der letzte chemische Sprengkopf in der Entsorgungsanlage Kisner in Udmurtien vernichtet wurde. Die Organisation für das Verbot chemischer Waffen bestätigte die Vernichtung aller russischen Chemiewaffen und gratulierte Russland, das somit chemiewaffenfrei ist. Der russische Präsident Wladimir Putin beobachtete den Vorgang per Videozuschaltung und forderte nun auch die USA auf, das Abkommen zu achten und die amerikanischen Chemiewaffen ebenfalls rasch zu vernichten.
Vereinigte Staaten.
Die USA nutzten ab Ende der 1980er Jahre bis Ende der 1990er Jahre eine Anlage für die Vernichtung von chemischen Kampfstoffen auf dem Johnston-Atoll im Pazifik.
Die Vernichtung von 90 % der C-Waffen der USA (31.000 Tonnen waren insgesamt deklariert worden) in den letzten zwei Jahrzehnten durch Verbrennung hat 35 Milliarden US-Dollar gekostet, nach anderen Angaben 28 Milliarden Dollar.
Die Reste des US-Chemiewaffenarsenals befinden sich in zwei Armeelagern in den Bundesstaaten Colorado und Kentucky. Die vollständige Vernichtung aller amerikanischen chemischen Kampfstoffe ist für 2023 geplant.
Überlegungen für Syrien.
Russland schlug im September 2013 vor, Syrien möge seine Chemiewaffen unter westlicher Aufsicht zerstören. Die USA, die zuerst mit einem militärischen Schlag gedroht hatten, setzten dann auf eine diplomatische Lösung. Syrien hat nunmehr am 14. September 2013 den Beitritt zur OPCW ratifiziert, welcher 30 Tage später vertragsgemäß in Kraft trat. Alle Anlagen zur Produktion der Waffen und zum Abfüllen von Munition sollen nach Angaben der OPCW unmittelbar danach zerstört worden sein. 600 Tonnen Chemikalien wurden dabei auf dem US-Spezialschiff "MV Cape Ray (T-AKR-9679)" auf dem Mittelmeer neutralisiert. Die neutralisierten Chemikalien wurden in Deutschland und Finnland entsorgt. In Deutschland erfolgte die Verbrennung 340 t Hydrolysats und 30 t sonstiger kontaminierter Abfälle ab September 2014 bei der GEKA.
Chemikalien-Lieferungen für Waffenproduktion?
Die britische Boulevard-Zeitung Daily Mail behauptete am 7. September 2013, dass von 2004 bis 2010 die britische Regierung fünfmal zwei britischen Firmen die Lieferung der Chemikalie Natriumfluorid bewilligt habe, die zur Synthese von fluorhaltigem Sarin verwendet werden kann.
Auf Anfrage der Fraktion Die Linke gab die deutsche Regierung am 18. September 2013 bekannt, dass zwischen 2002 und 2006 insgesamt 137 Tonnen Fluorwasserstoff, Ammoniumhydrogendifluorid, Natriumfluorid sowie Zubereitungen mit Kalium- und Natriumcyanid nach Syrien exportiert worden sind. Syrien hat eine geplante Verwendung dieser Dual-Use-Güter für zivile Zwecke plausibel dargestellt. Die Ausfuhrgenehmigung sei erst nach „sorgfältiger Prüfung aller eventueller Risiken, einschließlich von Missbrauchs- und Umleitungsgefahren im Hinblick auf mögliche Verwendungen in Zusammenhang mit Chemiewaffen“ erteilt worden, so das Wirtschaftsministerium.
Stellungnahme der GDCh 2022.
Die GDCh veröffentlichte 2022 eine umfangreiche Stellungnahme zum Thema "Chemische Kampfstoffe". |
914 | 0 | https://de.wikipedia.org/wiki?curid=914 | Cruise Missile | |
915 | 287832 | https://de.wikipedia.org/wiki?curid=915 | Clipboard | Clipboard steht für: |
916 | 1298454 | https://de.wikipedia.org/wiki?curid=916 | Lake Champlain | Der Lake Champlain (‚Champlainsee‘, frz. "Lac Champlain") ist das neuntgrößte Binnengewässer in den Vereinigten Staaten.
Er liegt südlich von Montreal zwischen den Green Mountains und den Adirondack Mountains an der Grenze der US-Staaten Vermont und New York und hat im Norden noch geringen Anteil in der kanadischen Provinz Québec. Er ist nach Samuel de Champlain benannt, der ihn 1609 erforschte und ab dem 4. Juli des Jahres befuhr. Zu diesem Zeitpunkt galt er als Grenze zwischen den Stämmen der Algonkin im Westen und den Irokesen im Osten, was sich auch in den Namen ausdrückte, die die Urbewohner dem See gegeben hatten: "Pe-Tonbonque" (etwa: „Wasser, das zwischen ihnen [den Stämmen] liegt“) bei den Algonkin, "Caniaderi-Guarunte" (etwa: „See, der das Tor zum Land ist“) bei den Irokesen.
Im etwa 180 km langen und bis zu 19 km breiten Champlainsee liegen etwa 80 Inseln, von denen eine ein eigenes County im US-Staat Vermont bildet. Nach den fünf Großen Seen im Mittleren Westen, dem Großen Salzsee in Utah, dem Iliamnasee in Alaska und dem Okeechobeesee in Florida steht er an neunter Stelle der nach Wasserfläche größten Seen der Vereinigten Staaten.
Geschichte.
Nach Entdeckung des Sees durch Samuel de Champlain 1609 gehörte dieser mit dem umliegenden Gebieten zu Neufrankreich, bis dieses im Verlaufe des Siebenjährigen Krieges (1754–1763) von den Briten erobert wurde. Die Franzosen erbauten mehrere Forts entlang des Sees von denen das bedeutendste Fort Carillon war, welches 1755 zu Beginn des Siebenjährigen Krieges am Südende des Sees errichtet wurde. Das Fort war mehrfach der Schauplatz militärischer Auseinandersetzungen zunächst zwischen Franzosen und Briten und dann zwischen Briten und Amerikanern.
Während des Amerikanischen Unabhängigkeitskrieges (1775–1783) kam es auf dem Lake Champlain am 11. Oktober 1776 zur Schlacht von Valcour, der ersten Seeschlacht der United States Navy. Sie endete mit einem Sieg der Briten.
Am 11. September 1814 erstritt die amerikanische Flotte unter Commodore Thomas Macdonough einen Sieg gegen die anrückenden Briten, als diese von Kanada aus eine Invasion des Staates New York versuchten (Schlacht bei Plattsburgh).
Im 19. Jahrhundert wurde der Champlainsee durch ein Kanalsystem mit dem Hudson River verbunden. Die Häfen Burlington, Port Henry und Plattsburgh sind nur noch von geringem kommerziellen Interesse.
Bekannt wurde das Gewässer durch ein angebliches Seeungeheuer, das nach seinem Entdecker de Champlain "Champ" genannt wird. Tatsächlich notierte de Champlain lediglich die Sichtung eines ihm unbekannten Fisches, dessen Beschreibung den im See lebenden Stör passt.
Seit 1982 steht Champ unter gesetzlichem Schutz, da er zu einer wichtigen Touristenattraktion geworden ist.
Inseln.
Der Champlainsee umfasst ungefähr 80 Inseln, einschließlich eines ganzen Countys in Vermont.
Infrastruktur.
Fähren.
Die Lake Champlain Transportation Company bietet nördlich von Ticonderoga drei Fährverbindungen an:
Brücke.
An der Engstelle zwischen Crown Point, New York und Chimney Point, Vermont wird der See von der Lake Champlain Bridge überquert. |
918 | 1179565 | https://de.wikipedia.org/wiki?curid=918 | Cha-Cha-Cha | Der Cha-Cha-Cha [] ist ein moderner, paarweise getanzter Gesellschaftstanz kubanischen Ursprungs.
Der Cha-Cha-Cha in seiner weltweit verbreiteten westlichen Variante gehört zu den lateinamerikanischen Tänzen des Tanzsports und wird als Bestandteil des Welttanzprogramms in Tanzschulen unterrichtet. Die ursprüngliche kubanische Form des Cha-Cha-Chas unterscheidet sich in Technik und Figurenrepertoire stark vom heutigen Turniertanz und ist in der spanischen Schreibweise "Cha-cha-chá" [] in der modernen Salsa-Szene anzutreffen.
Entstehung.
Die Geschichte des Cha-Cha-Chas wurde nur mündlich überliefert und wird leicht unterschiedlich wiedergegeben. Der Rhythmus des Cha-Cha-Chas wurde zwischen 1948 und 1951 von Enrique Jorrín erfunden, einem kubanischen Komponisten und Violinisten, der damals in der kubanischen Charanga "Orquesta América" spielte. Jorrín variierte in seinen Kompositionen seit 1948 beständig den kubanischen Tanzrhythmus Danzón: Unter anderem reduzierte er die für die kubanische Musik typische Synkopierung und fügte dem ursprünglich rein instrumentalen Musikstil rhythmische Gesangseinlagen hinzu.
1951 führte Jorrín den Cha-Cha-Cha-Rhythmus unter dem von ihm gewählten Namen "neodanzón" (span. „neuer Danzón“) auf den kubanischen Tanzflächen ein. 1953 nahm die Orquesta América Jorríns Hits "La Engañadora" und "Silver Star" auf. Der neue Rhythmus kam beim Publikum sehr gut an und inspirierte die Tänzer zu einem Tanzschritt, der den Grundschritt des Mambo um einen schnellen Wechselschritt ergänzt. Dieser schnelle Wechselschritt verursachte laut Jorrín ein scharrendes Geräusch, das für ihn wie "cha cha chá" klang, und das er als rhythmische Gesangseinlage in einige seiner Lieder einbaute. Dieses Geräusch und die daraus resultierende rhythmische Zählweise "2 3 Cha-Cha-Cha" waren letztendlich namensgebend für den Tanz.
Der Cha-Cha-Cha verbreitete sich sehr schnell über die kubanische Grenze hinweg nach Mexiko und in die Vereinigten Staaten. In den Vereinigten Staaten avancierte der Cha-Cha-Cha über Nacht zum Modetanz des Jahres 1955, gestützt durch die legendären Mambo- und Cha-Cha-Cha-Orchester des Tanzsalons "Palladium" in New York City. Möglicherweise lag der große Erfolg des Cha-Cha-Cha im Entfernen der Synkopierung begründet, denn diese rhythmische Besonderheit erschwert westlichen Hörern das Tanzen und gilt als Mitursache für den schnellen Niedergang des Mambo.
Der Tanz erfuhr sehr früh technische Anpassungen an die Rumba. 1962 wurde er offiziell zu den Turniertänzen hinzugenommen und wies bereits damals die Grundform der heutigen Turniervariante auf. Einen großen Beitrag zur technischen Entwicklung lieferte Walter Laird, der mit seiner Tanzpartnerin Lorraine Reynolds in den Jahren 1962, 1963 und 1964 Latein-Weltmeister wurde und mehrere Tanzbücher verfasste. 1963 wurde der Cha-Cha-Cha als lateinamerikanischer Tanz in das Welttanzprogramm aufgenommen und gehört seither weltweit zum Grundstock allgemeiner Tanzschulen.
Charakteristik.
Cha-Cha-Cha-Musik ist heiter und unbeschwert. Der Tanz ist ein amüsanter und koketter Flirt zwischen den Tanzpartnern, die in frechen offenen und geschlossenen Figuren miteinander spielen. Er ist vorwitziger als die verträumt-erotische Rumba, aber weniger aufreizend als der überschäumende Samba. Die kubanische Variante ist insgesamt ruhiger und weicher.
Rhythmus und Musik.
Der Cha-Cha-Cha wird im Viervierteltakt notiert, hat die Hauptbetonung auf dem ersten Taktschlag und wird auf Turnieren in einem Tempo von 30 bis 32 Takten pro Minute gespielt und getanzt.
Cha-Cha-Cha ist in vielerlei Hinsicht ungewöhnlich für eine kubanische Musikform: Er wurde von Anfang an im Viervierteltakt notiert, während die meisten anderen kubanischen Musikformen ursprünglich im Zweivierteltakt-Takt notiert und erst im Laufe der Zeit von Exilkubanern an die westliche Vierviertelnotation angepasst wurden. Trotz seiner Wurzeln im "Danzón" hat er keinen Bezug zur Clave, dem aus Afrika stammenden Rhythmusschema, das fast alle kubanische Musik prägt. Schließlich weist er keine Synkopierung auf und steht damit unter anderem im Gegensatz zum Mambo, bei dem die Hauptbetonung vom ersten auf den vierten Taktschlag verschoben ist.
Seit Jorríns Tagen hat sich die Musik, auf die Cha-Cha-Cha getanzt wird, ständig verändert. Spielte das "Orquesta América" noch in der klassischen Charanga-Besetzung des "Danzóns" mit Perkussion, Klavier, Bass, Flöte und "Cuerdas", setzten sich bereits im "Palladium" fetzige Bläserbegleitungen durch. Zur nachhaltigen Beliebtheit des Cha-Cha-Cha trug auch bei, dass er problemlos mit der Metrik der westlichen Musik vereinbar ist. So wird Cha-Cha-Cha in Tanzschulen heute auf aktuelle Chart-Hits der Popmusik und des Latin Rock gelehrt.
Technik.
Der Cha-Cha-Cha ist ein stationärer Tanz, wird also weitgehend am Platz getanzt. Wie die Rumba lebt auch der Cha-Cha-Cha von Hüftbewegungen. Die Schritte sollten eher klein ausfallen, da sonst die Hüftbewegung unnötig erschwert würde.
Charakteristisch für den Cha-Cha-Cha ist das Chassé auf „4 und 1“.
Der ursprüngliche kubanische Cha-Cha-Cha und die moderne Turniervariante unterscheiden sich in allen weiteren Punkten so sehr, dass sie im Folgenden getrennt dargestellt werden.
Kubanische Variante.
Die ursprüngliche Form des Cha-Cha-Cha ist dem Mambo sehr ähnlich und heute nur noch beim Freizeittanz in der Salsa-Szene anzutreffen. Der kubanische Cha-Cha-Cha wird klein und „erdig“ getanzt, das heißt, die Schritte werden stets auf dem ganzen Fuß angesetzt und die Füße kaum vom Boden gehoben. Beim Chassé schleifen die Füße über das Parkett, als wollte der Tänzer ein Blatt Papier über den Boden schieben. Die Hüftbewegung beim Chassé entsteht dadurch, dass die Schritte mit gebeugtem Knie angesetzt werden, wodurch sich die Hüfte wechselseitig absenkt. Der Grundschritt zeichnet sich durch eine leichte Vorwärts-Rückwärts-Bewegung aus:
Die lockere Tanzhaltung ist flexibel, was den Abstand der Partner zueinander betrifft, ausladende Armbewegungen gibt es keine. Das Figurenrepertoire ist durch den Platzwechsel Cross Body Lead und einfache Drehungen geprägt und etwa dem Basisrepertoire der modernen Salsa im geradlinigen Stil vergleichbar.
Westliche Variante.
Die westliche Variante ist durch die Technik der lateinamerikanischen Tänze geprägt. Ähnlichkeiten zur Rumba sind in Grundschritt und Basic-Figuren zu finden, die Hüftbewegung hat jedoch durch das höhere Tempo und den schnellen Wechselschritt einen anderen Charakter, rotierende Anteile treten zurück. Die Füße sind in den Check- und Lockstep-Schritten wie in allen „echten“ lateinamerikanischen Tänzen (Salsa, Mambo, Rumba, eingeschränkt: Samba) leicht nach außen gedreht, die Schritte werden stets auf dem Fußballen angesetzt. Bei den langen Schritten auf den Taktschlägen 1, 2 und 3 wird das Bein ganz durchgestreckt und die Ferse flach aufgesetzt. Um die Musik besser rhythmisch akzentuieren zu können, erfolgen die Schrittansätze immer am Ende des ihnen jeweils zustehenden Zeitintervalls, dann aber sehr schnell ausgeführt. Die Betonungen auf „1“ und noch stärker „3“ sind deutlich zu machen; am Ende des Seitwärts-Chassés rotiert das gestreckte Spielbein aus, und zwar reaktiv durch das Senken in die Hüfte.
Die Schrittgröße und die Intensität der die Schritte einleitenden Hüftbewegungen korrelieren, was bei Betrachtung von Anfängern fälschlicherweise den Eindruck erwecken kann, man würde sich kaum bewegen.
Beim "Guapachá-Timing", einer rhythmischen Variante, belastet man nach einem Chassé den nächsten Vorwärts- bzw. Rückwärtsschritt erst auf der zweiten Hälfte des zweiten Taktschlages, so dass „4 und 1, "und" 3“ gezählt wird.
Cha-Cha-Cha-Folgen (oder Choreographien) zeigen häufig offene Figuren auf, d. h. die Partner tanzen ohne Berührung; ansonsten wird mehr in halboffener als in geschlossener Tanzhaltung getanzt. Da die Hüftbewegungen schnell sind, ist eine Kontrolle des Oberkörpers nötig, die nicht zu einer Versteifung führen darf. Die Arme unterstützen den Spannungsaufbau im Schultergürtel und dienen der Balance wie auch der optischen Vergrößerung der Figuren als Mittel der Präsentation.
Walter Lairds "The Technique of Latin Dancing" oder "Latin American Cha Cha Cha" (herausgegeben von der ISTD) fassen Grundschritte und Basic-Figuren (also keine Posen, Fall- und Hebefiguren) sowie weitere Hinweise zu Rhythmik und Ausführung zusammen, lassen aber weiten Raum für eine individuelle Interpretation jenseits der „bloßen“ Schritte. Die für Salsa und Mambo so typischen Figuren Cross Body Lead und alle darauf aufbauenden Figuren werden in diesen Werken nicht aufgeführt. Der Anfänger sollte die Figuren in etwa in der in den genannten Werken vorgesehenen Reihenfolge erlernen, wobei die Damendrehung, der New Yorker, Hip Twist, Fan, Hockeystick, Alemana, Opening Out, Three Chachas (Locksteps vor und zurück) als erster Einstieg und typische Figuren dienen können.
Trivia.
Die typische Musik für den Tanz, mit der der Tanz noch heute assoziiert wird, ist Tommy Dorseys Version von "Tea For Two Cha, Cha" vom September 1958.
Der Cha-Cha-Cha war Tanz des Jahres 2007. Zu diesem Anlass wurde von 323 deutschen und zwei österreichischen Tanzschulen am 3. November 2007 ein neuer Weltrekord im Cha-Cha-Cha-Massensimultantanzen mit 50.419 Teilnehmern aufgestellt. Der Tanz begann zeitgleich um 21:12 Uhr und dauerte ca. sechs Minuten. |
919 | 3024391 | https://de.wikipedia.org/wiki?curid=919 | Computerprogramm | Ein Computerprogramm oder kurz Programm ist eine den Regeln einer bestimmten Programmiersprache genügende Folge von Anweisungen (bestehend aus Deklarationen und Instruktionen), um bestimmte Funktionen bzw. Aufgaben oder Probleme mithilfe eines Computers zu bearbeiten oder zu lösen.
Überblick.
Ein Computerprogramm gehört zur Software eines Computers. Es liegt meist auf einem Datenträger als ausführbare Programmdatei, häufig im sogenannten Maschinencode, vor, die zur Ausführung in den Arbeitsspeicher des Rechners geladen wird. Das Programm wird als Abfolge von Maschinen-, d. h. Prozessorbefehlen von dem oder den Prozessoren des Computers verarbeitet und damit ausgeführt.
Computerprogramme entstehen im Rahmen der Softwareentwicklung. Die dabei direkt auf einzelne Programme bezogenen Aktivitäten bezeichnet man im allgemein als Programmierung oder auch als Implementierung. Dabei entsteht zunächst für jedes Programm ein sog. Quelltext, den Programmierer in einer Programmiersprache abgefasst haben. Er besteht aus einer Abfolge von (zumeist der englischen Sprache entnommenen) Anweisungen, die (für Programmierer) im Allgemeinen verständlicher sind (z. B. ADD, SUB, AND, OR) und durch menschliche Benutzer einfacher bearbeitbar sind als der später daraus entstehende Maschinencode.
Damit ein in einer Hochsprache geschriebenes Programm ausgeführt werden kann, muss sein Quellcode in Maschinencode übersetzt werden. Eine Anweisung einer höheren Programmiersprache wird im Allgemeinen in mehrere Maschinenbefehle übersetzt. Der Übersetzungsvorgang wird Kompilierung genannt. Um aus dem Quelltext den Maschinencode zu generieren, wird ein Assembler, Compiler oder Interpreter benötigt. Dieser übersetzt die Anweisungen der Programmiersprache in die semantisch entsprechenden Befehle der Maschinensprache des zu verwendenden Computers.
Der Programmcode kann in Dateien gespeichert werden, die meist durch eine Dateiendung gekennzeichnet sind. Quelltextdateien weisen damit auf die verwendete Hochsprache hin ("<programm>.c": ein in C formuliertes Programm). Sie können im Allgemeinen mit einem einfachen Texteditor bearbeitet werden. Eine Datei, die dagegen Maschinencode enthält, besitzt keine oder eine betriebssystemspezifische Endung, die lediglich auf ihre Ausführbarkeit hinweist ("<programm>.exe" bei MS-DOS und Windows; "<programm>" bei unixoiden Systemen). Sie kann oft als Kommando in einem Terminal (Eingabeaufforderung) aufgerufen werden. Siehe auch Programmbibliothek.
Im Sprachgebrauch wird Computerprogramm meist zu "Programm" verkürzt oder der Begriff "Software" verwendet. Allerdings ist "Computerprogramm" kein Synonym zu "Software"; vielmehr ist ‚Software‘ ein IT-Sammelbegriff für Nicht-Hardware, zum Beispiel für Betriebssystem, Datenbank oder für eine komplette, für den Benutzer fertige IT-Anwendung – die Komponenten wie Grafik- und Audiodateien, Schriftarten, Hilfetexte usw. umfassen kann.
Ein größeres Computerprogramm besteht meist aus mehreren Modulen – die entweder zum Programm selbst gehören oder die als Bausteine (Unterprogramme) aus bereits bestehenden Programmbibliotheken bei der Ausführung des Programms benutzt werden. Im umgekehrten Fall können Computerprogramme Teil eines übergeordneten, ein größeres Aufgabengebiet abdeckenden "Anwendungssystems" sein; Beispiel: Gehaltsabrechnung, Finanzbuchhaltung, Meldewesen. Die Anweisungen, die (als Teil von Programmen) einen konkreten Lösungsweg repräsentieren, werden als Algorithmus bezeichnet; Beispiel: Berechnen der Mehrwertsteuer.
Die Entwicklung von Computerprogrammen ist das Gebiet der Softwaretechnik. Je nach Komplexität der zu entwickelnden Computerprogramme geschieht dies im Rahmen von Projekten. Die Aktivitäten der Beteiligten werden dabei meist unter Anwendung von Vorgehensmodellen, speziellen Methoden und Werkzeugen zur Softwareentwicklung ausgeführt. In den Anfängen der Programmierung wurde – bis zur Entwicklung von Programmiersprachen – ausschließlich in Maschinencode programmiert. Später kamen höhere Programmiersprachen zum Einsatz.
Je komplexer ein Computerprogramm ist, desto anspruchsvoller ist die vorbereitende Planung und desto wichtiger die Erfahrung der ausführenden Programmierer. Bei größeren Programmen kommt es aufgrund mangelnder Planung und Erfahrung der Programmierer oft zu unnötig komplexen und/oder ineffizienten Programmen oder Programmteilen (siehe auch Bloatware).
Klassifizierungsmöglichkeiten.
Neben den für Software im Allgemeinen geltenden Unterscheidungsmerkmalen lassen sich Computerprogramme (als Untervariante von Software) nach den folgenden, beispielhaft genannten Kriterien unterscheiden:
Geschichte.
Die Analytische Maschine von Charles Babbage.
Charles Babbage stellte bereits 1832 einen Demonstrator seiner Differenzmaschine No. 1 vor, verfolgte ab 1834 jedoch das Konzept einer per Dampfkraft betriebenen Rechenmaschine für die allgemeine Anwendung, die er nannte, „Analytische Maschine“. Diese hätte per Lochkarten programmiert werden können, unterschiedliche Rechnungen durchzuführen, sodass die Auswertung polynomialer Funktionen (die alleinige Funktion der Differenzmaschine) nur ein Programm unter vielen gewesen wäre.
Für die Entwicklung seiner universellen Rechenmaschine brachte Charles Babbage zwischen 1837 und 1840 insgesamt 27 Programme zu Papier. Einige der Designentscheidungen für die Analytischen Maschine lassen sich direkt im Quelltext der Programme nachvollziehen. So hat die Analytische Maschine bereits eine Trennung zwischen Speicher und Rechenwerk, was charakteristische für Computer seit den 1940er Jahren ist. Obwohl nie gebaut, gilt die " damit als der erste Computer der Geschichte, oder zumindest als dessen Vorläufer nach der Definition einer Universellen Rechenmaschine () nach Alan Turing.
Seine Notizen, die auch die Programme beinhalten, blieben unveröffentlicht und wurden 1937 wiederentdeckt. Die Quelltexte der Programme selbst wurden erst 1982 erstmals untersucht. Die Notizen von Charles Babbage zur " sind in den ‚‘ des Science Museums von London frei, als Open Access, abrufbar.
Das erste Programm trägt den 4. August 1837 als Datum und befasst sich mit Simultangleichungen der Cramerschen Regel. Einige der späteren Programme sind relativ komplex, wie z. B. die Multiplikation von zwei Polynomen. Der Code enthält bereits Indirekte Adressierung und den bedingten Sprung (IF-THEN-ELSE-Befehle).
Das erste veröffentlichte Computerprogramm von Ada Lovelace.
Ada Lovelace, Tochter des britischen Dichters Lord Byron, traf Charles Babbage 1833 und unterhielt mit ihm bis zu ihrem Tod 1852 eine Freundschaft. Ab ca. 1841 arbeitete sie mit ihm zusammen an der Analytischen Maschine.
1843 übersetzte sie ein Manuskript des italienischen Ingenieurs Luigi Federico Menabrea über die "" ins Englische, versah die Übersetzung jedoch mit zahlreichen zusätzlichen Anmerkungen zum konzeptionellen Unterschied zwischen Babbage’s Differenzmaschine und der Analytischen Maschine. Dazu schrieb sie auch ein Programm, das die Bernoulli-Zahlen berechnet. Es ist die weltweit erste Publikation eines Computerprogramms, wodurch Ada Lovelace als die erste Programmiererin gilt.
Die 1980 veröffentlichte Programmiersprache Ada ist nach Ada Lovelace benannt.
Erste Programme auf Lochstreifen.
In den Jahren 1936 bis 1941 entwarf Konrad Zuse die Rechner Z1 und Z3, die lange Befehlsfolgen auf einem Lochstreifen verarbeiteten, die ersten Computerprogramme, die auf realen Maschinen ausgeführt werden konnten. Die Rechner beherrschten die vier Grundrechenarten und Quadratwurzelberechnungen auf binären Gleitkommazahlen, der Lochstreifen enthielt jeweils eine Rechenoperation und eine Speicheradresse.
Auf Zuse geht auch die erste höhere Programmiersprache "Plankalkül" zurück. Damit lassen sich Probleme maschinenunabhängig formulieren und später in eine maschinenlesbare Form überführen.
Programme im Arbeitsspeicher.
Der EDVAC-Rechner, der auf einem Entwurf von John von Neumann aus dem Jahre 1945 basiert, hatte einen Quecksilber-Verzögerungsspeicher für 1024 Fest- oder Gleitkommazahlen mit jeweils 44 Bit. Jede Speicherzelle konnte statt einer Zahl auch einen Befehl aufnehmen. Bei diesem Rechnerkonzept war es möglich, die Befehle eines Computerprogramms vor der Ausführung zuerst in den Arbeitsspeicher zu übertragen. Das ist heute noch üblich. EDVAC wurde jedoch erst im Jahr 1951 teilweise fertiggestellt. Der Demonstrationsrechner Manchester SSE und der auf dem EDVAC aufbauende EDSAC-Rechner hatten schon vorher Programme aus dem Arbeitsspeicher ausgeführt.
Höhere Programmiersprachen und Compiler.
Ende der 1950er-Jahre wurden Computer so leistungsfähig, dass spezielle Programme, Compiler genannt, Quelltexte in höheren Programmiersprachen automatisch in Maschinenbefehle, also ausführbare Programme, übersetzen konnten. Ausführbare Programme können dann, wie beim EDVAC, in den Speicher geladen und abgearbeitet werden.
Mit Fortran, COBOL, ALGOL und LISP entstanden in den späten 1950er-Jahren die ersten standardisierten höheren Programmiersprachen. Programme in diesen Sprachen laufen, durch einen entsprechenden Compiler übersetzt, auf unterschiedlichen Rechnern. Sie können teilweise auch noch auf modernen Computern eingesetzt werden.
Vom Algorithmus zum Programm.
Berechnung des größten gemeinsamen Teilers.
Es soll ein Programm zur Bestimmung des größten gemeinsamen Teilers (ggT) zweier Zahlen erstellt werden. Zunächst muss ein geeigneter Algorithmus gefunden werden.
Der Euklidische Algorithmus, der bereits um 300 v. Chr. beschrieben wurde, ermittelt den größten gemeinsamen Teiler (ggT) zweier natürlicher Zahlen "a" und "b":
Verwendung einer Programmiersprache.
Sobald eine formale Beschreibung eines Algorithmus, also eine genau definierte Verarbeitungsvorschrift, vorliegt, kann der Algorithmus umgesetzt ("implementiert") werden. Dazu wird eine geeignete Programmiersprache ausgewählt.
Zur Umsetzung wird heute meist eine höhere Programmiersprache verwendet, die von einem Computer eventuell nicht direkt ausgeführt werden kann, sondern zuerst kompiliert oder interpretiert werden muss.
In Sprachen wie Pascal dienen Variablen, Ausdrücke, Vergleiche, Zuweisungen und Kontrollstrukturen zur Umsetzung des ggT-Algorithmus:
while a <> b do // Schritt 3: solange a ungleich b
begin
if b > a then // Schritt 1: falls b größer als a
begin
temp := a; // a und b vertauschen
a := b;
b := temp;
end;
a := a - b; // Schritt 2: a durch a - b ersetzen
end;
Berücksichtigung aller Sonderfälle.
Bei der Umsetzung wird mit der Prüfung von Schritt 3 begonnen. Der ursprüngliche Algorithmus berücksichtigt nicht den Fall, dass a und b bereits zu Beginn gleich sein können. Wäre es die Aufgabe, den größten Teiler von 103 und 103 zu finden, würde ein Mensch sofort das Ergebnis 103 nennen, er würde den Algorithmus gar nicht bemühen. Der originale Algorithmus würde aber null ergeben. Die Umsetzung auf einem Rechner muss auch alle Sonderfälle berücksichtigen. Durch das Vorziehen von Schritt 3 wird der Sonderfall hier korrekt behandelt.
Elementare Schritte.
Pascal und andere Programmiersprachen besitzen keine Operation zum Vertauschen von Zahlen. Dies muss daher in elementarere Schritte umgesetzt werden. Die zusätzliche Variable codice_1, eine sogenannte Hilfsvariable, erlaubt die Vertauschung mit Hilfe von drei Zuweisungen:
temp := a; // Wert von a in der Hilfsvariablen temp retten
a := b; // a mit dem Wert von b überschreiben
b := temp; // b mit dem Wert von temp überschreiben
Auch dies ist ein kleiner Algorithmus.
Ein vollständiges Programm.
Damit daraus ein korrektes Programm wird, muss der Algorithmus noch um Ein- bzw. Ausgabeanweisungen, oft jedoch auch um Variablen und eine Programmstruktur ergänzt werden. Diese sind nicht Teil des eigentlichen Algorithmus:
program Ggt; // Programmkopf
var a, b, temp: Integer; // Variablendefinition
begin
ReadLn(a, b); // Eingabe von a und b
while a <> b do // Euklidischer Algorithmus
begin
if b > a then
begin
temp := a;
a := b;
b := temp;
end;
a := a - b;
end;
WriteLn(a); // Ausgabe von a
end. // Programmende
Übersetzung und Ausführung.
Ein solches Programm wird unter Verwendung eines Texteditors erstellt und als Quellcode in einer Datei oder Programmbibliothek (für Quellcode) gespeichert. Anschließend kann der Quellcode zu einer festen Ablaufanweisung für den Computer 'übersetzt’ werden. Hierzu ist ein Compiler erforderlich, der den Code aus der jeweiligen Programmiersprache in die Maschinensprache übersetzt und als Ergebnis ein "ausführbares Programm" erstellt, welches als Datei oder in einer Programmbibliothek (für ausführbare Programme) abgelegt wird. Dieses Programm kann dann über ein Betriebssystem als Prozess gestartet werden, und zwar beliebig oft (ohne neue Übersetzung). Solch ein einzelner laufender Prozess eines Programms wird auch Programminstanz genannt.
Einige Programmiersprachen verwenden keinen Compiler, sondern einen Interpreter, der Programme erst zur Laufzeit in Maschinensprache übersetzt.
Eine weitere Möglichkeit besteht in der Verwendung von Zwischencode ("Bytecode"), der vom Compiler an Stelle des Maschinencodes generiert wird. Ein Beispiel dafür ist Java: Der Java-Compiler erzeugt Bytecode, welcher dann auf der sogenannten virtuellen Maschine ausgeführt wird. Die virtuelle Maschine interpretiert oder übersetzt dann den Bytecode für das darunterliegende Betriebssystem.
Ebenso muss in manchen Rechnerumgebungen, in der Regel bei Großrechnern, der vom Compiler erstellte Maschinencode noch mit einem Systemprogramm ('Linkage Editor' o. ä.) nachbearbeitet werden, wobei ggf. weitere Unterprogramme und Systemroutinen 'eingebunden' werden können. Erst so ist das entstandene Programm ausführbar.
Mittels spezieller Programme, sogenannter Decompiler, ist es in begrenztem Maße möglich, aus dem Maschinencode wieder einen in Hochsprache lesbaren Quelltext zu erzeugen.
Lebensphasen.
Programme haben mindestens zwei klar getrennte Lebensphasen: Der Zeitraum bis zum Zeitpunkt der Kompilierung (inklusive) wird "Compilezeit" genannt, welche im Gegensatz zur "Laufzeit" steht. In der Compilezeit-Phase hat das Programm statische Eigenschaften, gegeben nur durch den festen Quellcode. Nach der Kompilierung und mit der Ausführung besitzt das binäre Programm dynamische Eigenschaften und Verhalten in zusätzlicher Abhängigkeit der jeweiligen Laufzeitumgebung (variierende Hardware, User-Interaktion etc.).
In umfassenderen Sinn lassen sich Lebensphasen von Programmen auch als Software-Lebenszyklus verstehen. Demnach gehören zur inhaltlich präzisen Festlegung des Programm-Inhalts die Projektphasen "Problemstellung, Analyse und Entwurf", anschließend folgt die technische "Implementierung", in der das Programm in Form von Quelltext entsteht. Danach befindet es sich in der Phase "Einführung". Nach diesen Entstehungsphasen von Programmen folgt deren "produktive Nutzung", bei Bedarf werden Anpassungen und Erweiterungen ("Wartungs-/Pflegephase") vorgenommen.
Aus betriebswirtschaftlicher Sicht lassen sich auch Computerprogramme nach dem allgemeinen Produktlebenszyklus klassifizieren.
Urheberschutz.
Ein Computerprogramm wird urheberrechtlich geschützt, wenn es individuelles Ergebnis einer eigenen geistigen Schöpfung ihres Urhebers ist ( Abs. 3 UrhG). Mit Umsetzung der Urheberrechtsrichtlinie aus dem Jahre 2001 wurde die Schutzschwelle für Computerprogramme in den EG-Mitgliedsstaaten harmonisiert. Es genügt ein Minimum an Individualität für den Schutz (Kleine Münze). Es wird vermutet, dass sich die Individualität des Urhebers im Programm niedergeschlagen hat, wenn Spielraum dazu bestand. Geistiger Gehalt wird vermutet, wenn das Programm von einem menschlichen Urheber geschaffen wurde.
In der Bundesrepublik erfolgte die gesetzliche Anerkennung des Urheberrechtsschutzes 1985; die Rechtsprechung hielt ihn schon vorher für möglich.
1991 folgte die Richtlinie 91/250/EWG über den Rechtsschutz von Computerprogrammen, 1993 gesetzliche Regelungen in Österreich und der Schweiz sowie 1996 in Liechtenstein.
In der DDR hatte die Rechtsprechung 1979 die urheberrechtliche Schutzfähigkeit verneint, jedoch konnte in Wirtschaftsverträgen über wissenschaftlich-technische Leistungen die Vergabe von Software durch andere Partner als die erarbeitende Wirtschaftseinheit ausgeschlossen werden. |
920 | 244917 | https://de.wikipedia.org/wiki?curid=920 | Chemische Energie | Als chemische Energie wird die Energieform bezeichnet, die in Form einer chemischen Verbindung in einem Energieträger gespeichert ist und bei chemischen Reaktionen freigesetzt werden kann. Der Begriff geht auf Wilhelm Ostwald zurück, der ihn 1893 in seinem Lehrbuch „Chemische Energie“ (im Begriffspaar „Chemische und innere Energie“) neben andere Energieformen („Mechanische Energie“, „Wärme“, „Elektrische und magnetische Energie“ sowie „strahlende Energie“) stellte.
Der Ausdruck Chemische Energie beschreibt makroskopisch die Energie, die mit elektrischen Kräften in Atomen und Molekülen verbunden ist, soweit sie sich in chemischen Reaktionen auswirkt. Sie kann unterteilt werden in kinetische Energie der Elektronen und potentielle Energie der elektromagnetischen Wechselwirkung von Elektronen und Atomkernen. Sie ist eine Innere Energie, wie die thermische Energie und die Kernenergie.
Verwendung des Begriffs chemische Energie.
In der Fachwissenschaft Chemie wird der Ausdruck „chemische Energie“ nicht verwendet. Er ist nur unter Angabe der Umgebungsbedingungen eindeutig definiert – dafür existiert dann jeweils eine andere etablierte Bezeichnung.
Oft ist mit chemischer Energie die Energie gemeint, die durch eine Verbrennung eines Stoffes (bei konstantem Druck) freigesetzt wird, also die Verbrennungsenthalpie. Der Satz von Hess ermöglicht die Berechnung der Energien bei Stoffumwandlungen aus den exakt definierten Bildungsenthalpien der beteiligten Verbindungen. Ähnliche Begriffe sind Heizwert und Brennwert, die jeweils auf die bei einer Verbrennung maximal nutzbare Wärmemenge abzielen.
Die chemische Energie darf nicht mit der chemischen Bindungsenergie verwechselt werden. Die chemische Bindungsenergie beschreibt die Festigkeit einer bestimmten chemischen Bindung, gibt also an, wie viel Energie dem Molekül zur Auflösung der Bindung "zugeführt" werden muss.
In anderen Naturwissenschaften, den Ingenieurwissenschaften usw. wird der Begriff der chemischen Energie in seiner teilweise unscharfen Form oft verwendet. Obwohl manche Physikdidaktiker die Verwendung des Begriffs kritisieren („Der Begriff ist nützlich, wenn es um eine grobe Orientierung geht, erweist sich aber als widerspenstig, wenn man ihn streng zu fassen sucht. Im physikalischen Jargon ist er brauchbar, im physikalischen Kalkül überflüssig, zum physikalischen Verständnis hinderlich.“), kommt er in den meisten Didaktik-Veröffentlichungen und Schulbüchern vor.
Verwendung Chemischer Energie in technischen Systemen.
Aus "technischer Sicht" ist in Treibstoffen chemische Energie gespeichert, die durch deren Verbrennung, etwa beim Antrieb von Fahrzeugen, in mechanische Energie umgewandelt wird. Brennstoffzellen erlauben den Wandel von chemischer Reaktionsenergie einer Verbrennung direkt in elektrische Energie. Bei Nutzung von Batterien wird über elektrochemische Redoxreaktionen chemische Energie direkt in elektrische Energie gewandelt. Ein Akkumulator verhält sich bei der Nutzung der Energie ähnlich wie eine Batterie, kann aber auch umgekehrt elektrische Energie in chemische wandeln und so speichern.
Verwendung chemischer Energie in biologischen Systemen.
Aus "biologischer Sicht" ist in organischer Nahrung chemische Energie gespeichert, die in ATP-Moleküle als Energieträger umgewandelt wird. Grüne Pflanzen beziehen ihre chemische Energie nicht aus organischer Nahrung, sondern aus dem Energiegehalt der Sonnenstrahlung, und manche Bakterien aus der Oxidationsenergie reduzierter Verbindungen (z. B. Fe2+ oder CH4). Die ATP-Moleküle innerhalb der biologischen Zellen erlauben, chemische, osmotische und mechanische Arbeit zu leisten. |
923 | 1118359 | https://de.wikipedia.org/wiki?curid=923 | Cosimo de’ Medici | Cosimo de’ Medici (genannt "il Vecchio" ‚der Alte‘; * 10. April 1389 in Florenz; † 1. August 1464 in Careggi bei Florenz) war ein Staatsmann, Bankier und Mäzen, der jahrzehntelang die Politik seiner Heimatstadt Florenz lenkte und einen wesentlichen Beitrag zu ihrem kulturellen Aufschwung leistete. Wegen seiner Zugehörigkeit zur Familie der Medici (deutsch auch „Mediceer“) wird er „de’ Medici“ genannt; es handelt sich nicht um ein Adelsprädikat, die Familie war bürgerlich.
Als Erbe der von seinem Vater Giovanni di Bicci de' Medici gegründeten, stark expandierenden Medici-Bank gehörte Cosimo von Haus aus zur städtischen Führungsschicht. Der geschäftliche Erfolg machte ihn zum reichsten Bürger von Florenz. Den Rahmen für seine politische Betätigung bot die republikanische Verfassung der Stadt, die er im Prinzip respektierte, aber mit Hilfe seiner großen Anhängerschaft umgestaltete. Dabei setzte er sich gegen heftige Opposition einiger bisher tonangebender Familien durch. Sein maßgeblicher Einfluss auf die Politik beruhte nicht auf den Ämtern, in die er gewählt wurde, sondern auf dem geschickten Einsatz seiner finanziellen Ressourcen und einem ausgedehnten Netzwerk persönlicher Beziehungen im In- und Ausland. Es gelang ihm, ein dauerhaftes Bündnis mit Mailand, einer zuvor feindlichen Stadt, zuwege zu bringen und damit außenpolitische Stabilität zu schaffen, die nach seinem Tode anhielt.
Cosimos politische Erfolge, seine umfangreiche Förderung von Kunst und Bildungswesen und seine imposante Bautätigkeit verschafften ihm eine einzigartige Autorität. Dennoch konnte er Entscheidungen in heiklen Fragen nicht eigenmächtig treffen, sondern blieb stets auf Konsensbildung in der Führungsschicht angewiesen. Er achtete darauf, nicht wie ein Herrscher aufzutreten, sondern wie ein Bürger unter Bürgern.
Das außerordentliche Ansehen, das Cosimo genoss, spiegelte sich in der posthumen Verleihung des Titels "Pater patriae" („Vater des Vaterlandes“) wider. Mit seinem Vermögen ging die informelle Machtstellung, die er errungen hatte, auf seine Nachkommen über, die seine mäzenatische Tätigkeit in großem Stil fortsetzten. Bis 1494 spielten die Medici in der florentinischen Politik und im kulturellen Leben eine dominierende Rolle.
In der modernen Forschung werden Cosimos Leistungen überwiegend positiv beurteilt. Seine staatsmännische Mäßigung und Weitsicht, seine unternehmerische Kompetenz und sein kulturelles Engagement finden viel Anerkennung. Andererseits wird auch auf das große Konfliktpotenzial hingewiesen, das sich aus der massiven, andauernden Dominanz einer übermächtigen Familie in einem republikanischen, traditionell antiautokratischen Staat ergab. Längerfristig erwies sich Cosimos Konzept der indirekten Staatslenkung mittels eines Privatvermögens als nicht tragfähig; im letzten Jahrzehnt des 15. Jahrhunderts brach das von ihm etablierte System zusammen.
Die politischen Verhältnisse.
Nach dem Zusammenbruch des staufischen Kaisertums im 13. Jahrhundert war in Nord- und Mittelitalien, dem sogenannten Reichsitalien, ein Machtvakuum entstanden, das niemand auszufüllen vermochte. Wenngleich die römisch-deutschen Könige im 14. und 15. Jahrhundert weiterhin Italienzüge unternahmen (wie Heinrich VII., Ludwig IV. und Friedrich III.), gelang es ihnen nicht, die Reichsgewalt in Reichsitalien dauerhaft durchzusetzen. Die traditionelle Tendenz zur Zersplitterung der politischen Landschaft setzte sich im Spätmittelalter allgemein durch. Es bildete sich eine Vielzahl von lokalen und regionalen Machtzentren heraus, die einander fortwährend in wechselnden Konstellationen bekämpften. Die wichtigsten unter ihnen waren die großen Städte, die keine übergeordnete Gewalt akzeptierten und nach der Bildung größerer von ihnen kontrollierter Territorien strebten. Nördlich des Kirchenstaats waren die Hauptakteure das autokratisch regierte Mailand, die bürgerliche Republik Florenz und die Adelsrepublik Venedig, die nicht zu Reichsitalien gehörte. Die Politik war in erster Linie von den scharfen Gegensätzen zwischen benachbarten Städten geprägt. Oft bestand zwischen ihnen eine Erbfeindschaft; die größeren versuchten, die kleineren niederzuhalten oder völlig zu unterwerfen, und stießen dabei auf erbitterten Widerstand. Die Kosten der immer wieder aufflackernden militärischen Konflikte führten häufig zu einer gravierenden wirtschaftlichen Schwächung der beteiligten Kommunen, was jedoch die Kriegslust kaum dämpfte. Überdies wurden in den Städten heftige Machtkämpfe zwischen einzelnen Sippen und politischen Gruppierungen ausgetragen, die gewöhnlich zur Hinrichtung oder Verbannung der Anführer und namhaften Parteigänger der unterlegenen Seite führten. Ein Hauptziel der meisten politischen Akteure war die Wahrung und Vermehrung der Macht und des Ansehens der eigenen Familie.
Manche Kommunen wurden von Alleinherrschern regiert, die eine Gewaltherrschaft errichtet oder geerbt hatten. Diese von Republikanern als Tyrannis gebrandmarkte Regierungsform wird in der Fachliteratur als Signorie bezeichnet (nicht zu verwechseln mit "signoria" als Bezeichnung für einen Stadtrat). Sie war gewöhnlich mit Dynastiebildung verbunden. Andere Stadtstaaten hatten eine republikanische Verfassung, die einer relativ breiten Führungsschicht direkte Machtbeteiligung ermöglichte.
In Florenz, der Heimat der Medici, bestand traditionell eine republikanische Staatsordnung, die fest verankert war und von einem breiten Konsens getragen wurde. Es herrschte das in Gilden und Zünften organisierte, überwiegend kommerziell oder gewerblich tätige Bürgertum. Man hatte ein ausgeklügeltes System der Gewaltenteilung ersonnen, das gefährlicher Machtzusammenballung vorbeugen sollte. Das wichtigste Regierungsorgan war die neunköpfige Signoria, eine Ratsversammlung, deren Mitglieder sechsmal im Jahr neu bestimmt wurden. Die Kürze der zweimonatigen Amtszeit sollte tyrannischen Bestrebungen den Boden entziehen. Die Stadt, die 1427 etwa 40.000 Einwohner hatte, war in vier Bezirke geteilt, von denen jeder zwei "priori" (Mitglieder der Signoria) stellte. Zu den acht "priori" kam als neuntes Mitglied der "gonfaloniere di giustizia" (Bannerträger der Gerechtigkeit) hinzu. Er war der Vorsitzende des Gremiums und genoss daher unter allen städtischen Amtsträgern das höchste Ansehen, hatte aber nicht mehr Macht als seine Kollegen. Zur Regierung gehörten noch zwei weitere Organe: der Rat der "dodici buonomini", der „zwölf guten Männer“, und die sechzehn "gonfalonieri" (Bannerträger), vier für jeden Bezirk. Diese beiden Gremien, in denen die Mittelschicht stark vertreten war, nahmen zu politischen Fragen Stellung und konnten Gesetzesentwürfe blockieren. Zusammen mit der Signoria bildeten sie die Gruppe der "tre maggiori", der drei führenden Institutionen, die den Staat lenkten. Die "tre maggiori" schlugen neue Gesetze vor, doch konnten diese erst in Kraft treten, wenn sie von zwei größeren Gremien, dem dreihundertköpfigen Volksrat "(consiglio del popolo)" und dem zweihundert Mitglieder zählenden Gemeinderat "(consiglio del comune)", mit Zweidrittelmehrheit gebilligt worden waren. In diesen beiden Räten betrug die Amtszeit vier Monate.
Ferner gab es Kommissionen, die für besondere Aufgaben zuständig waren und der Signoria unterstanden. Die bedeutendsten von ihnen waren der achtköpfige Sicherheitsausschuss "(otto di guardia)", der für die innere Staatssicherheit zu sorgen hatte und die Geheimdienstaktivitäten lenkte, und die "dieci di balìa" („zehn Bevollmächtigte“), ein Gremium mit sechsmonatiger Amtszeit, das sich mit Außen- und Sicherheitspolitik befasste und im Kriegsfall die militärischen Aktionen plante und überwachte. Die "dieci di balìa" hatten die Fäden der Diplomatie weitgehend in den Händen. Daher wurden sie für die Medici, als diese die Staatslenkung übernahmen, ein zentrales Instrument bei der Steuerung der Außenpolitik.
Das in Florenz herrschende tiefe Misstrauen gegen übermächtige Personen und Gruppen war der Grund dafür, dass die meisten Amtsträger, vor allem die Mitglieder der "tre maggiori", weder durch Mehrheitsbeschluss gewählt noch aufgrund einer Qualifikation ernannt wurden. Sie wurden vielmehr aus der Menge aller als amtstauglich anerkannten Bürger – etwa zweitausend Personen – durch das Los ermittelt. Man legte die Zettel mit den Namen in Losbeutel "(borse)", aus denen dann die Zettel der künftigen Amtsträger blind gezogen wurden. Für die Signoria galt ein Verbot aufeinanderfolgender Amtszeiten. Man durfte nur einmal in drei Jahren amtieren, und es durfte niemand aus derselben Familie im vorigen Jahr dem Gremium angehört haben.
Die Berechtigung zur Teilnahme an den Auslosungen musste in bestimmten Zeitabständen – theoretisch alle fünf Jahre, faktisch etwas unregelmäßiger – überprüft werden. Diesem Zweck diente das "squittinio", ein Verfahren, mit dem festgestellt wurde, wer die Anforderungen der Amtstauglichkeit erfüllte. Zu diesen zählten Freiheit von Steuerschulden und Zugehörigkeit zu mindestens einer der Zünfte. Es gab „größere“ (das heißt angesehenere und mächtigere) und „kleinere“ Zünfte, und sechs der acht Priorensitze in der Signoria waren den größeren vorbehalten. Das Ergebnis des "squittinio" war jeweils eine neue Liste der politisch vollberechtigten Bürger. Wer einer der größeren Zünfte "(arti maggiori)" angehörte und im "squittinio" für tauglich befunden worden war, konnte sich zum Patriziat der Stadt zählen. Da das "squittinio" Manipulationsmöglichkeiten bot und über den sozialen Rang der am politischen Leben beteiligten Bürger entschied, war seine Durchführung politisch heikel.
Das System der Ämterbesetzung durch Losentscheid hatte den Vorteil, dass zahlreiche Angehörige der städtischen Führungsschicht Gelegenheit erhielten, ehrenvolle Ämter zu bekleiden und so ihren Ehrgeiz zu befriedigen. Jedes Jahr wurden die Hauptorgane der Stadtverwaltung mit 1650 neuen Leuten besetzt. Ein Nachteil des häufigen Führungswechsels war die Unberechenbarkeit; eine neue Signoria konnte einen ganz anderen Kurs steuern als ihre Vorgängerin, wenn sich die Mehrheitsverhältnisse durch den Zufall des Losentscheids geändert hatten.
Für besondere Krisensituationen war der Zusammentritt eines "parlamento" vorgesehen. Das war eine Versammlung aller männlichen Bürger, die über 14 Jahre alt waren, mit Ausnahme der Kleriker. Das "parlamento" konnte eine Kommission für Notfälle, eine "balìa", wählen und mit Sondervollmachten zur Bewältigung der Krise ausstatten.
Leben.
Herkunft, Jugend und Bewährung im Bankgeschäft (1389–1429).
Cosimo wurde am 10. April 1389 in Florenz geboren. Sein Vater war Giovanni di Bicci de’ Medici (1360–1429), seine Mutter Piccarda de’ Bueri. Es war damals üblich, zwecks Unterscheidung von gleichnamigen Personen den Namen des Vaters anzugeben; daher nannte man Giovanni „di Bicci“ (Sohn des Bicci) und seinen Sohn Cosimo „di Giovanni“. Cosimo hatte einen Zwillingsbruder namens Damiano, der bald nach der Geburt starb. Die Brüder erhielten ihre Namen nach Cosmas und Damian, zwei antiken Märtyrern, die ebenfalls Zwillinge waren und als Heilige verehrt wurden. Daher feierte Cosimo später seinen Geburtstag nicht am 10. April, sondern am 27. September, der damals der Festtag des heiligen Brüderpaares war.
Cosimos Vater war bürgerlicher Herkunft. Er gehörte der weitverzweigten Sippe der Medici an. Schon im späten 13. Jahrhundert waren in Florenz Medici im Bankgewerbe tätig, doch in den 1360er und 1370er Jahren war die Sippe größtenteils noch nicht reich; die meisten ihrer Haushalte waren sogar relativ minderbemittelt. Dennoch spielten die Medici in der Politik bereits eine wichtige Rolle; im 14. Jahrhundert waren sie in der Signoria häufig vertreten. In ihrem Kampf um Ansehen und Einfluss erlitten sie jedoch einen schweren Rückschlag, als ihr Wortführer Salvestro de’ Medici 1378 beim Ciompi-Aufstand ungeschickt taktierte: Er ergriff zunächst für die Aufständischen Partei, änderte aber später seine Haltung. Dies brachte ihm den Ruf der Wankelmütigkeit ein. Er wurde des Strebens nach Tyrannenherrschaft verdächtigt, schließlich musste er 1382 ins Exil gehen. In der Folgezeit galten die Medici als unzuverlässig. Um 1400 waren sie so diskreditiert, dass ihnen die Bekleidung öffentlicher Ämter untersagt war. Allerdings waren zwei Zweige der Sippe von dem Verbot ausgenommen; einem der beiden gehörten Cosimos Vater und Großvater an. Die Erfahrung der Jahre 1378–1382 war für die Medici ein einschneidendes Erlebnis, das zur Vorsicht mahnte.
Um 1380 betätigte sich Giovanni als kleiner Geldverleiher. Dieses Gewerbe wurde damals verachtet; im Gegensatz zum großen Bankgeschäft war es der Öffentlichkeit suspekt, da die Geldverleiher auf offensichtliche Weise das kirchliche Zinsverbot missachteten, während die Bankiers besser in der Lage waren, die Verzinsung ihrer Darlehen zu vertuschen. Später trat Giovanni in den Dienst des Bankiers Vieri di Cambio, des damals reichsten Angehörigen der Medici-Sippe. Ab 1385 leitete er die römische Filiale von Vieris Bank. Nach der Auflösung von Vieris Bank 1391/1392 machte sich Giovanni selbständig und übernahm die römische Filiale. Mit diesem Schritt gründete er die Medici-Bank.
Obwohl Rom der weitaus attraktivste Standort in ganz Italien war, verlegte Giovanni 1397 den Hauptsitz seines Unternehmens nach Florenz. Ausschlaggebend war dabei sein Wunsch, in seine Heimatstadt zurückzukehren. Dort schuf er in der Folgezeit zielstrebig ein Netzwerk von Verbindungen, von denen manche vor allem geschäftlich vorteilhaft waren, andere in erster Linie dazu dienten, sein Ansehen und seinen politischen Einfluss zu vergrößern. Seine beiden Söhne, Cosimo und der sechs Jahre jüngere Lorenzo, erhielten ihre Ausbildung in der väterlichen Bank und wurden dann an der Gestaltung der Geschäftspolitik beteiligt. Zu den Allianzen, die Giovanni di Bicci einging, gehörte seine Verbindung mit dem traditionsreichen adligen Geschlecht der Bardi. Die Bardi hatten in der ersten Hälfte des 14. Jahrhunderts zu den bedeutendsten Bankiers Europas gezählt. Ihre Bank war zwar 1345 spektakulär zusammengebrochen, doch betätigten sie sich später wieder mit Erfolg im Finanzbereich. Um 1413/1415 wurde das Bündnis der beiden Familien durch eine Heirat bekräftigt: Cosimo schloss die Ehe mit Contessina de’ Bardi di Vernio. Solche Heiraten waren ein wesentlicher Bestandteil der politischen und geschäftlichen Netzwerkbildung. Sie hatten gewichtige Auswirkungen auf den sozialen Status und den Einfluss einer Familie und wurden daher reiflich überlegt. Verschwägerung schuf Loyalitäten. Allerdings war nur ein Teil der Bardi-Sippe an dem Bündnis beteiligt, manche ihrer Zweige zählten zu den Gegnern der Medici.
Die ersten Jahrzehnte des 15. Jahrhunderts waren für die Medici-Bank eine Phase zielstrebig vorangetriebener Expansion. Sie hatte Zweigstellen in Rom, Venedig und Genf, zeitweilig auch in Neapel. Im Zeitraum von 1397 bis 1420 wurde ein Reingewinn von 151.820 Florin "(fiorini)" erwirtschaftet. Davon blieben nach Abzug des Anteils, der einem Partner zustand, für die Medici 113.865 Florin übrig. Mehr als die Hälfte des Gewinns stammte aus Rom, wo die wichtigsten Geschäfte getätigt wurden, nur ein Sechstel aus Florenz. Seinen größten Erfolg errang Giovanni 1413, als ihn der in Rom residierende Gegenpapst Johannes XXIII., mit dem er befreundet war, zu seinem Hauptbankier machte. Zugleich wurde sein Zweigstellenleiter in Rom päpstlicher Generaldepositar "(depositario generale)", das heißt, er übernahm die Verwaltung des größten Teils der Kircheneinkünfte gegen eine Provision. Als sich Johannes XXIII. im Herbst 1414 nach Konstanz begab, um an dem dorthin einberufenen Konzil teilzunehmen, gehörte Cosimo angeblich zu seinem Gefolge. Doch im folgenden Jahr erlitten die Medici einen herben Rückschlag, als das Konzil Johannes XXIII. absetzte. Damit verlor die Medici-Bank ihre fast monopolartige Stellung im Geschäft mit der Kurie; in den folgenden Jahren musste sie mit anderen Banken konkurrieren. Den Vorrang konnte sie sich erst wieder sichern, nachdem 1420 ein Hauptkonkurrent, die Spini-Bank, in die Insolvenz gegangen war.
Als sich Giovanni di Bicci 1420 aus der Leitung der Bank zurückzog, übernahmen seine Söhne Cosimo und Lorenzo gemeinsam die Führung des Unternehmens. Im Jahr 1429 starb Giovanni. Nach seinem Tod wurde das Familienvermögen nicht aufgeteilt; Cosimo und Lorenzo traten zusammen das Erbe an, wobei Cosimo als dem älteren die Entscheidungsgewalt zufiel. Das Vermögen bestand aus etwa 186.000 Florin, von denen zwei Drittel in Rom, jedoch nur ein Zehntel in Florenz erwirtschaftet worden waren – selbst die Zweigstelle in Venedig erwirtschaftete mehr. Neben der Bank gehörte der Familie umfangreicher Grundbesitz im Umland von Florenz, vor allem im Mugello, der Gegend, aus der die Familie ursprünglich stammte. Fortan erhielten die beiden Brüder zwei Drittel des Profits der Bank, der Rest ging an ihre Partner.
Angeblich hat Giovanni auf dem Totenbett seinen Söhnen geraten, diskret zu agieren. Sie sollten in der Öffentlichkeit zurückhaltend auftreten, um möglichst wenig Neid und Missgunst zu erregen. Beteiligung am politischen Prozess war für einen Bankier existenznotwendig, da er sonst damit rechnen musste, von Feinden und Rivalen ausmanövriert zu werden. Wegen der Heftigkeit und Unberechenbarkeit der politischen Auseinandersetzungen in der Stadt war aber eine zu starke Profilierung sehr gefährlich, wie der Ciompi-Aufstand gezeigt hatte. Konflikte waren daher möglichst zu vermeiden.
Machtkampf und Verbannung (1429–1433).
Mit dem wirtschaftlichen Erfolg und sozialen Aufstieg der Medici wuchs ihr Anspruch auf politischen Einfluss. Damit stießen sie trotz ihres zurückhaltenden Auftretens bei einigen traditionell tonangebenden Sippen, die sich zurückgedrängt sahen, auf Widerstand. So kam es zur Bildung zweier großer Gruppierungen, die einander lauernd gegenüberstanden. Auf der einen Seite standen die Medici mit ihren Verbündeten und der breiten Klientel derer, die von ihren Geschäften, ihren Aufträgen und ihrem Einfluss direkt oder indirekt profitierten. Im gegnerischen Lager versammelten sich die Sippen, die ihre herkömmliche Machtstellung behalten und die Aufsteiger in die Schranken weisen wollten. Unter ihnen war die Familie Albizzi die bedeutendste; deren Oberhaupt Rinaldo degli Albizzi wurde zum Wortführer der Medici-Gegner. In dieser Spaltung der Bürgerschaft spiegelten sich nicht nur persönliche Gegensätze zwischen führenden Politikern, sondern auch unterschiedliche Mentalitäten und Grundeinstellungen. Bei der Albizzi-Gruppe handelte es sich um die konservativen Kreise, deren Dominanz 1378 durch den Ciompi-Aufstand, eine von benachteiligten Arbeitern getragene Erhebung der unteren Volksschichten "(popolo minuto)", bedroht worden war. Seit dieser schockierenden Erfahrung bemühten sie sich, ihren Status abzusichern, indem sie das Eindringen von suspekten Cliquen in die maßgeblichen Gremien zu hemmen trachteten. Aufruhr, Umsturz und diktatorische Gelüste sollten im Keim erstickt werden. Die zeitweilige Unterstützung der Medici für die aufständischen Arbeiter war nicht vergessen. Die Albizzi-Gruppe war aber keine Partei mit einer einheitlichen Führung und einem gemeinsamen Kurs, sondern ein lockerer, informeller Zusammenschluss einiger etwa gleichrangiger Clans. Außer der Gegnerschaft zu potentiell gefährlichen Außenseitern verband die Mitglieder dieser Allianz wenig. Ihre Grundhaltung war defensiv. Die Medici-Gruppe hingegen war vertikal strukturiert. Cosimo war ihr unangefochtener Anführer, der die wesentlichen Entscheidungen traf und die finanziellen Ressourcen, die den gegnerischen weit überlegen waren, zielbewusst einsetzte. Aufsteigerfamilien "(gente nuova)" zählten zu den natürlichen Verbündeten der Medici, doch beschränkte sich deren Anhängerschaft nicht auf Kräfte, die von erhöhter sozialer Mobilität profitieren konnten. Die Medici-Gruppe umfasste auch angesehene Patriziergeschlechter, die sich in ihr Netzwerk hatten eingliedern lassen, unter anderem durch Verschwägerung. Offenbar hatten die Albizzi in der Oberschicht stärkeren Rückhalt, während die Medici beim Mittelstand – den Handwerkern und Ladenbesitzern – größere Sympathien genossen. Die Zugehörigkeit eines großen Teils von Cosimos Parteigängerschaft zur traditionellen Elite zeigt aber, dass die früher gelegentlich vertretene Deutung des Konflikts als Kampf zwischen Klassen oder Ständen verfehlt ist.
Die Verhärtung des Gegensatzes ließ einen offenen Machtkampf als unvermeidlich erscheinen, doch musste dieser in Anbetracht der vorherrschenden Loyalität zur verfassungsmäßigen Ordnung im Rahmen der Legalität ausgetragen werden. Ab 1426 spitzte sich der Konflikt zu. Die Propaganda beider Seiten zielte auf die Verfestigung von Feindbildern ab. Für die Medici-Anhänger war Rinaldo degli Albizzi der arrogante Wortführer volksferner, oligarchischer Kräfte, der vom Ruhm seines Vaters zehrte und infolge seiner Unbesonnenheit Führungsqualitäten vermissen ließ. Die Albizzi-Gruppe stellte Cosimo als potentiellen Tyrannen dar, der seinen Reichtum nutze, um die Verfassung auszuhebeln und sich durch Bestechung und Korruption den Weg zur Alleinherrschaft zu bahnen. Indizien deuten darauf, dass die Vorwürfe beider Seiten einen beträchtlichen wahren Kern enthielten: Rinaldo stieß durch seine Schroffheit einflussreiche Sympathisanten wie die Familie Strozzi vor den Kopf und zerstritt sich sogar mit seinem Bruder Luca so sehr, dass dieser die Familienloyalität aufkündigte und zur Gegenseite überlief, was für damalige Verhältnisse ein ungewöhnlicher Schritt war. Auch die Polemik gegen die Medici fußte, wenngleich sie wohl überzogen war, auf Tatsachen: Die Medici-Gruppe infiltrierte die Verwaltung, verschaffte sich dadurch geheime Informationen, schreckte vor Dokumentenfälschung nicht zurück und manipulierte das "squittinio" in ihrem Sinn.
Anlass zu Polemik bot die Einführung des "catasto", eines umfassenden Verzeichnisses aller steuerpflichtigen Güter und Einkommen, im Mai 1427. Das Verzeichnis bildete die Grundlage der Erhebung einer neu eingeführten Vermögenssteuer, die zur Reduzierung der dramatisch gestiegenen Staatsschulden benötigt wurde. Dieser Schritt bewirkte eine gewisse Verlagerung der Steuerlast von der indirekt besteuerten Mittelschicht zu den wohlhabenden Patriziern. Die besonders zahlungskräftigen Medici konnten die neue Last besser verkraften als manche ihrer weniger vermögenden Gegner, für die der "catasto" einen harten Schlag bedeutete. Zwar hatte Giovanni di Bicci die Einführung der Vermögenssteuer anfangs abgelehnt und später nur zögerlich unterstützt, doch gelang es den Medici, sich als Befürworter der in der Bevölkerung populären Maßnahme darzustellen. Sie konnten sich damit als Patrioten profilieren, die zu ihrem eigenen Nachteil für die Sanierung des Staatshaushalts eintraten und selbst einen gewichtigen Beitrag dazu leisteten.
Weiter angeheizt wurde der Konflikt durch den Krieg gegen Lucca, den Florenz Ende 1429 begann. Die militärischen Auseinandersetzungen endeten im April 1433 mit einem Friedensschluss, ohne dass die Angreifer ihr Kriegsziel erreicht hatten. Die beiden verfeindeten Cliquen in Florenz hatten den Krieg einhellig befürwortet, nutzten dann aber seinen ungünstigen Verlauf als Waffe in ihrem Machtkampf. Rinaldo hatte als Kriegskommissar am Feldzug teilgenommen, daher konnte er für dessen Misserfolg mitverantwortlich gemacht werden. Er seinerseits gab die Schuld dem für die Koordinierung der Kriegführung zuständigen Zehnerausschuss, in dem Anhänger der Medici stark vertreten waren; der Ausschuss habe seine Bemühungen sabotiert. Cosimo konnte sich bei dieser Gelegenheit in ein günstiges Licht rücken: Er hatte dem Staat 155 887 Florin geliehen, einen Betrag, der mehr als ein Viertel des kriegsbedingten Sonder-Finanzbedarfs ausmachte. Damit konnte der Mediceer seinen Patriotismus und seine einzigartige Bedeutung für das Schicksal der Republik propagandawirksam demonstrieren. Insgesamt stärkte der Kriegsverlauf somit die Stellung der Medici-Gruppe in der öffentlichen Meinung.
Die Strategie der Albizzi-Gruppe zielte darauf ab, die Gegner – vor allem Cosimo persönlich – verfassungsfeindlicher Umtriebe anzuklagen und sie so mit strafrechtlichen Mitteln außer Gefecht zu setzen. Eine Handhabe bot den Feinden der Medici ein von ihnen im Dezember 1429 durchgebrachtes Gesetz, das staatsschädliche Protektion unterbinden und den inneren Frieden sichern sollte. Es richtete sich gegen Aufsteiger, die sich durch ihre Beziehungen zu Mitgliedern der Signoria unerlaubte Vorteile verschafften, und gegen Große, die Unruhe stifteten. Diese Gesetzgebung zielte somit auf Cosimo und seine sozial und politisch mobile Klientel. Ab 1431 wurde den führenden Köpfen der Medici-Gruppe zunehmend mit Aberkennung der Bürgerrechte und Verbannung gedroht. Zu diesem Zweck sollte eine Sonderkommission gebildet und zu entsprechenden Maßnahmen bevollmächtigt werden. Nach dem Ende des Krieges gegen Lucca wurde die Gefahr für Cosimo akut, da er nun nicht mehr als Kreditgeber des Staats benötigt wurde. Daraufhin leitete er im Frühjahr 1433 den Transfer seines Kapitals ins Ausland ein. Einen großen Teil ließ er nach Venedig und Rom schaffen, einiges Geld versteckte er in Florenz in Klöstern. Damit sicherte er das Bankvermögen gegen das Risiko einer Enteignung, die im Fall einer Verurteilung wegen Hochverrats zu befürchten war.
Die Auslosung der Posten in der Signoria für die Amtszeit September und Oktober 1433 ergab eine Zweidrittelmehrheit der Medici-Gegner. Diese Gelegenheit ließen sie sich nicht entgehen. Cosimo, der sich außerhalb der Stadt aufhielt, wurde von der Signoria zu einer Beratung eingeladen. Bei seinem Eintreffen im Stadtpalast am 5. September wurde er sofort festgenommen. Mit der Mehrheit von sechs zu drei beschloss die Signoria seine Verbannung und eine Sonderkommission bestätigte das Urteil, da er ein Zerstörer des Staats und Verursacher von Skandalen sei. Fast alle Angehörigen der Medici-Sippe wurden für zehn Jahre von den Ämtern der Republik ausgeschlossen. Cosimo wurde nach Padua, sein Bruder Lorenzo nach Venedig verbannt; dort sollten sie zehn Jahre bleiben. Falls sie die ihnen zugewiesenen Aufenthaltsorte vorzeitig verließen, drohte ihnen ein weiteres Urteil, das die Heimkehr für immer ausschloss. Die lange Dauer der angeordneten Abwesenheit sollte das Netzwerk der Medici dauerhaft lahmlegen und zerreißen. Cosimo musste als Garantie für sein künftiges Wohlverhalten eine Kaution von 20.000 Florin hinterlegen. Er akzeptierte das Urteil, wobei er seine Loyalität zur Republik hervorhob, und ging Anfang Oktober 1433 ins Exil.
Umschwung und Heimkehr (1433–1434).
Bald zeigte sich, dass das Netzwerk der Medici nicht nur in Florenz intakt blieb, sondern sogar im fernen Ausland effizient funktionierte. Cosimos Abschied und seine Reise nach Padua wurden zu einer triumphalen Demonstration seines Einflusses im In- und Ausland. Schon unterwegs erhielt er eine Vielzahl von Sympathiekundgebungen, Treuebezeugungen und Hilfsangeboten prominenter Persönlichkeiten und ganzer Städte. In Venedig, zu dessen Territorium der Verbannungsort Padua damals gehörte, war die Unterstützung besonders stark, was mit dem Umstand zusammenhing, dass die Medici-Bank dort seit Jahrzehnten eine Filiale unterhielt. Als Cosimos Bruder Lorenzo in Venedig eintraf, wurde er vom Dogen Francesco Foscari persönlich sowie vielen Adligen empfangen. Die Republik Venedig ergriff klar für die Verfolgten Partei und schickte einen Gesandten nach Florenz, der sich um die Aufhebung des Urteils bemühen sollte. Dieser erreichte immerhin, dass Cosimo gestattet wurde, sich in Venedig anzusiedeln. Kaiser Sigismund, den die Venezianer informiert hatten, äußerte seine Missbilligung der Verbannung, die er für eine Dummheit der Florentiner hielt. Sigismund hatte auf seinem Italienzug, von dem er im Oktober 1433 heimkehrte, unter anderem eine Regelung seines Verhältnisses zur Republik Florenz angestrebt, aber keinen Verhandlungserfolg erzielen können.
Den Umschwung brachte schließlich ein neuer Geldbedarf der Republik Florenz. Da die Lage der Staatsfinanzen prekär war und die Medici-Bank als Kreditgeber nicht mehr zur Verfügung stand, zeichnete sich eine Steuererhöhung ab. Dies führte zu solcher Unzufriedenheit, dass im Lauf des Frühlings und Sommers 1434 die Stimmung in der Führungsschicht kippte. Anhänger der Medici und Befürworter einer Versöhnung bekamen zunehmend Oberwasser. Die neue Stimmungslage spiegelte sich in der für die Amtszeit September und Oktober 1434 ausgelosten Signoria, die teils dezidiert medicifreundlich, teils versöhnungsbereit war. Der neue "gonfaloniere di giustizia" war ein entschlossener Gefolgsmann Cosimos. Er setzte am 20. September die Aufhebung des Verbannungsurteils durch. Nun drohte den Anführern der Albizzi-Gruppe das Schicksal, das sie im Vorjahr ihren Feinden bereitet hatten. Um dem zuvorzukommen, planten sie für den 26. September einen Staatsstreich und zogen Bewaffnete zusammen. Da aber die Gegenseite rechtzeitig ihre Kräfte mobilisiert hatte, wagten sie den Angriff nicht, denn ohne das Überraschungsmoment hätte er einen Bürgerkrieg mit geringen Erfolgschancen bedeutet. Schließlich griff Papst Eugen IV. als Vermittler ein. Der Papst war von einem Volksaufstand aus Rom vertrieben worden und lebte seit einigen Monaten in Florenz im Exil. Als Venezianer war Eugen tendenziell medicifreundlich gesinnt, und vor allem konnte er auf künftige Darlehen der Medici-Bank hoffen. Es gelang ihm, Rinaldo zur Aufgabe zu bewegen.
Am 29. September brach Cosimo zur Heimkehr auf, die sich ebenso wie seine Abreise triumphal gestaltete. Am 2. Oktober wurde die Verbannung Rinaldos und einiger seiner Weggefährten verfügt. Damit hatte die Medici-Gruppe den Machtkampf endgültig zu ihren Gunsten entschieden. Als Sieger gab sich Cosimo versöhnlich und agierte wie gewohnt vorsichtig. Allerdings hielt er es zur Sicherung seiner Stellung für erforderlich, 73 feindliche Bürger ins Exil zu schicken. Viele von ihnen durften später zurückkehren und sich sogar wieder für die Signoria qualifizieren.
Die Ursachen für den Ausgang des Machtkampfs wurden im frühen 16. Jahrhundert von Niccolò Machiavelli analysiert. Er zog daraus allgemeine Lehren, darunter seine berühmte Forderung, dass ein Eroberer der Macht unmittelbar nach der Inbesitznahme des Staates alle unvermeidlichen Grausamkeiten auf einen Schlag begehen müsse. Machiavellis Einschätzung, wonach der Albizzi-Gruppe ihre Unentschlossenheit und Halbherzigkeit zum Verhängnis wurde, wird von der modernen Forschung geteilt. Weitere Faktoren, die den Medici-Gegnern schadeten, waren das Fehlen innerer Geschlossenheit und einer über Autorität verfügenden Führung. Hinzu kam ihr Mangel an Rückhalt im Ausland, wo Cosimo mächtige Verbündete hatte.
Tätigkeit als Staatsmann (1434–1464).
Nach seiner triumphalen Heimkehr wurde Cosimo faktisch der Lenker des florentinischen Staates und blieb bis zu seinem Tod in dieser informellen Stellung. Dabei respektierte er äußerlich die Institutionen der republikanischen Verfassung, ein Amt mit Sondervollmachten strebte er für sich nicht an. Er agierte aus dem Hintergrund mittels seines weitgespannten in- und ausländischen Netzwerks.
Das Bankgeschäft als materielle Basis.
Cosimo und seinen Zeitgenossen stand stets die Tatsache vor Augen, dass die Grundlage seiner politischen Machtentfaltung sein kommerzieller Erfolg war. Der Zusammenhalt seines Netzwerks hing in erster Linie von den Geldflüssen ab, die nicht versiegen durften. In Nord- und Mittelitalien florierte das Bankgeschäft, und niemand war darin erfolgreicher als er. Auch in der Kunst des Einsatzes finanzieller Ressourcen für politische Ziele war er zu seiner Zeit unübertroffen. Unter seiner Leitung expandierte die Medici-Bank weiter; neue Zweigstellen wurden in Pisa, Mailand, Brügge, London und Avignon eröffnet, die Genfer Filiale wurde nach Lyon verlegt.
Eine Haupteinnahmequelle der großen, überregional operierenden Banken, insbesondere der Medici-Bank, war die Kreditvergabe an Machthaber und geistliche Würdenträger. Besonders groß war der Kreditbedarf der Päpste, die zwar über gewaltige Einkünfte aus der gesamten katholischen Welt verfügten, aber wegen kostspieliger militärischer Unternehmungen immer wieder in Engpässe gerieten. Darlehen an Machthaber waren lukrativ, aber mit beträchtlichen Risiken verbunden. Es musste mit der Möglichkeit gerechnet werden, dass solche Schuldner die Rückzahlung verweigerten oder nach einem verlustreichen Krieg, den sie mit Fremdkapital finanziert hatten, zumindest zeitweilig nicht mehr zahlungsfähig waren. Ein weiteres Risiko bestand im gewaltsamen Tod des Schuldners durch einen Mordanschlag oder auf einem Feldzug. Durch solche Ereignisse bedingte Zahlungsausfälle konnten auch bei großen Banken zur Insolvenz führen. Die Einschätzung der Chancen und Risiken derartiger Geschäfte gehörte zu den wichtigsten Aufgaben Cosimos.
Ein Bankier des 15. Jahrhunderts benötigte politische Begabung und großes diplomatisches Geschick, denn Geschäft und Politik waren verschmolzen und mit vielfältigen familiären Interessen verknüpft. Darlehensgewährung war häufig auch faktische Parteinahme in den erbitterten Konflikten zwischen Machthabern, Städten oder auch Parteien innerhalb einer Bürgerschaft. Entscheidungen über die Vergabe, Begrenzung oder Verweigerung von Krediten oder Unterstützungsgeldern hatten weitreichende politische Konsequenzen; sie schufen und bewahrten Bündnisse und Netzwerke oder erzeugten gefährliche Feindschaften. Auch militärisch wirkten sie sich aus, denn die zahlreichen Kriege unter den nord- und mittelitalienischen Städten wurden mit dem kostspieligen Einsatz von Söldnerführern (Condottieri) ausgetragen. Diese standen mit ihren Truppen nur zur Verfügung, solange der Auftraggeber zahlungskräftig war; wenn dies nicht mehr der Fall war, ließen sie sich vom Feind abwerben oder plünderten auf eigene Rechnung. Die Entscheidungen, die Cosimo als Bankier traf, waren zum Teil nur politisch, nicht kommerziell sinnvoll. Manche seiner Zahlungen waren politisch unumgänglich, aber ökonomisch reine Verlustgeschäfte. Sie dienten der Pflege seines Ansehens oder der Sicherung der Loyalität von Verbündeten. Dazu zählten die Belohnungen für geleistete politische Dienste und die Erfüllung von Aufgaben, die als patriotische Pflichten galten.
In Florenz waren die Haupteinnahmequellen der Medici-Bank der Geldwechsel und die Kreditvergabe an Angehörige der Oberschicht, die in finanzielle Bedrängnis geraten waren. Insbesondere zur Bezahlung von Steuerschulden wurden Darlehen benötigt, denn säumige Steuerschuldner durften keine Ämter ausüben. Weitaus bedeutender war jedoch das Kreditgeschäft mit auswärtigen Machthabern. Der wichtigste Geschäftspartner der Bank war der Papst, als dessen Hauptbankier Cosimo fungierte. Vor allem dank der Verbindung mit der Kurie waren die römischen Geschäfte der Bank die lukrativsten. Die dortigen Zinseinnahmen und die Provisionen auf die getätigten Transaktionen boten eine hohe Gewinnspanne und die Geschäfte waren wegen des ständigen Geldbedarfs der Kurie sehr umfangreich. Daher erwirtschaftete die Filiale in Rom den größten Teil der Gewinne. Außerdem wirkte sich die enge Beziehung zur Kurie auch politisch vorteilhaft aus. Wenn der Papst Rom verließ, folgte ihm die römische Filiale; sie war stets dort zu finden, wo sein Hof sich aufhielt.
Neben der politischen und ökonomischen Kompetenz war der wichtigste Faktor, von dem der Erfolg eines Bankiers abhing, seine Menschenkenntnis. Er musste in der Lage sein, die Kreditwürdigkeit seiner Kunden und die Zuverlässigkeit seiner auswärtigen Zweigstellenleiter, die viele Gelegenheiten zum Betrug hatten, richtig einzuschätzen. Cosimo verfügte ebenso wie sein Vater in hohem Maße über diese Fähigkeiten. Seine Verschwiegenheit, Nüchternheit und Voraussicht und sein geschickter Umgang mit Geschäftspartnern verschafften ihm Respekt. Auch die moderne Forschung würdigt diese Qualitäten des Mediceers, die maßgeblich zu seinem kommerziellen und politischen Erfolg beitrugen.
Aus Cosimos Korrespondenz mit dem Leiter der Filiale der Medici-Bank in Venedig geht hervor, dass die Bank systematisch Steuern hinterzog und dass Cosimo persönlich Anweisungen zur Bilanzfälschung erteilte. Der Zweigstellenleiter, Alessandro Martelli, versicherte ihm, dass auf die Verschwiegenheit des Personals Verlass sei.
Innenpolitische Konsolidierung (1434–1455).
Der entscheidende Schritt, der nach dem Sieg von 1434 die Stellung Cosimos dauerhaft absicherte, war eine Änderung des Auslosungsverfahrens zur Bestimmung der Mitglieder der Signoria. Die Gesamtmenge der Namen auf den Loszetteln, die in die Beutel gelegt wurden, wurde von rund zweitausend auf eine Mindestzahl von 74 reduziert, für den Beutel des "gonfaloniere di giustizia" wurde eine Mindestzahl von vier festgelegt. Damit wurde die Anzahl der Kandidaten überschaubar und die Rolle des Zufalls im Auslosungsprozess stark vermindert. Mit der Füllung der Losbeutel waren traditionell von der Signoria ernannte Männer betraut, die "accoppiatori" genannt wurden. Sie sorgten fortan dafür, dass nur noch Namen von Bewerbern, die Cosimo genehm waren, in die Beutel kamen. So blieb es zwar beim Prinzip des Losentscheids, doch war nun ein wirksamer Filter eingebaut, der überraschende Änderungen der Machtverhältnisse verhinderte. Dieses Verfahren wurde "imborsazione a mano" („Handverlesung“) genannt. Es konnte zwar von Cosimo durchgesetzt werden, war aber in der Bürgerschaft tendenziell unbeliebt, da es offensichtlich manipulativ war und für viele den Zugang zu den prestigereichen Ämtern erschwerte oder verunmöglichte. Immer wieder wurde die Forderung nach Rückkehr zum offenen Losverfahren erhoben. Mit diesem Anliegen konnte man auf harmlose Art Unzufriedenheit mit der Machtfülle des Mediceers ausdrücken. Das Ausmaß des Widerstands gegen die Handverlesung wurde zum Gradmesser für die Unbeliebtheit des Herrschaftssystems. Dies hatte für Cosimo auch Vorteile: Er erhielt dadurch die Möglichkeit, flexibel zu reagieren, wenn sich in der Bürgerschaft Ärger aufstaute oder wenn er den Eindruck hatte, dass eine relativ entspannte Lage ihm Konzessionen gestattete. Je nach der Entwicklung der innen- und außenpolitischen Verhältnisse setzte er reine Handverlesung durch oder ließ freie Auslosung zu. Zeitweilig wurde ein Mischverfahren praktiziert, bei dem die Namen des "gonfaloniere di giustizia" und dreier weiterer Ratsmitglieder aus handverlesenen Beuteln gezogen und die übrigen fünf Mitglieder der Signoria frei ausgelost wurden.
Den vielen Bürgern, die keine Gelegenheit erhielten, Mitglied der Signoria zu werden, bot Cosimos System Gelegenheit, ihren Ehrgeiz dennoch teilweise zu befriedigen. Ansehen verschaffte nicht nur die Ausübung eines Regierungsamts, sondern schon die Anerkennung der Tatsache, dass man als ehrbarer Bürger die persönlichen Voraussetzungen dafür erfüllte. In die Beutel legte man daher auch Loszettel von Personen, gegen die keine persönlichen Einwände bestanden, die aber aus einem äußerlichen Grund nicht in Betracht kamen, etwa weil sie mit einem Amtsinhaber zu nahe verwandt waren oder infolge des Quotensystems ausscheiden mussten, da sie zur falschen Zunft gehörten oder im falschen Bezirk wohnten. Wenn dann ein solcher Zettel gezogen wurde, wurde festgestellt, dass der Betreffende als Ausgeloster „gesehen“ wurde "(veduto)", aber wegen eines formalen gesetzlichen Hindernisses seinen Sitz im Stadtrat nicht einnehmen konnte. Ein "veduto" konnte aus dem Umstand, dass ihm die theoretische Amtsfähigkeit bescheinigt wurde, Prestige ziehen.
Im Lauf der Zeit wurden immer wieder temporäre Gremien mit legislativen und finanzpolitischen Sondervollmachten geschaffen. Die Einrichtung von Kommissionen zur Erledigung besonderer Aufgaben, auch in Notstandslagen, war an sich keine Neuerung und stand mit der republikanischen Verfassung in Einklang. Ein Unterschied zu den früheren Verhältnissen bestand aber darin, dass solche Gremien früher nach einigen Tagen oder wenigen Wochen wieder aufgelöst wurden, während nun ihre Vollmachten für längere Zeiträume erteilt wurden. Damit nahm ihr politisches Gewicht zu, was Cosimos Absicht entsprach; für ihn waren die Kommissionen wichtige Machtinstrumente. Durch diese Entwicklung kam es jedoch zu Reibungen mit den fortbestehenden alten Institutionen, dem Volksrat und dem Gemeinderat. Diese verteidigten ihre herkömmlichen Rechte, waren aber im Machtkampf dadurch benachteiligt, dass ihre Amtsperiode nur vier Monate betrug. Die Abgrenzung der Zuständigkeiten zwischen den ständigen und den temporären Gremien war kompliziert und umkämpft, es ergaben sich Überschneidungen und Kompetenzstreitigkeiten. Dabei war die Steuergesetzgebung ein besonders heikles Feld. Hier war Cosimo darauf angewiesen, den Konsens mit der Führungsschicht der Bürgerschaft zu suchen. Da er keine diktatorische Macht besaß, waren die Gremien keineswegs gleichgeschaltet. Sowohl der Volks- und der Gemeinderat als auch die Kommissionen fassten Beschlüsse gemäß den Interessen und Überzeugungen ihrer Mitglieder, die nicht immer mit Cosimos Wünschen übereinstimmten. Die Räte waren in der Lage, seinen Absichten hinhaltenden Widerstand zu leisten. Die Abstimmungen in den Gremien waren frei, wie die manchmal knappen Mehrheiten zeigen.
Krisenjahre (1455–1458).
Nur einmal geriet Cosimos Regierungssystem in eine ernste Krise. Dies geschah erst im letzten der drei Jahrzehnte, in denen er die Herrschaft ausübte. Als die italienischen Mächte im Februar 1455 einen allgemeinen Frieden schlossen, kam es zu einer außenpolitischen Entspannung, die so weitgehend war, dass das unpopuläre System der Handverlesung nicht mehr mit einem äußeren Notstand begründet werden konnte. In der Öffentlichkeit wurde die Forderung nach Wiedereinführung des offenen Losverfahrens lauter denn je. Cosimo gab nach: Die alte Ordnung trat wieder in Kraft, die Handverlesung wurde verboten, der Volksrat und der Gemeinderat erhielten den früheren Umfang ihrer legislativen und finanzpolitischen Entscheidungsgewalt zurück. Damit wurde die Medici-Herrschaft wieder von Zufällen und von der Gunst der öffentlichen Meinung abhängig. In dieser labilen Lage verschärfte sich ein Problem, das für das Regierungssystem eine ernste Bedrohung darstellte: Die öffentlichen Finanzen waren wegen langjähriger hoher Rüstungsaufwendungen und wiederholter Epidemien so zerrüttet, dass die Erhöhung der direkten Steuer, die von der wohlhabenden Oberschicht zu entrichten war, unumgänglich schien. Dieses Vorhaben stieß aber auf anhaltenden Widerstand, neue Steuergesetze wurden in den Räten blockiert. Im September 1457 entlud sich der Unmut in einer Verschwörung, die auf einen Umsturz abzielte. Das Komplott wurde entdeckt und sein Anführer Piero de’ Ricci hingerichtet.
Die Spannungen nahmen weiter zu, als die Räte schließlich im Januar 1458 ein neues, von Cosimo befürwortetes Steuergesetz billigten, das sich auf die gesamte wohlhabende Schicht auswirkte. Das Gesetz entlastete die Minderbemittelten und erhöhte den Steuerdruck auf die Reichen. Der seit Jahrzehnten unverändert gültige "catasto", das Verzeichnis der steuerpflichtigen Vermögen und Einkommen, sollte auf den aktuellen Stand gebracht werden. Das wurde von denjenigen, deren Besitz seit der letzten Veranlagung stark zugenommen hatte, als harter Schlag empfunden. Infolgedessen schwand im Patriziat die Zustimmung zum herrschenden System. Im April 1458 wurde ein Gesetz eingeführt, das die Schaffung bevollmächtigter Kommissionen stark erschwerte und ihnen die Durchführung eines "squittinio" verbot. Da Kommissionen für Cosimo ein wichtiges Instrument waren, mit dem er seinen Einfluss auf den "squittinio" und damit auf die Kandidaturen ausübte, richtete sich diese Maßnahme gegen ein Hauptelement seines Herrschaftssystems. Das neue Gesetz wurde im Volksrat und im Gemeinderat mit überwältigenden Mehrheiten gebilligt. Cosimos Schwächung war unübersehbar.
Die Lockerung der Medici-Herrschaft seit der Verfassungsreform von 1455 und die allgemeine Verunsicherung angesichts der sozialen Spannungen und fiskalischen Probleme führten zu einer grundsätzlichen Debatte über die Verfassungsordnung. Über das Ausmaß und die Ursachen der Übelstände sowie mögliche Abhilfen wurde offen und kontrovers diskutiert. Eine zentrale Frage war, wie der Personenkreis, der für wichtige Ämter in Betracht kam, festgelegt werden sollte. Cosimo wünschte einen kleinen Kreis potentieller Amtsträger, er erstrebte die Rückkehr zur Handverlesung. Auf der Gegenseite standen Geschlechter, die für Auslosung aus einem großen Kandidatenkreis eintraten, weil sie der Dominanz Cosimos überdrüssig waren und sein Regierungssystem beseitigen wollten. Die Signoria neigte einige Zeit zu einer Kompromisslösung, doch gewannen die Befürworter der Handverlesung zunehmend an Boden. Außerdem plädierten Anhänger der Medici-Herrschaft für die Einführung eines neuen ständigen Gremiums mit sechsmonatiger Amtszeit, das weitreichende Vollmachten erhalten sollte. Begründet wurde dies mit der Notwendigkeit der Effizienzverbesserung. Dieser Vorschlag war jedoch, wie seine Befürworter einräumten, im Volksrat und im Gemeinderat chancenlos. Daher wurde nicht einmal versucht, ihn dort durchzubringen.
Im Sommer 1458 kam es zu einer Verfassungskrise. In der Signoria, die im Juli und August amtierte, dominierte Cosimos Gefolgschaft, die entschlossen war, diese Gelegenheit zur Rückeroberung der Macht zu nutzen. Der Volksrat, in dem Gegner der Medici die Oberhand hatten, wies jedoch die Vorschläge der Signoria hartnäckig zurück. Die Medici-Gruppe versuchte, eine offene Abstimmung im Volksrat durchzusetzen, um Druck auf einzelne Ratsmitglieder ausüben zu können. Damit stieß sie aber auf den energischen Widerstand des Erzbischofs von Florenz, Antonino Pierozzi, der die geheime Abstimmung als Gebot der „natürlichen Vernunft“ bezeichnete und eine andere Verfahrensweise mit Androhung der Exkommunikation verbot.
Da unklar war, welche Seite ab September in der Signoria die Mehrheit haben würde, geriet die Medici-Gruppe unter Zeitdruck. Schließlich berief die Signoria, wie es die Verfassung für schwere Krisen vorsah, eine Volksversammlung "(parlamento)" ein. Eine solche Versammlung konnte verbindliche Beschlüsse fassen und eine Kommission mit Sondervollmachten zur Lösung der Krise einsetzen. Zuletzt war dies 1434 bei Cosimos Rückkehr geschehen, zuvor bei seiner Verbannung. Das "parlamento" von Florenz war in der Theorie als demokratisches Verfassungselement konzipiert; es sollte das Organ sein, das den Volkswillen zum Ausdruck brachte und in Notstandslagen eine Entscheidung herbeiführte, wenn der reguläre Gesetzgebungsprozess blockiert war. In der Praxis pflegte aber die Patriziergruppe, die das "parlamento" einberufen ließ, durch Einschüchterung dafür zu sorgen, dass die Beschlussfassung im gewünschten Sinn erfolgte. So war es auch diesmal. Cosimo, der sich nach außen hin zurückhielt, hatte am 1. August erstmals mit dem mailändischen Gesandten über militärische Unterstützung von außen verhandelt. Er war sich seiner Sache sicher; spätestens am 5. August fiel die Entscheidung, die Volksversammlung für den 11. August einzuberufen, obwohl noch keine Hilfszusage aus Mailand vorlag. Am 10. August ordnete die Signoria das "parlamento" für den folgenden Tag an. Als die Bürger zum Versammlungsort strömten, fanden sie ihn von einheimischen Bewaffneten und mailändischen Söldnern bewacht. Nach einem Augenzeugenbericht verlas ein Notar den Text, der zu genehmigen war, so leise, dass nur wenige in der Menge ihn verstanden und ihre Zustimmung äußerten. Dies wurde aber als ausreichend betrachtet. Die Versammlung billigte alle Vorschläge der Signoria und löste sich dann auf. Damit war die Krise beendet. Der Weg zur Verwirklichung einer Verfassungsreform, die Cosimos Herrschaft zementierte, war frei.
Neue Festigung der Macht (1458–1464).
Die Sieger ergriffen die Maßnahmen, die ihnen zur Sicherung der Macht erforderlich schienen. Mehr als 1500 politisch unzuverlässigen Bürgern wurde die Qualifikation zur Kandidatur für Führungsämter aberkannt. Viele von ihnen verließen die Stadt, in der sie keine Zukunft mehr für sich sahen. Eine Reihe von Verbannungsurteilen sollte der erneuten Entstehung einer organisierten Opposition vorbeugen. Die Befugnisse des Geheimdienstes, der "otto di guardia", wurden vergrößert. Die Beschlüsse zum Umbau der Verfassung wurden teils schon von der Volksversammlung gefasst, teils von der neuen Sonderkommission, die zu diesem Zweck eingesetzt wurde. Der wichtigste Schritt neben der Rückkehr zur Handverlesung war die Schaffung eines ständigen Gremiums, das der Medici-Gruppe als dauerhaftes Herrschaftsinstrument dienen und die temporären Kommissionen der Zeit vor 1455 ablösen sollte. Dies war der „Rat der Hundert“, dessen Amtszeit auf sechs Monate festgelegt wurde. Ihm wurde die Aufgabe übertragen, als erster Rat über die Gesetze, welche die Ämterbesetzung, das Steuerrecht und die Einstellung von Söldnern betrafen, zu beraten und sie dann an den Volksrat und den Gemeinderat weiterzuleiten. Außerdem erhielt er ein Vetorecht bei allen nicht von ihm selbst ausgehenden Gesetzesinitiativen. Somit wurde für jedes neue legislative Vorhaben die Zustimmung aller drei Räte erforderlich, denn die alten Räte behielten das Recht, jede Gesetzgebung zu blockieren. Die Schonung der beiden alten Räte, die Hochburgen der Opposition gewesen waren, lässt erkennen, dass Cosimo beim Ausbau seiner Machtstellung vorsichtig vorging. Damit nahm er auf die Bedürfnisse des republikanisch gesinnten Patriziats Rücksicht. Für die Bestimmung der Mitglieder des Rats der Hundert wurde ein gemischtes Wahl- und Losverfahren mit komplizierten Regeln festgelegt. Qualifiziert sollten nur Bürger sein, deren Namen schon früher bei der Auslosung für die herkömmlichen Führungsämter "(tre maggiori)" gezogen worden waren. Diese Bestimmung sollte gewährleisten, dass nur bewährte Patrizier, deren Haltung bereits hinreichend bekannt war, in das neue Gremium gelangten.
Die Handverlesung für die Signoria wurde 1458 nur als Provisorium für fünf Jahre eingeführt. 1460 wurde das Provisorium nach der Aufdeckung einer Verschwörung um weitere fünf Jahre verlängert. Das lässt erkennen, dass dieses Verfahren weiterhin unbeliebt war und dem Patriziat nur aus besonderem Anlass und mit Befristung akzeptabel schien.
Unzufriedenheit machte sich in Florenz auch in den letzten Lebensjahren Cosimos noch bemerkbar, ernsthaft gefährdet wurde seine Stellung nach 1458 jedoch nicht mehr. In seinen letzten Jahren hielt er sich seltener im Palast der Signoria auf, er lenkte die Politik nun meist von seinem eigenen Palast in der Via Larga aus. Dorthin verlagerte sich das Machtzentrum.
Außenpolitik.
Die Außenpolitik der Republik Florenz war zu Cosimos Zeit von einer Konstellation geprägt, in der neben Florenz die bedeutenden Regionalmächte Mailand, Venedig, Neapel und der Kirchenstaat die Hauptrollen spielten. Von diesen fünf Vormächten der italienischen Staatenwelt, die in der Forschung auch als "Pentarchie" bezeichnet werden, war Florenz die politisch und militärisch schwächste, aber durch das Bankwesen und den Fernhandel wirtschaftlich bedeutend. Zwischen Mailand und Florenz bestand eine traditionelle Feindschaft, die zu den bestimmenden Faktoren des Staatensystems im späten 14. Jahrhundert und in der ersten Hälfte des 15. Jahrhunderts gehörte. Die Florentiner sahen sich vom Expansionsdrang der Mailänder Herzöge aus dem Geschlecht der Visconti bedroht. Die Auseinandersetzung mit den Visconti betrachteten sie nicht als bloßen Konflikt zwischen zwei Staaten, sondern auch als Kampf zwischen ihrer republikanischen Freiheit und tyrannischer Gewaltherrschaft. Im Zeitraum 1390–1402 führte Florenz drei Abwehrkriege gegen Herzog Giangaleazzo Visconti, der Mailand zur Hegemonialmacht Italiens machen wollte und seinen Machtbereich nach Mittelitalien ausdehnte. Mailand war nicht nur militärisch überlegen, sondern hatte auch die Unterstützung der kleineren Städte der Toskana, die sich gegen die Unterwerfung unter florentinische Herrschaft wehrten. Florenz war auf sehr kostspielige Söldnertruppen angewiesen und litt daher unter den hohen Kriegskosten. Der dritte Krieg gegen Giangaleazzo verlief für die Florentiner ungünstig; am Ende standen sie 1402 ohne Verbündete da und mussten mit einer Belagerung rechnen. Nur der plötzliche Tod des Herzogs im Sommer 1402 rettete sie vor der existenziellen Gefahr.
Im Jahr 1424 führte die Expansionspolitik des Herzogs Filippo Maria Visconti zu einem neuen Krieg zwischen den beiden Städten, der bis 1428 dauerte. In diesem Kampf gegen Mailand war Florenz mit Venedig verbündet. Danach versuchten die Florentiner von Dezember 1429 bis April 1433 vergeblich, die toskanische Stadt Lucca militärisch zu unterwerfen. Lucca war theoretisch mit Florenz verbündet, stand aber faktisch auf der Seite Mailands. Cosimo, der die Aussichten auf einen Sieg über Lucca schon 1430 skeptisch beurteilt hatte, war im April 1433 maßgeblich an den Friedensverhandlungen beteiligt, die zur Beendigung der Feindseligkeiten führten.
Der Krieg gegen Lucca war für die Republik Florenz ein finanzielles Desaster, während die Medici-Bank als Kreditgeber des Staates davon profitierte. Daher gehörte zu den Anschuldigungen, die nach Cosimos Verhaftung 1433 gegen ihn erhoben wurden, auch die Behauptung, er habe den Krieg angezettelt und dann durch politische Intrigen unnötig verlängert, um daraus den größtmöglichen Profit zu schlagen. Die Glaubwürdigkeit der detaillierten Vorwürfe ist aus heutiger Sicht schwer zu beurteilen; auf jeden Fall ist mit polemischer Verzerrung zu rechnen. Unzweifelhaft ist, dass Cosimos Rivale Rinaldo degli Albizzi zu den profiliertesten Befürwortern des Krieges zählte. Nach dem Fehlschlag spielte die Schuldfrage in den innenpolitischen Machtkämpfen der Florentiner Patriziergeschlechter offenbar eine wichtige Rolle.
Das politische Gewicht der Medici zeigte sich in den Verhandlungen, die 1438 über die Verlagerung des in Ferrara tagenden Konzils nach Florenz geführt wurden. Cosimo hielt sich damals als Gesandter der Republik Florenz monatelang in Ferrara auf und verhandelte mit Papst Eugen IV. und dessen Mitarbeitern. Auch sein Bruder Lorenzo gehörte zu den maßgeblichen Akteuren. Die Florentiner erhofften sich von den guten Beziehungen der Medici zur Kurie eine wirksame Unterstützung ihres Anliegens. Tatsächlich kam eine Vereinbarung über den Umzug nach Florenz zustande, die einen bedeutenden Erfolg der florentinischen Diplomatie darstellte.
Auch nachdem Cosimo den innenpolitischen Machtkampf 1434 gewonnen hatte, blieb die Auseinandersetzung mit Filippo Maria Visconti eine zentrale Herausforderung für die auswärtige Politik der Republik Florenz. Der Konflikt wurde wiederum militärisch ausgetragen. Verbannte Florentiner Gegner der Medici, darunter Rinaldo degli Albizzi, hatten sich nach Mailand begeben; sie hofften, Filippo Maria werde ihnen die Heimkehr mit Waffengewalt ermöglichen. Florenz war mit Papst Eugen IV. und Venedig verbündet. In der Schlacht von Anghiari besiegten im Jahr 1440 Truppen dieser Koalition das mailändische Heer. Damit war der Versuch der exilierten Feinde Cosimos, ihn mit ausländischer Hilfe zu stürzen, endgültig gescheitert. Im folgenden Jahr wurde ein für Florenz vorteilhafter Friedensvertrag geschlossen, der zur Festigung von Cosimos Herrschaft beitrug. Die Feindschaft zwischen Mailand und Florenz dauerte aber an, bis Filippo Maria 1447 ohne männlichen Erben starb und damit die Dynastie der Visconti erlosch.
Cosimo betrachtete das Bündnis mit Venedig und den Kampf gegen Mailand nicht als naturgegebene, zwangsläufige Konstellation, sondern nur als Folge der unvermeidlichen Konfrontation mit dem Geschlecht der Visconti. Sein langfristiges Ziel war eine Allianz mit Mailand, die der bedrohlichen Ausweitung des venezianischen Machtbereichs auf dem Festland entgegentreten sollte. Dies setzte einen Dynastiewechsel in Mailand voraus. Nach dem Tod Filippo Marias drohte dort ein Machtvakuum. Als Folge war aus Cosimos Sicht die Auflösung des Herrschaftsbereichs der erloschenen Familie Visconti und damit eine Hegemonie Venedigs in Norditalien zu befürchten. Daher war es ein zentrales Anliegen des Florentiner Staatsmanns, dass in Mailand ein neues, ihm freundlich gesinntes Geschlecht von Herzögen an die Macht kam. Sein Kandidat war der Condottiere Francesco Sforza, der mit Filippo Marias unehelicher Tochter und Erbin Bianca Maria verheiratet war. Sforzas Ehrgeiz, die Nachfolge des letzten Visconti anzutreten, war seit langem bekannt.
Diese Konstellation hatte eine bewegte Vorgeschichte. Ab 1425 stand Sforza im Dienst Filippo Marias, der ihn zu seinem Schwiegersohn machen wollte, um ihn an sich zu binden. Im Jahr 1430 trug er zur Rettung Luccas vor einem Angriff der Florentiner bei. Im März 1434 ließ er sich aber von Eugen IV. für die Gegenseite, die Allianz der Visconti-Gegner, anwerben. Darauf belagerte er 1437 Lucca, das die Florentiner weiterhin unterwerfen wollten. Dies hinderte ihn aber nicht daran, erneut mit Filippo Maria über die geplante Ehe mit dessen Erbin zu verhandeln. Schließlich kam im März 1438 eine Einigung zustande: Die Heirat wurde beschlossen und die Mitgift festgelegt. Sforza durfte im Dienst der Florentiner bleiben, verpflichtete sich aber, nicht gegen Mailand zu kämpfen. Florenz und Mailand schlossen einen Waffenstillstand. Doch schon im Februar 1439 vollzog Sforza einen neuen Wechsel: Er nahm den Vorschlag der Florentiner und Venezianer an, das Kommando der Truppen der antimailändischen Liga zu übernehmen. Als Filippo Maria nach verlustreichen Kämpfen in eine schwierige Lage geraten war, sah er sich 1441 gezwungen, der Heirat endgültig zuzustimmen. Sforza musste dieses Zugeständnis des Herzogs, das ihn zu dessen präsumptivem Nachfolger machte, nicht mit einem neuen Allianzwechsel erkaufen; er blieb auch nach der Hochzeit Befehlshaber der Streitkräfte der Liga. Sein Verhältnis zu seinem Schwiegervater schwankte in der Folgezeit weiterhin zwischen Bündnis und militärischer Konfrontation.
In dieser Zeit schnell wechselnder Verbindungen entstand zwischen Francesco Sforza und Cosimo de’ Medici eine dauerhafte Freundschaft. Die beiden Männer schlossen ein persönliches Bündnis als Grundlage für eine künftige florentinisch-mailändische Allianz nach dem geplanten Machtwechsel in Mailand. Die Medici-Bank half dem Condottiere mit umfangreicher Kreditgewährung; als er 1466 starb, schuldete er ihr mehr als 115.000 Dukaten. Überdies stellte ihm die Republik Florenz auf Veranlassung Cosimos beträchtliche finanzielle Mittel zur Verfügung. Dieser Kurs war allerdings bei den Florentiner Patriziern – auch in Cosimos Anhängerschaft – umstritten. Es gab beträchtliche Vorbehalte gegen Sforza, die von der republikanischen Abneigung gegen Alleinherrscher genährt wurden. Außerdem entfremdete Cosimos Strategie ihm den Papst, der mit Sforza in einem Territorialstreit lag und sich daher gegen den Condottiere mit Filippo Maria verbündete. Eugen IV. wurde zu einem Gegner Cosimos, mit dem er zuvor erfolgreich zusammengearbeitet hatte. Ab 1443 residierte er nicht mehr in Florenz, wohin er 1434 geflohen war, sondern wieder in Rom. Seine neue Haltung zeigte sich sogleich darin, dass er dem Leiter der römischen Filiale der Medici-Bank das einträgliche Amt des päpstlichen Generaldepositars entzog. Als der Erzbischof von Florenz starb, ernannte Eugen den Dominikaner Antonino Pierozzi, der Cosimo sehr distanziert gegenüberstand, zum Nachfolger. Der Mediceer seinerseits unterstützte offen einen erfolglosen Versuch Sforzas, sich Roms zu bemächtigen. Nach dem Tod Eugens, der 1447 starb, gelang es Cosimo jedoch, zum Nachfolger Nikolaus V. ein gutes Verhältnis aufzubauen. Sein Vertrauensmann in Rom, Roberto Martelli, wurde wieder Generaldepositar.
In Mailand setzten sich nach Filippo Marias Tod zunächst republikanische Kräfte durch, doch gelang es Sforza im Jahr 1450, dort die Macht zu übernehmen. Nun konnte das von Cosimo gewünschte mailändisch-florentinische Bündnis verwirklicht werden, das eine tiefgreifende Änderung der politischen Verhältnisse bewirkte. Es wurde zu einer „Hauptachse der italienischen Politik“ und erwies sich damit als bedeutender außenpolitischer Erfolg des Florentiner Staatsmanns. Allerdings führte es zum Bruch der traditionellen Allianz der Republiken Florenz und Venedig. Die Venezianer, die gehofft hatten, vom Untergang der Visconti zu profitieren, waren die Verlierer der neuen Konstellation. Im Juni 1451 verbannte Venedig die florentinischen Kaufleute aus seinem Territorium. Im folgenden Jahr begann der Krieg zwischen Venedig und Mailand, Florenz blieb diesmal verschont. Die Feindseligkeiten endeten im April 1454 mit dem Frieden von Lodi, in dem Venedig Sforza als Herzog von Mailand anerkannte.
Es folgte die Gründung der Lega italica, eines Pakts, dem alle fünf Regionalmächte beitraten. Diese Vereinbarung garantierte den Besitzstand der Staaten und schuf ein stabiles Gleichgewicht der Mächte. Außerdem richtete sie sich implizit gegen Frankreich; die Vertragsmächte wollten einem militärischen Eingreifen der Franzosen auf italienischem Boden vorbeugen. Dieses insbesondere von Sforza angestrebte Ziel akzeptierte Cosimo nur zögernd. Er wollte zwar auch französische Truppen von Italien fernhalten, glaubte aber, dass Venedig für Florenz die größere Gefahr sei und daher die Option eines Bündnisses mit Frankreich erhalten bleiben solle. Schließlich schloss er sich aber Sforzas Auffassung an. Dank der Stabilität, die von der Lega italica ausging, wurde Cosimos letztes Lebensjahrzehnt zu einer Friedenszeit. Als sein Sohn Piero 1461 das Amt des "gonfaloniere di giustizia" antrat, konnte er erklären, der Staat befinde sich in einem Zustand des Friedens und des Glücks, „dessen weder die Bürger von heute noch ihre Vorfahren Zeugen waren oder sich erinnern konnten“.
Kulturelle Aktivität.
Als Staatsmann und Bürger begnügte sich Cosimo bewusst mit einem niedrigen Profil und kultivierte seine Bescheidenheit, um möglichst wenig Neid und Verdacht zu erregen. Er vermied ein prunkvolles, herrscherähnliches Auftreten und achtete darauf, mit seinem Lebensstil die anderen angesehenen Bürger nicht zu übertreffen. Als Mäzen hingegen stellte er sich gezielt in den Vordergrund. Er nutzte seine Bautätigkeit und seine Stellung als Auftraggeber von Künstlern, um sich in Szene zu setzen und sein Ansehen und den Ruhm seiner Familie zu mehren.
Religiöse Motivation.
Seine Spenden für den Bau und die Ausstattung sakraler Gebäude betrachtete Cosimo als Investitionen, die ihm Gottes Gnade verschaffen sollten. Er fasste sein Verhältnis zu Gott als Abhängigkeitsbeziehung im Sinne des Klientelismus auf: Ein Klient empfängt von seinem Patron Wohltaten und zeigt sich dafür durch Loyalität und tätige Dankbarkeit erkenntlich. Gegenüber seiner Anhängerschaft trat Cosimo als gütiger Patron auf, gegenüber Gott sah er sich als Klient. Wie sein Biograph Vespasiano da Bisticci berichtet, antwortete er auf die Frage nach dem Grund seiner großen Freigebigkeit und Fürsorge gegenüber Mönchen, er habe von Gott so viel Gnade empfangen, dass er nun sein Schuldner sei. Niemals habe er Gott einen Grosso (eine Silbermünze) gegeben, ohne von ihm dafür bei diesem „Tauschhandel“ "(iscambio)" einen Florin (eine Goldmünze) zu bekommen. Außerdem war Cosimo der Meinung, er habe mit seinem Geschäftsgebaren gegen ein göttliches Gebot verstoßen. Er befürchtete, Gott werde ihm zur Strafe seine Besitztümer wegnehmen. Um dieser Gefahr vorzubeugen und sich weiterhin das göttliche Wohlwollen zu sichern, bat er Papst Eugen IV. um Rat. Der Papst befand, eine Spende von 10.000 Florin für einen Klosterbau sei zur Bereinigung der Angelegenheit ausreichend. So wurde dann verfahren. Als der Bau vollendet war, bestätigte der Papst mit einer Bulle den Ablass, der dem Bankier für die Spende gewährt wurde.
Humanismus.
Cosimo lebte in der Blütezeit des Renaissance-Humanismus, dessen bedeutendstes Zentrum seine Heimatstadt Florenz war. Das Ziel des humanistischen Bildungsprogramms, die Befähigung des Menschen zu einer optimalen Lebensführung und staatsbürgerlichen Pflichterfüllung durch Verbindung von Wissen und Tugend, fand damals im Florentiner Patriziat viel Anklang. Den Weg zur Verwirklichung des humanistischen Tüchtigkeitsideals sah man in der Aneignung antiker Bildungsgüter, die zur Nachahmung klassischer Vorbilder anspornen sollte. Cosimos Vater hatte sich dieser Auffassung angeschlossen; er ließ seinem Sohn eine humanistische Erziehung zukommen. Wie viele seiner gebildeten Mitbürger öffnete sich Cosimo der Gedankenwelt und den Wertvorstellungen der Humanisten. Er schätzte den Umgang mit ihnen, erwies ihnen Wohltaten und erhielt dafür seinerseits viel Anerkennung. Sein Leben lang zeigte er großes Interesse an Philosophie – insbesondere Ethik – und literarischen Werken. Dank seiner guten Schulbildung konnte er lateinische Texte lesen; seine eigenhändigen Vermerke in seinen Codices bezeugen, dass er Bücher nicht nur sammelte, sondern auch las. Wahrscheinlich war er aber nicht imstande, sich in gutem Latein auszudrücken.
Cosimos Wertschätzung für die Humanisten hing auch mit dem Umstand zusammen, dass sein gesellschaftlicher Status als erfolgreicher Bankier, Mäzen und republikanischer Staatsmann mit ihren moralischen Werten sehr gut vereinbar war. Bei seinen humanistischen Freunden konnte er mit vorbehaltloser Anerkennung rechnen, denn sie hatten ein unbefangenes Verhältnis zum Reichtum und verherrlichten seine Freigebigkeit. Großzügigkeit galt im humanistischen Milieu als eine der wertvollsten Tugenden. Dabei konnte man sich auf Aristoteles berufen, der in seiner "Nikomachischen Ethik" die Großzügigkeit oder Hochherzigkeit gepriesen und Reichtum als deren Voraussetzung bezeichnet hatte. Diese humanistische Haltung stand im Gegensatz zur Gesinnung konservativer Kreise, die das Bankwesen verdammten und Reichtum für moralisch suspekt hielten, wobei sie sich auf traditionelle christliche Wertvorstellungen beriefen. Außerdem widersprach die egalitäre Tendenz des Renaissance-Humanismus der mittelalterlichen Neigung, politische Führungspositionen denen vorzubehalten, die sich durch vornehme Abstammung auszeichneten. An die Stelle der herkömmlichen starren sozialen Ordnung, die Cosimos politische Gegner in der Albizzi-Gruppe bevorzugten, trat bei den Humanisten ein Konzept, das soziale Mobilität förderte; humanistische Bildung und persönliche Tüchtigkeit sollten als Qualifikationskriterien für die Staatslenkung ausreichen. Diese Einstellung kam Cosimo, dessen Familie zu den Aufsteigern "(gente nuova)" zählte und manchen alteingesessenen Geschlechtern suspekt war, zugute.
Besonders großzügig förderte Cosimo den humanistischen Philosophen Marsilio Ficino, dessen Vater Diotifeci d’Agnolo di Giusto sein Leibarzt war. Als väterlicher Freund verschaffte er Ficino die materielle Basis für ein ganz der Wissenschaft gewidmetes Leben. Er schenkte ihm ein Haus in Florenz und ein Landhaus in Careggi, wo er selbst eine prächtige Villa besaß. Ficino war ein begeisterter Platoniker und Bewunderer seines Gönners. Er schrieb in einem Brief an dessen Enkel Lorenzo, Platon habe ihm die platonische Idee der Tugenden einmal vor Augen gestellt, Cosimo habe sie jeden Tag in die Tat umgesetzt; daher habe er seinem Wohltäter nicht weniger zu verdanken als dem antiken Denker. Mehr als zwölf Jahre habe er glücklich mit ihm philosophiert. Im Auftrag Cosimos fertigte Ficino die erste lateinische Gesamtübersetzung der Werke Platons an, womit er maßgeblich zur Verbreitung platonischen Gedankenguts beitrug. Daraus lässt sich allerdings nicht folgern, dass Cosimo ebenso wie Ficino den Platonismus anderen philosophischen Schulrichtungen vorzog. Das Ausmaß seiner Hinwendung zum Platonismus wurde früher überschätzt; er scheint eher zum Aristotelismus geneigt zu haben. Bis gegen Ende des 20. Jahrhunderts glaubte man, Cosimo habe eine Platonische Akademie gegründet und deren Leitung Ficino übertragen. Diese Annahme ist jedoch von der neueren Forschung als falsch erwiesen worden. Es handelte sich nicht um eine Institution, sondern nur um einen informellen Kreis von Schülern Ficinos.
Auch zwei weitere namhafte Humanisten, Poggio Bracciolini und Johannes Argyropulos, beschenkte Cosimo mit Häusern. Hilfreich waren für seine humanistischen Freunde nicht nur seine Zuwendungen aus eigenen Mitteln; sie profitierten auch von seinem großen Einfluss im In- und Ausland, den er nutzte, um ihnen Gehör und Anstellungen zu verschaffen. Er sorgte dafür, dass zwei Humanisten, die er schätzte, Carlo Marsuppini und Poggio Bracciolini, das prestigereiche Amt des Kanzlers der Republik Florenz erhielten. Eng befreundet war Cosimo mit dem Geschichtsschreiber und späteren Kanzler Bartolomeo Scala und mit dem humanistisch gesinnten Mönch Ambrogio Traversari, einem angesehenen Altertumswissenschaftler. Ihn bewog er dazu, das Werk des antiken Philosophiehistorikers Diogenes Laertios über Leben und Lehren der Philosophen aus dem Griechischen ins Lateinische zu übersetzen und damit einer breiteren Öffentlichkeit zugänglich zu machen. Traversaris Kloster Santa Maria degli Angeli war der Treffpunkt einer Gruppe von Gelehrten, in deren Kreis Cosimo verkehrte. Unter ihnen war Niccolò Niccoli, ein eifriger Sammler von Handschriften antiker Werke, dem Cosimo Bücher und Geld schenkte. Poggio Bracciolini und Niccolò Niccoli betätigten sich im Konflikt mit der Albizzi-Gruppe als eifrige Anhänger des Mediceers.
Zeitweilig problematisch war Cosimos Verhältnis zu Leonardo Bruni, einem einflussreichen humanistischen Politiker und Staatstheoretiker, der sich als maßgeblicher Wortführer des florentinischen Republikanismus profilierte. Cosimo verschaffte Bruni, der aus Arezzo stammte und in Florenz eine neue Heimat gefunden hatte, 1416 das florentinische Bürgerrecht, und 1427 wurde der Humanist mit Billigung der Medici-Gruppe Staatskanzler. Dennoch pflegte Bruni auch Beziehungen zur Albizzi-Gruppe und vermied es, im Machtkampf von 1433–1434 für Cosimo Partei zu ergreifen. Trotz dieses Mangels an Loyalität zu den Medici durfte er nach 1434 das Amt des Kanzlers bis zu seinem Tod behalten und wichtigen Gremien angehören. Offenbar hielt es Cosimo für unzweckmäßig, diesen namhaften Theoretiker des republikanischen Staatskonzepts zu verärgern.
Die hohen Erwartungen, die Cosimos Wohlwollen bei den Humanisten weckte, zeigen sich darin, dass sie ihm mehr als vierzig Schriften widmeten. Dabei handelte es sich teils um Werke, die sie selbst verfasst hatten, teils um Übersetzungen. Die weite Verbreitung humanistischer Schriften, deren Widmungstexte Cosimo lobten, trug seinen Ruhm in alle Bildungsstätten West- und Mitteleuropas. Seine Bewunderer idealisierten und verherrlichten ihn auch in zahlreichen Gedichten, Briefen und Reden; sie verglichen ihn mit berühmten Staatsmännern der Antike. Erkennbar ist dabei – verstärkt in seinen letzten Lebensjahren – die Bemühung dieser Autoren, der Familie Medici dynastische Züge zu verleihen. Schon nach Cosimos Rückkehr aus dem Exil im Jahr 1434 feierten ihn seine Anhänger als "Pater patriae" („Vater des Vaterlandes“).
Einhellig war das Lob, das Cosimo zu seinen Lebzeiten bei den Humanisten fand, allerdings nicht. Einen erbitterten Gegner hatte er in dem namhaften humanistischen Gelehrten Francesco Filelfo. Dieser war 1429 mit Billigung Cosimos als Universitätslehrer nach Florenz geholt worden, überwarf sich dann aber mit dem Mediceer und nahm dezidiert für die Albizzi-Gruppe Partei. Die Medici-Gruppe versuchte seine Entlassung zu erwirken, konnte ihn aber nur vorübergehend aus der Universität vertreiben. Als 1433 ein Anschlag auf ihn verübt wurde, bei dem er eine Verletzung erlitt, verdächtigte er Cosimo, hinter dem Attentat zu stecken. Während Cosimos Exil 1433–1434 schrieb Filelfo eine heftige Satire gegen die Medici. Nach dem Umsturz von 1434, der zu Cosimos Rückkehr führte, verließ er Florenz, um der drohenden Rache der Sieger zu entgehen. In der Folgezeit bekämpfte er die Medici aus der Ferne. Im Herbst 1436 schloss er sich einer Gruppe an, die vergeblich versuchte, Cosimo von einem gedungenen Mörder umbringen zu lassen. Auf Filelfos literarische Angriffe reagierten Cosimos humanistische Verteidiger mit Entgegnungen.
Ein wichtiges Betätigungsfeld für Cosimos Mäzenatentum auf dem Gebiet der Bildungsförderung war das Bibliothekswesen. Er gründete mehrere klösterliche Bibliotheken. Die bedeutendste von ihnen befand sich im Florentiner Dominikanerkonvent San Marco. Sie war – anders als früher üblich – der Öffentlichkeit zugänglich.
Bildende Kunst.
Noch stärker als im literarischen Bereich engagierte sich Cosimo auf dem Gebiet der bildenden Kunst. Er ließ auf eigene Kosten Kirchen und Klöster erbauen und künstlerisch ausstatten. Damit betätigte er sich, obwohl er formal nur ein einfacher Bürger war, auf einem Gebiet, das traditionell weltlichen und geistlichen Machthabern vorbehalten war. Im 14. und frühen 15. Jahrhundert wäre eine ganz aus privater Initiative entfaltete Bautätigkeit solchen Umfangs in Florenz noch undenkbar gewesen. Erst der gesellschaftliche Wandel, der mit der fortschreitenden Entfaltung des Humanismus zusammenhing, machte derartige Vorhaben möglich. Eine humanistisch geprägte Mentalität zeigte sich auch im Willen zur Selbstdarstellung. Cosimo legte Wert darauf, dass seine Funktion als Auftraggeber sichtbaren Ausdruck fand. So ließ er an einer Kirche in Jerusalem, die mit seinen Mitteln restauriert wurde, sein Wappen anbringen, das fortan den Pilgern, die ins Heilige Land zogen und die Kirche aufsuchten, ins Auge fiel. Auch in Florenz weisen die von ihm gestifteten Bauten überall das Familienwappen der Medici auf. Nicht nur an Fassaden und Portalen, sondern auch an Kapitellen, Konsolen, Schluss-Steinen und Friesen ließ er es anbringen. Zwar waren Familienwappen in Kirchen damals in Florenz üblich, doch die Häufigkeit, mit der Cosimo das seinige überall ins Blickfeld der Öffentlichkeit rückte, war einzigartig und fiel auf.
Auch Wandgemälde mit biblischen Szenen, die im Auftrag der Medici gemalt wurden, dienten Cosimos Selbstdarstellung. Auf einem Fresko im Kloster San Marco erhielt einer der Heiligen Drei Könige die idealisierten Gesichtszüge des Mediceers. Er trägt Instrumente zur Erforschung der Gestirne. Auch auf einem um 1459 entstandenen Fresko der Heiligen Drei Könige an der Ostwand der Kapelle des Medici-Palastes befindet sich ein Porträt Cosimos. Dort ist er mit seinen Söhnen Piero und Giovanni und den Enkeln Lorenzo – später als Lorenzo il Magnifico bekannt – und Giuliano abgebildet. Im Grünen Kreuzgang von Santa Maria Novella ist Cosimo auf einer Lünette mit einer Szene aus der Sintfluterzählung zu sehen; anscheinend erscheint er dort als Personifikation der Weisheit. Für dieses Werk von Paolo Uccello war er wohl nicht selbst der Auftraggeber.
Ab 1437 entstand der Neubau des Klosters San Marco, das der Papst 1436 den Dominikaner-Observanten, einem Zweig des Dominikanerordens, übertragen hatte. Die bisherigen Klostergebäude wurden durch Neubauten ersetzt, von der Kirche wurde nur der Chor erneuert. Die Weihe der Kirche fand 1443 in Anwesenheit des Papstes statt, die Konventsgebäude wurden erst 1452 komplett fertiggestellt. Ursprünglich hatte Cosimo dafür mit Kosten von 10.000 Florin gerechnet, schließlich musste er insgesamt über 40.000 ausgeben. Für den Neubau der Basilica di San Lorenzo, einer bedeutenden Kirche, stellte er über 40.000 Florin bereit. An der Finanzierung dieses Großprojekts hatte sich schon sein Vater beteiligt. Im Mugello nördlich von Florenz, der Gegend, aus der die Medici ursprünglich stammten, förderte er den Bau des Franziskanerklosters San Francesco al Bosco (Bosco ai Frati). Bei der Franziskanerkirche Santa Croce ließ er einen Trakt für die Novizen bauen. Unter den weiteren kirchlichen Bauvorhaben, die er finanzierte, war das bedeutendste die Badia di Fiesole, das Kloster der Augustiner-Eremiten unterhalb von Fiesole. Dort ließ Cosimo ab 1456 das gesamte Klostergebäude einschließlich der Kirche neu errichten und mit einer Bibliothek ausstatten. Die Bauarbeiten waren bei seinem Tod noch nicht abgeschlossen.
Außer den Sakralbauten ließ Cosimo auch ein imposantes privates Gebäude errichten, den neuen Medici-Palast. Zuvor wohnte er in einem vergleichsweise bescheidenen älteren Palast, der Casa Vecchia. Erst 1445/1446, nachdem er bereits mit Kirchen- und Klosterbauten seine Großzügigkeit im Dienst des Gemeinwesens unter Beweis gestellt hatte, begann er mit dem aufwendigen Neubau des Familienpalastes an der damaligen Via Larga, der heutigen Via Cavour. In erster Linie ging es ihm dabei nicht um seinen eigenen Wohnkomfort, sondern um das Ansehen der Familie. Damit folgte er einer damals herrschenden sozialen Norm; die Wahrung und Mehrung des Ruhms der Familie war generell für Angehörige der Oberschicht eine zentrale Aufgabe. Der neue "palazzo" der Medici übertraf alle älteren Familienpaläste in Florenz an Größe und Ausstattung. Seine außergewöhnliche architektonische Qualität setzte einen neuen Maßstab für den Palastbau der Renaissance. Die Kapelle wurde von Benozzo Gozzoli mit Fresken geschmückt. An der Ausstattung des Palastes mit kostbaren Bildern waren auch die damals sehr geschätzten Maler Fra Angelico, Domenico Veneziano und Filippo Lippi beteiligt. Es wurde eine Umgebung geschaffen, in der prominente auswärtige Gäste repräsentativ empfangen werden konnten. Papst Pius II. meinte, dieses Bauwerk sei eines Königs würdig. Nach seinem Eindruck verfügte Cosimo über einen Reichtum, der vielleicht den des sprichwörtlichen Königs Krösus übertraf. Die Schätzungen der Baukosten schwanken zwischen 60.000 und 100.000 Florin.
Das Staunen der Zeitgenossen spiegelt sich in den Worten des Architekten und Architekturtheoretikers Filarete, der sich in seinem 1464 vollendeten "Trattato di architettura" äußerte. Filarete hob besonders die Würde "(dignitade)" der neuen Gebäude hervor. Er verglich Cosimo mit bedeutenden antiken Bauherren wie Marcus Vipsanius Agrippa und Lucius Licinius Lucullus. Diese seien allerdings keine bloßen Privatleute gewesen, sondern hätten große Provinzen regiert und seien dadurch zu ihrem Reichtum gekommen. Cosimo hingegen sei ein einfacher Bürger, der sein Vermögen durch seine unternehmerische Tatkraft erworben habe. Daher sei seine Leistung als Bauherr einzigartig.
Cosimos Neubauten veränderten das zuvor ganz vom Mittelalter geprägte Stadtbild. Sie trugen maßgeblich zur Einführung eines neuen Architekturtyps bei, mit dem Florenz zu einem Muster für ganz Italien wurde. Der neue Stil verband Zweckmäßigkeit mit antiker Proportionalität und antikisierendem Schmuck. Diese Stilrichtung hatte schon Filippo Brunelleschi, ein führender Architekt der Frührenaissance, eingeführt. Er hatte 1420 den Neubau von San Lorenzo begonnen und wurde dann 1442 von Cosimo beauftragt, das Werk zu vollenden. Ansonsten zog der Mediceer aber einen anderen Architekten, Michelozzo, vor, dessen Entwürfe weniger grandios waren als die Brunelleschis. Ob der Medici-Palast von Brunelleschi oder von Michelozzo entworfen wurde, ist in der Forschung umstritten; vermutlich waren beide beteiligt. In den lobenden Beschreibungen von Zeitgenossen wurden an Cosimos Bauten vor allem die Ordnung, die Würde, die Weite, die Schönheit der Proportionen und des architektonischen Schmucks und die Helligkeit hervorgehoben. Anerkennung fand ferner die leichte Begehbarkeit der Treppen. Sie stellte eine Neuerung dar, denn mittelalterliche Treppen waren gewöhnlich eng und steil. Die breiten Treppen mit niedrigen Stufen wurden sehr geschätzt, da sie ein bequemes und zugleich würdevolles Treppensteigen ermöglichten.
Die aufwendige Bautätigkeit des Mediceers, die an Umfang diejenige jedes anderen Privatmanns im 15. Jahrhundert übertraf, wurde von den Bürgern nicht nur wohlwollend und dankbar aufgenommen. Es wurde auch Kritik an der damit verbundenen Selbstdarstellung des reichsten Bürgers der Stadt laut. Die unterschiedlichen Ansichten und Bewertungen der Zeitgenossen sind aus einer Verteidigungsschrift ersichtlich, die der Theologe und Humanist Timoteo Maffei kurz vor 1456 zur Rechtfertigung des angegriffenen Mäzens verfasste. Maffei wählte für seine Darstellung die Form eines Dialogs, in dem er als Fürsprecher Cosimos einen Kritiker "(detractor)" widerlegt und schließlich überzeugt. Auf den Vorwurf, der Medici-Palast sei zu luxuriös, erwidert er, Cosimo habe sich dabei nicht nach dem gerichtet, was für ihn persönlich angemessen sei, sondern nach dem, was für eine so bedeutende Stadt wie Florenz passend sei. Da er von der Stadt weit größere Wohltaten empfangen habe als die anderen Bürger, habe er sich genötigt gesehen, sie entsprechend üppiger zu schmücken als jeder andere, um sich nicht als undankbar zu erweisen. Zur Entkräftung der Kritik an dem überall angebrachten Medici-Wappen bringt Maffei vor, der Zweck des Wappenzeichens bestehe darin, auf ein Vorbild aufmerksam zu machen, das zur Nachahmung anspornen solle.
Auch der Bildhauer Donatello arbeitete für Cosimo oder vielleicht für dessen Sohn Piero. Im Auftrag der Medici schuf er zwei berühmte Bronzeskulpturen, den David und die Judith. Beide Werke hatten einen politischen Hintergrund; die dargestellten biblischen Gestalten versinnbildlichten den Sieg über einen scheinbar übermächtigen Feind. Es ging um Ermutigung zur Verteidigung der Freiheit des Vaterlandes und der republikanischen Verfassung gegen Gefährdungen von außen.
Privatleben.
Als Privatmann war Cosimo für seine Bescheidenheit und seinen Grundsatz des Maßhaltens bekannt. Seinen Palast und seine Villen gestaltete er zwar repräsentativ, doch achtete er darauf, in seiner Lebensführung unnötigen Aufwand, der Anstoß erregen konnte, zu vermeiden. So begnügte er sich mit einfachen Speisen und trug keine prächtige Kleidung. Dazu passte seine Betätigung in der Landwirtschaft, in der er sich gut auskannte. Auf seinen Besitzungen außerhalb der Stadt leistete er Landarbeit, er pfropfte Bäume und beschnitt Weinstöcke. Im Umgang mit den Bauern demonstrierte er Volksnähe; er fragte sie gern, wenn sie nach Florenz auf den Markt kamen, nach ihren Früchten und deren Herkunft.
Der Buchhändler Vespasiano da Bisticci verfasste eine verherrlichende Biographie Cosimos, mit dem er befreundet war. Darin trug er unter anderem Anekdoten aus dem Privatleben zusammen, für deren Authentizität er sich verbürgte. Er schilderte seinen Freund als Menschen von ernsthafter Wesensart, der sich mit gelehrten, würdevollen Männern umgeben habe. Er habe über ein vorzügliches Gedächtnis verfügt, sei ein geduldiger Zuhörer gewesen und habe niemals schlecht über jemanden geredet. Dank seiner umfassenden Kenntnis unterschiedlicher Wissensgebiete habe er mit jedem ein Thema gefunden. Er sei überaus freundlich und bescheiden gewesen, habe darauf geachtet, niemanden zu beleidigen, und nur wenige hätten ihn je erregt gesehen. Alle seine Antworten seien „mit Salz gewürzt“ gewesen.
Cosimo war für seine humorvollen und geistreichen, teils rätselhaften Bemerkungen bekannt, die im 15. und 16. Jahrhundert in einer Reihe von Anekdoten verbreitet wurden.
Krankheit, Tod und Nachfolge.
Cosimo litt an der Gicht. Die Anfälligkeit für diese Krankheit war in seiner Familie erblich. Ab 1455 scheint das Leiden ihn erheblich behindert zu haben. Er starb am 1. August 1464 in seiner Villa in Careggi und wurde am folgenden Tag in San Lorenzo beigesetzt. Pompöse Begräbnisfeierlichkeiten hatte er untersagt. Ein Testament hinterließ er nicht. Für die Gestaltung des Grabmals setzte die Signoria eigens eine zehnköpfige Kommission ein. Andrea del Verrocchio gestaltete die Grabplatte, für die ein zentraler Ort innerhalb der Kirche gewählt wurde, wie es bei Stiftergräbern üblich war. Dort wurde auf Beschluss der Stadt die Inschrift "Pater patriae" („Vater des Vaterlandes“) eingemeißelt, die an eine antike Ehrung außergewöhnlich verdienter Bürger anknüpfte. Nach der Fertigstellung des Grabmals wurden die Gebeine am 22. Oktober 1467 an ihre endgültige Stätte in der Krypta gebracht.
Mit seiner Gattin hatte Cosimo zwei Söhne, Piero (1416–1469) und Giovanni (1421–1463). Hinzu kam ein unehelicher Sohn namens Carlo, dessen Mutter eine tscherkessische Sklavin war. Carlo wurde zusammen mit seinen Halbbrüdern erzogen und schlug später eine kirchliche Karriere ein. Giovanni starb schon am 1. November 1463, neun Monate vor Cosimo, und hinterließ keine Kinder. Piero fiel das ganze väterliche Erbe zu, sowohl das Vermögen und die Führung der Bank als auch die Stellung des leitenden Staatsmanns von Florenz. Dank der Autorität seines verstorbenen Vaters konnte Piero dessen Rolle im Staat problemlos übernehmen. Er litt aber schwer an der Gicht, die seine Aktivitäten stark behinderte, und starb schon fünf Jahre nach Cosimo.
Pieros Nachfolge als informeller Machthaber trat im Dezember 1469 sein Sohn Lorenzo il Magnifico an. Wiederum verlief der Übergang ohne Komplikationen. Das neue Oberhaupt der Familie setzte die Tradition der großzügigen Kulturförderung fort und mehrte damit den Ruhm der Medici. Die von seiner Führung geprägten 22 Jahre der Geschichte von Florenz waren eine kulturell außerordentlich glanzvolle Epoche. Lorenzo verfügte aber nicht über das geschäftliche Talent seines Großvaters Cosimo. Es gelang ihm nicht, die finanzielle Basis der politischen Macht und des Mäzenatentums der Medici zu bewahren. Die Bank erlebte einen dramatischen Niedergang, der sie an den Rand des Zusammenbruchs brachte.
Rezeption.
Mittelalter.
Ein scharfer Kritiker Cosimos war der zeitgenössische Geschichtsschreiber Giovanni Cavalcanti. Er gehörte einem alteingesessenen Patriziergeschlecht an und missbilligte den Aufstieg einer Schicht von Emporkömmlingen, für den er Cosimo verantwortlich machte. Vor allem verübelte er dem Mediceer das rigorose Vorgehen gegen die Steuerschuldner, zu denen er selbst zählte. Allerdings äußerte er sich stellenweise positiv über die Medici und hielt die Aufhebung von Cosimos Verbannung für gerecht.
Zeitgenössische medicifreundliche Autoren priesen Cosimo rückblickend als Retter der Unabhängigkeit der Republik Florenz. So befand der Humanist Benedetto Accolti der Ältere in seinem "Dialogus de praestantia virorum sui aevi", einem in Cosimos letzten Lebensjahren verfassten und ihm gewidmeten Werk, die Machtverhältnisse seien nach dem Tod von Filippo Maria Visconti für Venedig so günstig gewesen, dass die Venezianer ganz Italien hätten unterwerfen können, wenn Cosimo dies nicht durch das Bündnis mit Mailand verhindert hätte. Er allein sei der Urheber des Allianzwechsels, den er gegen starken Widerstand in Florenz durchgesetzt habe. In diesem Sinn äußerte sich auch der Geschichtsschreiber Benedetto Dei. Er verfasste in den 1470er Jahren ein gegen Venedig gerichtetes Pamphlet, in dem er Cosimos Außenpolitik rückblickend als weitsichtig und erfolgreich darstellte. Nach seiner Einschätzung hätte Venedig in Italien eine beherrschende Stellung errungen, wenn Cosimo nicht die Allianz mit Francesco Sforza zuwege gebracht hätte.
Im Zeitraum 1469–1475 schuf Sandro Botticelli im Auftrag des Bankiers G(u)aspar(r)e di Zanobi del Lama ein Gemälde, das die Anbetung der Heiligen Drei Könige zeigt. Der älteste der Könige trägt die Gesichtszüge Cosimos, auch weitere Angehörige der Familie Medici sind abgebildet. Somit soll das Werk der Familie huldigen, Cosimo erscheint als „Heiliger“.
Der Humanist Bartolomeo Platina schrieb den Dialog "De optimo cive" "(Über den besten Bürger)", den er 1474 Cosimos Enkel Lorenzo il Magnifico widmete. Mit dem „besten Bürger“ ist der leitende republikanische Staatsmann gemeint. Der Ort der Handlung ist die Villa der Medici in Careggi, den Inhalt bildet ein fiktives Gespräch zwischen dem bereits alten und gebrechlichen Cosimo als Hauptperson, Platina und dem Knaben Lorenzo. Der Vorrede zufolge wollte der Autor mit seiner Darstellung von Cosimos politischen Maximen den patriotischen Eifer der Leser anfeuern. Platina präsentierte ein Regierungsprogramm, das er dem alten Staatsmann in den Mund legte. Seine Dialogfigur Cosimo tritt für „Freiheit“ – die traditionelle republikanische Lebensform – ein, warnt vor Hochmut, Anmaßung und Luxus, kritisiert Übelstände und fordert Einschreiten gegen Männer, die nach der Tyrannis streben. Sie sollen verbannt werden; hinzurichten sind sie nur, wenn sie der Beteiligung an einer Verschwörung überführt worden sind.
Neben der humanistischen Verherrlichung Cosimos in lateinischer Sprache, die sich an Gebildete richtete, gab es auch eine volkstümliche in italienischen Gedichten. In dieser für eine breitere Öffentlichkeit bestimmten Dichtung erscheint er als gütige Vaterfigur, Förderer des religiösen Lebens und des Wohlstands und heldenhafter Verteidiger der Freiheit gegen Angriffe von außen.
Frühe Neuzeit.
Im letzten Jahrzehnt des 15. Jahrhunderts zerbrach der Konsens, der die informelle Herrschaft der Medici in der Republik Florenz ermöglicht hatte. Die Familie wurde im November 1494 aus der Stadt verjagt. Dies führte zu einer Neubewertung von Cosimos Rolle. Der Mönch Girolamo Savonarola, der für die Florentiner damals die maßgebliche Autorität war, verdammte die Medici-Herrschaft als monströs und äußerte zu der Cosimo zugeschriebenen Bemerkung, der Staat werde nicht mit Vaterunser-Beten regiert, dies sei ein Tyrannenwort. Am 22. November 1495 beschloss die Signoria, die Inschrift „Vater des Vaterlandes“ am Grabmal zu tilgen. Doch 1512 brachte ein spanisches Heer die Medici zurück nach Florenz und wieder an die Macht. Daraufhin wurde die Inschrift wiederhergestellt. Im Jahr 1527 mussten die Medici aber ein weiteres Mal dem Volkszorn weichen. Nach der erneuten Vertreibung der Familie beschlossen die nunmehr regierenden Republikaner 1528 wiederum die Beseitigung der Inschrift. Diesen Schritt begründeten sie damit, dass Cosimo nicht Vater des Vaterlandes gewesen sei, sondern Tyrann des Vaterlandes. Die medicilose Republik erwies sich jedoch als kurzlebig; im August 1530 wurde die Stadt von Truppen Kaiser Karls V. gestürmt, worauf die Medici wieder an die Macht kamen. Aus der Republik wurde eine Monarchie, deren Herrscher ihre Legitimation aus der Rolle ihrer Ahnen im 15. Jahrhundert bezogen.
Der Historiker Francesco Guicciardini behandelte die Zeit bis 1464 im ersten Kapitel seiner 1508/1509 verfassten "Storie fiorentine". Er befand, Cosimo und sein berühmter Enkel Lorenzo il Magnifico seien vielleicht die beiden angesehensten Privatleute seit dem Untergang des Römischen Reichs gewesen. Der Großvater sei dem Enkel an Beharrlichkeit und Urteilskraft sowie im Umgang mit Geld überlegen gewesen. Wenn man alle Aspekte bedenke, komme man zum Ergebnis, dass Cosimo der tüchtigere der beiden großen Mediceer gewesen sei. Insbesondere lobte Guicciardini das Bündnis mit Mailand, in dem er eine bedeutende historische Leistung Cosimos sah. Die Mehrheit der Florentiner sei für die Fortsetzung der alten Allianz mit Venedig gewesen, doch habe Cosimo seine Mitbürger überzeugen können, sich mit Francesco Sforza zu verbünden. Damit habe er die Freiheit nicht nur der Republik Florenz, sondern ganz Italiens gerettet. Nach Guicciardinis Meinung hätten die Venezianer erst Mailand und dann alle übrigen italienischen Staaten unterworfen, wenn Cosimo dies nicht verhindert hätte.
Niccolò Machiavelli urteilte in seinen 1520–1525 verfassten "Istorie fiorentine", Cosimo habe alle seine Zeitgenossen nicht nur an Autorität und Reichtum, sondern auch an Freigebigkeit und Klugheit übertroffen. Niemand sei ihm zu seiner Zeit in der Staatskunst ebenbürtig gewesen. Er habe in Florenz eine fürstliche Stellung eingenommen und sei dennoch so klug gewesen, die Grenzen bürgerlicher Mäßigung nie zu überschreiten. Alle seine Werke und Taten seien königlich gewesen. Entstehende Übel habe er frühzeitig erkannt; daher habe er genug Zeit gehabt, sie nicht wachsen zu lassen oder sich gegen sie zu wappnen. Er habe nicht nur den Ehrgeiz seiner bürgerlichen Rivalen zu Hause bezwungen, sondern auch den vieler Fürsten. Das Regierungssystem Cosimos missbilligte Machiavelli allerdings. Er hielt die Verbindung einer zentralisierten, quasi monarchischen Entscheidungsstruktur mit der Notwendigkeit, dennoch weiterhin wie in der vormediceischen Republik einen breiten Konsens zu finden, für verfehlt. In der Instabilität eines solchen Konstrukts sah er eine fundamentale Schwäche.
Im Jahr 1537 erlangte der Mediceer Cosimo I. die Würde eines Herzogs der Toskana. Der Herzog, der bis 1574 regierte (ab 1569 als Großherzog), war ein Nachkomme Lorenzos, des jüngeren Bruders von Cosimo il Vecchio. Er ließ im Palazzo della Signoria (Palazzo Vecchio) einen „Saal von Cosimo il Vecchio“ zu Ehren des Begründers von Ruhm und Macht der Medici einrichten. Die "Sala di Cosimo il Vecchio" wurde von Giorgio Vasari und seinen Gehilfen ausgemalt. Dabei wurde das Kirchenbauprogramm des berühmten Mäzens besonders hervorgehoben. Eines der Gemälde stellt seine Rückkehr aus dem venezianischen Exil als Triumph dar.
Im Zeitalter der Aufklärung wurde Cosimo wegen seiner Förderung des Humanismus geschätzt. Voltaire äußerte sich in seinem 1756 veröffentlichten "Essai sur les mœurs et l’esprit des nations" mit Begeisterung. Er urteilte, die frühen Medici hätten ihre Macht durch Wohltaten und Tugenden erlangt, daher sei sie legitimer als die jedes Herrschergeschlechts. Cosimo habe seinen Reichtum dazu genutzt, den Armen zu helfen, sein Vaterland mit Bauten zu schmücken und die aus Konstantinopel vertriebenen griechischen Gelehrten nach Florenz zu holen. Mit seinen Wohltaten habe er sich die Autorität verschafft, die bewirkt habe, dass seine Empfehlungen drei Jahrzehnte lang wie Gesetze befolgt worden seien. Edward Gibbon rühmte Cosimo im 1788 erschienenen sechsten Band seiner "History of the Decline and Fall of the Roman Empire" mit den Worten, er habe seine Reichtümer in den Dienst der Menschheit gestellt; der Name Medici sei fast gleichbedeutend mit der Wiederherstellung der Bildung.
Johann Wolfgang von Goethe würdigte Cosimo im Anhang zu seiner 1803 veröffentlichten Übersetzung der Autobiographie des Benvenuto Cellini. Dort beschrieb er die Patronage des Mediceers als „allgemeine Spende, die an Bestechung gränzt“. Als „großer Handelsmann“, der „das Zaubermittel zu allen Zwecken in Händen trägt“, sei er „an und für sich ein Staatsmann“ gewesen. Zu Cosimos kulturellen Aktivitäten bemerkte Goethe: „Selbst vieles, was er für Literatur und Kunst gethan, scheint in dem großen Sinne des Handelsmanns geschehen zu sein, der köstliche Waaren in Umlauf zu bringen und das Beste davon selbst zu besitzen sich zur Ehre rechnet.“
Moderne.
Kulturgeschichtliche Aspekte.
Georg Voigt veröffentlichte 1859 seine für die Erforschung des Frühhumanismus wegweisende Schrift "Die Wiederbelebung des classischen Alterthums". In diesem Werk, das 1893 in dritter Auflage erschien, konstatierte Voigt, die Literatur- und Kunstgeschichte habe Cosimo „mit einer Art von Heiligenschein umkleidet“. Er sei „der leibhaftigste Typus des florentinischen Edelmanns als großartiger Kaufherr, als kluger und überschauender Staatsmann, als Repräsentant der feinen Modebildung, als mäcenatischer Geist im fürstlichen Sinne“ gewesen. Seinen Blick habe er „auf das Weite und Allgemeine gerichtet“, seine Macht habe er in einer „kalt berechneten und geräuschlosen Weise“ gefestigt. Jedes wissenschaftliche Verdienst habe er nach Gebühr anerkannt, die Talente herangezogen, ihnen Stellung und Besoldung angewiesen.
Jacob Burckhardt zeichnete in der 1869 erschienenen zweiten Auflage seiner einflussreichen Schrift "Die Kultur der Renaissance in Italien" ein heute teilweise überholtes Bild von Cosimo. Er betonte die „Führerschaft auf dem Gebiete der damaligen Bildung“, die dem Mediceer zugekommen sei. Dieser besitze den „speziellen Ruhm, in der platonischen Philosophie die schönste Blüte der antiken Gedankenwelt erkannt“ und seine Umgebung mit dieser Erkenntnis erfüllt zu haben. So habe er „innerhalb des Humanismus eine zweite und höhere Neugeburt des Altertums ans Licht gefördert“.
In kulturgeschichtlichen Darstellungen dominierte bis gegen Ende des 20. Jahrhunderts Burckhardts Sichtweise: Cosimo wurde vielfach als Gründer einer platonischen Akademie gewürdigt. So schrieb beispielsweise Agnes Heller 1982, die Gründung der Akademie in Florenz sei epochemachend gewesen. Es handle sich um die erste philosophische Schule, die „von den alten kirchlichen und universitären Rahmenbedingungen unabhängig und insofern vollkommen weltlich und ‚offen‘“ gewesen sei. Patron dieser Akademie sei „der im traditionellen Sinn (aus dem Blickwinkel der offiziellen Bildung der Zeit) unstudierte Cosimo“ gewesen. Ähnlich schilderte noch 1995 Manfred Lentzen die Rolle des Mediceers. Erst die Forschungen von James Hankins entzogen in den 1990er Jahren dem Bild von Cosimo als Akademiegründer die Grundlage.
Politische Aspekte.
Im verfassungsgeschichtlichen Diskurs wird die Frage erörtert, inwiefern Cosimos dominante Rolle den Rahmen der republikanischen Verfassung sprengte und seine Bezeichnung als Herrscher von Florenz daher berechtigt ist. Zur Unterscheidung von einer offenen Alleinherrschaft wird Cosimos System als „Kryptosignorie“ (versteckte Herrschaft) bezeichnet. Damit ist eine Regierungsform gemeint, die sich erst später allmählich zu einer unverhüllten Signorie, der Staatslenkung durch einen einzelnen Machthaber mit erblicher Stellung, entwickelt hat. Anthony Molho bringt die Zwiespältigkeit des Systems auf die griffige Formel „Cosimo de’ Medici – Pater patriae (Vater des Vaterlandes) oder Padrino (Pate)?“ Damit wird angedeutet, dass der Patron des Klientelsystems eine „politische Maschine“ geschaffen habe und vielleicht sogar in die Nähe von Mafia-Paten zu rücken sei. Letzteres entspricht der Auffassung von Lauro Martines und Jacques Heers. Martines sieht in der „Palette unverblümter und umfassender Kontrollmaßnahmen der mediceischen Republik“ das Instrumentarium, mit dem Cosimo die Verfassung unterminiert und die Herrschaft der „Medici-Oligarchie“, der „an der Regierung befindlichen Clique“, gesichert habe. Allerdings habe sich die republikanische Verfassung nicht so stark beugen lassen, dass sie den Medici totale Macht garantiert hätte. Die Oligarchie sei ein Team gewesen, „keine Ein-Mann-Show“, und habe ihre wichtigen Entscheidungen kollektiv gefällt. Jacques Heers zeichnet das Bild einer finsteren, brutalen Tyrannei, die Cosimo errichtet habe. Werner Goez urteilt, Florenz habe sich unter Cosimo zweifellos auf dem Weg zu fürstlicher Alleinherrschaft befunden, auch wenn alles getan worden sei, diesen Tatbestand zu verschleiern. Volker Reinhardt befindet, ab 1434 sei es zu einer „eigentümlichen Vermischung“ von Signorie und Republik gekommen; rein republikanisch sei nur noch die Fassade gewesen. Michele Luzzati hält die Entwicklung für unausweichlich; es sei Cosimos wahre und große Einsicht gewesen, dass politische Stabilität in Florenz nur noch mit einem System erreichbar gewesen sei, das unter Wahrung der freiheitlichen Tradition auf dem Vorrang eines Mannes und einer Familie beruhte. Dieser Ansicht ist auch Ferdinand Schevill. Nach seiner Einschätzung führten die Verfassungsbestimmungen, die sehr kurze Amtszeiten und Auswahl der höchsten Amtsträger durch das Los aus einer großen Menge von Kandidaten vorschrieben, zu unhaltbaren Zuständen, denn sie bewirkten, dass ein hoher Prozentsatz von offenkundig Inkompetenten in Führungsstellungen gelangte und eine durchdachte, beständige Politik unmöglich war. Schevill meint, dieses System habe die elementarsten Forderungen der Vernunft missachtet; daher sei seine Umgehung und Umgestaltung unumgänglich gewesen.
Das verbreitete Bild von Cosimo als faktisch unumschränktem Herrscher wird allerdings von manchen Historikern für irreführend gehalten. Spezialuntersuchungen haben gezeigt, dass er seinen Willen keineswegs mühelos durchsetzen konnte und auch nach der Jahrhundertmitte weiterhin auf beträchtlichen, offenen Widerstand stieß. Nicolai Rubinsteins Analyse der Krise von 1455–1458 lässt das Ausmaß der zeitweiligen innenpolitischen Schwächung des Mediceers erkennen. Rubinstein kommt zum Ergebnis, dass Cosimo keineswegs Gehorsam als selbstverständlich voraussetzen konnte, auch nicht in seiner eigenen Anhängerschaft und nicht einmal bei der machtpolitisch zentralen Regelung der Ämterbesetzung. Es blieb ihm nicht erspart, Überzeugungsarbeit zu leisten. Rubinstein meint, auswärtige Zeitgenossen hätten Cosimos Macht wahrscheinlich überschätzt, sie werde wohl in Quellen wie den mailändischen Gesandtschaftsberichten teils übertrieben dargestellt. Dies führt er unter anderem darauf zurück, dass in despotisch regierten Staaten das nötige Verständnis der republikanischen Mentalität gefehlt habe; daher habe man dort die Bedeutung von Beratung und Konsens in einer Republik wie Florenz nicht angemessen berücksichtigt. Dale Kent schließt sich aufgrund eigener Forschungsergebnisse Rubinsteins Auffassung an. Auch Paolo Margaroli weist auf die Grenzen von Cosimos Macht hin. Als Beispiel nennt er die Friedensverhandlungen in Rom, bei denen 1453 die florentinischen Unterhändler so agierten, dass sie es nach Cosimos Ansicht, wie er dem Herzog von Mailand schrieb, nicht schlechter hätten machen können. Diese Gesandtschaft war in Florenz von oppositionellen Kräften vorbereitet worden. Michele Luzzati betont das Gewicht der seit Generationen kritischen öffentlichen Meinung, die Cosimo nicht habe missachten können. Nach der Darstellung von Daniel Höchli waren die meisten Patrizier nicht bereit, sich den Medici zu unterwerfen. Sie konnten dank eigener Patronage-Netzwerke ihre politische Unabhängigkeit bis zu einem gewissen Grad bewahren. Die Führungsrolle der Medici akzeptierten sie nur, solange sie ihre eigenen Interessen gewahrt sahen.
Mit der Debatte über die Natur der Kryptosignorie hängt die Frage zusammen, inwieweit das dezidiert republikanische, antiautokratische Gedankengut des Florentiner „Bürgerhumanismus“ – ein von Hans Baron geprägter Begriff – mit Cosimos Stellung im Staat vereinbar war. Die ältere Forschung – vor allem Hans Baron und Eugenio Garin – ging von einem fundamentalen Spannungsverhältnis aus. Man nahm an, der manipulative Charakter der Medici-Herrschaft habe das Grundprinzip des Bürgerhumanismus, die Ermutigung der Bürger zu einer aktiven und verantwortungsvollen Beteiligung am politischen Leben, unterminiert. Die Verbreitung eines unpolitischen Neuplatonismus nach der Jahrhundertmitte sei als Ausdruck der Abkehr der Humanisten von einer echt republikanischen Gesinnung zu deuten. Diese Sichtweise ist von der neueren Forschung, insbesondere unter dem Eindruck der Ergebnisse von James Hankins, aufgegeben worden. Es wird u. a. darauf hingewiesen, dass Leonardo Bruni als profilierter Theoretiker und Wortführer des Bürgerhumanismus keinen Gegensatz zwischen seiner Überzeugung und seiner Zusammenarbeit mit Cosimo sah. Nach der neueren Interpretation ist das Verhältnis zwischen Bürgerhumanismus und Medici-Herrschaft eher als Symbiose auf der Basis bedeutender Gemeinsamkeiten zu verstehen.
Als Ursache für Cosimos Erfolge wird in der Forschung insbesondere seine geschickte Finanzpolitik hervorgehoben, die ihm in den innenpolitischen Kämpfen bedeutende Vorteile verschafft habe. So konstatieren Werner Goez, Lauro Martines und Jacques Heers, Cosimo habe seine politische Macht vor allem dazu eingesetzt, die mit den Medici rivalisierenden Clans und Banken niederzuhalten. Mittels der Steuergesetzgebung habe er die Vermögen seiner Rivalen und missliebiger Personen belastet, um sich ihrer zu entledigen. Es gibt aber keinen Beleg dafür, dass er versuchte, politische Gegner durch direkte kommerzielle Angriffe auf ihre Unternehmen zu schädigen. Jacques Heers bestreitet, dass Cosimo durch seinen Reichtum an die Macht gelangte. Vielmehr sei es umgekehrt der Machtbesitz gewesen, den er zur Anhäufung der Reichtümer genutzt habe.
Als zentraler Faktor, der die Macht des Mediceers in Florenz befestigte, gilt in der Forschung sein Ansehen im Ausland und insbesondere sein Einfluss an der Kurie. Große Bedeutung wird auch seinem propagandistischen Geschick beigemessen. Dale Kent charakterisiert Cosimo als Meister der Selbstdarstellung, der sein Image sorgfältig kultiviert habe. Nach Kents Einschätzung ist sein einzigartiger Erfolg darauf zurückzuführen, dass er das war oder zumindest zu sein schien, was den Wünschen seiner Mitbürger entsprach: ein Wortführer, der ihre Wertvorstellungen artikulierte, und zugleich ein scharfsichtiger, abwägender Staatsmann, der nach außen als Stimme der Republik auftreten konnte und durch seine Führungsrolle den in der Verfassung angelegten Mangel an politischer Konsistenz kompensierte.
Als bedeutende außenpolitische Leistung Cosimos wird das Bündnis mit Mailand gegen Venedig beurteilt. Für Hans Baron handelt es sich um einen meisterhaften Schachzug. Nicolai Rubinstein meint, dieser Erfolg habe wohl mehr als jedes andere Ereignis nach 1434 das Ansehen des Mediceers im In- und Ausland gefestigt. Volker Reinhardt befindet, Cosimo habe „vorausschauend wie immer“ in die Karriere Sforzas viel Geld investiert, das sich dann als politische Rendite amortisiert habe. Die von ihm herbeigeführte Allianz zwischen Florenz und Mailand habe sich „als tragfähige Achse der italienischen Politik insgesamt“ erwiesen. Vincent Ilardi teilt diese Einschätzung der Allianz, merkt aber kritisch an, Cosimo habe die von Frankreich ausgehende Gefahr unterschätzt. Seine Neigung zu einem Bündnis mit Frankreich gegen Venedig sei ein Fehler gewesen. Sforza habe diesbezüglich mehr staatsmännische Voraussicht gezeigt.
Quellen.
Die Quellen zu Cosimos Leben, seiner Rolle als Staatsmann und Mäzen und zur Rezeptionsgeschichte sind sehr reichhaltig. Aus seiner Zeit sind etwa dreißigtausend von den Medici verfasste oder an sie gerichtete Briefe erhalten. Eine Fülle von einschlägigen Briefen und Dokumenten befindet sich im Staatsarchiv von Florenz in der Sammlung „Medici avanti il Principato“ (MAP), deren Grundstock Cosimos Privatarchiv bildet, sowie im Mailänder Staatsarchiv und anderen Archiven und Bibliotheken. Diese Archivalien geben sowohl über politische und geschäftliche Angelegenheiten als auch über Privates Aufschluss. Informativ sind auch die ausführlichen Steuerunterlagen, die im Staatsarchiv von Florenz aufbewahrt werden, sowie Unterlagen der Medici-Bank in verschiedenen Archiven. Hinzu kommen Aufzeichnungen über Sitzungen und Debatten, an denen die Medici und ihre Freunde teilnahmen und das Wort ergriffen. Gut dokumentiert sind die diplomatischen Aktivitäten; Gesandtschaftsberichte und Instruktionen, die den Gesandten erteilt wurden, erhellen Cosimos Rolle in der italienischen Politik. Hohen Quellenwert hat sein Briefwechsel mit Francesco Sforza. Zahlreiche erzählende Quellen in lateinischer und italienischer Sprache beleuchten das Bild Cosimos bei seinen Zeitgenossen und in den Jahrzehnten nach seinem Tod. Zu den wichtigsten edierten Quellen zählen:
Literatur.
Übersichtsdarstellungen und Einführungen
Aufsatzsammlung
Innenpolitik
Bankwesen
Außenpolitik
Kulturelle Bedeutung und Privatleben
Rezeption |
925 | 1029574 | https://de.wikipedia.org/wiki?curid=925 | Christiaan Huygens | Christiaan Huygens [] () (* 14. April 1629 in Den Haag; † 8. Juli 1695 ebenda), auch Christianus Hugenius, war ein niederländischer Astronom, Mathematiker und Physiker. Huygens gilt, obwohl er sich niemals der noch zu seinen Lebzeiten entwickelten Infinitesimalrechnung bediente, als einer der führenden Mathematiker und Physiker des 17. Jahrhunderts. Er ist der Begründer der Wellentheorie des Lichts, formulierte in seinen Untersuchungen zum elastischen Stoß ein Relativitätsprinzip und konstruierte die ersten Pendeluhren. Mit von ihm verbesserten Teleskopen gelangen ihm wichtige astronomische Entdeckungen.
Leben und Wirken.
Herkunft und Ausbildung.
Huygens wurde als Sohn von Constantijn Huygens geboren, der Sprachgelehrter, Diplomat, Komponist und der damals führende Dichter Hollands war. Durch seinen Vater kam Christiaan schon früh mit bedeutenden Persönlichkeiten in Kontakt, unter anderem mit Rembrandt, Peter Paul Rubens und René Descartes. Christiaan wurde als Kind von seinem Vater unterrichtet. Später studierte er an der Universität Leiden zunächst Rechtswissenschaften, wechselte dann aber bald zu Mathematik und Naturwissenschaften.
Seine erste veröffentlichte Arbeit (1651) befasste sich mit der Quadratur von Kegeln und zeigte einen Fehler in einem angeblichen Beweis der Quadratur des Kreises. Weiter beschäftigte er sich mit der Kreiszahl π (pi), Logarithmen und leistete wichtige Vorarbeiten für die Infinitesimalrechnung, auf denen dann Leibniz und Newton aufbauen konnten.
1657 veröffentlichte er die erste Abhandlung über die Theorie des Würfelspiels ("De ludo aleae"), wodurch er heute als einer der Begründer der Wahrscheinlichkeitsrechnung gilt. Vorausgegangen waren Briefwechsel zwischen Blaise Pascal und Pierre de Fermat, über deren Inhalt Huygens, wie er behauptete, jedoch nichts bekannt war. Analysiert man die Lösungen der fünf am Ende seiner Abhandlung aufgeführten Probleme, muss man vermuten, dass er Pascals Vorstellungen wohl gekannt hat, nicht aber die kombinatorischen Wege von Fermat.
Beiträge zu den Naturwissenschaften.
Zunehmend interessierte sich Huygens auch für die damals modernen Bereiche der Naturwissenschaften, Optik und die Astronomie mit Teleskopen. Er hatte Kontakt zu Antoni van Leeuwenhoek, dem Entdecker der Mikroorganismen, und dem Philosophen Baruch de Spinoza, der mit Linsenschleifen seinen Lebensunterhalt bestritt. Kurzzeitig untersuchte auch Huygens kleine Objekte unter dem Mikroskop.
Er begann aber bald selbst, Linsen für Teleskope zu schleifen und konstruierte zusammen mit seinem Bruder Constantijn Huygens Junior sein erstes Fernrohr. Huygens entwickelte die Wellentheorie des Lichts, die es ihm ermöglichte, Linsen mit geringeren Abbildungsfehlern (Aberration) zu schleifen und so bessere Teleskope zu bauen; seine Entdeckungen bewirkten auch eine Steigerung der Bildschärfe bei der Camera obscura und der Laterna magica. Er formulierte als erster das nach ihm benannte Huygenssche Prinzip, das als Grundlage der Wellenoptik gilt. Wie manch anderer Physiker seiner Zeit entwickelte auch Huygens eine eigene Theorie zu einem Äther für Licht und Gravitation.
Huygens entdeckte mit seinem selbstgebauten Teleskop 1655 erstmals den Saturnmond Titan. Damit war der Saturn der zweite Planet nach dem Jupiter (von der Erde abgesehen), bei dem ein Mond nachgewiesen werden konnte (Galileo Galilei hatte schon 1610 die vier größten Jupitermonde entdeckt). Außerdem erkannte er, dass das, was Galilei als Ohren des Saturns bezeichnet hatte, in Wirklichkeit die Saturnringe waren.
Er fand heraus, dass diese Ringe keine Verbindung zum Planeten hatten und ihr geheimnisvolles Verschwinden alle 14 Jahre dadurch zustande kam, dass man sie dann genau von der Seite sah, sie aber zu dünn waren, um von der Erde aus noch wahrgenommen werden zu können. Viele Wissenschaftler attribuieren Huygens Entdeckung nicht seinem fortschrittlichen Teleskop, sondern seinen mathematischen Fähigkeiten.
Weitere astronomische Leistungen Huygens’ waren die Entdeckung der Rotationsbewegung des Mars und die Berechnung der Rotationsperiode (Marstag) mit ungefähr 24 Stunden sowie die Auflösung der hellsten Region des Orionnebels als ausgedehnten leuchtenden Bereich. Diese wird ihm zu Ehren auch "Huygenssche Region" genannt. Er entdeckte ferner weitere Nebel und Doppelsternsysteme und äußerte die Vermutung, dass die Venus von einer dichten Wolkenhülle verhangen sei.
Mechanik, Pendeluhr und Exoplaneten.
Neben der Astronomie interessierte sich Huygens besonders für Mechanik. Seit seiner Jugend wurde er, durch die Vermittlung seiner Vaters, von Marin Mersenne gefördert, der ihn an seinen damals neuartigen Aufgaben und Problemstellungen teilhaben ließ. Huygens reformulierte die Stoßgesetze und befasste sich mit Fliehkräften. Beide Bereiche der Mechanik spielten in der damals vielbeachteten Cartesischen Physik eine grundlegende Rolle.
In der Anwendung des Trägheitsprinzips gelang es zuerst Huygens, den Betrag der wirkenden Fliehkraft formula_1 auf eine rotierende, träge Masse durch mathematische Proportionen anzugeben.
Dabei handelt es sich in moderner Zusammenfassung um das Zentrifugalgesetz
formula_2, wobei "m" die Masse des Körpers, "v" die konstante Bahngeschwindigkeit auf seiner Kreisbahn von Radius "r" ist.
Seine Untersuchungen von Schwingungen und Pendelbewegungen konnte er zum Bau von Pendeluhren nutzen. Schon Galilei hatte eine solche entworfen, aber nicht gebaut. Huygens konnte seine Uhr hingegen zum Patent anmelden. Die in seinem Auftrag von Salomon Coster gebauten Uhren wiesen eine Ganggenauigkeit von zehn Sekunden pro Tag auf, eine Präzision, die erst hundert Jahre danach überboten werden konnte. Später konstruierte er auch Taschenuhren mit Spiralfedern und Unruh.
Christiaan Huygens veröffentlichte 1673 in seiner Abhandlung "Horologium Oscillatorium" eine ganggenaue Pendeluhr mit einem Zykloidenpendel, bei dem er sich die Tatsache zunutze machte, dass die Evolute der Zykloide selber wieder eine Zykloide ist. Der Vorteil in der Ganggenauigkeit wird jedoch durch den Nachteil der erhöhten Reibung wieder ausgeglichen.
Von ihm stammt auch die früheste bekannte Uhr zur Bestimmung des Längengrades, die mehrere revolutionäre Techniken aufwies, und als deren Urheber er erst vor einiger Zeit wieder erkannt wurde.
In seiner letzten wissenschaftlichen Abhandlung 1690 formulierte Huygens den Gedanken, dass es noch viele andere Sonnen und Planeten im Universum geben könnte, und spekulierte bereits über außerirdisches Leben.
Von Huygens stammt auch die korrekte Ableitung der Gesetze des Elastischen Stoßes, wobei er von einem Relativitätsprinzip Gebrauch macht (siehe Galilei-Transformation). Er veröffentlichte seine Ergebnisse, die aus den 1650er Jahren stammten und die falsche Behandlung bei René Descartes korrigierten, 1669 (Philosophical Transactions of the Royal Society, Journal des Savants) und in seinem postum erschienenen Buch "De Motu Corporum" von 1703.
Christiaan Huygens und Samuel Sorbière (1617–1670) waren die ersten beiden ausländischen Wissenschaftler, die im Juni 1663 in die Royal Society aufgenommen wurden. 1666 wurde Huygens der erste Direktor der in diesem Jahr gegründeten französischen Akademie der Wissenschaften.
Was seine Behandlung der Mechanik betrifft, so besaß Huygens das Talent, ursprüngliche und intuitiv für richtig erkannte Ideen aus seiner frühen Schaffensphase in späteren gereiften Schriften mit mathematisch-deduktiver Strenge auszubauen. Einzelne mechanische Gesetze nach Galilei oder Descartes konnte er auf diese Weise erweitern und korrigieren sowie durch eigene experimentelle Ergebnisse bestätigen. Er musste seine Grundsätze niemals verändern oder revidieren. Huygens zeigte keine Eile bei der Veröffentlichung seiner Schriften, viele blieben über Jahrzehnte und bis zu seinem Lebensende liegen.
Eine Besonderheit der wissenschaftlichen Methode Huygens’ ist, dass er allgemeine Konzeptionen nur auf das einzelne zu erklärende Phänomen ausrichtet und begrenzt. In dieser Hinsicht wird er heute noch von Historikern als ein „perfekter Wissenschaftler“ bezeichnet.
Huygens’ Überzeugung in seine Verfahrensweisen ging so weit, dass er sich von Ratschlägen und Vorarbeiten seiner Lehrer (Mersenne und van Schooten) und Kollegen abwandte und stattdessen eigene mechanische Prinzipien errichtete (etwa das o. g. Relativitätsprinzip für Stoßvorgänge oder eine Erweiterung des Prinzips von Torricelli), um damit Gesetzmäßigkeiten aus vorrangigen Forschungsthemen seiner Zeit – das waren vor allem die Theorie der Stoßvorgänge und der Massenschwingungen – zu entdecken und zu beweisen. Bezogen auf den Schwingungsmittelpunkt schreibt er:
Huygens’ originelles Vorgehen hat ihm zu Lebzeiten nicht nur große Anerkennung, sondern auch Zweifel und Kritik unter Fachkollegen eingebracht.
Newton bezeichnete ihn als den elegantesten Mathematiker seiner Zeit.
Ernst Mach beschreibt die besondere Leistung Huygens' für die klassische Mechanik folgendermaßen:
Akustik (Musik).
Huygens entdeckte die Beziehungen zwischen Schallgeschwindigkeit, Länge und Tonhöhe einer Pfeife. Er beschäftigte sich intensiv mit der mitteltönigen Stimmung und berechnete 1691 die Teilung der Oktave in 31 gleiche Stufen, um den Fehler des pythagoreischen Kommas im Tonsystem der Musik zu beheben.
Lebensabend.
In den 1680er Jahren verschlechterte sich Huygens’ Gesundheitszustand, so dass er sein Familienhaus nicht mehr häufig verließ. In den letzten Jahren seines Lebens beschäftigte sich der Wissenschaftler mit der Musiktheorie. Am 8. Juli 1695 starb Christiaan Huygens mit 66 Jahren in Den Haag (Voorburg) unverheiratet und kinderlos.
Schriften (Auswahl).
Französische Gesamtausgabe.
"Oeuvres complètes", 22 Bände. Den Haag 1888 bis 1950. Herausgeber: D. Bierens de Haan, Johannes Bosscha, Diederik Johannes Korteweg, Albertus Antonie Nijland, J. A. Vollgraf. |
927 | 2379 | https://de.wikipedia.org/wiki?curid=927 | Claus Schenk Graf von Stauffenberg | Claus Philipp Maria Schenk Graf von Stauffenberg (* 15. November 1907 auf Schloss Jettingen, Jettingen, Königreich Bayern; † 21. Juli 1944 in Berlin) war ein deutscher Berufsoffizier der Wehrmacht.
Stauffenberg begrüßte 1933 die Ernennung Adolf Hitlers zum Reichskanzler und unterstützte die nationalistischen und revisionistischen Bestrebungen des Nationalsozialismus. Mit zunehmender Dauer des Zweiten Weltkriegs erkannte er den verbrecherischen Charakter der nationalsozialistischen Diktatur. Angesichts der Aussichtslosigkeit der militärischen Gesamtlage nach der deutschen Niederlage von Stalingrad entschloss er sich zur Teilnahme am aktiven Widerstand. Stauffenberg entwickelte sich neben Henning von Tresckow zu einer der zentralen Persönlichkeiten des militärischen Widerstandes innerhalb der Wehrmacht. Als Chef des Stabes beim Befehlshaber des Ersatzheeres verübte er das Attentat vom 20. Juli 1944 auf Adolf Hitler und war entscheidend an dem anschließenden Unternehmen Walküre, dem Versuch eines Staatsstreiches, beteiligt. Nach dessen Scheitern wurde Stauffenberg gemeinsam mit seinen Vertrauten Albrecht Mertz von Quirnheim, Friedrich Olbricht und Werner von Haeften in der Nacht auf den 21. Juli 1944 im Hof des Berliner Bendlerblocks standrechtlich erschossen.
Kindheit und Jugend.
"Claus Philipp Maria Schenk von Stauffenberg" wurde am 15. November 1907 auf Schloss Jettingen im bayerischen Jettingen geboren; sein Zwillingsbruder Konrad Maria verstarb bereits am nächsten Tag. Er war der jüngste Sohn von Graf Alfred Schenk von Stauffenberg (1860–1936) und dessen Ehefrau Caroline geb. Gräfin von Üxküll-Gyllenband (1875–1957). Die Ahnenreihe des schwäbisch-fränkischen Adelsgeschlechts der Grafen Stauffenberg ist bis ins 13. Jahrhundert urkundlich nachweisbar, der Grundbesitz lag im bayerischen Schwaben, Württemberg und in Oberfranken. Zahlreiche Familienmitglieder hatten eine Laufbahn im Militär, als hohe Beamte oder Politiker eingeschlagen. Mutter Caroline entstammte der deutsch-baltischen Familie Üxküll-Gyllenband. Mit Alexander und Berthold hatte er zwei ältere Brüder, die ebenfalls Zwillinge waren. Der bedeutende preußische Heeresreformer August Neidhardt von Gneisenau war sein Urgroßvater mütterlicherseits, Caesar von Hofacker war Stauffenbergs Cousin.
Der Vater diente dem württembergischen König Wilhelm II. als Oberhofmarschall, die Mutter war Hofdame und Gesellschafterin der Königin. Daher bewohnte die Familie eine Dienstwohnung im Stuttgarter Alten Schloss. Die Sommerfrische verbrachte sie regelmäßig in Lautlingen auf der Schwäbischen Alb. Der politische Umschwung der Novemberrevolution 1918 tangierte die Stauffenbergs wenig: Auch nach der Abdankung des Monarchen stand der Vater als Präsident der herzoglich-württembergischen Hofkammer bis zu seiner Pensionierung 1928 weiter im Dienst des Hauses Württemberg.
Getreu der Familientradition wurden die Stauffenberg-Kinder im katholischen Glauben erzogen, obwohl die Mutter der evangelischen Konfession angehörte. Insgesamt spielte die Beschäftigung mit religiösen Fragen in der Erziehung eine zentrale Rolle. Als Erwachsener war Stauffenberg der Konfession, in der er erzogen worden war, allerdings nur noch sehr lose verbunden und betrachtete sie nicht als maßgeblich für seine politischen und geistigen Vorstellungen, wie sein Bruder Berthold im Gestapo-Verhör angab:
Das Elternhaus war durch eine tolerante Geisteshaltung und eine aufgeklärt-liberale Atmosphäre gekennzeichnet. Mutter Caroline sorgte für eine umfassende Bildung und legte Wert auf eine gründliche Beschäftigung ihrer Söhne mit Literatur, Musik und Theater. Der musisch vielseitige Stauffenberg spielte Violoncello und entwickelte sich trotz seiner in der Jugend zarten Gesundheit zu einem passionierten Reiter.
Seine Schullaufbahn begann Stauffenberg 1913 mit dem Besuch einer Stuttgarter Privatschule für Elementarunterricht, ehe er im Herbst 1916 seinen Brüdern an das traditionsreiche Eberhard-Ludwigs-Gymnasium folgte. Während der Zeit am Gymnasium schloss sich Stauffenberg dem Bund Deutscher Neupfadfinder, einer Gruppierung der Bündischen Jugend, an. Die Bewegung pflegte ritterliche Ideale, hing der mittelalterlichen Romantik nach und verehrte den symbolistischen Lyriker Stefan George. Nachdem im Frühjahr 1923 zunächst die Zwillingsbrüder und kurz darauf Stauffenberg selbst dem „Meister“ vorgestellt wurden, gehörten sie fortan zum engsten Freundeskreis in Georges elitär-platonischem „Staat“ (George-Kreis). Stauffenbergs älterem Bruder Berthold widmete George zwei Gedichte in seinem letzten Lyrikband "Das Neue Reich" (1928) mit dem bereits 1922 entstandenen Poem "Geheimes Deutschland". Innerhalb des nationalkonservativen Kreises galt Stauffenberg als Tat-Charakter und für ihn spielte die Gedankenwelt Georges, insbesondere die Begrifflichkeit des "Geheimen Deutschland," eine zentrale Rolle. Er fühlte sich dem Vermächtnis des Dichters zeitlebens verpflichtet und verehrte ihn bis an sein Lebensende vorbehaltlos.
Am 5. März 1926 legte Stauffenberg das Abitur ab. Trotz regem Interesse an Architektur und zur Überraschung seiner Umgebung entschied sich der lange Zeit kränkelnde Stauffenberg für eine militärische Karriere.
Werdegang in der Reichswehr.
Am 1. April 1926 trat Stauffenberg als Fahnenjunker in das 17. Bayerische Reiter-Regiment in Bamberg ein. Die Entscheidung für eine Laufbahn in der Reichswehr begründete er später mit seinem Tatendrang sowie dem Wunsch, dem Staat zu dienen. Angesichts der militärischen Tradition der Familie wurde diese Berufswahl insbesondere vom Vater unterstützt und begrüßt.
Stauffenberg diente zunächst in Bamberg, bevor er ab Oktober 1927 den obligatorischen zehnmonatigen Fahnenjunker-Lehrgang an der Infanterieschule der Reichswehr in Dresden-Albertstadt belegte, den alle Offiziersanwärter sämtlicher Truppengattungen absolvieren mussten. Diesen schloss er am 1. August 1928 als Fähnrich ab und er wechselte umgehend an die Kavallerieschule der Reichswehr nach Hannover. Auch der dortige Lehrgang war für Offiziersanwärter verpflichtend. Die abschließende Offiziersprüfung bestand Stauffenberg als Sechstbester seines Jahrgangs und zugleich als Jahrgangsbester der Kavallerie ab, wobei er für seine hervorragenden Leistungen einen Ehrensäbel empfing.
Unter Beförderung zum Leutnant erhielt Stauffenberg am 1. Januar 1930 sein Offizierspatent und übernahm anschließend den Befehl über den Minenwerfer-Zug seines Bamberger Reiter-Regiments. Dort diente er gemeinsam mit dem Offizier Peter Sauerbruch und freundete sich mit dem Sohn des berühmten Chirurgen Ferdinand Sauerbruch an.
Zeit seines Lebens war Stauffenberg an Politik interessiert. Als Angehörigem der Reichswehr war ihm allerdings jede politische Demonstration oder Parteizugehörigkeit verboten und konkrete Äußerungen aus jener Zeit sind nur sehr wenige überliefert. Ebenso wie sein Bruder Berthold stand Stauffenberg in der Zeit der Weimarer Republik, der sie grundsätzlich misstrauten, der sogenannten Konservativen Revolution nahe und war ein national gesinnter, begeisterungsfähiger Patriot. Etwa seit Anfang der 1930er Jahre sympathisierte Leutnant von Stauffenberg wie viele gleichgesinnte Offiziere mit Adolf Hitler, den er als Mann der Tat mit dem Potenzial ansah, das Volk über Klassen- und Parteigrenzen hinweg hinter sich zu einen. Vor der Reichspräsidentenwahl im April 1932 sprach sich Stauffenberg für Hitler und gegen den konservativ-monarchistischen Amtsinhaber Paul von Hindenburg aus, da er im politischen Denken zahlreiche Gemeinsamkeiten sah:
Obgleich die Offiziere aus Stauffenbergs Generation, darunter auch viele seiner Kameraden aus dem späteren Widerstand, den Zukunftsversprechen der nationalsozialistischen Bewegung und ihrem Führer aufgeschlossen gegenüberstanden, behielten sie aufgrund ihres elitären Selbstverständnisses auch eine bis in die Zeit des Nationalsozialismus hinein wirksame Distanz gegenüber der NSDAP und ihren Parteiorganisationen wie etwa der SA aufrecht. Dennoch erfasste die nationale Aufbruchstimmung des Jahres 1933 auch Stauffenberg, der die Ernennung Hitlers zum Reichskanzler und die anschließende Gleichschaltung ausdrücklich begrüßte. Ein Brief an Stefan George aus dem Juni 1933 verrät eine aristokratische Gesinnung und zeigt zugleich, dass er die „nationale Erhebung“ durchaus positiv sah.
Am 1. Mai 1933 folgte Stauffenbergs Beförderung zum Oberleutnant.
Ehe und Nachkommen.
Am 26. September 1933 heiratete Graf Stauffenberg in Bamberg seine langjährige Verlobte Nina Freiin von Lerchenfeld. Ihr Vater war als kaiserlicher Konsularbeamter unter anderem in Kowno und Shanghai stationiert gewesen. Die Familie Lerchenfeld gehörte zum altbayerischen Uradel.
Aus der Ehe gingen fünf Kinder hervor:
Zuletzt lebte Stauffenbergs Witwe in der Nähe von Bamberg und engagierte sich sehr für das alte Bamberg. Sie verstarb am 2. April 2006 im Alter von 92 Jahren im bayerischen Kirchlauter (Landkreis Haßberge).
Zeit des Nationalsozialismus.
Nach dem Tod des Reichspräsidenten Paul von Hindenburg leistete die Reichswehr am 2. August 1934 den Führereid auf die Person Adolf Hitlers. Die machtpolitische Konzentration auf einen „Führer und Reichskanzler“ entsprach grundsätzlich Stauffenbergs Verständnis von der herausragenden Rolle des Individuums in der Geschichte. Ab dem 1. September 1934 folgte für Stauffenberg eine zweijährige Verwendung als "Bereiter-Offizier" an der Kavallerieschule Hannover, die vornehmlich unter sportlichen Gesichtspunkten Erfüllung brachten. Neben seiner Ausbildungsverantwortung zeigte sich seine überdurchschnittliche Befähigung als Reiter und er erzielte hervorragende Ergebnisse in Dressur- und Military-Wettkämpfen.
Am 1. Oktober 1936 gehörte Stauffenberg zu den ersten 100 ausgewählten Offizieren, die zur Generalstabsausbildung an die Kriegsakademie nach Berlin-Moabit abkommandiert wurden. Die von Hitler betriebene Aufrüstung der Wehrmacht erhöhte den Bedarf an Generalstabsoffizieren und die Ausbildung war mit Blick auf die schnelle Heeresvermehrung auf zwei Jahre verkürzt worden. Die Kerninhalte umfassten Taktik, Kriegsgeschichte, Heeresversorgung, Heerestransportwesen, Heeresorganisation, Wehrwirtschaft, Pionierdienst, Landbefestigung und Kartenkunde. Parallel absolvierte Stauffenberg eine Dolmetscherausbildung in Englisch und besuchte Abendvorträge der Deutschen Gesellschaft für Wehrpolitik und Wehrwissenschaften. An der Kriegsakademie lernte er Albrecht Mertz von Quirnheim und Eberhard Finckh kennen, die später ebenfalls dem militärischen Widerstand angehörten. 1937 verfasste Stauffenberg, der am 1. Januar 1937 zum Rittmeister befördert worden war, eine Arbeit über „Gedanken zur Abwehr feindlicher Fallschirmeinheiten im Heimatgebiet“, mit der er ein Preisausschreiben der Deutschen Gesellschaft für Wehrpolitik und Wehrwissenschaften gewann. Die Arbeit wurde in der Militärfachzeitschrift "Wissen und Wehr" veröffentlicht. Eine zweite wissenschaftliche Studie beschäftigte sich mit dem Zusammenwirken von Heereskavallerie und Panzerverbänden und hob die Bedeutung einer operativen Beweglichkeit der Kampfführung hervor. Hierbei sei die Verwendung einer Kavallerie neben Panzerverbänden ausschlaggebend:
Nach erfolgreicher Absolvierung der Kriegsakademie führte Stauffenbergs erste Stabsverwendung zur 1. Leichten Division nach Wuppertal. Dort trat er am 1. Juli 1938 den Posten als Zweiter Generalstabsoffizier (1b) an und war damit für die Divisionsversorgung zuständig. Sein Vorgesetzter war Generalleutnant Erich Hoepner. Stauffenberg bescheinigte man „großes Organisationstalent“ und er entwickelte anerkannte Qualitäten im Planen, Beschaffen und Versorgen. Die Division beteiligte sich nach dem Münchner Abkommen im Oktober 1938 am deutschen Einmarsch in das Sudetenland.
Zweiter Weltkrieg.
Überfall auf Polen.
Im August 1939 erfolgte die Mobilmachung und Verlegung der 1. Leichten Division nach Schlesien. Dort unterstand sie als Teil der Heeresgruppe Süd der 10. Armee unter General der Artillerie Walter von Reichenau, die mit ihren motorisierten Verbänden den Hauptangriff auf die polnische Hauptstadt Warschau führen sollte. Den folgenden Kriegsausbruch am 1. September 1939 empfand der Berufssoldat Stauffenberg als „Erlösung“ und mit seiner Division marschierte er im Südwesten Polens ein. Nach der Besetzung Wieluńs am 2. September überschritt sie die Warthe und stieß bis zum 12. September nach Radom vor. Der im Tempo des Blitzkrieges vorgetragene schnelle Vormarsch bereitete der Wehrmacht und auch Stauffenberg als verantwortlichem Quartiermeister logistische Schwierigkeiten. Während des Feldzugs ließ Stauffenberg einen deutschen Offizier vor ein Militärgericht stellen, der zwei polnische Frauen hatte erschießen lassen.
In einem Brief an seine Frau schilderte Stauffenberg seine Fronterfahrungen und Eindrücke aus Polen:
Der Historiker Heinrich August Winkler führt das Briefzitat als Beleg dafür an, dass Stauffenberg zu dieser Zeit die nationalsozialistische Rassenpolitik grundsätzlich bejahte, wenn er sie auch für überspitzt hielt. Auch der israelische Historiker Saul Friedländer nimmt an, dass sich Stauffenbergs Haltung gegenüber dem Judentum nur graduell, aber nicht prinzipiell vom Antisemitismus der Nationalsozialisten unterschieden habe. Der Stauffenberg-Biograf Peter Hoffmann lehnt den Begriff „Antisemit“ für Stauffenberg dagegen ab und will den Feldpostbrief im Zusammenhang interpretiert haben. Auch seine Enkelin Sophie von Bechtolsheim sieht hier Stauffenberg auch als ein Kind seiner Zeit, aber lehnt es ab, aus diesem einen Zitat zentrale Aspekte der Persönlichkeit ihres Großvaters abzuleiten.
Zum Ende der Kampfhandlungen in Polen stand Stauffenbergs Division zwischen Modlin und Warschau. Anschließend wurde die 1. Leichte Division an den Standort Wuppertal zurückgeführt und am 18. Oktober 1939 zur 6. Panzer-Division umgegliedert. Unter dem Befehl von Generalmajor Werner Kempf wurde sie sodann in ihren Bereitstellungsraum an der Westfront verlegt. Stauffenberg behielt seine Stellung als 1b im Divisionsstab.
Westfeldzug.
Im Westen verharrte die Front in der passiven Phase des Sitzkrieges. Der Oberbefehlshaber des Heeres Walther von Brauchitsch und Generalstabschef Franz Halder hielten den von Hitler angekündigten militärischen Konflikt mit den Westmächten für nicht vertretbar. Kurzzeitig näherten sie sich der militärischen Opposition an und erklärten sich um die Jahreswende 1939/40 bereit, Hitler zu verhaften, sobald er den Angriffsbefehl geben würde. Peter Graf Yorck von Wartenburg und Ulrich Wilhelm Graf Schwerin von Schwanenfeld, die dem militärischen Widerstand bereits seit der Septemberverschwörung angehörten, baten Stauffenberg, sich zum Adjutanten Brauchitschs ernennen zu lassen, um an einem geplanten Umsturzversuch teilnehmen zu können. Stauffenberg, seit Januar 1940 Hauptmann i. G., lehnte die Bitte seines weitläufig Verwandten Yorck von Wartenburg mit Verweis auf den Führereid ab. Auch Brauchitsch und Halder ordneten sich Hitler schließlich unter und nahmen von einem Putsch Abstand.
Stauffenbergs 6. Panzer-Division unterstand der Panzergruppe Kleist (Heeresgruppe A) und bildete nach Beginn der deutschen Offensive am 10. Mai 1940 einen Stoßkeil des Vormarschs durch die Ardennen. Dieser Angriff durch das vermeintlich verkehrshemmende Waldgebirge kam für die französische Heeresleitung unerwartet und war der Ausgangspunkt des kriegsentscheidenden Sichelschnittplans. Während der anschließenden Schlacht bei Sedan überquerte die Division bei Monthermé die Maas und stieß nahezu ungehindert bis zum Ärmelkanal vor.
In einem Feldpost-Brief vom 19. Mai 1940 zeigte sich Stauffenberg von dem sich abzeichnenden militärischen Sieg über Frankreich tief beeindruckt:
Noch vor Abschluss der Westoffensive wurde Stauffenberg von seiner Panzer-Division abgezogen und am 27. Mai 1940 zum Oberkommando des Heeres (OKH) versetzt. Für seine militärischen Leistungen erhielt er am 31. Mai 1940 das Eiserne Kreuz 1. Klasse.
Im Oberkommando des Heeres.
Innerhalb des OKH übernahm Stauffenberg die Leitung der Gruppe II der Organisationsabteilung („Organisation im Frieden und Kriegsspitzengliederung“). Er war in eine Schlüsselstellung eingerückt, die ihm Einsichten gewährte, die dem normalen Generalstabsoffizier versagt blieben. In der Abteilung wurden die organisatorischen Angelegenheiten des Feldheeres bearbeitet: Bewaffnung, Ausrüstung, Kommandostruktur, Spitzengliederung, Neuaufstellungen, Planung und Materialhaltung. In Erwartung einer Invasion Großbritanniens (Unternehmen Seelöwe) verblieb die Kommandobehörde nach dem Sieg über Frankreich zunächst im Westen. Nach Hitlers Entschluss die Sowjetunion anzugreifen (Weisung Nr. 21), kehrte das OKH in das Hauptquartier nach Wünsdorf zurück. Stauffenbergs Referat arbeitete an der organisatorischen Vorbereitung des Unternehmens Barbarossa mit. Seine Beförderung zum Major i. G. erging im April 1941. Nach dem deutschen Angriff auf die Sowjetunion bezog das Oberkommando am 23. Juni 1941 das OKH Mauerwald in Ostpreußen. Im Dezember 1941 hieß von Stauffenberg die Vereinheitlichung der Befehlsgewalt des Oberbefehlshabers des Heeres und des Obersten Befehlshabers der Wehrmacht in Hitlers Händen gut. Als Gruppenleiter im Oberkommando des Heeres gehörte er zu den maßgebenden Offizieren, die bewusst auf einen Wandel der Politik in den besetzten Gebieten hinarbeiteten. Besonders im Zusammenhang mit der Kampfführung der in den Kaukasus vordringenden Heeresgruppe A hatte er sich den Fragen der Freiwilligen in den sogenannten Ostlegionen zugewandt. Es ging um die Gewinnung von entlassenen Kriegsgefangenen und Überläufern für den Kampf auf deutscher Seite. Hierzu gab seine Abteilung am 2. Juni 1942 Richtlinien für die Behandlung turkestanischer und kaukasischer Soldaten heraus und steuerte im August 1942 die Organisation wie auch den Einsatz der Ostlegionen.
Am 1. Januar 1943 wurde Stauffenburg zum Oberstleutnant i. G. befördert.
Nordafrika.
Nach über zwei Jahren im Stabsdienst bat Stauffenberg um eine Frontverwendung und er wurde im März 1943 als Erster Generalstabsoffizier (Ia) zur 10. Panzer-Division versetzt. Diese lag in Nordafrika und unterstand der 5. Panzerarmee, die den Rückzug von Erwin Rommels Panzergruppe Afrika gegen die Alliierten abdeckte. Bei Stauffenbergs Ankunft auf dem tunesischen Kriegsschauplatz war die deutsche Strategie bereits gescheitert. Ohne Nachschub und mit ständig abnehmender Kampfkraft war die Lage der Achsenmächte aussichtslos und sie hatten der alliierten Übermacht letztlich nichts entgegenzusetzen. Mit seinem neuen Kommandeur, Generalmajor Friedrich von Broich, verband Stauffenberg gleich ein Vertrauensverhältnis und seine herausragenden militärischen Fähigkeiten machten ihn zu einem geschätzten Offizier. Während des Rückzugs seiner Division nach Mezzouna geriet Stauffenbergs Kübelwagen am 7. April 1943 unter Beschuss britischer Jagdflieger und er wurde schwer verwundet. Man brachte Stauffenberg in ein Feldlazarett bei Sfax und dort mussten seine zerschossene rechte Hand sowie Ring- und Kleinfinger der linken Hand amputiert werden. Weil ein Geschoss bis in den Schädelknochen gelangt war, verlor er sein linkes Auge. Wenig später wurde Stauffenberg in das Kriegslazarett 950 nach Tunis-Carthago überführt und gelangte von dort am 21. April in das Reservelazarett München 1, wo er in der chirurgischen Abteilung von Max Lebsche behandelt wurde, mit dem er über eine bayerisch-österreichische Nachkriegslösung sprach. Ungeachtet zusätzlicher Kniegelenk- und Mittelohr-Operationen lehnte Stauffenberg die Einnahme von Schmerzmitteln ab und mit der linken Hand, soweit noch gebrauchsfähig, lernte er schreiben. Zahlreiche Besucher strömten an Stauffenbergs Krankenbett, der aus den Händen des Generalstabschefs Kurt Zeitzler das Goldene Verwundetenabzeichen und am 8. Mai 1943 das Deutsche Kreuz in Gold erhielt. In München wurde Stauffenberg durch seinen Onkel Nikolaus Graf von Üxküll-Gyllenband betreut, der große Hoffnungen in seinen Neffen setzte und ihn beschwor, aktiv in den Widerstand einzutreten. Stauffenberg reiste auch zu dem berühmten Chirurgen Ferdinand Sauerbruch nach Berlin. Nach zehnwöchigem Aufenthalt im Lazarett kehrte Stauffenberg am 3. Juli 1943 zu seiner Familie nach Lautlingen zurück.
Abkehr von Hitler.
Während der Stabsoffizier Henning von Tresckow sich bereits im Herbst 1941 der Berliner Widerstandsgruppe um Ludwig Beck, Carl Friedrich Goerdeler und Hans Oster angeschlossen hatte, fühlte sich von Stauffenberg wie viele andere Militärs zunächst weiter durch seinen Treueid an Hitler gebunden. Erst im Herbst 1943 ließ er sich nach Berlin versetzen und suchte dort bewusst Kontakt zu den Hitlergegnern um General der Infanterie Friedrich Olbricht, dem Leiter des Allgemeinen Heeresamtes, und von Tresckow. Er war sich bewusst, dass nur die Wehrmacht als einzige von der Geheimen Staatspolizei (Gestapo) und vom Sicherheitsdienst (SD) kaum infiltrierte Organisation über die nötigen Machtmittel zum Umsturz verfügte. Gemeinsam mit seinem Bruder Berthold und mit den Mitgliedern des Kreisauer Kreises war er an den Entwürfen zu Regierungserklärungen für die Zeit nach dem Umsturz beteiligt. Die Verschwörer legten ihre Ziele auf die Beendigung des Krieges und der Judenverfolgung und auf die Wiederherstellung des Rechtsstaates fest, wie er bis 1933 bestanden hatte. Auf eine angestrebte Staatsform konnten sie sich nicht einigen. Ein Großteil der aus den konservativen Kreisen von Bürgertum, Adel und Militär stammenden Verschwörer lehnte die parlamentarische Demokratie ab, so auch von Stauffenberg. Andererseits scheint Stauffenberg trotz (oder sogar wegen) teils elitär-paternalistischer Wertvorstellungen auch eine Sympathie für einen „Preußischen Sozialismus“ gehabt zu haben. Er forderte die Aufnahme von Sozialdemokraten wie Julius Leber in die neu zu bildende Regierung, den er zeitweise sogar für das Amt des Reichskanzlers favorisiert haben soll. Durch Vermittlung seines Cousins Peter Graf Yorck von Wartenburg hatte er Leber kennengelernt. Es entstand ein enges Vertrauensverhältnis.
Laut dem Mitverschwörer Hans Bernd Gisevius erstrebte der engere Kreis um von Stauffenberg ab 1944 ein Bündnis mit den Kommunisten, um eine möglichst breite Unterstützung für den Umsturz und eine danach zu erschaffende Neuordnung des Staates zu erlangen. Am 22. Juni 1944 kam es in Absprache mit von Stauffenberg zu einem Gespräch zwischen den Sozialdemokraten Julius Leber und Adolf Reichwein und den Kommunisten Anton Saefkow und Franz Jacob, die in Berlin an der Spitze des kommunistischen Widerstandes standen. Weitere Treffen sollten folgen, da das Gespräch äußerst konstruktiv verlief. Doch von Stauffenbergs Vertrauter Julius Leber wurde infolge des Treffens mit den Vertretern der Saefkow-Jacob-Bästlein-Organisation verhaftet, bei dem auch ein Spitzel der Gestapo (Ernst Rambow) anwesend war. Die Bestrebungen, die Kommunisten in die Planungen des Umsturzes enger einzubinden, scheiterten insofern in erster Linie an der Repression der Verfolger. Nach der Verhaftung Lebers Anfang Juli 1944 soll von Stauffenberg gegenüber Adam von Trott zu Solz immer wieder erklärt haben: „Ich hole ihn heraus.“ Für Lebers Rettung schien aus Sicht von Stauffenberg kein Preis zu hoch zu sein. Schließlich vertrat er die Ansicht, das Wichtigste sei zunächst die Beseitigung des NS-Regimes, alles andere werde sich dann finden.
Innerlich stand Stauffenberg auch Fritz-Dietlof Graf von der Schulenburg sehr nahe, der ein möglichst breites Netzwerk der Verschwörung schrittweise ausbaute. Im Juli 1944 traf der engere Verschwörerkreis in Berlin-Wannsee im Haus Bertholds zusammen. Sie legten einen von Rudolf Fahrner und Berthold entworfenen Eid ab, in dem sie sich auf ein gemeinsames Handeln nach dem Staatsstreich, selbst im Falle der Besetzung Deutschlands, verpflichteten.
Wegen dieser elitären, als „antidemokratisch“ und „nationalistisch“ interpretierten Haltung, die bis in die Formulierungen hinein dem Denken des George-Kreises verpflichtet war, glaubt der britische Historiker Richard J. Evans, dass von Stauffenberg an zukunftsweisendem politischen Gedankengut „nichts zu bieten“ hatte. „Als Vorbild für künftige Generationen“ sei er „schlecht geeignet“.
Operation „Walküre“.
Die Planung.
Aus Schonungsgründen stellte Generalstabschef Zeitzler den schwerverwundeten Stauffenberg bis auf weiteres dem Befehlshaber des Ersatzheeres in Berlin zur Verfügung. Diese Versetzung kam General Friedrich Olbricht, dem Leiter des Allgemeinen Heeresamtes und führenden Kopf der militärischen Verschwörung, gelegen, weil er um Stauffenbergs innere Wende wusste. Mitte September 1943 zog Stauffenberg in die Villa seines Bruders Berthold nach Berlin-Nikolassee und trat seine neue Stellung im Heeresamt am 1. Oktober 1943 offiziell an. Er unterstand Olbricht, womit er fortan dem inneren Zirkel des militärischen Widerstands im Bendlerblock angehörte und baute mit dessen Förderung ein militärisch-oppositionelles Netz auf. Gemeinsam mit Olbricht, Albrecht Mertz von Quirnheim und Henning von Tresckow arbeitete Stauffenberg die Planungen für das Unternehmen Walküre aus. Offiziell diente der Operationsplan der Niederwerfung möglicher Unruhen im Inneren, etwa bei einem Aufstand der zahlreichen Zwangsarbeiter. Stauffenberg und Tresckow fügten dem Plan einige weitere Befehle hinzu und machten so aus "Walküre" einen getarnten Umsturzplan für einen Staatsstreich. Er sah vor, die Ermordung Hitlers zunächst einer Gruppe „frontfremder Parteifunktionäre“ anzulasten, um damit einen Grund für die Verhaftung der Angehörigen von NSDAP, SS, Sicherheitsdienst und Gestapo zu haben. Die Befehlshaber der Wehrkreiskommandos im gesamten Großdeutschen Reich sollten sofort nach der Auslösung von "Walküre" entsprechende Befehle erhalten. Das Militär sollte die ausführende Gewalt übernehmen. Für Stauffenberg sahen die Umsturzpläne den Rang eines Staatssekretärs im Reichskriegsministerium vor. Er koordinierte die Attentatspläne mit Carl Friedrich Goerdeler und Generaloberst Ludwig Beck und hielt Verbindung zum zivilen Widerstand um Julius Leber, Wilhelm Leuschner sowie zu den Mitgliedern des Kreisauer Kreises, zu dem auch sein Cousin Peter Graf Yorck von Wartenburg gehörte. Nach der Verhaftung Helmuth James Graf von Moltkes im Januar 1944 fanden keine Treffen des Kreisauer Kreises mehr statt. Die Mehrheit der Mitglieder stellte sich von Stauffenberg – trotz Moltkes Vorbehalten gegen eine Tötung Hitlers – zur Verfügung.
Spätestens mit der erfolgreichen Invasion der Alliierten in der Normandie am 6. Juni 1944 war deutlich geworden, dass eine militärische Niederlage und damit ein „Zusammenbruch“ des Deutschen Reichs wohl nicht mehr abwendbar war. Stauffenberg fühlte sich aus ähnlichen Gründen wie Tresckow dennoch verpflichtet, die Vorbereitungen zum Staatsstreich durch eine gewaltsame Beseitigung der nationalsozialistischen Führung voranzutreiben:
Mitte Juni 1944 wurde Stauffenberg Chef des Stabes des Befehlshabers des Ersatzheeres Generaloberst Friedrich Fromm und am 1. Juli 1944 zum Oberst i. G. befördert. Damit saß er nun gemeinsam mit Olbricht und Mertz von Quirnheim in der Schaltzentrale für die geplante Operation "Walküre" und erhielt Zugang zu den Lagebesprechungen in den Führerhauptquartieren. Ein heikler Punkt des Plans war, dass von Stauffenberg sowohl das Attentat ausführen, als auch von Berlin aus den Staatsstreichversuch leiten musste. Bereits am 11. Juli auf dem Berghof und am 15. Juli im Führerhauptquartier Wolfsschanze versuchte von Stauffenberg, Adolf Hitler zu töten. Beide Versuche brach er vorzeitig ab, weil entweder Heinrich Himmler und/oder Hermann Göring nicht anwesend waren. Ein drittes Mal sollte der Anschlag unter keinen Umständen verschoben werden.
Attentat und Staatsstreich.
Die nächste Gelegenheit ergab sich rein zufällig am 18. Juli, als von Stauffenberg für den übernächsten Tag ins Führerhauptquartier bestellt wurde, um dort über geplante Neuaufstellungen von Truppen zu berichten. Die Widerstandsgruppe hatte bereits die Mitglieder einer Nachfolgeregierung bestimmt. Es musste nur noch Hitler „beseitigt“ werden. Von Stauffenberg flog am 20. Juli um 8:00 Uhr mit seinem Adjutanten, Oberleutnant Werner von Haeften, vom Flugplatz Rangsdorf bei Berlin zur Wolfsschanze bei Rastenburg in Ostpreußen.
Da die Besprechung wegen eines geplanten Besuchs von Benito Mussolini unerwartet um eine halbe Stunde vorverlegt wurde, gelang es ihm nur noch, mit einer speziell für ihn angepassten Zange (er besaß nur noch drei Finger an seiner linken Hand), eines der beiden Sprengstoffpäckchen mit einem aktivierten britischen Bleistiftzünder (chemisch-mechanischen Zeitzünder) zu versehen. Das zweite Sprengstoffpäckchen, das die Sprengwirkung zweifellos erhöht hätte, steckte er nicht mit in seine Aktentasche. Dazu kam, dass die Besprechung nicht wie üblich in einem Betonbunker, sondern in einer leichten Holzbaracke stattfand und die Sprengladung so nicht die erhoffte Wirkung entfalten konnte. Von Stauffenberg stellte sie etwa zwei Meter entfernt von Hitler neben einem massiven Tischblock (der wohl die Wirkung weiter abschwächte) ab und verließ die Baracke unter dem Vorwand, telefonieren zu müssen. Die Sprengladung detonierte um 12:42 Uhr in der mit 24 Personen gefüllten Holzbaracke. Hitler und weitere 19 Anwesende überlebten die Detonation.
Von Stauffenberg und Haeften konnten in der allgemeinen Verwirrung nach dem Anschlag die Wolfsschanze rechtzeitig verlassen, warfen die verbleibende Sprengladung auf der Fahrt zum Flugplatz Rastenburg aus dem offenen Wagen und flogen nach Berlin zurück, im festen Glauben, Hitler sei tot. Bereits wenige Minuten nach der Explosion gelangte aber die Nachricht, dass Hitler überlebt hatte, nach Berlin: Propagandaminister Joseph Goebbels erhielt bereits gegen 13 Uhr in Berlin telefonisch Kenntnis vom misslungenen Attentat. Kurz darauf bestätigte der Mitverschwörer Oberst Hahn dem General Thiele im Bendlerblock in einem weiteren Telefonat aus der Wolfsschanze ausdrücklich, dass Hitler das Attentat überlebt habe. Thiele benachrichtigte die Generäle Friedrich Olbricht und Hoepner von den Ferngesprächen, sie einigten sich darauf, Walküre zunächst noch nicht auszulösen. Noch während von Stauffenberg auf dem Rückflug nach Berlin war, bekam Heinrich Müller, Chef der Geheimen Staatspolizei (Gestapo), den Auftrag, von Stauffenberg zu verhaften. Gegen 15:45 Uhr landete von Stauffenberg in Berlin, beteuerte in einem Telefonat mit Olbricht wahrheitswidrig, dass er mit eigenen Augen gesehen habe, dass Hitler tot sei, und begab sich zu Olbricht in den Bendlerblock. Erst gegen 16:30 Uhr, fast vier Stunden nach dem Attentat, wurde "Walküre" ausgelöst. Es zeigten sich jetzt aber schwere Mängel in Vorbereitung und Durchführung des Umsturzversuchs. So zog sich das Aussenden der Fernschreiben aus dem Bendlerblock in die Wehrkreise über Stunden hin und kreuzte sich bereits ab etwa 16 Uhr mit Fernschreiben aus der Wolfsschanze, dass Befehle aus dem Bendlerblock ungültig seien. Die meisten Offiziere außerhalb des Bendlerblocks verhielten sich wegen dieser widersprüchlichen Lage abwartend. Die Fernschreiben der Verschwörer mit den "Walküre"-Befehlen wurden weitgehend nicht befolgt.
Zwar hielten sich Georg und Philipp Freiherr von Boeselager bereit, um mit ihren Regimentern auf das „führerlose“ Berlin zu marschieren, und von Stauffenberg, Olbricht, Mertz von Quirnheim und Haeften ließen Generaloberst Fromm verhaften, der sie bis dahin gedeckt hatte, aber angesichts der unsicheren Nachrichtenlage von einer Beteiligung an dem Umsturzversuch nichts mehr wissen wollte. Der Einmarsch der Truppen unterblieb aber, und am späten Abend meldete sich Hitler selbst in einer Rundfunkansprache zu Wort.
Das Ende des Staatsstreichversuches.
Gegen 22:30 Uhr verhaftete eine Gruppe regimetreuer Offiziere, unter ihnen Otto Ernst Remer, von Stauffenberg und die Mitverschwörer. Generaloberst Fromm gab unter Berufung auf ein Standgericht, das angeblich stattgefunden habe, noch am Abend des 20. Juli den Befehl, Claus Schenk Graf von Stauffenberg gemeinsam mit Werner von Haeften, Albrecht Ritter Mertz von Quirnheim und Friedrich Olbricht zu erschießen; „[d]ie Erschießungen können kurz vor oder kurz nach Mitternacht erfolgt sein“. Die Exekution fand im Hof des Bendlerblocks statt, von Stauffenbergs letzte Worte sollen der Ausruf „Es lebe das heilige Deutschland!“ gewesen sein, nach anderen Quellen rief er in Anspielung auf die Ideenwelt Stefan Georges „Es lebe das Geheime Deutschland!“ Am folgenden Tag wurden die Leichen der Erschossenen mit ihren Uniformen und Ehrenzeichen auf dem Alten St.-Matthäus-Kirchhof Berlin bestattet. Himmler ließ sie ausgraben und ordnete ihre Verbrennung im Krematorium Berlin-Wedding an. Ihre Asche wurde über die Rieselfelder von Berlin verstreut.
Folgen für die Familien der Verschwörer.
Himmler plante, die Familien der Verschwörer zu ermorden und die Familiennamen auszulöschen. Die zunächst ins Auge gefasste Blutrache wurde wieder verworfen und stattdessen eine umfangreiche Sippenhaft befohlen. Von Stauffenbergs schwangere Ehefrau Nina Schenk Gräfin von Stauffenberg wurde in das Konzentrationslager Ravensbrück deportiert. In ihrer Einzelhaft 1944 schrieb sie ein Gedicht in Gedanken an ihren Mann:
Du bist bei mir,
wenn auch Dein Leib verging.
Und immer ist’s, als ob
Dein Arm mich noch umfing.
Dein Auge strahlt mir zu
im Wachen und im Traum.
Dein Mund neigt sich zu mir.
Dein Flüstern schwingt im Raum:
Aufgrund der anstehenden Geburt wurde sie in ein NS-Frauenentbindungsheim in Frankfurt (Oder) verlegt, wo das fünfte Kind der Familie, Konstanze, am 27. Januar 1945 zur Welt kam. Die vier älteren Kinder wurden in das Kinderheim im Borntal bei Bad Sachsa verbracht. Es gab Pläne, sie nationalsozialistischen Familien zur Adoption zu übergeben. Sie erhielten andere Nachnamen (die Stauffenberg-Kinder hießen ab sofort „Meister“) und verblieben dort bis nach dem Kriegsende. Erst am 7. Juni 1945 konnte ihre Großtante Alexandrine Gräfin von Üxküll-Gyllenband sie abholen.
Nachleben.
Im Zusammenhang mit dem Attentat kam es zu zahlreichen postumen Ehrungen: Gedenktafeln befinden sich unter anderem in der Gedenkstätte Deutscher Widerstand im Bendlerblock in Berlin (seit 1960), in der Lönsstraße in Wuppertal (seit 1984) und im Bamberger Dom. In mehreren deutschen Städten gibt es nach Graf von Stauffenberg benannte Straßen oder Plätze. Am 20. Juli 1955 wurde die bisherige Bendlerstraße am Bendlerblock in Stauffenbergstraße umbenannt.
Die Kaserne der Bundeswehr in Sigmaringen trägt seit dem 20. Juli 1961 den Namen Graf-Stauffenberg-Kaserne. 1964 wurde auf ihrem Gelände ein Gedenkstein zur Erinnerung an von Stauffenberg enthüllt. Um trotz Schließung der Kaserne in Sigmaringen den Namen zu erhalten, wurde die Albertstadt-Kaserne in Dresden 2013 in Graf-Stauffenberg-Kaserne umbenannt.
Die Deutsche Bundespost widmete 1964 von Stauffenberg zum 20. Jahrestag des Attentats eine von E. und Gerd Aretz gestaltete Briefmarke aus einem Block. Eine Briefmarke aus der Serie Aufrechte Demokraten zum 100. Geburtstag von von Stauffenberg und Helmuth James Graf von Moltke aus dem Jahre 2007 wurde von Irmgard Hesse entworfen.
Seit 1967 trägt die 1965 als "4. Jungengymnasium" in Osnabrück gegründete Schule den Namen Graf-Stauffenberg-Gymnasium.
Seit dem 9. Februar 1979 trägt die Städtische Realschule in Bamberg den Namen "Graf-Stauffenberg-Realschule." Auch die städtische Wirtschaftsschule hat den Widerstandskämpfer seit 1979 als Namenspatron. Ein früher in demselben Gebäude untergebrachtes, aber mittlerweile in ein anderes Gymnasium integriertes Wirtschaftsgymnasium trug ebenfalls den Namen "Graf-Stauffenberg-Gymnasium". In Flörsheim am Main existiert ebenfalls ein "Graf-Stauffenberg-Gymnasium".
Die Deutsche Demokratische Republik wollte 1990 den Stauffenberg-Orden für militärische Verdienste stiften, wozu es aufgrund der Wiedervereinigung nicht mehr kam.
Am 3. April 2000 wurde eine Büste von Stauffenbergs in der Bayerischen Ruhmeshalle enthüllt. Im Stuttgarter „Alten Schloss“ wurde 2006 eine Erinnerungsstätte des Landes Baden-Württemberg eröffnet.
Zum 100. Geburtstag von Stauffenbergs, der unter anderem mit einem Großen Zapfenstreich einer Bundeswehrdivision begangen wurde, wurde am 15. November 2007 im Stauffenberg-Schloss in Lautlingen eine neue Gedenkstätte eröffnet; sie wurde gefördert von der Landesstiftung Baden-Württemberg und Sponsoren aus der Wirtschaft.
Die Stadt Dresden benannte im Stadtteil Albertstadt eine Straße „Stauffenbergallee“. Die an diese Straße grenzende Offizierschule des Heeres, an der er selbst ausgebildet worden war, benannte den großen Traditionslehrsaal „Stauffenbergsaal“. Von Stauffenberg zu Ehren tragen die Offizierlehrgänge des 71. OAJ (Offizieranwärterjahrgang) des Deutschen Heeres seinen Namen.
Alljährlich finden am 20. Juli Feierstunden der Bundesregierung und öffentliche Gelöbnisse der Bundeswehr in Erinnerung an das gescheiterte Attentat auf Hitler statt. Seit 2008 wird das Feierliche Gelöbnis im Wechsel am Berliner Dienstsitz des BMVg, Bendlerblock und vor dem Reichstagsgebäude abgehalten.
Film.
Von Stauffenberg wurde im Film unter anderem von folgenden Schauspielern dargestellt: |
929 | 479548 | https://de.wikipedia.org/wiki?curid=929 | C++ | C++ ist eine von der ISO genormte Programmiersprache. Sie wurde ab 1979 von Bjarne Stroustrup bei AT&T als Erweiterung der Programmiersprache C entwickelt. C++ ermöglicht sowohl die effiziente und maschinennahe Programmierung als auch eine Programmierung auf hohem Abstraktionsniveau. Der Standard definiert auch eine Standardbibliothek, zu der verschiedene Implementierungen existieren.
Einsatzgebiete.
C++ wird sowohl in der Systemprogrammierung als auch in der Anwendungsprogrammierung eingesetzt und gehört in beiden Bereichen zu den verbreitetsten Programmiersprachen.
Systemprogrammierung.
Typische Anwendungsfelder in der Systemprogrammierung sind Betriebssysteme, eingebettete Systeme, virtuelle Maschinen, Treiber und Signalprozessoren. C++ nimmt hier oft den Platz ein, der früher ausschließlich Assemblersprachen und der Programmiersprache C vorbehalten war.
Anwendungsprogrammierung.
Bei der Anwendungsprogrammierung kommt C++ vor allem dort zum Einsatz, wo hohe Anforderungen an die Effizienz gestellt werden, um durch technische Rahmenbedingungen vorgegebene Leistungsgrenzen möglichst gut auszunutzen. Ab dem Jahr 2000 wurde C++ aus der Domäne der Anwendungsprogrammierung von den Sprachen Java und C# zurückgedrängt.
Eigenschaften.
Sprachdesign.
Die Sprache C++ verwendet nur etwa 60 Schlüsselwörter („Sprachkern“), manche werden in verschiedenen Kontexten (codice_1, codice_2) mehrfach verwendet. Ihre eigentliche Funktionalität erhält sie, ähnlich wie auch die Sprache C, durch die C++-Standardbibliothek, die der Sprache fehlende wichtige Funktionalitäten beibringt (Arrays, Vektoren, Listen, …) wie auch die Verbindung zum Betriebssystem herstellt (iostream, fopen, exit, …). Je nach Einsatzgebiet kommen weitere Bibliotheken und Frameworks dazu. C++ legt einen Schwerpunkt auf die Sprachmittel zur Entwicklung von Bibliotheken. Dadurch favorisiert es verallgemeinerte Mechanismen für typische Problemstellungen und besitzt kaum in die Sprache integrierte Einzellösungen.
Eine der Stärken von C++ ist die Kombinierbarkeit von effizienter, maschinennaher Programmierung mit mächtigen Sprachmitteln, die einfache bis komplexe Implementierungsdetails zusammenfassen und weitgehend hinter abstrakten Befehlsfolgen verbergen. Dabei kommt vor allem die Template-Metaprogrammierung zum Zuge: Eine Technik, die eine nahezu kompromisslose Verbindung von Effizienz und Abstraktion erlaubt.
Einige Design-Entscheidungen werden allerdings auch häufig kritisiert:
Ressourcenverwaltung.
C++ hat keine Garbage Collection, allerdings gibt es Bestrebungen, Garbage-Collection durch Bibliotheken oder durch Aufnahme in den Sprachstandard zu ermöglichen. Siehe auch Boehm-Speicherbereinigung.
Es ist möglich die Speicherverwaltung von C (malloc/realloc/free) zu verwenden; zur Implementierung von Low-Level-Funktionen in Bibliotheken wie der C++-Standardbibliothek ist dies zum Zugriff auf C Bibliotheksfunktionen notwendig. In allgemeinem C++ Code wird hiervon jedoch dringend abgeraten.
Stattdessen ist es dort üblich, die Speicherverwaltung von der C++-Standardbibliothek übernehmen zu lassen, indem man die angebotenen Containerklassen verwendet.
Andere Ressourcen, z. B. Dateihandles oder Netzwerksockets werden in C++ üblicherweise in eigenen Klassen mit dem Prinzip RAII verwaltet, um das automatische Aufräumen nach der Verwendung sicherzustellen.
Dies ist konzeptionell in anderen Programmiersprachen oft mit der Implementierung spezieller Basisklassen/Schnittstellen gestaltet – wie z. B. „AutoCloseable“ in Java oder „IDisposable“ in C#.
In anderen Programmiersprachen benötigen diese nicht verwalteten Ressourcen oft ein spezielles Handling (z. B. „using“ Schlüsselwort in C#), um die Lebenszeit dieser Objekte Ausnahmesicher in Verbindung mit dem Garbage Collector zu verwalten.
Die RAII basierten Implementierungen in C++ sind konzeptbedingt nicht anfällig bezüglich dieser Probleme da Speicher in C++ keinen Sonderstatus als Ressource hat. Eine korrekte Implementierung der Objektlebenszeit garantiert hier die Freigabe aller Ressourcen.
Für Verweise auf Objekte werden üblicherweise Referenzen verwendet, solange der Verweis das Objekt nicht besitzen soll – z. B. als Parameter bei Funktionsaufrufen.
Um den Besitz von dynamisch allokierten Objekten zu verwalten werden üblicherweise Smart Pointer eingesetzt, welche die Destruktion und Speicherfreigabe übernehmen.
Die Standardbibliothek unterscheidet hier strikt den Besitz. Während beim unique_ptr nur dieser Zeiger den Speicher besitzt, kann der Besitz des Speichers beim shared_ptr zwischen mehreren Zeigerinstanzen geteilt werden.
Technisch realisiert ist dies beim shared_ptr meist mit Reference counting.
Unvollständige Objektorientierung.
Sichtbarkeit privater Elemente.
In C++ gehören private Eigenschaften (Variablen und Methoden) normalerweise mit zur Schnittstelle, die in der Header-Datei veröffentlicht ist. Dadurch entstehen zur Compilezeit und zur Laufzeit Abhängigkeiten der Objekte zu den Stellen, die sie verwenden.
Diese Abhängigkeiten können durch bestimmte Konstruktionen, wie dem "pimpl-Idiom" (""), vermieden werden. Dabei werden die privaten Felder der Klasse ("example_class") in eine private, vorwärts-deklarierte Hilfsklasse verschoben, und ein Zeiger auf ein Objekt dieser Hilfsklasse ("example_class::impl * impl_ptr") bleibt in der eigentlichen Klasse. Die Definition der implementierenden Klasse findet bei der Implementierung der öffentlichen Klasse statt und ist damit für den Verwender der Klasse (der nur die Header-Datei kennt) unsichtbar. Dadurch, dass die Hilfsklasse nur durch einen Zeiger referenziert wird, bleiben alle Quelltextänderungen an privaten Feldern transparent und die Binärkompatibilität wird erhalten.
Unvollständige Kapselung.
In C++ sind die Speicherbereiche der einzelnen Objekte zur Laufzeit nicht vor (absichtlichen oder versehentlichen) gegenseitigen Änderungen geschützt.
Undefiniertes Verhalten.
Das Verhalten von einigen Sprachkonstrukten ist nicht definiert. Dies bedeutet, dass der Standard weder vorgibt noch empfiehlt, was in einem solchen Fall passiert. Die Auswirkungen reichen von Implementierungsabhängigkeit (d. h. je nach Zielrechner und Compiler kann sich das Konstrukt unterschiedlich verhalten) über unsinnige Ergebnisse oder Programmabstürze bis hin zu Sicherheitslücken. Einige dieser Freiheiten des Compilers lassen zusätzliche Optimierungen des Codes zu.
Es kommt zu unterschiedlichem Verhalten bei
Quellcode mit Codepassagen mit undefiniertem Verhalten kann nach der Kompilierung unerwartetes und absurd erscheinenden Verhalten zeigen. So werden zu spät durchgeführte Überprüfungen wegoptimiert oder Schleifen, die auf einen ungültigen Index eines Arrays zugreifen, durch leere Endlosschleifen ersetzt.
Wichtig für das Verständnis von undefiniertem Verhalten ist insbesondere, dass niemals nur eine einzelne Operation ungültig ist, sondern das "gesamte Programm" ungültig wird und kein wohlgeformtes C++ mehr darstellt. Der Grund ist, dass manche Arten von „undefiniertem Verhalten“ Auswirkungen auf ganz andere, auch in sich korrekte, Programmteile haben und deren Verhalten beeinflussen können, beispielsweise bei Pufferüberläufen oder der unbeabsichtigten Änderung von Prozessor-Flags, die durch eine ungültige arithmetische Operation verursacht wurde und die nachfolgenden Berechnungen beeinflussen kann.
Beispiele für "undefiniertes Verhalten":
Einerseits ist das hieraus resultierende nichtdeterministische Laufzeitverhalten, insbesondere bei kleinen Änderungen der Plattform, mindestens als Risiko, in der Praxis oft aber als klarer Nachteil einzustufen. Andererseits werden hierdurch schnellere Programme ermöglicht, da Gültigkeitsüberprüfungen weggelassen werden können und der Compiler zudem oft Programmteile stärker optimieren kann, indem er Randfälle als per Definition ausgeschlossen ignoriert.
Ein oft nicht wahrgenommener Vorteil ist darüber hinaus, dass dadurch, dass undefiniertes Verhalten praktisch nur in äußerst fragwürdigen Konstrukten auftritt, die aber nicht zwingend während des Kompilierens feststellbar sind, unsemantischer oder anderweitig suboptimaler Code gewissermaßen verboten wird.
Beispielsweise besteht eine illegale Art zu prüfen, ob die Summe zweier positiver Ganzzahlen formula_1 und formula_2 vom Typ ‚int‘ verlustfrei wieder in einem ‚int‘ abgebildet werden kann, daraus, zu schauen, ob ihre Summe größer 0 ist (bei Überlauf entsteht auf den meisten Computern durch die Zweierkomplement-Arithmetik eine negative Zahl). Eine derartige Überprüfung ist allerdings aus mathematischer Sicht nicht besonders sinnvoll. Eine bessere (semantischere) Herangehensweise ist hier, die eigentliche Frage, ob formula_3, wobei formula_4 die größte in einem ‚int‘ darstellbare Zahl ist, nach der mathematisch validen Umformung zu formula_5 zu verwenden.
Kompatibilität mit C.
Um an die Verbreitung der Programmiersprache C anzuknüpfen, wurde C++ als Erweiterung von C gemäß dem damaligen Stand von 1990 (, auch kurz C90 genannt) entworfen.
Die Kompatibilität mit C zwingt C++ zur Fortführung einiger dadurch übernommener Nachteile. Dazu zählt die teilweise schwer verständliche C-Syntax, der als überholt geltende Präprozessor sowie verschiedene von der jeweiligen Plattform abhängige Details der Sprache, die die Portierung von C++-Programmen zwischen unterschiedlichen Rechnertypen, Betriebssystemen und Compilern erschweren.
Einige C-Sprachkonstrukte haben in C++ eine leicht abgewandelte Bedeutung oder Syntax, so dass manche C-Programme erst angepasst werden müssen, um sich als C++-Programm übersetzen zu lassen. Weitere Änderungen an C fanden in den Jahren 1999 (, aka C99) und 2011 (, aka C11) also nach der ersten Normung von C++ statt, so dass dort eingeflossene Änderungen nicht in C++98 berücksichtigt werden konnten. In die C++-Revision von 2011 wurde ein Teil der Neuerungen von C99 übernommen; auf der anderen Seite wurden dem C-Standard neue Features hinzugefügt, die auch mit C++11 nicht kompatibel sind.
Sprachmerkmale im Detail.
C++ basiert auf der Programmiersprache C wie in ISO/IEC 9899:1990 beschrieben. Zusätzlich zu den in C vorhandenen Möglichkeiten bietet C++ weitere Datentypen sowie neuartige Typumwandlungsmöglichkeiten, Klassen mit Mehrfachvererbung und virtuellen Funktionen, Ausnahmebehandlung, Templates (Schablonen), Namensräume, Inline-Funktionen, Überladen von Operatoren und Funktionsnamen, Referenzen, Operatoren zur Verwaltung des dynamischen Speichers und mit der C++-Standardbibliothek eine erweiterte Bibliothek.
Programmbeispiel.
Der folgende Quelltext ist ein einfaches C++-Programm, das den Text „Hallo Welt!“ in den Standardausgabestrom, üblicherweise das Terminal, schreibt:
int main() {
std::cout « "Hallo Welt!" « std::endl;
return 0;
Der Präprozessorbefehl oder auch Präprozessordirektive genannt codice_9 bindet Header-Dateien ein, die typischerweise Deklarationen von Variablen, Typen und Funktionen enthalten. Im Gegensatz zu C besitzen Header der C++-Standardbibliothek keine Dateiendung.
Der Header codice_10 ist Teil der C++-Standardbibliothek und deklariert unter anderem den Standardeingabestrom codice_11 und die Standardausgabeströme codice_12 und codice_13 für die aus der C-Standardbibliothek bekannten Objekte codice_14, codice_15 und codice_16.
Bei codice_17 handelt es sich um die Funktion, die den Einsprungpunkt jedes C++-Programms darstellt. Das Programm wird ausgeführt, indem die Funktion codice_17 aufgerufen wird, wobei diese ihrerseits andere Funktionen aufrufen kann. Die Funktion codice_17 selbst darf allerdings in einem C++-Programm nicht rekursiv aufgerufen werden.
Der Standard verlangt von Implementierungen, zwei Signaturen für die Funktion codice_17 zu unterstützen: Eine ohne Funktionsparameter wie im Beispiel, und eine, die einen Integer und einen Zeiger auf Zeiger auf codice_21 entgegennimmt, um auf Kommandozeilenparameter zugreifen zu können (was nicht in allen Programmen vonnöten ist): codice_22. Implementierungen dürfen darüber hinaus weitere Signaturen für codice_17 unterstützen, alle müssen jedoch den Rückgabetyp codice_4 (Integer) besitzen, also eine Ganzzahl zurückgeben. Würde codice_17 keinen Wert zurückgeben, schreibt der C++-Standard der Implementierung vor, codice_26 anzunehmen. codice_17 gibt also 0 zurück, wenn kein anderslautendes codice_5-Statement in ihr vorhanden ist.
codice_12 ist eine Instanz der Klasse codice_30, die sich wie die gesamte C++-Standardbibliothek im Namensraum codice_31 befindet. Bezeichner in Namensräumen werden mit dem Bereichsoperator (codice_32) angesprochen.
Die Ausgabe des Zeichenkettenliterals codice_33 übernimmt der Operator codice_34. Zeichenkettenliterale sind in C++ vom Typ "Array aus N konstanten chars" (codice_35), wobei "N" gleich der Länge der Zeichenkette + 1 für die abschließende Nullterminierung ist. Da die Standardtypumwandlungen von C++ die als "pointer-to-array decay" bekannte implizite Umwandlung eines Arrays codice_36 in einen Pointer codice_37 vorsehen, und damit codice_35 in einen codice_39 zerfällt, passt der überladene Operator codice_40 aus codice_41 und wird entsprechend aufgerufen (codice_42) und gibt die Zeichenkette aus. Durch den Ausgabemanipulator codice_43 wird ein Zeilenendezeichen ausgegeben.
Bei codice_44 wird dem aufrufenden Programm über das Betriebssystem mitgeteilt, dass die Ausführung des Programms erfolgreich war.
Dateiendungen.
Typische Dateiendungen sind .C, .cc, .cpp, .cxx, , .h, .hh, .hpp, .hxx, , .ipp, .tpp, .ixx.
Umsetzung.
C++-Compiler.
Die Implementierung eines C++-Compilers gilt als aufwendig. Nach der Fertigstellung der Sprachnorm 1998 dauerte es mehrere Jahre, bis die Sprache von C++-Compilern weitestgehend unterstützt wurde.
Zu den verbreitetsten C++-Compilern gehören:
Vergleich mit anderen Sprachen.
Objective-C.
C++ war nicht der einzige Ansatz, die Programmiersprache C um Eigenschaften zu erweitern, die das objektorientierte Programmieren vereinfachen. In den 1980er Jahren entstand die Programmiersprache Objective-C, die sich aber im Gegensatz zu C++ syntaktisch wie von ihrem Funktionsprinzip an Smalltalk und nicht an Simula orientierte. Die Syntax von Objective-C (C beeinflusst durch Smalltalk) unterscheidet sich erheblich von C++ (C beeinflusst von Simula mit ganz eigenen syntaktischen Erweiterungen). Ende der 1980er Jahre wurde Objective-C erstmals kommerziell in NeXTStep verwendet, in dem es einen zentralen Bestandteil darstellt. Heutzutage findet es in der Programmierschnittstelle OpenStep (bzw. Cocoa und GNUstep) sowie in den Betriebssystemen iOS und macOS ein wichtiges Einsatzgebiet.
Java und C#.
Die Programmiersprachen Java und C# verfügen über eine ähnliche, ebenfalls an C angelehnte Syntax wie C++, sind auch objektorientiert und unterstützen seit einiger Zeit Typparameter. Trotz äußerlicher Ähnlichkeiten unterscheiden sie sich aber konzeptionell von C++ zum Teil beträchtlich.
Generische Techniken ergänzen die objektorientierte Programmierung um Typparameter und erhöhen so die Wiederverwertbarkeit einmal kodierter Algorithmen. Die generischen Java-Erweiterungen sind jedoch lediglich auf Klassen, nicht aber auf primitive Typen oder Datenkonstanten anwendbar. Demgegenüber beziehen die generischen Spracherweiterungen von C# auch die primitiven Typen mit ein. Dabei handelt es sich allerdings um eine Erweiterung für Generik zur Laufzeit, die die auf Kompilationszeit zugeschnittenen C++-Templates zwar sinnvoll ergänzen, nicht aber ersetzen können.
Gerade die generische Programmierung macht C++ zu einem mächtigen Programmierwerkzeug. Während die objektorientierte Programmierung in Java und C# nach wie vor den zentralen Abstraktionsmechanismus darstellt, ist diese Art der Programmierung in C++ rückläufig. So werden tiefe Klassenhierarchien vermieden, und zu Gunsten der Effizienz und der Minimierung des Ressourcenverbrauchs verzichtet man in vielen Fällen auf Polymorphie, einen der fundamentalen Bestandteile der objektorientierten Programmierung.
Entstehung und Weiterentwicklung.
Entstehungsgeschichte.
Auf die Idee für eine neue Programmiersprache kam Stroustrup durch Erfahrungen mit der Programmiersprache Simula während seiner Doktorarbeit an der "Cambridge University". Simula erschien zwar geeignet für den Einsatz in großen Software-Projekten, die Struktur der Sprache erschwerte aber die Erstellung hocheffizienter Programme. Demgegenüber ließen sich effiziente Programme zwar mit der Sprache BCPL schreiben, für große Projekte war BCPL aber wiederum ungeeignet.
Mit den Erfahrungen aus seiner Doktorarbeit erweiterte Stroustrup in den AT&T Bell Laboratories im Rahmen von Untersuchungen des Unix-Betriebssystemkerns in Bezug auf verteiltes Rechnen ab 1979 die Programmiersprache C. Die Wahl fiel auf die Programmiersprache C, da C eine Mehrzwecksprache war, die schnellen Code produzierte und einfach auf andere Plattformen zu portieren war. Als dem Betriebssystem Unix beiliegende Sprache hatte C außerdem eine erhebliche Verbreitung.
Eine der ersten Erweiterungen war ein Klassenkonzept mit Datenkapselung, für das die Sprache "Simula-67" das primäre Vorbild war. Danach kamen abgeleitete Klassen hinzu, ein strengeres Typsystem, Inline-Funktionen und Standard-Argumente.
Während Stroustrup "C with Classes" („C mit Klassen“) entwickelte (woraus später C++ wurde), schrieb er auch "cfront", einen Compiler, der aus "C with Classes" zunächst C-Code als Zwischenresultat erzeugte. Die erste kommerzielle Version von "cfront" erschien im Oktober 1985.
1983 wurde "C with Classes" in "C++" umbenannt. Erweiterungen darin waren: Überladen von Funktionsnamen und Operatoren, virtuelle Funktionen, Referenzen, Konstanten, eine änderbare Freispeicherverwaltung und eine verbesserte Typüberprüfung. Die Möglichkeit von Kommentaren, die an das Zeilenende gebunden sind, wurde aus BCPL übernommen (codice_45).
1985 erschien die erste Version von C++, die eine wichtige Referenzversion darstellte, da die Sprache damals noch nicht standardisiert war. 1989 erschien die Version 2.0 von C++. Neu darin waren Mehrfachvererbung, abstrakte Klassen, statische Elementfunktionen, konstante Elementfunktionen und die Erweiterung des Zugriffsmodells um codice_46. 1990 erschien das Buch "The Annotated C++ Reference Manual", das als Grundlage für den darauffolgenden Standardisierungsprozess diente.
Relativ spät wurden der Sprache "Templates", "Ausnahmebehandlung", "Namensräume", neuartige "Typumwandlungen" und "boolesche Typen" hinzugefügt.
Im Zuge der Weiterentwicklung der Sprache C++ entstand auch eine gegenüber C erweiterte Standardbibliothek. Erste Ergänzung war die "Stream-I/O-Bibliothek", die Ersatz für traditionelle C-Funktionen wie zum Beispiel codice_47 und codice_48 bietet. Eine der wesentlichen Erweiterungen der Standardbibliothek kam später durch die Integration großer Teile der bei Hewlett-Packard entwickelten Standard Template Library ("STL") hinzu.
Standardisierung.
Nach jahrelanger Arbeit wurde schließlich 1998 die endgültige Fassung der Sprache C++ (ISO/IEC 14882:1998) genormt. Diese Version wurde im Nachhinein, als weitere Versionen der Sprache erschienen, auch "C++98" genannt. Im Jahr 2003 wurde ISO/IEC 14882:2003 verabschiedet, eine Nachbesserung der Norm von 1998, in der einige Missverständnisse beseitigt und mehrere Details klarer formuliert wurden. Diese Version wird umgangssprachlich auch "C++03" genannt.
Weiterentwicklung der Programmiersprache C++ nach 2005.
Um mit den aktuellen Entwicklungen der sich schnell verändernden Computer-Technik Schritt zu halten, aber auch zur Ausbesserung bekannter Schwächen, erarbeitete das C++-Standardisierungskomitee die nächste größere Revision von C++, die inoffiziell mit C++0x abgekürzt wurde, worin die Ziffernfolge eine grobe Einschätzung des möglichen Erscheinungstermins andeuten sollte. Später, als ein Erscheinungstermin bis Ende 2009 nicht mehr zu halten war, änderte sich der inoffizielle Name zu "C++1x".
Die vorrangigen Ziele für die Weiterentwicklung von C++ waren Verbesserungen im Hinblick auf die Systemprogrammierung sowie zur Erstellung von Programmbibliotheken. Außerdem sollte die Erlernbarkeit der Sprache für Anfänger verbessert werden.
Im November 2006 wurde der Zieltermin für die Fertigstellung auf das Jahr 2009 festgelegt. Im Juli 2009 wurde dieser Termin auf frühestens 2010 geändert. Im August 2011 wurde die Revision einstimmig von der ISO angenommen und am 11. Oktober 2011 als ISO/IEC 14882:2011 offiziell veröffentlicht. Inoffiziell heißt die Version C++11.
Verbesserungen am Sprachkern.
C++98 deckte einige typische Problemfelder der Programmierung noch nicht ausreichend ab, zum Beispiel die Unterstützung von Nebenläufigkeit (Threads), deren Integration in C++, insbesondere für die Verwendung in Mehrprozessorumgebungen, eine Überarbeitung der Sprache unumgänglich machte. Durch die Einführung eines Speichermodells wurden Garantien der Sprache für den nebenläufigen Betrieb festgelegt, um Mehrdeutigkeiten in der Abarbeitungsreihenfolge sowohl aufzulösen als auch in bestimmten Fällen aufrechtzuerhalten und dadurch Spielraum für Optimierungen zu schaffen.
Zu den weitreichenderen Spracherweiterungen gehörte ferner die automatische Typableitung zur Ableitung von Ergebnistypen aus Ausdrücken und die sogenannten "R-Wert-Referenzen", mit deren Hilfe sich als Ergänzung zu dem bereits vorhandenen "Kopieren" von Objekten dann auch ein "Verschieben" realisieren lässt, außerdem bereichsbasierte For-Schleifen (foreach) über Container und eingebaute Felder.
Erweiterung der Programmbibliothek.
Im April 2006 gab das C++-Standardisierungskomitee den sogenannten ersten Technischen Report (TR1) heraus, eine nicht normative Ergänzung zur aktuell gültigen, 1998 definierten Bibliothek, mit der Erweiterungsvorschläge vor einer möglichen Übernahme in die C++-Standardbibliothek auf ihre Praxistauglichkeit hin untersucht werden sollen. Viele Compiler-Hersteller lieferten den TR1 mit ihren Produkten aus.
Im TR1 waren u. a. reguläre Ausdrücke, verschiedene intelligente Zeiger, ungeordnete assoziative Container, eine Zufallszahlenbibliothek, Hilfsmittel für die C++-Metaprogrammierung, Tupel sowie numerische und mathematische Bibliotheken enthalten. Die meisten dieser Erweiterungen stammten aus der Boost-Bibliothek, woraus sie mit minimalen Änderungen übernommen wurden. Außerdem waren sämtliche Bibliothekserweiterungen der 1999 überarbeiteten Programmiersprache C (C99) in einer an C++ angepassten Form enthalten.
Mit Ausnahme der numerischen und mathematischen Bibliotheken wurden alle TR1-Erweiterungen in die Sprachnorm C++11 übernommen. Ebenfalls wurde eine eigene Bibliothek zur Unterstützung von Threads eingeführt.
C++11.
Mit der Norm ISO/IEC 14882:2011, auch bekannt als "C++11", wurden viele weitreichende Neuerungen in C++ eingeführt, wie auszugsweise:
template <typename Factory>
auto createObject(const Factory& creator) -> decltype(creator.makeObject()) {
return creator.makeObject();
using namespace std;
void printNames(const vector<string>& names) {
for (const string& singleName: names)
cout « singleName « endl;
Themen der Sprache C++, die Rechenzeit und Speicherplatz betreffen, wurden im sogenannten "technical report" ISO/IEC TR 18015:2006 behandelt.
Zum Zeitpunkt der Einführung des Standards und auch noch vergleichsweise lange darüber hinaus unterstützten viele gängige Compiler diesen nicht vollständig bzw. mit Bezug auf einige Erweiterungen mitunter fehlerhaft. Besonders starke Einschränkungen zeigte diesbezüglich zum Beispiel Microsoft mit "Visual C++ 2012". Mit "Visual C++ 2015" sind mittlerweile jedoch nahezu alle wichtigen größeren Spracherweiterungen berücksichtigt worden.
C++14.
C++14, beschrieben im Standard ISO/IEC 14882:2014, erweitert die Einsatzmöglichkeiten von codice_49 und codice_50, schwächt die Voraussetzungen für codice_61 ab, erlaubt Variablen-Templates zu definieren (beispielsweise um mehrere Versionen von π mit je nach Typ unterschiedlicher Genauigkeit zu definieren), führt Binärliterale ein (0b...), führt Hochkommata als Trennzeichen in Zahlen ein, erlaubt generische Lambdas, erweitert Lambda capture expressions und führt das Attribut codice_62 ein.
Außerdem wurde die Standardbibliothek um ein paar Funktionen ergänzt, die bei C++11 „vergessen“ bzw. „übersehen“ wurden (z. B. codice_63) und etliche Funktionsdeklarationen nun als codice_61 umdeklariert, was dem Compiler aggressivere Optimierungen gestattet.
Während der Entwicklungsphase wurde C++14 auch "C++1y" genannt, um anzudeuten, dass es die Nachfolgeversion der vormals als C++0x genannten Version sein wird.
C++17.
Im März 2017 hat das ISO-C++-Komitee den Sprachstandard C++17 technisch abgeschlossen. Für die neue Fassung wurde unter anderem die Aufnahme des Typen codice_65 beschlossen. Dieser ist explizit für den byte-weisen Zugriff auf den Speicher bestimmt. Es wurden neue, generische Container eingeführt: codice_66 als Alternative zu codice_67 mit Typeüberprüfung zur Laufzeit, codice_68 als Alternative zur aus C übernommenen Union mit Laufzeit-Typprüfung und codice_69, ein Container, der genau ein Element enthalten kann, aber nicht muss.
Bis zur offiziellen Verabschiedung wurde die Fassung auch als "C++1z" bezeichnet.
Nach dem Sommer-Meeting Mitte Juli verriet der C++-Experte Herb Sutter, der für die Einberufung des Komitees verantwortlich ist, in seinem Blog bereits erste Pläne für C++20.
C++20.
Die finale Version von C++20 wurde im Dezember 2020 veröffentlicht, nachdem er im Februar finalisiert und im September bestätigt wurde.
Der Name „C++“.
Der Name C++ ist eine Wortschöpfung von Rick Mascitti, einem Mitarbeiter Stroustrups, und wurde zum ersten Mal im Dezember 1983 benutzt. Der Name kommt von der Verbindung der Vorgängersprache C und dem Inkrement-Operator codice_71, der den Wert einer Variablen inkrementiert (um eins erhöht). Der Erfinder von C++, Bjarne Stroustrup, nannte C++ zunächst „C mit Klassen“ "()".
Kritik.
Oft geäußerte Kritik an der Sprache umfasst beispielsweise: |
930 | 4137900 | https://de.wikipedia.org/wiki?curid=930 | Sprachelemente von C-Sharp | Dieser Artikel bietet eine Übersicht einiger Sprachelemente von C#.
Bedingte Ausführung (if, else, switch).
Der sogenannte codice_1-Block hat zur Folge, dass die zwischen den geschweiften Klammern liegenden Anweisungen nur dann in Kraft treten, wenn die angegebene Bedingung erfüllt ist, d. h. ihr Wert codice_2 ist.
Der codice_3-Block, der nur in Verbindung mit einem codice_1-Block stehen kann, wird nur dann ausgeführt, wenn die Anweisungen des if-Blocks "nicht" ausgeführt wurden.
if (Bedingung)
Anweisungen;
else if (Bedingung)
Anweisungen;
else
Anweisungen;
Die codice_5-Anweisung ist die Darstellung eines Falles, in dem, je nach Wert eines Ausdrucks, andere Anweisungen ausgeführt werden müssen.
Es wird immer bei dem codice_6-Label fortgefahren, dessen Wert mit dem Ausdruck in der codice_5-Anweisung übereinstimmt. Wenn keiner der Fälle zutrifft, wird zum optionalen codice_8-Zweig gesprungen.
switch (Ausdruck)
case Fall_1:
Anweisungen;
break;
case Fall_2:
Anweisungen;
break;
default:
Anweisungen;
break;
Im Gegensatz zu C und C++ hat die C#-codice_5-Anweisung keine "fall-through"-Semantik.
Nicht-leere Zweige müssen mit einem codice_10, codice_11, codice_12, codice_13 oder codice_14 enden; leere Zweige können jedoch von weiteren case-Zweigen fortgesetzt werden, um mehrere Fälle mit einem Satz von Anweisungen zu behandeln:
switch (Ausdruck)
case Fall_1:
case Fall_2:
Anweisungen;
break;
In C# sind auch Strings als Prüfausdruck erlaubt:
string cmd;
switch (cmd)
case "run":
Anweisungen;
break;
case "save":
Anweisungen;
break;
default:
Anweisungen;
break;
Schleifen (for, do, while, foreach).
Wird eine codice_15-Schleife ausgeführt, wird zuerst der Startausdruck gültig. Ist dieser vollständig bearbeitet, werden die Anweisungen im Schleifenrumpf und anschließend der Inkrementierungsausdruck solange wiederholt abgearbeitet, bis die Gültigkeitsbedingung codice_16 ergibt, d. h., ungültig wird.
for (Startausdruck; Gültigkeitsbedingung; Inkrementierungsausdruck)
Anweisungen;
Die codice_17-Schleife ist dagegen recht primitiv: sie wiederholt die Anweisungen, solange die Bedingung codice_2 zurückgibt. Die Bedingung der codice_17-Schleife wird immer "vor" dem Anweisungsblock ausgewertet. Wenn die Bedingung von Anfang an nicht erfüllt ist, wird der Schleifenrumpf nicht durchlaufen.
while (Bedingung)
Anweisungen;
Die Bedingung der Do-While-Schleife wird immer nach dem Anweisungsblock ausgeführt. Die Schleife wird daher mindestens ein Mal durchlaufen.
do
Anweisungen;
} while (Bedingung);
Mit der codice_20-Schleife wird durch alle Mitglieder einer Sequenz iteriert. In der Schleife besteht nur lesender Zugriff auf die Schleifenvariable.
foreach (Typ Variablename in Sequenz)
Anweisungen;
Die Sprunganweisungen "break", "continue", "goto", "return", "yield" "return"/"break".
for (int i = 0; i < 10; ++i)
if (i < 8)
continue;
Console.WriteLine("Continue wurde nicht ausgeführt.");
Die Anweisung codice_11 veranlasst den nächsten Durchlauf einer Schleife. (Dabei wird der restliche Code im Schleifenkörper nicht abgearbeitet). Im Beispiel wird der Text nur zweimal ausgegeben.
for (int i = 0; i < 100; ++i)
if (i == 5)
break;
Console.WriteLine(i);
Die Anweisung codice_10 veranlasst das Programm, die nächste umschließende Schleife (oder das umschließende "switch") zu verlassen. In diesem Beispiel werden nur die Zahlen 0, 1, 2, 3 und 4 ausgegeben.
int a = 1;
Top:
a++;
if (a <= 5)
goto Top;
Console.WriteLine("a sollte jetzt 6 sein.");
Mit codice_12 springt das Programm an das angegebene Sprungziel.
Die Benutzung von codice_12 sollte jedoch möglichst vermieden werden, da dadurch der Quellcode in der Regel unleserlicher wird. Es gilt jedoch als akzeptiertes Sprachmittel, um tief verschachtelte Schleifen zu verlassen, da in diesen Fällen der Code mit codice_12 lesbarer ist als durch mehrfache Verwendung von codice_10 oder anderen Sprachmitteln. Siehe auch Spaghetticode.
Innerhalb einer codice_5-Anweisung kann mittels codice_28 bzw. codice_29 zu einem der Fälle gesprungen werden.
int result = ImQuadrat(2);
static int ImQuadrat(int x)
int a;
a = x*x;
return a;
Mit codice_14 wird die aktuelle Methode verlassen und der im Kopf der Methode vereinbarte Referenz- bzw. Wertetyp als Rückgabewert zurückgeliefert. Methoden ohne Rückgabewert werden mit dem Schlüsselwort codice_31 gekennzeichnet.
Eine Besonderheit bildet der Ausdruck codice_32. Zweck ist es, in verkürzter Schreibweise eine Rückgabesequenz für eine Methode oder eine Eigenschaft zu erzeugen. Der Compiler nutzt hierzu einen eigenen Typ, der von "System.Collections.Generic.IEnumerable<T>" abgeleitet ist und somit mit einem codice_20-Block durchlaufen werden kann.
Jeder Aufruf von codice_32 fügt bis zum Verlassen der Methode/Eigenschaft ein neues Element der Sequenz hinzu. Wird das Konstrukt nicht einmal aufgerufen, ist die Sequenz leer:
private int[] zahlen = new int[] { 5980, 23980 };
public IEnumerable<int> ZahlenMinusEins
get
foreach (int zahl in this.zahlen)
yield return zahl - 1;
public IEnumerable<double> ToDouble(IEnumerable<int> intZahlen)
foreach (int zahl in intZahlen)
yield return (double)zahl;
Hierdurch muss keine temporäre Liste erzeugt werden, die die umgewandelten Zahlen erst zwischenspeichert und dann zurückgibt:
private int[] zahlen = new int[] { 5980, 23980 };
// bspw. aus einer Eigenschaft heraus
public IEnumerable<int> ZahlenMinusEins
get
List<int> rückgabe = new List<int>();
foreach (int zahl in this.zahlen)
rückgabe.Add(zahl −1);
return rückgabe;
Jedes Element, das zurückgegeben wird, muss implizit in den Typ der Rückgabesequenzelemente konvertierbar sein.
Zum Abbrechen des Vorgangs kann die Anweisung codice_35 verwendet werden:
// bspw. aus einer Methode heraus
public IEnumerable<double> ToDouble(IEnumerable<int> intZahlen)
int i = 0;
foreach (int zahl in intZahlen)
if (i++ == 3)
// nach 3 Durchläufen beenden
yield break;
yield return (double)zahl;
Die Anweisungen codice_14 und codice_32 können nicht gemeinsam verwendet werden.
Bei der Verwendung muss beachtet werden, dass die zurückgegebene Sequenz die ihr zugrundeliegende Logik "verzögert" ausführt, was bedeutet, dass der erste Durchlauf ein und derselben Sequenz andere Werte liefern kann, als beim zweiten Mal:
// interner Zähler
private int i = 0;
public IEnumerable<DateTime> GetNow() {
// aktuelle Uhrzeit (einziges Element)
yield return DateTime.Now;
public IEnumerable<int> GetZahl() {
// internen Zähler um 1 erhöhen (einziges Element)
yield return this.i++;
public void TestZahl() {
IEnumerable<int> sequenz = this.GetZahl();
foreach (int zahl in sequenz)
Console.WriteLine(zahl); // 0
foreach (int zahl in sequenz)
Console.WriteLine(zahl); // 1
foreach (int zahl in sequenz)
Console.WriteLine(zahl); // 2
public void TestZeit() {
IEnumerable<DateTime> sequenz = this.GetNow();
// [1] einziges Element mit der aktuellen Uhrzeit
foreach (DateTime now in sequenz)
Console.WriteLine(now);
// 2 Sekunden warten
Thread.Sleep(2000);
// [2] einziges Element wie der Wert aus [1]
// + ca. 2 Sekunden
foreach (DateTime now in sequenz)
Console.WriteLine(now);
Die using-Anweisung.
Die codice_38-Anweisung definiert einen Geltungsbereich, an dessen Ende der Speicher
von nicht mehr benötigten Objekten automatisch freigegeben wird. Bei begrenzten Ressourcen wie Dateihandler stellt die codice_38-Anweisung sicher, dass diese immer ausnahmesicher bereinigt werden.
using (Font myFont = new Font("Arial", 10.0f))
g.DrawString("Hallo Welt!", myFont, Brushes.Black);
Hier wird ein codice_40-Objekt erzeugt, das am Ende des Blocks automatisch durch Aufruf seiner codice_41-Methode wieder freigegeben wird. Dies geschieht selbst dann, wenn in dem Block eine Ausnahme ausgelöst wird. Der Vorteil liegt in der vereinfachten Schreibweise, denn intern wird daraus folgendes Konstrukt, das ansonsten manuell so formuliert werden müsste:
Font myFont = new Font("Arial", 10.0f);
try
g.DrawString("Hallo Welt!", myFont, Brushes.Black);
finally
if (myFont != null)
myFont.Dispose();
Klassen müssen die codice_42-Schnittstelle implementieren, damit die codice_38-Anweisung auf diese Weise eingesetzt werden kann.
Objekte und Klassen.
Wenn man von einem Objekt spricht, handelt es sich dabei in der Umgangssprache normalerweise um ein reales Objekt oder einen Gegenstand des täglichen Lebens. Beispielsweise kann das ein Tier, ein Fahrzeug, ein Konto oder Ähnliches sein.
Jedes Objekt kann durch verschiedene Attribute beschrieben werden und verschiedene Zustände annehmen und diese auch auslösen.
Übertragen auf die objektorientierte Programmierung und C# ist ein Objekt ein Exemplar (siehe Schlüsselwort codice_44) einer Klasse. Eine Klasse kann man dabei als Bauplan oder Gerüst eines Objektes ansehen.
Eine Klasse besitzt Eigenschaften (Variablen), Methoden (die Tätigkeiten darstellen) und Ereignisse, die die Folge von Zuständen sind bzw. diese auslösen.
Beispiel für den Bauplan eines Autos:
class Auto
// Konstruktor, dient zur Erzeugung
public Auto(string name, System.Drawing.Color farbe)
this.GeschwindigkeitKMH = 0; this.Name = name; this.Farbe = farbe;
// Eigenschaften:
private bool motorLaeuft = false;
//Methoden:
public void Beschleunigung(double AenderungKMH)
this.GeschwindigkeitKMH += AenderungKMH;
GeschwindigkeitGeaendert(this.GeschwindigkeitKMH);
public void VollBremsung()
this.GeschwindigkeitKMH = 0d;
GeschwindigkeitGeaendert(this.GeschwindigkeitKMH);
public void MotorStarten()
if (!this.motorLaeuft)
this.motorLaeuft = true;
MotorEreignis(this.motorLaeuft);
public void AutoStoppen()
if (this.motorLaeuft)
this.motorLaeuft = false;
MotorEreignis(this.motorLaeuft);
//Ereignisse
public event MotorDelegat MotorEreignis;
public event GeschwindigkeitDelegat GeschwindigkeitGeaendert;
public delegate void MotorDelegat(bool laeuft);
public delegate void GeschwindigkeitDelegat(double geschwindigkeit);
Die Klasse namens „object“.
Die Klasse codice_45 (ein Alias für System.Object) ist ein Referenztyp, von dem jede Klasse abgeleitet wird. So kann durch implizite Typumwandlung jeder Objekttyp in codice_45 umgewandelt werden.
.NET (und damit auch C#) unterscheidet zwischen Werttypen und Referenztypen. Werttypen sind jedoch auch (über den Zwischenschritt ValueType) von codice_45 abgeleitet. Deshalb kann (mittels eines boxing/unboxing genannten Verfahrens) auch eine Variable vom Typ codice_45 auf einen Werttyp, z. B. codice_49 verweisen.
Strukturen ("struct").
Strukturen sind bereits als Sprachmittel aus Sprachen wie C++ oder Delphi (Records) bekannt. Sie dienen primär zur Erstellung eigener komplexer Datenstrukturen oder eigener Datentypen.
So kann zum Beispiel eine Raumkoordinate, bestehend aus einer X-, einer Y- und einer Z-Position, durch eine Datenstruktur Koordinate abgebildet werden, die sich aus drei Gleitkommazahlen einfacher oder doppelter Genauigkeit zusammensetzt.
public struct Koordinate
public Koordinate(double x, double y, double z)
X = x;
Y = y;
Z = z;
public override string ToString()
return $"x: {X}, y: {Y}, z: {Z}";
C# fasst eine über das Schlüsselwort codice_50 definierte Struktur als einen Wertetyp auf. Strukturen in C# können außerdem Methoden, Eigenschaften, Konstruktoren und andere Elemente von Klassen aufweisen; sie können aber nicht beerbt werden.
Der Unterschied einer Strukturinstanz im Vergleich zu einem Objekt besteht in ihrer Repräsentation im Speicher. Da keine zusätzlichen Speicherreferenzen benötigt werden, wie es bei einem Objekt erforderlich ist (Referenztyp), können Strukturinstanzen wesentlich ressourcenschonender eingesetzt werden. So basieren beispielsweise alle primitiven Datentypen in C# auf Strukturen.
Aufzählungen (Enumerationen).
Aufzählungen dienen zur automatischen Nummerierung der in der Aufzählung enthaltenen Elemente. Die Syntax für die Definition von Aufzählungen verwendet das Schlüsselwort codice_51 (Abkürzung für Enumeration).
Der in C# verwendete Aufzählungstyp ähnelt dem in C, mit der Ausnahme, dass ein optionaler ganzzahliger Datentyp für die Nummerierung der Elemente angegeben werden kann. Ohne Angabe eines Datentyps wird codice_49 verwendet.
public enum Wochentag
Montag = 1, Dienstag, Mittwoch, Donnerstag, Freitag, Samstag, Sonntag
Die Elementnummerierung in C# beginnt bei 0. Es ist aber auch möglich, wie in C, jedem Element – oder nur dem ersten Element – einen eigenen Startwert zuzuweisen (wie im obigen Beispiel). Dabei können sich die Anfangswerte wiederholen. Die Zählung beginnt dann jeweils von neuem bei dem definierten Startwert und Element.
In C# ist es auch möglich, ein bestimmtes Element einer Enumeration über seine Ordinalzahl anzusprechen. Hierzu ist aber eine explizite Typumwandlung notwendig.
Wochentag Tag = Wochentag.Mittwoch;
System.Console.WriteLine(Tag); // Ausgabe: Mittwoch
System.Console.WriteLine((int)Tag); // Ausgabe: 3
System.Console.WriteLine((Wochentag)3); // Ausgabe: Mittwoch
Flags.
Neben der beschriebenen Variante des enum-Aufzählungstyps existiert noch eine spezielle Variante von Enumeration. Flags definieren Enumerationen auf Bitebene und werden durch die Metainformation [Flags] vor der Enum-Deklaration definiert. Flag-Elemente können auf Bitebene verknüpft werden, sodass mehrere Elemente zu einem neuen kombiniert werden können. Hierzu müssen den zu kombinierenden Elementen Zweierpotenzen als Werte zugewiesen werden, damit eine Kombination ermöglicht wird.
[Flags]
public enum AccessMode
None = 0,
Read = 1,
Write = 2,
// Erhält den Wert 3 (Kombination aus 1 und 2)
ReadAndWrite = Read | Write
Zugriffsmodifikatoren.
Zugriffsmodifikatoren regeln den Zugriff auf Klassen und deren Mitglieder (Methoden, Eigenschaften, Variablen, Felder und Ereignisse) in C#. Die folgende Tabelle führt die von C# unterstützten Zugriffsmodifikatoren auf und beschreibt deren Wirkung und den Sichtbarkeitskontext.
Hinweise:
Datentypen, Operatoren, Eigenschaften und Konstanten.
C# kennt zwei Arten von Datentypen: Wertetypen und Referenztypen.
Referenztypen dürfen dabei nicht mit Zeigern gleichgesetzt werden, wie sie u. a. aus der Sprache C++ bekannt sind. Diese werden von C# auch unterstützt, aber nur im „unsicheren Modus“ (engl. "unsafe mode").
Wertetypen enthalten die Daten direkt, wobei Referenztypen im Gegensatz dazu nur Verweise auf die eigentlichen Daten, oder besser, Objekte darstellen. Beim Lesen und Schreiben von Wertetypen werden die Daten dagegen über einen Automatismus, Autoboxing genannt, in einer Instanz der jeweiligen Hüllenklasse (engl. "wrapper") gespeichert oder aus ihr geladen.
Die Zuweisung eines Wertes bzw. einer Referenz kann während der Deklaration erfolgen oder später, sofern nicht eine Konstante deklariert wurde. Die Deklaration erfolgt durch Angabe eines Datentyps gefolgt von einem Variablennamen:
// Datentyp Variable;
int i;
System.Collections.IList liste;
Es können auch mehrere Variablen des gleichen Typs zeitgleich deklariert werden:
// Datentyp Variable1, Variable2, ...;
int i, j, k;
System.Collections.IList liste1, liste2;
Ferner besteht die Möglichkeit, der Variablen bei der Deklaration auch gleich einen Wert oder eine Referenz zuzuweisen (Initialwert):
// Datentyp Variable=Wert/Referenz;
int i = 5;
int j = 2, k = 3;
System.Collections.IList liste = new System.Collections.ArrayList();
Auch die Mehrfachzuweisung eines Wertes an verschiedene Variablen ist möglich:
int i, j, k;
i = j = k = 123;
Einen Sonderfall der Zuweisung stellt die Deklaration von Feldern (Arrays) dar. Näheres hierzu im entsprechenden Abschnitt.
Datentypen und Speicherbedarf.
Datentypen sind in C# nicht elementar, sondern objektbasiert. Jeder der in der Tabelle aufgeführten Datentypen stellt einen Alias auf eine Klasse des Namensraumes "System" dar. Beispielsweise wird der Datentyp codice_59 durch die Klasse codice_60 abgebildet.
Durch die Objektbasiertheit ist es möglich, Methoden auf Datentypen anzuwenden:
1234.ToString();
int i = 17;
i.ToString();
Vergleichbar mit C++, und anders als bei Java, gibt es unter C# vorzeichenbehaftete und vorzeichenlose Datentypen. Diese werden durch Voranstellen des Buchstabens "s" (für "signed", englisch für "vorzeichenbehaftet") und durch Voranstellen des Buchstabens "u" (für "unsigned", englisch für "vorzeichenlos") gekennzeichnet (codice_61 mit Ausnahme von codice_62). Die Gleitkomma-Datentypen (codice_63) können neben einfacher auch doppelte Genauigkeit aufweisen und unterscheiden sich im Speicherbedarf.
Dadurch ändert sich die Genauigkeit, was in der Anzahl der möglichen Nachkommastellen zum Ausdruck kommt.
Konstanten (Schlüsselwort "const").
Einem mit codice_64 deklarierten „Objekt“ kann nach der Deklaration und Initialisierung kein neuer Inhalt zugewiesen werden. Das „Objekt“ wird dadurch zu einer Konstanten.
Es muss dabei vom Compiler festgestellt werden können, dass der Wert, der einer Konstante zugewiesen wird, unveränderlich ist. Es ist also auch möglich, eine Konstante von einem Referenztypen zu definieren, allerdings darf dieser nur null zugewiesen werden.
Grund dafür ist, dass der Compiler alle Verwendungen von Konstanten bereits zum Zeitpunkt des Kompilierens ersetzt. Strukturen können nicht konstant sein, da sie in einem Konstruktor einen Zufallsgenerator benutzen könnten.
Fehlerhafte Zuweisungen einer Konstanten werden mit dem Kompilierfehler CS0133 vom C-Sharp-Kompilierer moniert.
using System;
using System.IO;
public class ConstBeispiel
public static void Main()
//Es wird eine Konstante für die Länge eines Arrays angelegt
const int arrayLength = 1024;
//Es wird eine Konstante festgelegt, welche die Zugriffsart auf eine Datei beschreibt (Enum)
const FileMode fm = FileMode.Open;
//Es wird eine Konstante festgelegt, welche den Namen der zu öffnenden Datei festlegt
const string fileName = "beispiel.txt";
//Buffer erstellen
byte[] readBuffer = new byte[arrayLength];
//Stream zur Datei öffnen
FileStream fs = new FileStream(fileName,fm);
//Daten Lesen
fs.Read(readBuffer,0,readBuffer.Length);
//Stream schließen
fs.Close();
//Daten ggf. bearbeiten.
// FEHLER: IList wird ein Referenzdatentyp zugewiesen, nicht konstant
const IList liste = new ArrayList();
// FEHLER: const + struct
const TimeSpan zeitSpanne = new TimeSpan(10);
Konstanten gibt es auch in anderen Sprachen (z. B. C++, Java). In Java werden Konstanten durch das Schlüsselwort codice_65 gekennzeichnet, in Fortran durch codice_66.
Operatoren.
Operatoren führen verschiedene Operationen an Werten durch und erzeugen dabei einen neuen Wert. Je nach Anzahl der Operanden wird zwischen unäre, binäre und ternäre Operatoren unterschieden. Die Reihenfolge der Auswertung wird durch die Priorität und Assoziativität bestimmt und kann durch Klammerausdrücken geändert werden.
Operatoren überladen.
C# bietet die Möglichkeit, Operatoren für benutzerdefinierte Datentypen zu implementieren. Als benutzerdefinierter Datentyp gilt eine selbst geschriebene Klasse oder Struktur. Die Implementierung geschieht mit öffentlichen statischen Methoden. Statt eines Namens tragen sie das Schlüsselwort codice_67 gefolgt von dem Operator-Zeichen welches überladen werden soll. Eine implizite oder explizite Typkonvertierung geschieht mittels codice_68 oder codice_69 als Methoden-Namen. Der Compiler ersetzt je nach Typ der Operanden den Quelltext in einen Aufruf der entsprechenden Methode:
struct SpecialDouble
public SpecialDouble(double argument)
_value = argument;
// SpecialDouble lhs = 9d, rhs = 0.5, result;
// result = lhs ^ rhs; // Compiler ersetzt Operator ^ mit dieser Methode
public static SpecialDouble operator ^(SpecialDouble lhs, SpecialDouble rhs)
return Math.Pow(lhs._value, rhs._value);
// SpecialDouble lhs = 9d; // 9d wird mit 'new SpecialDouble(9d)' ersetzt
public static implicit operator SpecialDouble(double argument)
return new SpecialDouble(argument);
public static implicit operator double(SpecialDouble argument)
return argument._value;
// explizite Typkonvertierung:
// Nachkommastellen gehen verloren, Exception kann auftreten
public static explicit operator int(SpecialDouble argument)
return (int)argument._value;
double _value;
Einschränkungen:
Um den Operator codice_79 zu simulieren, können Indexer verwendet werden. Die Operatoren codice_80 und codice_81 können nicht direkt überladen werden. Sie werden über die speziellen überladbaren Operatoren codice_2 und codice_16 ausgewertet.
Die Operation codice_84 wird als codice_85 ausgewertet, wobei codice_86 ein Aufruf von dem in codice_87 deklarierten Operator codice_16 ist und codice_89 ein Aufruf des ausgewählten Operator codice_90.
Die Operation codice_91 wird als codice_92 ausgewertet, wobei codice_93 ein Aufruf von dem in codice_87 deklarierten Operator codice_2 ist und codice_96 ein Aufruf des ausgewählten Operator codice_97.
Eigenschaften (Schlüsselwörter "get", "set" und "value").
Eine "Eigenschaft" ("property") ist eine Sicht auf eine öffentliche Variable einer Klasse. Die Variable selbst wird durch einen Zugriffsmodifikator wie codice_53 oder codice_55 (bei Variablen, die in abgeleiteten Klassen überschrieben werden sollen) für den Zugriff von außen gesperrt und über eine Eigenschaft zugänglich gemacht. Über die Eigenschaft kann dann bestimmt werden, ob ein lesender oder schreibender Zugriff auf die referenzierte Variable erfolgen darf. Beide Möglichkeiten sind auch miteinander kombinierbar.
Eine Eigenschaft wird durch Zuweisung eines Datentyps (der dem Datentyp der Variable entsprechen muss) zu einem Eigenschaftsnamen angelegt und hat eine ähnliche Struktur wie die Syntax einer Methode. Die Eigenschaft ist dabei wie eine Variable ansprechbar und ihr kann auch ein Zugriffsmodifikator zugewiesen werden. Eine Eigenschaft enthält selbst keine Daten, sondern bildet diese auf die referenzierte Variable ab (vergleichbar mit einem Zeiger).
Zur Abfrage einer Eigenschaft existiert in C# das Schlüsselwort codice_100 und zum Setzen eines Wertes das Schlüsselwort codice_101. Von außen stellt sich die Eigenschaft dann wie eine Variable dar und der Zugriff kann entsprechend erfolgen (vgl. VisualBasic).
Die Programmiersprache Java verfolgt mit den Set- und Get-Methoden (Bean-Pattern, Introspection) das gleiche Ziel – alle Zugriffe erfolgen nie direkt über eine Variable, sondern über die entsprechende Methode.
Beispiel einer Eigenschaftsdefinition codice_102 für eine private Variable (codice_103):
public class EigenschaftBeispiel
private string _wohnort;
public string Wohnort
get
return _wohnort;
set
_wohnort = "12345 " + value;
Durch das „Weglassen“ des Schlüsselwortes codice_101 oder des Schlüsselwortes codice_100 kann gesteuert werden, ob die Eigenschaft nur gelesen oder nur geschrieben werden darf. Das Schlüsselwort codice_106 ist dabei ein Platzhalter für den der Eigenschaft zugewiesenen Wert, der gesetzt werden soll. Er kann nur in Verbindung mit dem Schlüsselwort codice_101 im entsprechenden Block verwendet werden (und entspricht in etwa einer temporären lokalen Variable).
Beispiel für den Zugriff auf die oben definierte Eigenschaft codice_102:
EigenschaftBeispiel instanz = new EigenschaftBeispiel();
instanz.Wohnort = "Musterstadt";
Console.WriteLine(instanz.Wohnort);
// Ausgabe: "12345 Musterstadt"
Würde bei der obigen Definition der Eigenschaft ‚Wohnort‘ der codice_100-Block weggelassen, so würde der lesende Zugriff zu einem Zugriffsfehler führen (im Beispiel in der Zeile, in der die Ausgabe erfolgt).
Neben dem einfachen Setzen oder Lesen einer Eigenschaft, können im codice_101-Block bzw. codice_100-Block auch Operationen ausgeführt werden, beispielsweise die Potenzierung eines bei codice_101 übergebenen Wertes (codice_106 mal Exponent), bevor er der Variablen zugewiesen wird. Das Gleiche gilt für das Schlüsselwort codice_100.
Theoretisch kann somit ein Zugriff für den Benutzer einer Klasse ganz unerwartete Ergebnisse bringen. Deshalb sollten alle Operationen, die Veränderungen auf einen Wert durchführen über normale Methoden abgebildet werden. Ausgenommen sind natürlich Wertprüfungen bei codice_101.
Das Beispiel konkateniert den der Eigenschaft übergebenen Wert (hier: Musterstadt) zur Zeichenkette „12345 “. Diese Aktion ist syntaktisch und semantisch richtig, sie sollte dennoch in einer Methode ausgeführt werden.
Ab C# 3.0 ist es möglich, Eigenschaften automatisch zu implementieren. Dies ist eine verkürzte Schreibweise für Eigenschaften bei denen es sich um den Zugriff auf eine Variable handelt, die innerhalb der Klasse bzw. Struktur als Feld deklariert wurde.
Beispiel anhand der Struktur Point:
struct Point
public double X
public double Y
private double x, y;
Das gleiche Beispiel mit Hilfe automatisch implementierter Eigenschaften:
struct Point
Mit Hilfe des Objektinitialisierer (ab .NET 3.5) ist ein Konstruktor überflüssig:
Point p = new Point { X = 1.2, Y = -3.75 }; // Objektinitialisierer
Console.WriteLine(p.X); // Ausgabe: 1,2
Console.WriteLine(p.Y); // Ausgabe: −3,75
Indexer.
Der Indexer ist die Standardeigenschaft von einem Objekt. Der Aufruf geschieht wie bei einem Array mit eckigen Klammern.
Beispiel: Zugriff auf die 32 Bits einer codice_49 Variable mit Hilfe eines Indexers.
using System;
namespace DemoIndexers
class Program
struct IntBits
public bool this[int index]
set
if (value)
bits |= (1 « index);
else
bits &= ~(1 « index);
private int bits;
static void Main(string[] args)
IntBits bits = new IntBits();
Console.WriteLine(bits[6]); // False
bits[2] = true;
Console.WriteLine(bits[2]); // True
bits[2] = false;
Console.WriteLine(bits[2]); // False
Wie bei Eigenschaften kann der Zugriff auf nur lesend oder nur schreibend beschränkt werden, indem man den get-Accessor bzw. set-Accessor weglässt.
Unterschiede zu Arrays, Methoden und Eigenschaften:
codice_117
Darstellung spezieller Zeichen oder Zeichenfolgen („escapen“).
Ein auf das Zeichen „\“ (umgekehrter Schrägstrich, engl. "backslash") folgendes Zeichen wird anders interpretiert als sonst. Dabei handelt es sich meistens um nicht darstellbare Zeichen. Soll der umgekehrte Schrägstrich selbst dargestellt werden, so muss er doppelt angegeben werden („\\“).
Hexadezimale Zeichenfolge als Platzhalter für ein einzelnes Unicode-Zeichen: Das Zeichen wird dabei aus dem Steuerzeichen \x gefolgt von dem hexadezimalen Wert des Zeichens gebildet.
Zeichenfolge für "Unicode"-Zeichen in Zeichenliteralen: Das Zeichen wird dabei aus dem Steuerzeichen \u gefolgt von dem hexadezimalen Wert des Zeichens gebildet, z. B. „\u20ac“ für „€“ Der Wert muss zwischen U+0000 und U+FFFF liegen.
Zeichenfolge für Unicode-Zeichen in Zeichenkettenliteralen: Das Zeichen wird dabei aus dem Steuerzeichen \U gefolgt von dem hexadezimalen Wert des Zeichens gebildet. Der Wert muss zwischen U+10000 und U+10FFFF liegen. Hinweis: Unicode-Zeichen im Wertbereich zwischen U+10000 und U+10FFFF sind nur für Zeichenfolgen-Literale zulässig und werden als zwei Unicode-„Ersatzzeichen“ kodiert bzw. interpretiert (s. a. "UTF-16").
Vererbung.
Schnittstellen.
Mehrfachvererbung wird in C# nur in Form von Schnittstellen (engl. "interfaces") unterstützt.
Schnittstellen dienen in C# zur Definition von Methoden, ihrer Parameter, ihrer Rückgabewerte sowie von möglichen Ausnahmen.
An dieser Stelle ein Anwendungsbeispiel für die Mehrfachvererbung:
public class MyInt : IComparable, IDisposable
// Implementierung
Schnittstellen in C# ähneln den Schnittstellen der Programmiersprache Java. Anders als in Java, dürfen Schnittstellen in C# keine Konstanten enthalten und auch keine Zugriffsmodifikator bei der Definition einer Methode vereinbaren.
public interface A
void MethodeA();
public interface B
void MethodeA();
void MethodeB();
public class Klasse : A, B
void A.MethodeA() {Console.WriteLine("A.A");} // MethodeA aus Schnittstelle A
void B.MethodeA() {Console.WriteLine("A.B");} // MethodeA aus Schnittstelle B
public void MethodeA() {Console.WriteLine("A.C");} //MethodeA für Klasse
public void MethodeB() {Console.WriteLine("B.B");} // MethodeB aus Schnittstelle B
Eine Klasse, die ein oder mehrere Schnittstellen einbindet, muss jede in der Schnittstelle definierte (virtuelle) Methode implementieren. Werden mehrere Schnittstellen eingebunden, die Methoden mit dem gleichen Namen und der gleichen Struktur besitzen (d. h. gleiche Parametertypen, Rückgabewerte usw.), so muss die jeweilige Methode in der implementierenden Klasse durch das Voranstellen des Namens der Schnittstelle gekennzeichnet werden. Dabei wird die jeweilige Funktion nur dann aufgerufen, wenn der Zeiger auf das Objekt vom entsprechenden Typ ist:
public static void Main()
Klasse k = new Klasse();
(k as A).MethodeA();
(k as B).MethodeA();
k.MethodeA();
Console.ReadLine();
Auch Schnittstellen ohne Methodendefinition sind möglich. Sie dienen dann als sogenannte Markierungsschnittstellen (engl. "marker interface"). Auf die Verwendung von "marker interfaces" sollte zu Gunsten von Attributen verzichtet werden. Schnittstellen können jedoch keine statischen Methoden definieren.
Das Einbinden einer Schnittstelle erfolgt analog zur Beerbung einer Klasse. Schnittstellen werden per Konvention mit einem führenden „I“ (für Interface) benannt.
Vererbung von Schnittstellen.
Das Überschreiben einer Methode durch eine abgeleitete Klasse kann mit codice_121 verhindert werden:
interface IMessage {
public class MyClass : IMessage {
public virtual void OnMessage() {
// kann von abgeleiteter Klasse implementiert werden
// kann nicht überschrieben werden
public sealed string Message {
get {
OnMessage();
return "MyClass";
Ein Interface kann auch durch eine Basisklasse implementiert werden:
interface IMessage {
public class Messenger {
public string Message {
public class MyClass : Messenger, IMessage {
// interface bereits implementiert
Das Schlüsselwort "base".
Das Schlüsselwort wird im Zusammenhang von Vererbung genutzt. Vereinfacht gesagt ist die Basisklasse, das was codice_122 für die aktuelle Klasse ist. Java hingegen sieht hierfür das Schlüsselwort codice_123 vor.
Nun folgt ein Beispiel, das die Verwendung von codice_124 zeigt:
public class Example : Basisklasse
private int myMember;
public Example() : base(3)
myMember = 2;
In diesem Beispiel wurde die Verwendung nur anhand des Basisklassenkonstruktors gezeigt. Wie in der Einleitung beschrieben, kann base auch für den Zugriff auf die Mitglieder der Basisklasse benutzt werden. Die Verwendung erfolgt äquivalent zur Verwendung von this bei der aktuellen Klasse.
Versiegelte Klassen.
"Versiegelte" Klassen sind Klassen, von denen keine Ableitung möglich ist und die folglich nicht als Basisklassen benutzt werden können. Bekanntester Vertreter dieser Art von Klassen ist die Klasse codice_125 aus dem Namensraum codice_126. Der Modifizierer codice_121 kennzeichnet Klassen als versiegelt. Es ist jedoch möglich versiegelte Klassen mit Erweiterungsmethoden zu erweitern.
Statische Klassen.
Analog zu Visual Basic .NET Modulen, können in C# Klassen definiert werden, die ausschließlich aus statischen Elementen bestehen:
static class MeineStatischeKlasse
public static int StatischeEigenschaft
public static void StatischeMethode()
/* Dies würde der Compiler als Fehler ansehen, da diese Methode nicht statisch ist
public void NichtStatischeMethode()
Erweiterungsmethoden.
Ab der Version 3.0 können Datentypen "erweitert" werden. Hierzu wird eine statische Klasse definiert. Erweiterungsmethoden ("engl." extensions) beinhalten jeweils einen ersten Parameter, der mit dem Schlüsselwort "this" beginnt, gefolgt von der gewöhnlichen Definition des Parameters:
using System;
namespace MeinNamespace
public static class ExtensionKlasse
public static int MalDrei(this int zahl)
return zahl * 3;
public static class Programm
public static void Main()
// 5979
Console.WriteLine(1993.MalDrei());
Sofern die Klasse "ExtensionKlasse" für eine andere Klasse sichtbar ist, werden nun alle Zahlen vom Typ "int" mit der Methode "MalDrei" erweitert ohne aber den Typ "int" wirklich zu ändern. Der Compiler macht hierbei intern nichts anderes als die Methode "MalDrei" der Klasse "ExtensionKlasse" aufzurufen und den Wert 1993 als ersten Parameter zu übergeben.
Methoden.
Anonyme Methoden.
Anonyme Methoden werden u. a. verwendet, um Code für ein Event zu hinterlegen, ohne in einer Klasse eine Methode mit einem eindeutigen Namen definieren zu müssen. Anstelle des Methodennamens steht das Schlüsselwort "delegate":
Button btn = new Button()
Name = "MeinButton",
Text = "Klick mich!"
btn.Click += delegate(object sender, EventArgs e)
Button button = (Button)sender;
MessageBox.Show("Der Button '" + button.Name + "' wurde angeklickt!");
Lambdaausdrücke.
Ab der Version 3.0 besteht die Möglichkeit, anonyme Methoden in kürzerer Form zu definieren. Dies geschieht mit dem Operator Lambda codice_78 (ausgesprochen: "„wechselt zu“"). Auf der linken Seite des Lambda-Operators werden die Eingabeparameter angegeben, auf der rechten Seite befindet sich der Anweisungsblock bzw. ein Ausdruck. Handelt es sich um einen Anweisungsblock, spricht man von einem "Anweisungslambda". Ein "Ausdruckslambda", wie zum Beispiel codice_129, ist hingegen ein Delegate, dessen einzige Anweisung ein codice_14 ist. Der Typ der Eingabeparameter kann weggelassen werden, wenn der Compiler diese ableiten kann. Lambda-Ausdrücke können sich auf äußere Variablen beziehen, die im Bereich der einschließenden Methode oder des Typs liegen, in dem der Lambda-Ausdruck definiert wurde.
Button btn = new Button()
Name = "MeinButton",
Text = "Klick mich!"
// 'sender' wird implizit als System.Object betrachtet
// 'e' wird implizit als System.EventArgs betrachtet
btn.Click += (sender, e) => {
Button button = (Button)sender;
MessageBox.Show("Der Button '" + button.Name + "' wurde angeklickt!");
LINQ.
LINQ definiert drei Dinge:
Implementiert wird die Funktionalität durch sogenannte LINQ-Provider, die die namentlich definierten Methoden zur Verfügung stellen. Einer davon ist zum Beispiel LINQ-to-Objects.
// nimm die Liste der Mitarbeiter und
// schreibe jedes Element nach 'm'
var liste = from m in this.MitarbeiterListe
// lies das Property 'Nachname' und nimm nur die
// Elemente, die gleich 'Mustermann' sind
where m.Nachname == "Mustermann"
// sortiere zuerst ABsteigend nach dem Property 'Vorname'
// dann AUFsteigend nach dem Property 'MitarbeiterNummer'
orderby m.Vorname descending, m.MitarbeiterNummer
// wähle nun zum Schluss als Element für die Liste namens 'liste'
// den Wert aus dem Property 'Vorname' jedes Elements aus
select m.Vorname;
In MySQL könnte der obere Ausdruck bspw. folgendermaßen aussehen:
SELECT m.Vorname FROM MitarbeiterListe AS m
WHERE m.Nachname = "Mustermann"
ORDER BY m.Vorname DESC, m.MitarbeiterNummer ASC
Typumwandlungen.
In C# ist jeder Variablen ein Datentyp zugeordnet. Manchmal ist es nötig, Typen von Variablen ineinander umzuwandeln. Zu diesem Zweck gibt es Typumwandlungsoperationen. Dabei gibt es implizite und explizite Typumwandlungen.
Eine implizite Typumwandlung erscheint nicht im Quelltext. Sie wird vom Compiler automatisch in den erzeugten Maschinen-Code eingefügt. Voraussetzung dafür ist, dass zwischen Ursprungs- und Zieltyp eine implizierte Typumwandlungsoperation existiert.
Für explizite Typumwandlungen sind in C# zwei Konstrukte vorgesehen:
codice_131
codice_132
Während erstere Umwandlung im Fall einer ungültigen Typumwandlung eine Ausnahme auslöst, ist Letztere nur möglich, wenn der Zieldatentyp ein Referenzdatentyp ist. Bei einer ungültigen Typumwandlung wird hier dem Ziel der Nullzeiger zugewiesen.
using System.Collections;
public class CastBeispiel
public static void Main()
long aLong = long.MaxValue;
//Typumwandlung nach int, aInt hat danach den Wert −1,
//nicht in einem unchecked{}-Block eingeschlossen, wird jedoch eine Ausnahme geworfen.
unchecked {
int aInt = (int) aLong;
//Umwandlung nach object
object aObject = aInt as object;
//ungültige Typumwandlung, liste2 erhält den Wert null
IList liste2 = aObject as IList;
//ungültige Typumwandlung, löst zur Laufzeit eine InvalidCastException aus,
//da das Object nicht vom Typ Liste ist.
IList liste = (IList)aObject;
//Löst den Kompilierfehler CS0077 aus, da int kein Referenztyp ist
int aInt2 = aLong as int;
Die codice_133-Anweisung bzw. Anweisungsblock dient dazu den Überlauf einer Ganzzahl zu ignorieren. Mit codice_134 hingegen wird bei einem Überlauf ein OverflowException ausgelöst.
Zu den Typumwandlungen gehört auch das sogenannte "„Boxing“". Es bezeichnet die Umwandlung zwischen Wert- und Referenztypen. Der Zieltyp wird wie bei der expliziten Konvertierung in Klammern vor den umzuwandelnden Typ geschrieben. Erfolgt dies implizit, so spricht man von "„Autoboxing“".
Benutzerdefinierte Typumwandlungen.
C# erlaubt die Definition von benutzerdefinierten Typumwandlungen. Diese können als explizit oder implizit markiert werden. Implizite benutzerdefinierte Typumwandlung kommen u. a. bei der Überladungsauflösung zum tragen, während explizite dann verwendet werden, wenn oben genannte explizite Typumwandlungssyntax benutzt wird.
"Siehe auch:" Operatoren überladen, Explizite Typumwandlung
Parametrische Polymorphie (Generics).
Bei der Definition von Interfaces, Klassen, Strukturen, Delegate-Typen und Methoden können Typparameter angegeben und gegebenenfalls mit Einschränkungen versehen werden. Werden Typparameter angegeben, so erhält man "generische" Interfaces, Klassen, und so weiter. Bei der späteren Benutzung solcher Generics füllt man die Typparameter mit konkreten Typargumenten.
Definitionsseitige Ko- und Kontravarianz.
Ab C#4 ist es möglich, Typparametern von Interfaces und Delegate-Typen eine Varianzannotation mitzugeben. Diese beeinflusst die Subtyprelation. Angenommen, der generische Typ heiße codice_135 und habe einen einzigen Typparameter codice_87. Möglich sind dann:
Neben der Fortsetzung von Untertypbeziehungen von Typargumenten auf Instanzen von Generics beeinflusst die Varianzannotation auch, an welchen Stellen ein Typparameter benutzt werden darf. So sind beispielsweise die Benutzung von kovarianten Typparametern als Typen von Methodenargumenten und die Benutzung von kontravarianten Typparametern als Rückgabetypen nicht erlaubt.
Assemblies.
Siehe .NET Assemblies
Attribute (Metadaten).
Attribute geben die Möglichkeit Metadaten für Assemblies, Funktionen, Parameter, Klassen, Strukturen, Enumerationen oder Felder anzugeben. Diese können Informationen für den Compiler enthalten, für die Laufzeitumgebung oder über Reflexion während der Laufzeit ausgelesen werden.
In C# werden diese mit eckigen Klammern über dem Ziel angegeben. Das STAThread-Attribut wird z. B. benötigt, wenn ein Programm COM Interoperabilität unterstützen soll – Die Fehlermeldung lautet sonst: „Es wurde eine steuernde ‚IUnknown‘ ungleich NULL angegeben, aber entweder war die angeforderte Schnittstelle nicht 'IUnknown', oder der Provider unterstützt keine COM Aggregation.“
[STAThread()]
public static void Main(string[] argumente)
//...
Attribute selbst sind wiederum Klassen, die von der Klasse "Attribute" abgeleitet sind, und können beliebig selbst definiert werden.
Beispiel:
[AttributeUsage(AttributeTargets.All)]
public class Autor : System.Attribute
public int Age
get;
set;
public Autor(string name)
//...
Verwendung:
[Autor("Name des Autors")]
[Autor("Name des 2. Autors",Age=20)]
[Version(1,0,0,0)]
public class IrgendeineKlasse()
//...
Abfrage von Attributen:
Autor[] a = typeof(IrgendeineKlasse).GetCustomAttributes(typeof(Autor), false) as Autor[];
Ausnahmen/Exceptions.
Schema:
try {
// öffnet den Block um den Codeteil, dessen
// Fehler abgefangen werden sollen.
// ...unsichere Verarbeitung...
catch (ExceptionTypException exception_data) {
// Fängt alle Exceptions vom Typ ExceptionTypException
// ...tut was wenn ExceptionTypException geworfen wurde...
catch (Exception ex){
//Fängt alle Exceptions welche von Exception abgeleitet wurden
// ...tut was wenn Exception geworfen wurde...
finally {
// Wird zwingend ausgeführt
Es ist nicht zwingend erforderlich, dass immer alle Blöcke (codice_150, codice_151) angegeben werden. Den Umständen entsprechend kann auf einen codice_152-Block auch direkt ein codice_151-Block folgen, wenn beispielsweise keine Behandlung einer Ausnahme erwünscht ist. Zudem ist es nicht zwingend erforderlich, dass auf ein codice_152-codice_150-Konstrukt ein codice_151-Block folgen muss. Es ist jedoch nicht möglich, nur einen codice_152-Block zu definieren. Ein codice_152-Block muss mindestens von einem weiteren Block gefolgt werden.
Zudem ist es möglich, mehrere codice_150-Blöcke zu definieren. Wird im codice_152-Bereich eine Ausnahme ausgelöst, so werden alle vorhandenen codice_150-Blöcke der Reihe nach durchgegangen, um zu sehen, welcher Block sich um die Ausnahme kümmert. Somit ist es möglich, gezielt verschiedene Reaktionen auf Ausnahmen zu programmieren.
Wird eine Ausnahme von keinem codice_150-Block abgefangen, so wird diese an die nächsthöhere Ebene weitergegeben.
Beispiele vordefinierter Ausnahme-Klassen:
Bei der Implementierung eigener, nicht-kritischer Ausnahmen, ist darauf zu achten, nicht von der Klasse codice_163 abzuleiten, sondern von codice_164.
Throw.
Mittels codice_13 ist es möglich eine, in einem codice_150-Block, aufgefangene Ausnahme eine Ebene höher zu „werfen“ (weitergeben). Somit ist es möglich, dass auch nachfolgender Code von der aufgetretenen Ausnahme informiert wird und somit seinerseits Aktionen unternehmen kann, um auf die Ausnahme zu reagieren. Der Aufruf-Stack bleibt erhalten.
Durch codice_13 kann auch eine neue Ausnahme ausgelöst werden, beispielsweise eine programmspezifische Ausnahme, die nicht durch bereits vorhandene C#-Ausnahmen abgedeckt wird.
Unsicherer Code.
Durch die Codeverifizierung und .NET-Zugriffsverifizierung werden bei C# Speicherzugriffsfehler verhindert. Bei Verwendung von Zeigern werden diese Sicherheitsmechanismen umgangen. Dies ist nur in der Betriebsart „Unsafe Code“ möglich.
Beispiel:
using System;
class us_code {
public static void Main() {
unsafe {
int i = 1; // i hat den Wert 1
int* p = &i; // p zeigt auf den Speicher von i mit dem Wert 1
Console.WriteLine("p = " + *p + ", i = " + i);
i = 2; // Sowohl i als auch *p haben nun den Wert 2...
Console.WriteLine("p = " + *p + ", i = " + i);
Zudem können Klassen und Methoden als "unsafe" deklariert werden.
Kommentare und Dokumentation.
In C# sind, wie in C, C++ und Java, sowohl Zeilen- als auch Blockkommentare möglich.
Zeilenkommentare beginnen dabei mit zwei aufeinanderfolgenden Schrägstrichen (//) und enden in der gleichen Zeile mit dem Zeilenumbruch. Alles, was nach den Schrägstrichen folgt, wird bis zum Zeilenende als Kommentar angesehen und vom Compiler übergangen.
Blockkommentare, die sich über mehrere Zeilen erstrecken können, beginnen mit der Zeichenkombination /* und enden mit */.
Sowohl Zeilen- als auch Blockkommentare können zu Beginn oder auch mitten in einer Zeile beginnen. Blockkommentare können in derselben Zeile enden und es kann ihnen Quelltext folgen, der vom Compiler ausgewertet wird. Alles was innerhalb des Blockkommentars steht, wird vom Compiler übergangen.
// Dies ist ein Zeilenkommentar, der mit dem Zeilenumbruch endet
System.Console.WriteLine("Ein Befehl"); // Ein Zeilenkommentar am Zeilenende
/* Dies ist ein Blockkommentar, der in der gleichen Zeile endet */
System.Console.WriteLine("Ein weiterer Befehl"); /* Ein mehrzeiliger
Blockkommentar */System.Console.WriteLine("Noch ein Befehl");
System.Console.WriteLine("Befehl 1"); /* Kommentar */ System.Console.WriteLine("Befehl 2");
System.Console/* Kommentar */.WriteLine( /* Kommentar */ "..." )
Hinweis: Es sind auch Kommentare innerhalb einer Anweisung bzw. Deklaration möglich, z. B. zur Kommentierung einzelner Methodenparameter. Diese Art von Kommentaren sollte aus Gründen der Lesbarkeit und Wartbarkeit vermieden werden.
Zur Dokumentation von Methoden stellt C# in Form von Metadaten (Attribute) einen Mechanismus bereit, der es ermöglicht, eine XML-basierte Dokumentation erzeugen zu lassen.
Zur Dokumentation von Typen (das heißt, Klassen und deren Elemente wie Attribute oder Methoden) steht eine spezielle Form von Zeilenkommentaren bereit. Hierzu beginnt der Zeilenkommentar mit einem weiteren, dritten Schrägstrich ("///") und befindet sich direkt über dem zu dokumentierenden Typ (z. B. einer Methode). Es folgen nun XML-Tags, die jeweils eine bestimmte Funktion bei der Dokumentation übernehmen, beispielsweise eine Zusammenfassung durch einen "Summary-Tag".
/// <summary>
/// Diese Funktion gibt den größeren Betrag zurück
/// </summary>
/// <param name="a">Der erste Übergabeparameter</param>
/// <param name="b">Der zweite Übergabeparameter</param>
/// <returns>Die Zahl mit dem größeren Betrag</returns>
/// <remarks>Diese Funktion gibt den größeren Betrag der beiden Übergebenen <see cref="Int32"/>zurück.
/// Sind die Beträge gleich groß, ist dies ein Fehler</remarks>
/// <exception cref="ArgumentException">Der Betrag der beiden Zahlen ist gleich groß</exception>
public int GetGreaterAbs(int a, int b)
return Math.Max(Math.Abs(a), Math.Abs(b));
Alternativ kann auch eine externe Ressource referenziert werden, die die Dokumentation enthält:
/// <include file='xml_include_tag.doc' path='MyDocs/MyMembers[@name="test"]/*' />
Dokumentation im XMLDoc-API-Dokumentationsformat wird vom Compiler als ein normaler Zeilenkommentar angesehen. Erst durch Angabe der Compiler-Option „/doc“ werden Kommentare, die mit drei Schrägstrichen beginnen, als XMLDoc erkannt und aus dem Quellcode in eine Datei extrahiert. Diese kann dann weiterverarbeitet werden, z. B. ähnlich wie bei Javadoc zur Erstellung einer HTML-Hilfe verwendet werden. (NDoc)
Schlüsselwörter.
Reservierte Schlüsselwörter.
Die folgenden Bezeichner sind "reservierte Schlüsselwörter" und dürfen nicht für eigene Bezeichner verwendet werden, sofern ihnen nicht ein codice_168-Zeichen vorangestellt wird (zum Beispiel codice_169).
abstract as
base bool break byte
case catch char checked class const continue
decimal default delegate do double
else enum event explicit extern
false finally fixed float for foreach
goto
if implicit in int interface internal is
lock long
namespace new null
object operator out override
params private protected public
readonly ref return
sbyte sealed short sizeof stackalloc static string struct switch
this throw true try typeof
uint ulong unchecked unsafe ushort using
virtual volatile void
while
Kontextschlüsselwörter.
Die folgenden Bezeichner sind "Kontextschlüsselwörter", das heißt innerhalb eines gültigen Kontextes – und nur dort – haben sie eine besondere Bedeutung. Sie stellen aber keine reservierten Wörter dar, das heißt außerhalb ihres Kontextes sind sie für eigene Bezeichner erlaubt.
add alias ascending
descending
equals
from
get global group
into
join
let
on orderby
partial
remove
select set
value var
where
yield |
931 | 1268794 | https://de.wikipedia.org/wiki?curid=931 | Cholesterin | Das Cholesterin, auch Cholesterol (von griechisch , und von ), ist ein in allen eukaryonten Zellen vorkommender fettartiger Naturstoff. Der Stoff wurde im 18. Jahrhundert in kristalliner Form in Gallensteinen gefunden, weshalb der französische Chemiker Eugène Chevreul, Begründer der Fettchemie, 1824 den Namen „“ prägte. Die Substanz wird bei Tieren in der Leber produziert, prinzipiell ist aber annähernd jede eukaryonte Zelle dazu in der Lage, Cholesterin in ihrem endoplasmatischen Retikulum zu bilden. Außer in der Gallenflüssigkeit ist Cholesterin auch im Blut und in Geweben zu finden, besonders reichlich im Nervengewebe. Cholesterin hat Einfluss auf die Stabilisierung von Zellmembranen, die Nervenfunktion, die Produktion von Sexualhormonen und andere Prozesse.
Cholesterin kommt in fast allen tierischen Fetten vor. Ein typischer Wert für Butter beträgt zum Beispiel 2340 mg pro kg.
Pflanzliches Material und Bakterien enthalten nur geringe Mengen. Maiskeimöl enthält beispielsweise 55 mg pro kg, Rapsöl 53 mg pro kg und Baumwollsamenöl 45 mg pro kg.
Hohe LDL-Cholesterin-Werte im Blut erhöhen das Risiko für Herzinfarkt und Schlaganfall. In Österreich sind etwa 8,2 % der vorzeitigen Todesfälle auf erhöhte LDL-Cholesterinwerte zurückzuführen.
Funktion.
Cholesterin ist ein lebenswichtiges Sterol und ein wichtiger Bestandteil der tierischen Zellmembran. Es erhöht die Stabilität der Membran und trägt gemeinsam mit Proteinen dazu bei, Signalstoffe in die Zellmembran einzuschleusen und wieder hinauszubefördern. Der menschliche Körper enthält etwa 140 g Cholesterin, über 95 % des Cholesterins befindet sich innerhalb der Zellen und Zellmembranen. Um die Zellen mit Cholesterin, welches lipophil (fettlöslich) sowie hydrophob (wasserabweisend bei Benetzung) ist, über das Blut versorgen zu können, wird es für den Transport an Lipoproteine gebunden. Diese können von unterschiedlicher Dichte sein und werden nach ihrem Verhalten beim Zentrifugieren bzw. in der Elektrophorese unterteilt in Chylomikronen, VLDL, IDL, LDL, HDL und Lipoprotein a.
Cholesterin dient im Körper unter anderem als Vorstufe für Steroidhormone und Gallensäuren. Für die Bildung von Hormonen wandelt das Cholesterin-Seitenkettentrennungsenzym Cholesterin zu Pregnenolon um. Dieses ist die Ausgangsverbindung, aus der der Körper die Geschlechtshormone Testosteron, Östradiol und Progesteron und Nebennierenhormone (Corticoide) wie Cortisol und Aldosteron aufbaut. Auch Gallensäuren wie Cholsäure und Glykocholsäure basieren auf der Ausgangssubstanz Cholesterin.
Ein Zwischenprodukt der Cholesterinbiosynthese, das 7-Dehydrocholesterin, ist das Provitamin zur Bildung von Vitamin D durch UV-Licht.
Neue Forschungen zeigen zudem, dass der Körper Cholesterin zur Biosynthese herzwirksamer Glykoside nutzt. Welche Bedeutung diese endogen synthetisierten Glykoside haben, ist noch weitgehend unbekannt.
Aufgrund von Sedimentfunden mit chemischen Cholesterin-Verwandten (Sterolen) wird von einigen Forschern angenommen, dass das Cholesterinmolekül, sofern es nie anders als in belebter Materie auftrat, evolutionsgeschichtlich sehr alt sein müsse. Die Biosynthese des Moleküls könne allerdings erst funktionieren, seitdem Sauerstoff in der Atmosphäre vorhanden sei. In Bakterien und den Membranen von Mitochondrien findet sich aus diesem Grund kaum Cholesterin; Pflanzen und Pilze enthalten ebenfalls kein Cholesterin, dafür aber andere, strukturell ähnliche Sterole.
Chemische Einordnung.
Cholesterin ist ein polycyclischer Alkohol. Herkömmlich wird es als zur Gruppe der Sterine (Sterole) gehörendes Steroid zu den lipidähnlichen Substanzen gerechnet; entgegen einer verbreiteten Verwechslung ist es jedoch kein Fett. Die Steroide gehören zu den Isoprenoiden, die im Gegensatz zu den Fetten keine Ester aus Fettsäure und Alkohol sind, sondern hydrophile Pole als diverse Muster in ihrer hydrophoben Grundstruktur aufweisen können.
Cholesterin ist, wie viele Substanzen, sensibel gegenüber Oxidantien. Autoxidationsprozesse können zu vielen Reaktionsprodukten führen. Bisher sind bereits über achtzig solcher Substanzen bekannt, die häufig beachtliche physiologische Wirkungen haben. Die Isolierung und Reindarstellung der Oxidationsprodukte gelingt durch chromatographische Verfahren. Ihre sichere Identifizierung erfolgt z. B. durch spektroskopische oder spektrometrische Methoden wie der Massenspektrometrie. Eine umfassende Darstellung dieser Cholesterinoxidationsprodukte gibt das Werk von Leland L. Smith: "Cholesterol Autoxidation".
Physiologie.
Cholesterin ist ein für Menschen und Tiere lebenswichtiges Zoosterin. Beim Menschen wird Cholesterin zum Großteil (90 %) im Körper selbst hergestellt (synthetisiert), beim Erwachsenen in einer Menge von 1 bis 2 g pro Tag, und kann nur zu einem kleinen Teil mit der Nahrung aufgenommen werden. Die Cholesterinresorption liegt im Durchschnitt bei 0,1 bis 0,3 g pro Tag und kann höchstens auf 0,5 g pro Tag gesteigert werden.
Alle Tiere synthetisieren Cholesterin. Ausgehend von „aktivierter Essigsäure“, dem Acetyl-CoA, wird über Mevalonsäure in vier Schritten Isopentenyldiphosphat erzeugt. Weitere drei Reaktionsschritte führen zum Squalen. Nach dem Ringschluss zum Lanosterin folgen etwa ein Dutzend enzymatischer Reaktionen, die auch parallel verlaufen können, bis schließlich Cholesterin entstanden ist. Dieser letzte Abschnitt ist nicht in allen Einzelheiten bekannt, die beteiligten Enzyme sind jedoch identifiziert.
Cholesterin wird über die Leber ausgeschieden, indem es in Form von Gallensäuren über die Gallenwege in den Darm sezerniert wird (etwa 500 mg pro Tag). Gallensäuren sind für die Resorption wasserunlöslicher Nahrungsbestandteile, also auch von Cholesterin, erforderlich. Cholesterin wird durch Gallensäuren emulgiert und im Dünndarm resorbiert. Da etwa 90 % der Gallensäuren wieder aufgenommen werden, ist die Ausscheidung von Cholesterin entsprechend ineffektiv. Durch Medikamente wie Colestyramin, die Gallensäuren binden und damit ihre Wiederaufnahme erschweren, kann die Cholesterinausscheidung gesteigert werden. Allerdings wird dann die Senkung des Cholesterinspiegels durch Zunahme der LDL-Rezeptordichte auf Leberzellen und die damit gesteigerte Cholesterinaufnahme aus dem Blut in die Leber, teilweise auch durch eine vermehrte Neusynthese, ausgeglichen.
Aufnahme in die Zellen.
Cholesterin wird von vielen tierischen Zellen über rezeptorvermittelte Endocytose aufgenommen. Es wird im Blut überwiegend als Cholesterinester in Form von Lipid-Protein-Partikeln, den Low-Density-Lipoproteinen (LDL), transportiert. Sobald eine Zelle LDL benötigt, bildet sie LDL-Rezeptoren auf ihrer Zellmembran. Diese lagern sich mit Clathrin-beschichteten Vertiefungen zusammen, an die ein Endocytosesignal am cytoplasmatischen Teil des LDL-Rezeptors bindet. Dort ist ein Adapterprotein, das AP2, gebunden, das Clathrin zu sich zieht, sodass die Endocytose eingeleitet wird. Nachdem die LDL-Partikel aufgenommen worden sind, gelangen sie in die frühen Endosomen. Dafür wird zuvor das Clathrin von den Vesikeln entfernt, mit dem sie beschichtet gewesen sind. In den frühen Endosomen ist der pH-Wert niedrig (sauer), wodurch sich das LDL vom Rezeptor löst und in ein spätes Endosom übergeht, das es zu den Lysosomen bringt. Diese hydrolysieren die Cholesterinester zu freiem Cholesterin.
Biosynthese.
Die Biosynthese des Cholesterins, die insbesondere durch Arbeiten von Konrad Bloch, Feodor Lynen, George Joseph Popják und John W. Cornforth aufgeklärt wurde, geht von den Endprodukten des Mevalonatbiosyntheseweges, von Dimethylallylpyrophosphat und von Isopentenylpyrophosphat aus und benötigt 13 weitere Reaktionen. Beim Menschen sind die Leber und die Darmschleimhaut die Hauptorte der Cholesterinsynthese.
Regulation.
Das Gleichgewicht zwischen benötigtem, selbst produziertem und über die Nahrung aufgenommenem Cholesterin wird über vielfältige Mechanismen aufrechterhalten. Als wichtig kann dabei die Hemmung der HMG-CoA-Reduktase, des wichtigsten Enzyms der Cholesterinbiosynthese, durch Cholesterin gelten (noch stärker wird die HMG-CoA-Reduktase durch Lanosterol, eine Vorstufe von Cholesterin, gehemmt). Damit hemmen Produkte dieses Stoffwechselwegs (Cholesterinsynthese) „ihr“ Enzym; dies ist ein typisches Beispiel negativer Rückkopplung. Außerdem verkürzt sich die Halbwertszeit der HMG-CoA-Reduktase bei erhöhtem Lanosterolspiegel stark, da sie dann vermehrt an die Proteine Insig-1 und Insig-2 bindet, was schließlich zu ihrem Abbau im Proteasom führt. Es gibt noch viele andere, weniger direkte Regulationsmechanismen, die auf transkriptioneller Ebene ablaufen. Hier sind die Proteine SCAP, Insig-1 und Insig-2 wichtig, die in Anwesenheit von Cholesterin, für das sie eine Bindungsstelle besitzen, über die proteolytische Aktivierung von SREBPs die Aktivität einer größeren Anzahl Gene regulieren. Auch Insulin spielt hier eine Rolle, da es u. a. die Transkription von SREBP1c steigert.
Die HMG-CoA-Reduktase, das Schlüsselenzym der Cholesterinbiosynthese, kann spezifisch und effektiv durch verschiedene Substanzen gehemmt werden (beispielsweise Statine, die als HMG-CoA-Reduktase-Hemmer eine bestimmte Klasse von Medikamenten darstellen). Über den LDL-Rezeptor wird die Aufnahme in die Zelle aktiviert.
Die Höhe des Cholesterinspiegels hängt vor allem von der körpereigenen Produktion ab und erst in zweiter Linie von der Zufuhr über die Nahrung. Daneben gibt es eine Vielzahl genetisch bedingter Hypercholesterinämien. Auch als Folge anderer Erkrankungen kann der Cholesterinspiegel erhöht sein (beispielsweise durch Hypothyreose, Niereninsuffizienz oder metabolisches Syndrom).
Cholesterintransport (Lipoproteine).
Da Cholesterin in Wasser unlöslich ist, erfolgt der Transport im Blutplasma zusammen mit anderen lipophilen Substanzen wie Phospholipiden, Triglyceriden oder Fettsäuren, mit Hilfe von Transportvesikeln, den Lipoproteinen.
Das über die Nahrung zugeführte Cholesterin sowie Triglyceride werden nach der Resorption aus dem Darm von den Chylomikronen aufgenommen und von dort in die Leber transportiert. Lipoproteine verschiedener Dichte (VLDL, IDL und LDL) transportieren selbst hergestelltes und aufgenommenes Cholesterin von der Leber zu den Geweben. HDL nehmen Cholesterin aus den Geweben auf und bringen es zur Leber zurück (reverser Cholesterintransport). Das Cholesterin in den Lipoproteinen ist überwiegend mit Fettsäuren verestert. Das Spektrum dieser Fettsäuren ist in starkem Maße durch die mit der Nahrung aufgenommenen Triglyceride zu beeinflussen. Dies zeigen insbesondere Studien an Bevölkerungsgruppen mit speziellen Ernährungsformen wie z. B. Vegetarier und Veganer.
Für den Abbau des LDL-Cholesterins im Blut gibt es im menschlichen Körper zwei voneinander unabhängige Wege, den LDL-Rezeptorweg und den sogenannten "Scavenger-Pathway". Der größte Teil, ca. 65 % des LDL-Cholesterins im Plasma, wird über LDL-Rezeptoren verstoffwechselt. LDL-Rezeptoren findet man in allen Zelltypen der Arterien und in Hepatozyten (Leberzellen). Neben dem LDL-Rezeptorweg werden circa 15 % des LDL-Cholesterins im Plasma über den Scavenger-Pathway in den Blutgefäßen abgebaut. Als Scavenger-Zellen werden die Makrophagen bezeichnet. Sie besitzen sogenannte Scavenger-Rezeptoren, über die chemisch modifizierte (oxidierte) LDL ungehemmt und konzentrationsunabhängig aufgenommen und gespeichert werden können.
Zusammenfassend lassen sich drei verschiedene Wege beschreiben, die das Cholesterin (unabhängig ob über die Nahrung oder selbst synthetisiert) im Organismus nimmt:
Blutspiegel.
Der durchschnittliche Gesamtcholesterinspiegel wie auch die LDL- und HDL-Spiegel der gesunden Normalbevölkerung sind von Land zu Land verschieden und darüber hinaus alters- und geschlechtsabhängig. Es besteht eine positive Korrelation zwischen den Blutcholesterin-Werten und dem Body-Mass-Index.
Gesamtcholesterinspiegel.
Generell nimmt der Gesamtcholesterinspiegel mit dem Alter deutlich zu. In der Regel ist er bei jungen Frauen etwas niedriger als bei jungen Männern. Mit zunehmendem Alter gleicht sich dieser Unterschied jedoch aus, und ältere Frauen haben schließlich im Mittel einen höheren Cholesterinspiegel als ältere Männer. Einen Sonderfall stellt die Schwangerschaft dar, in der der Gesamtcholesterinspiegel im Normalfall deutlich erhöht ist.
Der durchschnittliche Gesamtcholesterinspiegel der Altersgruppe zwischen 35 und 65 Jahren in Deutschland liegt bei etwa 236 mg/dl (entspricht 6,1 mmol/l), die Standardabweichung bei ±46 mg/dl. Das bedeutet näherungsweise, dass etwa zwei Drittel der deutschen Bevölkerung in dieser Altersgruppe einen Gesamtcholesterinwert im Bereich zwischen 190 mg/dl und 282 mg/dl aufweisen und je ein Sechstel der Deutschen in dieser Altersgruppe Werte oberhalb beziehungsweise unterhalb dieses Bereichs. In manchen Teilen Chinas liegt der durchschnittliche Cholesterinwert bei 94 mg/dl mit Normwerten zwischen 70 mg/dl und 170 mg/dl, wobei die geringeren Cholesterinwerte mit einer geringeren Wahrscheinlichkeit an Herz- und Krebserkrankungen korrelieren.
Im globalen Vergleich der Regionen sind die Serum-Cholesterinwerte in Nordamerika, Australien und in den meisten Teilen Europas in den letzten 40 Jahren (Stand 2017) leicht gesunken (um ca. 4 %). Diese Regionen haben allerdings weiterhin die höchsten mittleren Cholesterinwerte. Gleichzeitig sind in diesem Zeitraum die Werte in Ostasien, Südostasien und Südasien stetig gestiegen. 2008 gab es die niedrigsten Werte in Afrika südlich der Sahara. Nach Schätzungen auf der Grundlage von epidemiologischen Daten und Modellrechnungen sind erhöhte Cholesterinspiegel die Ursache für etwa 4,4 Millionen weltweite jährliche Todesfälle, und eine Reduktion des Spiegels um 1-mmol/l für 5 Jahre bei Personen mittleren Alters bedeute ein um ca. 20 % verringertes Risiko für eine Herzerkrankung.
LDL-Cholesterinspiegel.
Der LDL-Cholesterinspiegel unterliegt einer ähnlichen alters- und geschlechtsabhängigen Verteilung. Auch hier ist der altersabhängige Anstieg bei den Frauen deutlich stärker ausgeprägt als bei den Männern. Der Mittelwert der Altersgruppe zwischen 35 und 65 Jahren liegt dabei bei den deutschen Frauen bei 164 mg/dl (Standardabweichung ±44 mg/dl), bei den Männern bei 168 mg/dl (±43 mg/dl).
HDL-Cholesterinspiegel.
Der durchschnittliche HDL-Spiegel unterscheidet sich stärker zwischen den beiden Geschlechtern, wobei Frauen im mittleren Alter einen höheren HDL-Spiegel aufweisen als Männer. Die Altersabhängigkeit zeigt sich hier bei beiden Geschlechtern in einem Absinken ab einem Alter von etwa 55 Jahren. Der durchschnittliche HDL-Spiegel bei den deutschen Frauen in der Altersgruppe zwischen 35 und 65 Jahren liegt bei 45 mg/dl (±12 mg/dl), bei den Männern bei 37 mg/dl (±11 mg/dl).
Quotienten.
Auf Grundlage der vorgenannten Parameter werden gelegentlich Quotienten aus diesen Werten bestimmt. Der Mittelwert des Quotienten aus LDL- und HDL-Spiegel liegt für die deutschen Frauen zwischen 35 und 65 Jahren bei 3,9 (±1,6), bei den Männern bei 4,9 (±1,9). Die entsprechenden Durchschnittswerte für den Quotienten aus dem Gesamtcholesterin- und dem HDL-Spiegel liegen für die Frauen bei 5,7 (±2,1), für die Männer bei 7,0 (±2,3).
Messung und Labor-Referenzwerte.
Die Bestimmung der Konzentration von Cholesterin im Blut in medizinischen Routinelabors gehört heute zu den Bestimmungsmethoden, die in Deutschland ringversuchspflichtig sind. Ein Ringversuch ist die externe Qualitätskontrolle von Laborparametern, die von der Bundesärztekammer kontrolliert und zertifiziert wird. An die „Richtlinien der Bundesärztekammer“ (RiLiBÄK) muss sich jedes medizinische Labor in Deutschland halten. Der Referenzbereich (oftmals irreführend als „Normalwert“ bezeichnet) ist vom Messgerät und der Methode abhängig. Die Referenzbereiche wurden in den letzten Jahren mehrfach nach oben korrigiert. Um eine Verfälschung der Ergebnisse auszuschließen, wird die Bestimmung häufig erst 12 bis 16 Stunden nach der letzten Mahlzeit durchgeführt.
Lange Zeit wurde im Labor nur das Gesamtcholesterin bestimmt, da die direkte Messung der verschiedenen Lipoproteine nicht möglich bzw. sehr aufwendig war. Das hat sich mittlerweile geändert. Das LDL-Cholesterin wurde ursprünglich nicht direkt gemessen, sondern aus den direkt gemessenen Werten für Gesamtcholesterin, Triglyceride und HDL nach Friedewald et al. abgeschätzt. Diese Methode kann nicht angewendet werden für Triglyzeridwerte über 400 mg/dl oder bei Vorliegen einer Chylomikronämie. Verschiedene Korrekturfaktoren sind vorgeschlagen worden, um die Präzision dieser Abschätzung zu erhöhen, jedoch sind sie bisher nicht in die klinische Praxis eingegangen. Heute wird diese Methode nur noch selten angewandt, stattdessen in Routinelaboratorien mit Analysatoren der klinischen Chemie direkt gemessen.
Der Referenzbereich für den LDL-Cholesterinspiegel wird für Frauen und Männer zwischen 70 und 180 mg/dl angegeben.
Zur zuverlässigen Bestimmung des Cholesterins können nach adäquater Probenvorbereitung auch die Kopplungen von Gaschromatographie und HPLC mit der Massenspektrometrie eingesetzt werden.
Einheiten und Umrechnung.
In Westdeutschland wird für die Angabe der Konzentration von Cholesterin im Blut häufig die Einheit „mg/dl“ (Milligramm pro Deziliter) verwendet. In Ostdeutschland wird dagegen – wie im angelsächsischen Sprachraum – überwiegend die Einheit „mmol/l“ (Millimol pro Liter, vergleiche Milli und Mol) benutzt. Für Cholesterin (nicht jedoch für Triglyceride oder andere Stoffe) gilt der folgende Zusammenhang zwischen diesen Maßeinheiten:
Beispiel:
Für Triglyceride gelten die folgenden Umrechnungsformeln:
Erkrankungen.
Zu den bekannten Erkrankungen im Zusammenhang mit Cholesterin gehören die familiäre Hypercholesterinämie und Gallensteine (Gallenkonkrement).
Familiäre Hypercholesterinämie.
Es gibt erbliche Störungen des Cholesterinstoffwechsels (familiäre Hypercholesterinämie), die unabhängig von der Nahrungsaufnahme zu stark erhöhten Cholesterinwerten im Blut führen. Bei einer der bekannten Formen der Hypercholesterinämie sind die LDL-Rezeptoren nur unvollständig ausgebildet oder fehlen ganz.
Heterozygote Träger dieser Erbfaktoren sind überdurchschnittlich häufig schon in jüngeren Jahren von Herzinfarkten und anderen Gefäßkrankheiten betroffen. Gemäß einer Untersuchung aus dem Jahre 1991 gilt dies nicht mehr für ältere Personen. Hier geht die Mortalität sogar deutlich zurück und liegt nur bei 44 % gegenüber dem Standard.
Die Prävalenz der häufigsten monogenetischen Hypercholesterinämie, der sogenannten autosomal dominanten familiären Hypercholesterinämie, liegt bei ca. 1:250. Bei schwereren Ausprägungen der Hypercholesterinämie (wie der familiären Hypercholesterinämie) werden medikamentöse Therapien mit Statinen, die LDL-Apherese und teilweise auch chirurgische Therapieformen eingesetzt.
Gallensteine.
Cholesterin wird mit der Gallensäure im Darm vom Körper aufgenommen. Dabei wird Cholesterin emulgiert und im Dünndarm resorbiert. Die Löslichkeit von Cholesterin in der Gesamtgalle liegt bei 0,26 %. Bei einer Veränderung der Zusammensetzung der Galle kommt es zur Bildung von Cholesterinsteinen. 80 % der Gallensteine sind cholesterinreich und 50 % reine Cholesterinsteine. Die Bildung von Gallensteinen erfolgt nicht nur in der Gallenblase, sondern auch in der Leber.
Weitere Krankheitsformen.
Weniger bekannte Erkrankungen sind zum Beispiel die Cholesterinspeicherkrankheit (Xanthomatose oder "Hand-Schüller-Christian-Syndrom"), bei der Cholesterin krankhaft unter anderem in der Haut gespeichert wird.
Mit einer Häufigkeit von ca. 1:60.000 kommt in Europa das Smith-Lemli-Opitz-Syndrom (SLO) vor. Grund für die Erkrankung mit SLO-Syndrom ist ein Defekt des letzten Enzyms des Cholesterin-Biosynthesewegs, der 7-Dehydrocholesterin-Reduktase. Das klinische Bild ist gekennzeichnet durch geistige Retardierung, Wachstumsprobleme, Entwicklungsstörungen und Gesichtsveränderungen.
Weiterhin ist eine Hypocholesterinämie bekannt, bei der der Cholesterinspiegel unter 130 mg/dl im Blut vorliegt. Dies tritt vor allem bei Leberschädigung wie einer Leberzirrhose, der genetisch bedingten Tangier-Krankheit und bei Manganmangel auf. Dabei kann unter anderem das Vitamin E nicht mehr an seine entsprechenden Zielorte transportiert werden.
Cholesterin und die koronare Herzkrankheit (KHK).
Herz-Kreislauf-Erkrankungen, dabei insbesondere die koronare Herzkrankheit (KHK), lösten mit steigendem Lebensstandard im 20. Jahrhundert in den westlichen Industrienationen die Infektionskrankheiten als häufigste Todesursache ab.
Die Cholesterin-Hypothese.
In den 1950er-Jahren fand die Hypothese des amerikanischen Ernährungsforschers Ancel Keys große Beachtung, diese Entwicklung sei zusätzlich dadurch begünstigt, dass der steigende Wohlstand mit einer zu fetthaltigen Ernährung einhergehe. Insbesondere führe eine cholesterinreiche Ernährung (in erster Linie Fleisch, Hühnerei, Milch, Butter und andere Milchprodukte) zu einem erhöhten Cholesterinspiegel. Die Aufnahme von cholesterinhaltiger Nahrung sei somit eine von vielen Ursachen für einen Herzinfarkt. Keys selbst relativierte die Bedeutung der ernährungsbedingten Cholesterinaufnahme für den Cholesterinspiegel im menschlichen Blut bereits 1965:
Die Cholesterin-Hypothese stützt sich ausschließlich auf empirisch gewonnene Hinweise. Es konnte jedoch bisher kein biologischer Mechanismus nachgewiesen werden, der über das Cholesterin bzw. einen erhöhten Cholesterinspiegel zur Plaquebildung führt.
Die Hypothese, cholesterinreiche Ernährung und ein hoher Blut-Cholesterinspiegel spielten eine ursächliche Rolle bei der Entstehung von Herzinfarkten, hat in den vergangenen Jahrzehnten im wissenschaftlichen Umfeld wie in der öffentlichen Wahrnehmung große Verbreitung gefunden. Sie bildete in der medizinischen Praxis ein wesentliches Element der Vorbeugung von Herzinfarkten und führte insbesondere in den USA, aber auch in Europa zur Verbreitung künstlich cholesterinreduzierter oder cholesterinfreier Lebensmittel (beispielsweise Margarine) sowie zu einer routinemäßigen Verschreibung von Medikamenten zur Senkung des Cholesterinspiegels.
Heute besteht ein wissenschaftlicher Konsens über den Zusammenhang des Cholesterinspiegels im Gefäßsystem und arteriosklerotischer kardiovaskulärer Erkrankungen.
Cholesterin im Körper.
Die European Atherosclerosis Society schreibt:
Dabei hängt der kausale Effekt des LDL-Cholesterins sowohl von der Höhe als auch der Akkumulation ab, der man ausgesetzt ist. Daher ist es von besonderer Bedeutung, das ganze Leben über niedrige LDL-Blutwerte zu haben. So kann die Anzahl der Partikel minimiert werden, die sich in den Arterienwänden einlagern und somit auch der fortschreitende Aufbau von Plaques verlangsamt werden.
High-Density-Lipoprotein versus Low-Density-Lipoprotein.
Die ursprüngliche Hypothese, ein erhöhter Cholesterinspiegel sei kausal verantwortlich für die koronare Herzerkrankung, wird in jüngerer Zeit meist nur noch in modifizierter Form vertreten. Unterschieden wird nun zwischen HDL- und LDL-Cholesterin, wobei ein hoher HDL-Cholesterinspiegel als günstig, ein hoher LDL-Spiegel dagegen als weniger günstig angesehen wird. Entsprechend dieser Vorstellung wird HDL populärwissenschaftlich als „gutes“ Cholesterin bezeichnet, LDL als „schlechtes“ Cholesterin.
Diese Vorstellung stützt sich auf verschiedene Beobachtungen:
Empfehlungen zu Lebensstil und medikamentöser Behandlung.
Die Hypothese, Cholesterin sei kausal verantwortlich für Herzinfarkte, führte bereits in den 1960er Jahren zu einer breit angelegten öffentlichen Informationskampagne in den USA, um die Bevölkerung vor den möglichen Gefahren eines hohen Cholesterinspiegels zu warnen. Im Jahre 1984 warnte das amerikanische Nachrichtenmagazin Time in einer Titelgeschichte vor dem Verzehr von Eiern und Wurst. Im Jahre 1985 wurde zur Ausweitung dieser Kampagne durch die American Heart Association (AHA, Amerikanischer Kardiologenverband) das "National Cholesterol Education Program" (NCEP, Nationales Cholesterin-Erziehungsprogramm) ins Leben gerufen. Das NCEP gibt seit seiner Gründung regelmäßig Empfehlungen heraus, an denen sich die Behandlung von Patienten mit hohem Cholesterinspiegel orientieren soll. In Deutschland ist die "Deutsche Gesellschaft für Kardiologie" (DGK) die entsprechende Fachgesellschaft, die eigene Zielwerte herausgibt, die aber in der Regel den amerikanischen Werten sehr ähnlich sind. Eine vergleichbare Rolle wie das NCEP übernimmt in Deutschland die industrienahe Lipid-Liga.
Die grundlegenden Richtlinien der NCEP III, denen sich die europäischen und deutschen Gesellschaften angeschlossen haben, unterscheiden drei gestaffelte Risikogruppen. Zur Gruppe 1 zählen alle Patienten, die bereits eine KHK entwickelt haben oder ein vergleichbares Risiko aufweisen (dazu zählt z. B. auch eine Diabeteserkrankung). Diese Patienten haben ein 10-Jahres-Risiko für ein kardiales Ereignis von >20 %. Zur Gruppe 2 zählen die Patienten, die mindestens zwei Risikofaktoren aufweisen, zur Gruppe 3 die Patienten, die weniger als zwei Risikofaktoren aufweisen.
Patienten der Gruppe 1 sollten bei LDL-Werten über 100 mg/dl Lebensstiländerungen vornehmen (Ernährung etc.), bei Werten über 130 mg/dl eine medikamentöse Therapie beginnen. Ziel sollte für sie sein, LDL-Werte unter 100 mg/dl zu erreichen.
Patienten der Gruppe 2 sollten bei LDL-Werten über 130 mg/dl Lebensstiländerungen vornehmen, bei Werten über 130 mg/dl oder 160 mg/dl (abhängig von der spezifischen Risikoberechnung) eine medikamentöse Therapie beginnen. Ziel sollte sein, LDL-Werte unter 130 mg/dl zu erreichen.
Patienten der Gruppe 3 sollten bei LDL-Werten über 160 mg/dl eine Lebensstiländerung vornehmen und eine medikamentöse Therapie erwägen, ab 190 mg/dl wird eine medikamentöse Therapie dringend empfohlen.
Als Risikofaktoren gelten:
Als Lebensstiländerungen werden empfohlen:
Die Anwendung dieser Zielwerte wird von den deutschen Fachgesellschaften der Kardiologen und Internisten unterstützt und befürwortet.
Cholesterin und Schlaganfallrisiko.
Der Zusammenhang von Cholesterin und Schlaganfällen ist komplex, zumal Cholesterin nicht der einzige Risikofaktor für Schlaganfälle ist, sondern auch der Blutdruck einen starken Einfluss hat. Generell hat sich in den letzten Jahren jedoch gezeigt, dass hohe Cholesterinspiegel ein höheres Risiko für ischämische arteriothrombotische Schlaganfälle bedeuten, also Schlaganfälle, die durch einen Gefäßverschluss auf dem Boden einer Arteriosklerose entstehen. Gleichzeitig schützen höhere Cholesterinspiegel aber vor Schlaganfällen durch Hirnblutungen (hämorrhagischer Schlaganfall). Umgekehrt bedeuten niedrige Cholesterinspiegel ein höheres Risiko für hämorrhagische Schlaganfälle. Der Zusammenhang wurde in vielen unterschiedlichen Studien gefunden, sodass mit Stand 2019 davon ausgegangen werden kann, dass Cholesterin „wahrscheinlich“ eine ursächliche Rolle spielt. Für die Therapie bedeutet das, dass eine cholesterinsenkende Therapie beispielsweise mit Statinen das Risiko für ischämische Schlaganfälle senkt. Es muss allerdings auch auf eine gute Blutdruckeinstellung geachtet werden, da hoher Blutdruck das Risiko für alle Schlaganfallarten steigert. Niedrige Cholesterinspiegel bei hohem Blutdruck bedeuten ein noch höheres Risiko für hämorrhagische Schlaganfälle.
Cholesterin und Krebserkrankungen.
Cholesterin spielt beim Metabolismus verschiedener Krebsarten eine wesentliche Rolle. Cholesterin-Derivate begünstigen das Krebswachstum und unterdrücken die Immunabwehr des Körpers.
Serum-Cholesterinspiegel und Krebsrisiko.
Bei Krebserkrankung ist der Cholesterinspiegel zum Beispiel bei an Brustkrebs erkrankten Frauen im Vergleich zu Gesunden erhöht. Ursache dafür könnte sein, dass ein Abbauprodukt von Cholesterin, das Oxysterol, dem Östrogen sehr ähnlich ist und auch eine wachstumsfördernde Wirkung hat.<ref name="DOI10.1126/science.1241908">E. R. Nelson, S. E. Wardell, J. S. Jasper, S. Park, S. Suchindran, M. K. Howe, N. J. Carver, R. V. Pillai, P. M. Sullivan, V. Sondhi, M. Umetani, J. Geradts, D. P. McDonnell: "27-Hydroxycholesterol Links Hypercholesterolemia and Breast Cancer Pathophysiology." In: "Science." Band 342, 2013, S. 1094–1098, .</ref>
Bei fortschreitendem Leberkrebs wird die Cholesterinbildung eingeschränkt und als Folge sinkt auch der Serum-Cholesterinspiegel.
Eine cholesterin- und fettreiche Ernährung beeinflusst das Krebswachstum.
Cholesterin und geistige Gesundheit.
Cholesterin und Gewaltbereitschaft.
In einer im Jahre 2005 veröffentlichten Studie zeigte sich ein statistisch signifikanter Zusammenhang zwischen einem niedrigen Gesamtcholesterinspiegel bei Kindern und Schulverweisen. Kinder und Jugendliche mit einem Gesamtcholesterinspiegel unterhalb des formula_1-Perzentils (<145 mg/dl) hatten eine fast dreifach erhöhte Wahrscheinlichkeit, in ihrer Schullaufbahn von der Schule verwiesen worden zu sein. Dies wird von den Autoren als weiterer Hinweis dafür gewertet, dass niedrige Cholesterinspiegel mit einer erhöhten Aggressivität im Zusammenhang stehen. Sie verweisen allerdings darauf, dass Stress (zum Beispiel durch Konflikte in der Schule) auch den Cholesterinstoffwechsel beeinflussen kann, und dass andere Faktoren wie genetische Disposition, Ernährungsweise und Mangel anderer Nährstoffe, und generelle Lebensumstände hineinspielen, und damit das Erkennen von Kausalitäten erheblich erschwert ist.
Cholesterin und Depressionen.
Die Studienlage zum Zusammenhang von Depression und Cholesterinspiegel ist uneinheitlich.
Es gibt Studien, welche Depression mit niedrigen Spiegeln in Verbindung bringen, und Studien, die erhöhte Spiegel bei Depression feststellten.
Cholesterinspiegelerhöhung durch Stress.
In einer Studie aus dem Jahr 2005 wurde ein Zusammenhang zwischen erhöhtem psychischem Stress und einer Erhöhung des Cholesterinspiegels nachgewiesen. Dieser Zusammenhang zeigte sich sowohl kurzfristig als auch innerhalb eines Zeitraums von drei Jahren. Allerdings war die Ausprägung dieses Phänomens für verschiedene Probanden stark unterschiedlich. Die Probanden, die auch kurzfristig unter Stresseinfluss einen relativ hohen Cholesterinanstieg zeigten, hatten auch besonders hohe Anstiege über den längeren Zeitraum. Hierbei ist stets zu beachten, dass Stress sowohl das Ernährungsverhalten als auch den Stoffwechsel grundlegend beeinflussen kann, so dass ein Rückschluss auf einzelne Stoffe erschwert ist.
Gedächtnisleistung.
In einer an 326 Frauen mittleren Alters durchgeführten und 2003 veröffentlichten Studie zeigte sich eine lineare Korrelation der Gedächtnisleistung mit dem LDL-Cholesterinspiegel. 29 Frauen nahmen Lipidsenker.
In einer anderen Studie wurden 3.486 Männer und 1.341 Frauen mit einem mittleren Alter von 55 Jahren untersucht. Die Teilnehmer unterzogen sich drei kognitiven Tests über einen Zeitraum von 10 Jahren. Die Studie zeigte, dass hohe Cholesterinwerte zusammen mit Bluthochdruck zu frühem Gedächtnisverlust führten.
Allgemein gelten heute hohe Cholesterinwerte zur Lebensmitte als Risiko für die Entwicklung von Demenz. Ab einem Alter von 85 Jahren allerdings stehen hohe Cholesterinwerte in Zusammenhang mit besserer Gedächtnisleistung.
Demenz.
Studien zeigen einen Zusammenhang zwischen hohen Cholesterinwerten während der Lebensmitte und der späteren Entwicklung von Demenz.
In einer Studie mit 2125 Teilnehmern wurde ein Zusammenhang zwischen hohen LDL-Cholesterin und frühem Einsetzen von Alzheimer gefunden.
Cholesterin und Ernährung.
Einfluss der Ernährung auf den Cholesterinspiegel.
Der Konsum von gesättigten Fetten (bspw. aus tierischen Lebensmitteln) und Transfetten (aus Fertigprodukten) regt in der Leber die Produktion von LDL-Cholesterin an und erhöht so den Spiegel.
Eine Reduktion von gesättigten Fetten senkt somit das LDL-Cholesterin und damit das Risiko für koronare Herzkrankheit. Deshalb empfiehlt die Deutsche Gesellschaft für Ernährung, die Zufuhr von gesättigten Fettsäuren auf 7 % bis 10 % der Gesamtenergiezufuhr zu beschränken und die Zufuhr von mehrfach ungesättigten Fettsäuren zu steigern.
Die Zufuhr von Nahrungscholesterin – hauptsächlich in tierischen Lebensmitteln enthalten – führt wahrscheinlich zu einem Anstieg des Verhältnisses von Gesamt- zu HDL-Cholesterin und mit überzeugender Evidenz zu einem geringen Anstieg von Gesamt- und LDL-Cholesterin.
Die National Academies of Sciences, Engineering, and Medicine empfehlen, die trans-Fettsäuren- und Cholesterinaufnahme „so niedrig wie möglich“ zu halten, ohne dabei die adäquate Nährstoffversorgung zu gefährden.
Die meisten tierischen Lebensmittel enthalten sowohl Cholesterin als auch gesättigte Fette. In jüngerer Zeit wird argumentiert, dass die wenigen tierischen Lebensmittel, die zwar viel Cholesterin, aber wenig gesättigte Fette enthalten (Eier, Garnelen), keinen negativen Einfluss auf die Herzkreislaufgesundheit haben. So lässt der Konsum von Eiern für geschätzt 70 % der Menschen den Cholesterinspiegel kaum ansteigen. Bei Personen, bei denen Eierkonsum zu einem Anstieg des Gesamtcholesterinspiegels führt, steigt sowohl der LDL- als auch der HDL-Spiegel, was erklären könnte, warum Eier bislang in Beobachtungsstudien nicht eindeutig mit einem erhöhten Risiko für Herzkreislauferkrankungen assoziiert sind. Um die gesundheitlichen Aspekte des Eierkonsums abschließend zu bewerten, sieht die Deutsche Gesellschaft für Ernährung noch Forschungsbedarf in Form von Interventionsstudien.
Empfehlung bei hohem Cholesterinspiegel.
Nach einer Diagnose eines hohen Cholesterinspiegels wird in der Regel als erste Maßnahme eine fettmodifizierte und cholesterinarme Ernährung empfohlen. Eine umfassende Darstellung zu dieser Frage wurde 1981 vom Institut für Sozialmedizin und Epidemiologie des Bundesgesundheitsamts veröffentlicht.
Gemäß den Empfehlungen der DGFF (Lipid-Liga) sollten hierbei folgende Punkte bei der Nahrungsaufnahme bedacht werden:
Wasserlösliche Ballaststoffe senken dosisabhängig den Gesamt- und LDL-Cholesterinspiegel.
Auch Vitamin-D-Supplemente können den Gesamt- und LDL-Cholesterinspiegel senken.
Ungefilterter Kaffee enthält Öle, welche den Cholesterinspiegel ansteigen lassen können. Im Falle von Filterkaffee bleiben diese jedoch großteils im Filter zurück und wirken sich daher nicht aus.
Darüber hinaus wird ein Cholesterin-senkender Einfluss bestimmter Lebensmittel diskutiert. So können 3 g Beta-Glucan am Tag aus beta-glucanreichen Lebensmitteln wie Gerstenbackwaren, Gerstenflocken, Gersten-Salate oder Haferkleie als Teil einer abwechslungsreichen und ausgewogenen Ernährung den Cholesterinspiegel senken und reduzieren damit einen wesentlichen Risikofaktor von Herz- und Gefäßerkrankungen.
Pflanzenbasierte Ernährung.
Nach einer Übersichtsarbeit von 2017 wurden bei Vegetariern und Veganern signifikant verringerte Gesamt- und LDL-Cholesterinspiegel beobachtet: bei Vegetariern −28,2 mg/dl bzw. −21,3 mg/dl und bei Veganern −31,0 mg/dl bzw. −22,9 mg/dl. Dies ging mit einem um 25 % verringerten Risiko für koronare Herzerkrankung einher.
In Interventionsstudien wurde untersucht, ob eine Umstellung auf eine pflanzenbasierte Ernährung geringere Cholesterinspiegel mit sich bringt. Eine Meta-Analyse von 2015, die 11 Interventionsstudien einbezog, kam zu dem Schluss, dass LDL- und HDL-Spiegel bei pflanzenbasierter Ernährung signifikant verringert sind:
Eine Meta-Analyse von 2017, die 30 Beobachtungs- und 19 Interventionsstudien einbezog, bestätigte diese Beobachtung und kam zu dem Schluss, dass vegane Kostformen den größten Effekt zeigen.
Einfluss von Übergewicht.
Bei Übergewicht treten Fettstoffwechselstörungen wie erhöhtes LDL-Cholesterin und hohe Plasma-Triglyzeride (→Hypertriglyceridämie) auf. Nach Gewichtsreduktion kann innerhalb kurzer Zeit eine Senkung des Gesamtcholesterins und des LDL-Cholesterins beobachtet werden. Im Vergleich zu anderen Lipiden am deutlichsten verringern sich die Triglyzeride unter einer Gewichtsreduktion. Es zeigte sich, dass eine Gewichtsreduktion von 7 bis 10 kg eine eindeutige Verbesserung in den Lipidparametern mit sich bringt. Zwischen dem HDL-Cholesterin und dem Körpergewicht besteht eine negative Korrelation. Bei einem Body-Mass-Index >30 werden unabhängig von Alter und Geschlecht des Betroffenen niedrigere Werte für das HDL-Cholesterin im Plasma gemessen. Beim Fasten oder einer Ernährung mit weniger als 1000 kcal pro Tag fällt der HDL-Cholesterinspiegel zunächst ab. Erst bei Gewichtskonstanz oder einem geringeren Energiedefizit steigt das HDL-Cholesterin an. Unter körperlichem Training bleibt es allerdings auch bei rascher Gewichtsreduktion konstant. Durch eine langfristige Veränderung der Fettzusammensetzung – insbesondere den teilweisen Ersatz gesättigter durch ungesättigte Fette – kann bei Männern das Risiko für Herz-Kreislauf-Erkrankungen gesenkt werden. Allerdings ist ungeklärt, welches ungesättigte Fett der ideale Ersatz ist.
Genetische Aspekte.
Bei Gruppen wie den Massai, die sich fast ausschließlich von Milch und Fleisch ernähren, hat vermutlich genetische Selektion dazu geführt, dass diese niedrigere Cholesterinwerte aufweisen.
Japaner, die in ihrer Heimat weniger von Arteriosklerose betroffen sind, hatten nach ihrer Migration in die USA höhere Cholesterinwerte und erkrankten doppelt so häufig an koronarer Herzkrankheit.
Industriefinanzierte Studien.
Neil Barnard et al. untersuchten den Einfluss der Eierproduzenten auf die Cholesterin-Forschung. Barnard zufolge erhöhte sich die Zahl der industriefinanzierten Studien, die dem Einfluss der Ernährung auf den Cholesterinspiegel gewidmet waren, von 0 % in den 1950er Jahren auf 60 % im Zeitraum 2010 bis 2019. Unter den industriefinanzierten Interventionsstudien, die die Wirkung des Eikonsums auf die Cholesterinkonzentration bestimmten, zeigten 34 % einen signifikanten Effekt, von den nicht-industriefinanzierten Studien waren es 51 %. Die Autoren empfehlen Lesern, Redakteuren und der Öffentlichkeit, bei der Interpretation der Studienergebnisse und Schlussfolgerungen auf die Finanzierungsquellen zu achten.
Mit Phytosterolen angereicherte Lebensmittel.
Phytosterole aus Pflanzen können nachgewiesenermaßen die Aufnahme von Nahrungscholesterin senken. Einige Functional-Food- Lebensmittel sind daher mit ihnen in hohen Mengen angereichert, die über eine übliche Ernährung nicht erreicht werden. Allerdings hemmen Phytosterole bei dauerhafter Anwendung nicht nur die Cholesterolaufnahme, sondern auch die Aufnahme von Carotinoiden und fettlöslichen Vitaminen. Zudem kann sich bei Menschen, die aufgrund genetischer Veränderungen überschüssige Phytosterole nicht abbauen können, dieses im Blut anreichern und Arteriosklerose hervorrufen. Damit erhöht sich für diese Personen sogar das Risiko einer Herz-Kreislauf-Erkrankung.<ref name="DOI10.1055/a-1248-0040">"Atherosklerose: Gene der Cholesterinresorption sind relevant." In: "DMW - Deutsche Medizinische Wochenschrift." 146, 2021, S. 220, .</ref>
Cholesterin-Skeptiker.
Das THINCS (The International Network of Cholesterol Sceptics) ist ein loses Netzwerk von etwa 90 Wissenschaftlern, die die so genannte Cholesterinhypothese anzweifeln. Es wurde vom Dänen Uffe Ravnskov (* 1934) gegründet. Ihnen zufolge sei der Einfluss einer kurzfristigen Nahrungsumstellung auf den Cholesterinspiegel nur gering, da die Zusammensetzung der Nahrung nur einen geringen Anteil bei der Bildung von Cholesterin hat.
Ravnskov argumentierte beispielsweise um 1999, eine genauere Auswertung von japanischen Einwanderern in die USA zeige, dass deren Herzerkrankungen und Arteriosklerose unabhängig von der Nahrungszusammensetzung und dem ermittelten Cholesterinspiegel sei. Vielmehr wirke sich ein Beibehalten des japanischen Lebensstils, unabhängig von der Ernährung, positiv aus: Japaner, die sich so fett ernährten wie Amerikaner, jedoch ansonsten weitgehend ihre traditionelle Lebensweise beibehielten, litten seltener an Arteriosklerose – sogar seltener als Japaner, die sich weiterhin fettarm/japanisch ernährten und sich aber an den amerikanischen Lebensstil gewöhnt hatten.
Ravnskov wiederum wird von seinen Kollegen vorgeworfen, dass dieser die große Zahl gut designter Studien ignoriere, welche einen klaren Zusammenhang zwischen LDL-Cholesterin und Arteriosklerose zeigten. Ravnskov konnte zwar in Briefen an die Herausgeber medizinischer Fachzeitschriften lange Jahre hin den Zusammenhang zwischen Cholesterin und Arteriosklerose bestreiten. Alle diese Briefe und seine unbewiesene These würden aber in entsprechenden Antworten sorgfältig widerlegt.
Arzneimittel.
Die ersten Mittel zur Senkung des Cholesterinspiegels waren Gallensäureaustauscherharze "(Cholestipol)". Später kamen dann Fibrate sowie Nikotinsäurepräparate und deren Derivate auf den Markt. Heute werden in diesem Indikationsbereich fast nur noch Statine und Cholesterinwiederaufnahmehemmer eingesetzt, in Einzelfällen noch Fibrate.
Fibrate.
Derzeit sind die Wirkstoffe Bezafibrat, Fenofibrat und Gemfibrozil im Einsatz. Fibrate zeichnen sich durch eine gute Triglyceridsenkung aus und werden heute deshalb vor allem bei Diabetikern eingesetzt.
Statine.
Als die zur Zeit wirksamsten Medikamente zur Senkung des Cholesterinspiegels gelten Statine. Sie gehören zur Gruppe der HMG-CoA-Reduktase-Hemmer (CSE-Hemmer), da sie das Schlüsselenzym der Cholesterinsynthese in der Zelle, die β-Hydroxy-β-methylglutaryl-Coenzym-A-Reduktase hemmen. Als Folge stellt die Zelle benötigtes Cholesterin nicht mehr selbst her, sondern nimmt Cholesterin aus dem Blut, über LDL-Rezeptoren, auf.
Ezetimib.
Der Wirkstoff Ezetimib ist ein im Darm wirkender, selektiver Cholesterinwiederaufnahmehemmer (oder Cholesterol-Resorptionshemmer), der gezielt das Niemann-Pick C1-Like 1 (NPC1L1)-Protein blockiert. NPC1-L1 sitzt in der Membran von Enterozyten der Dünndarmwand und ist für die Aufnahme von Cholesterin und Phytosterolen aus dem Darm zuständig.
PCSK9-Hemmer.
Das Enzym Proproteinkonvertase Subtilisin/Kexin Typ 9 (PCSK9) ist ein wichtiger intrinsischer Determinator des LDL-Spiegels. Es bindet den LDL-Rezeptor irreversibel und vermindert daher die Resorptionsrate von LDL aus dem Blut mit entsprechend höherem LDL-Spiegel. Bei einer seltenen Gen-Variante mit verminderter PCSK9-Aktivität zeigte sich ein deutlich geringerer LDL-Spiegel mit geringerer Rate koronarer Herzerkrankungen. Dies führte zur Entwicklung spezifischer gegen PCSK9 gerichteter monoklonaler Antikörper (PCSK9-Hemmer).
2015 wurden in der Europäischen Union die folgenden Arzneistoffe als PCSK9-Hemmer zugelassen: Alirocumab als "Praluent" der Firma Sanofi und Evolocumab als "Repatha" der Firma Amgen. Wirkungen und Anwendungsmöglichkeiten hängen von der Art der Patientengruppe ab und sind umfassend beschrieben worden.
Schwerwiegende Nebenwirkungen wurden bisher nicht beschrieben. Als häufigste Nebenwirkungen sind allgemeine allergische Reaktionen und Reizungen im Bereich der Injektionsstelle zu nennen (bei je unter 10 % der Patienten).
ATP-Citrat-Lyase-Hemmer.
Mit Bempedoinsäure ist ein neuer Wirkmechanismus in Erprobung. Es wird ein Schlüsselenzym der Cholesterin-Biosynthese, die ATP-Citrat-Lyase, gehemmt.
Bempedoinsäure ist ein Prodrug und erfordert eine Aktivierung durch das Enzym ACSVL1 ("Very-long-chain-Acetyl-CoA-Synthetase 1"), welches nur in der Leber, nicht jedoch in den meisten peripheren Zellen vorhanden ist. Dieses ist ein wesentlicher Unterschied gegenüber den Statinen. In der CLEAR Harmony-Studie konnte gezeigt werden, dass Bempedoinsäure den LDL-Serumspiegel bei Patienten unter maximal tolerierter Statin-Dosis weiter senken kann. Mit Bempedoinsäure betrug der Serumsspiegel von LDL-Cholesterin 12 Wochen nach Therapiebeginn 84,4 mg/dl, ohne 102,4 mg/dl. Eine Senkung der kardiovaskulären Sterblichkeit konnte nicht nachgewiesen werden. Seit Februar 2020 ist Bempedoinsäure in den USA ("Nexletol"), seit April 2020 in der EU zugelassen ("Nilemdo").
Literatur.
Biochemie und Physiologie
Verteilung der Lipid-Werte in Deutschland
Vertreter der Cholesterin-KHK-Hypothese
Kritische Arbeiten zur Cholesterin-KHK-Hypothese
Sonstiges |
932 | 178175 | https://de.wikipedia.org/wiki?curid=932 | Commodore 64 | Der Commodore 64 (kurz C64, umgangssprachlich 64er oder Brotkasten) ist ein 8-Bit-Heimcomputer mit 64 KB Arbeitsspeicher.
Seit seiner Vorstellung im Januar 1982 auf der "Winter Consumer Electronics Show" war der von Commodore gebaute C64 Mitte bis Ende der 1980er Jahre sowohl als Spielcomputer als auch zur Softwareentwicklung äußerst populär. Er galt lange Zeit als der meistverkaufte Heimcomputer weltweit – Schätzungen der Verkaufszahlen bewegen sich zwischen 12,5 und 30 Millionen Exemplaren. Der C64 bot viel Technik und gute Erweiterbarkeit zu einem (nach der Einführungsphase) erschwinglichen Preis.
Wie zu dieser Zeit bei Heimcomputern üblich, waren in der kompakten Zentraleinheit keine internen Massenspeichergeräte eingebaut, aber bereits die Tastatur. Programme wurden von externen Laufwerken wie dem Kassettenlaufwerk Datasette oder dem Diskettenlaufwerk VC1541 geladen oder waren bei Verwendung eines Steckmoduls "(Cartridge)" sofort nach dem Einschalten verfügbar. Schon im Grundzustand waren neben dem Betriebssystem ("Kernal") und zwei Bildschirmzeichensätzen eine komplette Programmiersprache in Form eines BASIC-Interpreters, deren Befehle auch im Direktmodus eingegeben und sofort ausgeführt werden konnten, und ein für die Zeit fortschrittlicher Bildschirmeditor statt eines bloßen Zeileneditors gleich nach dem Einschalten verfügbar; diese Software war in den drei ROM-Chips auf der Hauptplatine mit Speicherkapazitäten von zweimal acht und einmal vier KB gespeichert.
Geschichte.
Entwicklung.
Im Januar 1981 begann das frühere Unternehmen MOS Technology, jetzt als Commodore Semiconductor Group eine Tochter von Commodore International, mit der Entwicklung eines neuen Chipsatzes für Grafik und Audio für eine Spielkonsole der nächsten Generation. Die Arbeit an den beiden Chips VIC II (Grafik) und SID (Audio) war im November 1981 erfolgreich abgeschlossen. Im Anschluss entwickelte der japanische Ingenieur Yashi Terakura von Commodore Japan auf Basis der beiden neuen Chips den Rechner Commodore Max (in Deutschland als VC 10 angekündigt). Die Produktion wurde jedoch bereits kurz nachdem die ersten Commodore MAX in Japan ausgeliefert worden waren wieder eingestellt.
Mitte 1981 machten Robert Russell (System-Programmierer und Entwickler des VC-20 und Robert „Bob“ Yannes (Entwickler des SID) mit der Unterstützung von Al Charpentier (Entwickler des VIC-II) und Charles Winterble (Manager von MOS Technology) dem CEO von Commodore International, Jack Tramiel, den Vorschlag, aus den entwickelten Chips einen wirklichen Low-Cost-Rechner zu bauen, der der Nachfolger des VC 20 werden sollte. Tramiel war einverstanden und erklärte, dass der Rechner einen vergrößerten Speicher von 64 KB RAM, den vollen Adressraum von 16 Bit nutzend, haben solle. Auch wenn zu diesem Zeitpunkt 64 KB RAM noch über 100 US-Dollar kosteten, nahm er an, dass die RAM-Preise bis zur vollen Markteinführung des C64 auf einen akzeptablen Preis fallen würden. Tramiel setzte gleichzeitig das Fristende für die Präsentation des Rechners auf den Beginn der Consumer Electronics Show (CES) im Januar 1982 in Las Vegas. Die Besprechung fand im November 1981 statt, sodass den Entwicklern lediglich zwei Monate blieben, um entsprechende Prototypen des Rechners zu bauen.
Das Projekt hatte zunächst den Codenamen VC-40, der in Anlehnung an das Vorgängermodell VC-20 gewählt worden war. Das Team, welches das Gerät entwickelte, bestand aus Robert Russell, Robert „Bob“ Yannes und David A. Ziembicki. Das Design des C64, Prototypen und einige Beispielsoftware wurden gerade rechtzeitig vor der CES in Las Vegas fertig, nachdem das Team die gesamte Weihnachtszeit (auch an den Wochenenden) durchgearbeitet hatte. Die 40 im Namen sollte die doppelte Textauflösung von 40 Zeichen pro Zeile im Vergleich zum Vorgängermodell kennzeichnen. Commodore wählte diese Auflösung zum einen, weil damit (anders als bei 80 Zeichen) auch auf Farbfernsehgeräten als Alternative zu teureren Farbmonitoren noch eine gute Lesbarkeit gewährleistet war, und zum anderen, um unter der Leistungsfähigkeit der für den professionellen Gebrauch vorgesehenen eigenen Rechner der CBM-8000-Serie zu bleiben, die zu der Zeit mit gleicher Prozessorgeschwindigkeit, kleinerer oder gleicher Speicherausstattung, nur monochromen oder deutlich eingeschränkten Farbmöglichkeiten und einem nur wenig leistungsfähigeren BASIC 4.0 angeboten wurden. Ein kennzeichnender Faktor für die professionelle Anwendbarkeit war damals die Möglichkeit, Textzeilen für die Druckausgabe in voller Breite darstellen zu können, wofür 80 Zeichen notwendig waren.
In der Produktionsperiode des C64 änderte man immer wieder optische und technische Details, um moderne Fertigungsmöglichkeiten auszunutzen und Produktionskosten zu senken. Obwohl sich das Innenleben der ersten C64 deutlich von dem der letzten Version unterscheidet, war es den Entwicklern gelungen, alle Versionen vonseiten der Software beinahe hundertprozentig kompatibel zueinander zu halten – was bedeutete, dass die Leistungsdaten des Rechners während des Produktionszyklus nicht gesteigert wurden. Beispielsweise wurde das Hauptplatinenlayout mehrfach geändert sowie CPU, Grafikchip, Soundchip und andere Bauteile überarbeitet. Auch die zur Verschaltung innerhalb des Rechners notwendigen Logikchips fasste man zusammen und integrierte sie in einem Custom-Chip.
Vom C64 gab es im Gegensatz zu anderen damaligen Heimcomputern keine Nachbauten aus Ostblock-Ländern, Lateinamerika oder Fernost. Das ist vor allem in der hochintegrierten Bauweise mit Custom-Chips und in der vertikalen Integration der Firma Commodore begründet – von der Chipfertigung über Chipdesign und Systemdesign bis zum Gehäusedesign war alles in einer Hand, wodurch diese Chips für Nachbauer nicht erhältlich waren.
Vermarktung.
"Commodore Business Machines" (CBM) hatte vor dem C64 bereits erfolgreich den Bürorechner PET 2001 und seine Nachfolger, aber auch schon den Heimcomputer VC 20 eingeführt. Firmengründer Jack Tramiel prägte die Formel „We need to build computers for the masses, not the classes!“ („Wir müssen Computer für die Massen bauen, nicht für die Klassen!“), was ihm mit dem C64 letztlich auch gelang.
Um die Neuentwicklung in das vorhandene Produktangebot einbinden zu können, entschied sich die Marketingabteilung für den Namen C64, was für "Consumer" und die Größe des verwendeten Speichers in KB stehen sollte. Für den amerikanischen Markt waren bereits nach gleichem Schema benannte Modelle, der B(usiness)256 bzw. der P(ersonal Computer)128, geplant. Letzterer gehörte in die in Europa als Commodore CBM 500 veröffentlichte Reihe und ist nicht identisch mit dem später erschienenen C128.
Im September 1982 kam der C64 für 595 USD (in heutiger Kaufkraft USD) auf den amerikanischen und Anfang 1983 zum Startpreis von 1.495 DM (entspricht nach heutiger Kaufkraft ca. €) auf den deutschen Markt und war in Deutschland, wie in allen wichtigen Märkten der Welt (mit Ausnahme von Japan), sehr erfolgreich. Schon 1983 sank der Preis auf meist 698 DM (heute ca. €).
Hauptkonkurrent war der in den USA stark vertretene "Atari 800 XL". Viele Spiele waren auf einer 5¼-Zoll-Diskette für beide Systeme erhältlich, wie etwa das Computer-Rollenspiel "Alternate Reality" (Vorderseite C64, Rückseite Atari), was als Hinweis auf die Dominanz der beiden Marken angesehen werden kann. Trotz der Konkurrenz durch Atari und vieler anderer Heimcomputer in dieser Zeit (TI-99/4A, Apple II, Sinclair ZX81, ZX Spectrum, Dragon 32) beurteilten viele Konsumenten das Preis-Leistungs-Verhältnis des C64 zum Beginn seiner Auslieferung günstig. In Kombination mit der rasch ansteigenden Zahl an Softwaretiteln für den C64 entwickelte sich der Rechner zu einem großen Erfolg. Hierzu trug bei, dass der Computer nicht nur in Fachgeschäften, sondern auch in Kaufhausketten, Versandhäusern (z. B. Quelle), Supermarktketten (z. B. allkauf) und Computer-Versandhäusern (z. B. Vobis) zum Verkauf stand. Mit dem Aufstieg des C64 als Heimcomputer kam auch zugleich der endgültige Fall der bis dato am weitesten verbreiteten Konsole, des Atari VCS 2600.
Commodore produzierte den C64 etwa elf Jahre lang; über 22 Millionen Stück wurden verkauft (andere Quellen geben 17 bis 30 Millionen an). Damit war der C64 der meistverkaufte Computer seiner Zeit, lange Zeit auch der Welt.
Technische Details.
Prozessor.
Der Prozessor ist ein 6510 (8500 beim C64C/II), eine Variante des 6502 von MOS Technology. Commodore hatte diese Firma Mitte der 1970er-Jahre aufgekauft, um über ein eigenes Halbleiterwerk zu verfügen. Der 6510 besitzt im Gegensatz zum 6502 einen 6 Bit breiten bidirektionalen I/O-Port, der sich über die Speicheradressen 0 und 1 ansprechen lässt und beim C64 zum einen dazu genutzt wird, um in einzelnen Speicherbereichen zwischen RAM, ROM und dem I/O-Bereich durch Bank Switching umzuschalten, und zum anderen zur Steuerung eines angeschlossenen Magnetbandlaufwerks (Datassette).
Takt.
Der Prozessor arbeitet mit einer Taktfrequenz von 0,985249 MHz in der PAL-Version und 1,022727 MHz in der NTSC-Version. Der Unterschied ergibt sich daraus, dass im C64 aus der Schwingungsfrequenz nur eines Quarz-Oszillators alle benötigten Frequenzen einfach abgeleitet werden und dass die Farbträgerfrequenzen der beiden Farbübertragungssysteme unterschiedliche Werte haben, die eingehalten werden müssen. In der NTSC-Version stehen so mehr Taktzyklen pro Rasterzeile in der Grafikausgabe zur Verfügung, und auch insgesamt ist die CPU etwas schneller. Dafür hat NTSC weniger Zeilen pro (Halb-)Bild, nur 262 im Vergleich zu 312 bei PAL. Daher müssen Programme, die den Rasterzeileninterrupt (s. u.) zur bildsynchronen Ablaufsteuerung verwenden, austauschbare Codeteile für beide C64-Versionen besitzen oder gleich in zwei verschiedenen Versionen vorliegen.
Rechenleistung.
Der C64 erzielt für Prozessoren aus der 6510-Familie typische 36 (PAL) bzw. 37 (NTSC) Dhrystones, etwa 20500 bzw. 21000 Instruktionen pro Sekunde (0,02 MIPS).
RAM.
Der C64 verfügt über 64 KB dynamischen RAM. Davon sind 38911 Bytes für BASIC-Programme nutzbar. Die Größe des Speichers war für die damalige Zeit üppig (der zwei Jahre ältere Vorgänger VC 20 hat nur 5 KB Arbeitsspeicher, wovon für die Programmiersprache BASIC 3584 Byte nutzbar sind). Die Speicherstellen 0 und 1 sind nicht direkt von der CPU ansprechbar, hier befindet sich der Prozessorport des 6510; mittelbar unter Zuhilfenahme des Grafikchips VIC II können die Speicherstellen jedoch gelesen und beschrieben werden. Zusätzlich zu den 64 KB dynamischen RAM gibt es noch 1024 Nibbles statischen Farb-RAM, insgesamt verfügt der C64 also über 64,5 KB RAM.
ROM.
Der C64 verfügt über 20 KB ROM. Etwa 9 KB davon enthalten in nahezu unveränderter Form den BASIC-V2-Interpreter des älteren Commodore VC 20 (erschienen 1980), der ursprünglich von der Firma Microsoft stammt. In weiteren knapp 7 KB ist ein Betriebssystem, der sogenannte Kernal, untergebracht, welcher die Tastatur, den Bildschirm, die Kassettenschnittstelle, die RS-232-Schnittstelle sowie eine serielle IEC-Schnittstelle (den CBM-Bus) zur Ansteuerung von Druckern, Diskettenlaufwerken usw. verwaltet. Auch dieses stammt ursprünglich von älteren Commodore-Maschinen und wurde an die veränderte Hardware des C64 angepasst. Die restlichen 4 KB enthalten zwei Zeichensätze à 256 Zeichen in 8×8-Matrixdarstellung für den Bildschirm. Die Zeichensätze entsprechen dem Commodore-eigenen PETSCII-Standard und enthalten deshalb keine deutschen Umlaute.
Um über verschiedene Versionen hinweg auf Maschinensprachenebene kompatibel zu bleiben, war ganz am Ende des ROM-Bereichs (also kurz vor codice_1) eine Sprungtabelle angelegt, über die man die wichtigsten Betriebssystemroutinen aufrufen konnte. Commodore behielt diese Sprungtabelle vom PET 2001 bis über den C64 hinaus bei. Die Kompatibilität von Anwendungssoftware hat sich dadurch nicht besonders gesteigert, weil viele Programmierer diese kompatible Methode des Aufrufs schlichtweg ignoriert haben und sie ohnehin nur für rein textbasierte Programme brauchbar war. – Beispiel: Der Aufruf codice_2 gibt auf jedem Commodore-8-Bit-Rechner den Inhalt des Akkumulators als Zeichen auf den Bildschirm aus.
Grafik.
Der Grafikchip des C64 ist ein MOS 6569/8565 (PAL) bzw. MOS 6567 (NTSC) und wird VIC (Video Interface Controller) genannt. Er bietet:
Da der VIC nur 14 Adressleitungen besitzt, kann er nur 16 KB des zur Verfügung stehenden Speichers auf einmal ansprechen. Die zwei fehlenden Adressbits steuert der zweite im C64 verbaute CIA6526-Chip bei. Diese vier Speicherseiten zu 16 KB verhalten sich nicht gleich – im Speicherbereich codice_3 bis codice_4 (bzw. codice_5 bis codice_6) wird vom VIC stets das Zeichengenerator-ROM ausgelesen. In diesen Bereichen können daher auch kein Bildschirmspeicher (Text oder Bitmap) und keine Spritedaten abgelegt werden. Umgekehrt muss in den beiden anderen Speicherseiten im Textmodus ein Zeichengenerator im RAM abgelegt werden.
Das Farb-RAM, das aus Sicht des Hauptprozessors an den Adressen codice_7 bis codice_8 eingeblendet werden kann, ist aus Timinggründen ein einzelner 1024×4-Bit-SRAM-Chip (µPD2114), der vier eigene Dateneingänge in den VIC besitzt. Das Farb-RAM muss daher nicht in den „normalen“ VIC-Adressraum eingeblendet werden. Genau genommen besitzt der C64 damit 66048 Byte RAM. Da die letzten 24 Adressen nicht für die Farbdarstellung gebraucht werden, kann man die dahinterliegenden Speicherzellen für Sonderzwecke nutzen.
Der VIC sorgt ebenfalls, wie damals für die Grafikhardware üblich, durch das regelmäßige Auslesen aller Speicherseiten für den nötigen Refresh der DRAM-Chips des C64.
Der C64 ist dank der Rasterzeileninterrupts und des Grafikchipdesigns recht flexibel im Bildaufbau.
Viele der hardwaretechnischen Einschränkungen können durch kreative Programmierung und Ausnutzung von vom Hersteller nicht explizit implementierten Nebeneffekten umgangen werden. So lassen sich beispielsweise verschiedene Darstellungsmodi mischen (z. B. obere Bildschirmhälfte Textdarstellung mit Scrolling, untere Bildschirmhälfte Grafik) und auch die acht Sprites mehrfach in verschiedenen Bildbereichen verwenden, so dass viele Spiele weitaus mehr als acht Sprites darstellen können. Durch Ausnutzung von undokumentierten Videochip-Eigenschaften ist auch die Verwendung von zusätzlichen Videomodi möglich, die die Beschränkungen in der Farbwahl und Auflösung teilweise aufheben. Auch der Bildschirmrahmen kann mit einigen Tricks zur Darstellung von Grafik benutzt werden.
Der Basic-Interpreter stellt keine dezidierten Befehle zur Programmierung der hochauflösenden Grafik bereit, dies ist aber durch Versetzen des Grafikchips in den Bitmap-Mode, die Berechnung der Bitmap etwa eines Funktionsgraphen anhand von Funktionswerten und deren Ablage im Speicher möglich. Komfortable Befehle für einfache Grafikelemente wie Kreise und Rechtecke enthalten kommerzielle Basic-Erweiterungen wie Simons’ Basic, s. u.
Ton.
Klänge werden über den dreistimmig polyphonen Soundchip MOS Technology SID 6581 (buskompatibel mit der Prozessorfamilie 65xx) erzeugt, der dem C64 damals revolutionäre, weit über andere Heimcomputer hinausgehende Möglichkeiten zur Klangerzeugung verlieh. Spätere C64-Varianten enthielten den 8580.
Der SID besitzt drei universell einsetzbare monophone Stimmen mit einer in 65536 Stufen einstellbaren Grundfrequenz von 0 bis 4000 Hz und 48 dB Aussteuerung, die "gleichzeitig" in subtraktiver Synthese vier Schwingungsformen (Dreieck, Sägezahn, Rechteck in 4096 Stufen einstellbarer Pulsbreite, sowie Rauschen) erzeugen können. Die Lautstärke jeder Stimme kann einzeln mittels dreier programmierbarer ADSR-Hüllkurvengeneratoren mit exponentiellem Kurvenverlauf eingestellt werden. Weiterhin ist eine Synchronisierung von zwei oder allen drei Oszillatoren möglich. Ein Ringmodulator ergibt weitere Effekte. Eine der Stimmen kann außerdem wahlweise ausschließlich zur Modulation der anderen Stimmen verwendet werden.
Weiterhin besitzt der SID ein subtraktives Multimode-Filter (Tiefpass, Hochpass, Bandpass oder Notch-Filter), durch das die internen Stimmen sowie eine über die Monitorbuchse des C64 zumischbare externe Quelle geleitet werden können.
Die Lautstärke der Tonwiedergabe konnte in 16 Stufen eingestellt werden. Da analog zur Lautstärke auch die DC-Offset-Spannung am Ausgang verändert wurde, erzeugte jede Lautstärkeänderung ein entsprechendes Knacken, was schon bald einige Programmhersteller auf die Idee brachte, den Lautstärkesteller als D/A-Wandler zu verwenden, um Samples, zum Beispiel Sprache oder Schlagzeug, wiederzugeben. Bekanntestes Beispiel hierfür ist neben dem Musikspiel „To Be on Top“ das Spiel zum Film „Ghostbusters“, wo das Wort „Ghostbusters“ als Sprache ausgegeben wurde, was zu damaliger Zeit geradezu sensationell schien. Die Tonqualität mit dieser 4-Bit-Auflösung (Werte 0 bis 15) war allerdings nicht besonders gut, außerdem gab es eine Inkompatibilität zwischen den ursprünglichen und den späteren C64-Versionen: Der später verbaute SID II (MOS 8580) schaltete seinen Ausgang nur durch, wenn auf mindestens einer Stimme ein Ton abgespielt wurde. Dadurch verringerte sich zwar das Grundrauschen bei fehlender Tonwiedergabe, reine Samples ohne Hintergrundmusik wurden nur noch sehr leise abgespielt. Neuere Programme berücksichtigten diese Tatsache, Anpassungen für ältere Software gab es in der Regel nicht.
Durch geschicktes Mischen unterschiedlicher Samples war auf Softwareebene außerdem die Wiedergabe mehrerer Samples möglich; dies bedingte jedoch zwangsläufig eine Einschränkung der Wiedergabegenauigkeit (resolution) bzw. der Abspielrate (sample/playback rate), das heißt, die so erzeugten Töne waren weniger gut aufgelöst und „ungenauer“. Eine Reihe von bekannten Spielemusikprogrammierern bediente sich dieser Technik.
Neben der Audiowiedergabe besaß der SID noch zwei Analogeingänge mit niedriger Abtastrate, die im C64 zum Anschluss von Paddles oder einer speziellen Maus mit Analogausgang genutzt wurden.
Zum Ende der C64-Ära wurden in Bastlerkreisen Methoden entwickelt, um den C64 stereofähig zu machen. Dazu wurde ein zweiter SID eingebaut und zur Ansteuerung die Tatsache ausgenutzt, dass der Adressbereich des SID mehrfach gespiegelt ist. Durch geeignete Adress-Selektion konnten so beide SIDs unabhängig voneinander angesteuert werden. Diese Lösung wurde als Bauanleitung in der "64'er" Zeitschrift beschrieben, kam jedoch nie kommerziell auf den Markt.
Schnittstellen.
Der C64 bietet mehrere Schnittstellen und war daher bei Hardware-Bastlern beliebt (von links nach rechts, von der Rückseite aus gesehen):
Peripherie.
Zum C64 konnte eine große Auswahl an Peripheriegeräten hinzugekauft werden.
Laufwerke.
Kassettenlaufwerk.
Das "Datasette" (auch Datassette) genannte Kompaktkassetten-Bandlaufwerk war die günstigste Lösung für Datenspeicherung am C64. Meist war Software auf Kassetten günstiger als entsprechende Diskettenversionen. Anders als in Deutschland, wo das Diskettenlaufwerk (trotz höherer Anschaffungskosten) sehr verbreitet war, war die Datasette in Großbritannien das dominierende Datengerät. Von Commodore gab es das Datasetten-Laufwerk VC-1530, welches mit dem C64 kompatibel war. Auch andere Hersteller boten Datasetten-Laufwerke für den C64 und den C128 an. Lade- und Speichervorgänge geschehen sehr langsam und sind durch notwendige Spulvorgänge umständlich. Schnelllader wie Turbo Tape verringern die Ladezeiten etwa um den Faktor 10.
5¼-Zoll-Diskettenlaufwerk.
Dieses Laufwerk vom Typ VC1541 war das Standardlaufwerk für den C64. Es benutzt die damals sehr weit verbreiteten 5¼-Zoll-Disketten mit doppelter Aufzeichnungsdichte "(Double Density)." Das Laufwerk arbeitet einseitig und bietet etwa 165 kB Speicherkapazität pro Diskettenseite, angegeben werden jedoch die zur Verfügung stehenden „Blöcke“, von denen es standardmäßig 664 gibt. Um die Rückseite beschreiben zu können, muss die Diskette dem Laufwerk entnommen und gewendet werden. Dafür gab es beidseitig beschreibbare Disketten; wenn sie speziell für die Verwendung mit dem C64 vorgesehen waren, so hatten sie auf beiden Seiten Aussparungen für die Schreibfreigabe. Es gab auch preisgünstigere, offiziell nur einseitig beschreibbaren Disketten, die mitunter auch auf der Rückseite beschrieben werden konnten. Bei diesen musste dazu immer vorher seitlich eine zweite Kerbe ausgestanzt werden, beispielsweise mittels eines Diskettenlochers oder eines Teppichmessers. Die Daten werden von den Laufwerken als schreibgeschützt erkannt, wenn diese Kerbe überklebt wurde. Entsprechende Aufkleber lagen den Disketten bei.
Um die Rückseite einer eigentlich einseitigen Diskette zu beschreiben, wurde mitunter auch auf die Lichtschranke im Diskettenlaufwerk ein zusätzlicher Schalter aufgelötet, um so die Lichtschranke zu überbrücken und sich das Herausschneiden der Kerbe zu ersparen. Der Schalter war nötig, um beim Wechseln der Diskette die Funktion der Lichtschranke wieder einzuschalten, da sonst der Diskettenwechsel nicht erkannt wurde.
Ältere Versionen der VC1541 konnten nicht erkennen, wann der Schreib-Lese-Kopf am unteren Ende (Spur 0) angekommen war, und hatten deshalb eine mechanische Sperre. Das führte zu dem bekannten mechanischen Rattern des Laufwerks bei der Formatierung einer Diskette, da der Schreib-Lese-Kopf so bis zu fünfmal an den Anschlag fuhr – dadurch konnte er verstellt werden. Neuere Versionen hatten eine Lichtschranke, um das Problem zu lösen. Da jedoch das ROM des Laufwerks geändert wurde, führte das teilweise zu Inkompatibilitäten mit Schnellladeprogrammen und Kopierschutzmechanismen.
Das Laufwerk war ein eigenständiger Computer mit eigenem Prozessor und Speicher. Anders als praktisch alle anderen Firmen hatte Commodore das DOS als ROM im Laufwerk selbst realisiert, anstatt es in den Speicher des Computers zu laden. Es gab Programme, die Teile der Rechenarbeit auf das Laufwerk auslagerten und somit eine Art Parallelprogrammierung ermöglichten; wegen des kleinen Speichers des Laufwerks war das nur sehr eingeschränkt nützlich. Ebenfalls gab es Jux-Programme, die durch kreative Programmierung des für die Schreib-Lese-Kopfbewegung zuständigen Schrittmotors sogar Musik mit dem Laufwerk erzeugten.
Von dem Laufwerk wurden drei Haupt- und viele Untervarianten hergestellt. Fremdhersteller boten Klone an, die zwar preisgünstiger, aber wegen des aus Urheberrechtsgründen abweichenden ROMs meist nicht vollständig kompatibel waren.
Die Geschwindigkeit der Diskettenoperationen war aufgrund des geringen Speicherausbaus der Laufwerke, der seriellen Schnittstelle sowie umständlicher Programmierung der DOS-Funktionen – das 1541-DOS wurde aus dem der Doppelprozessor-Doppelfloppies CBM 8050 abgeleitet – sehr langsam, so dass viele verschiedene Turbolader als Software- oder als Hardwarebeschleuniger entwickelt wurden.
Diese Beschleuniger schrieben als Erstes eigene in Assembler entwickelte Routinen in den Speicher des Laufwerks, die anschließend zusammen mit im Computer ablaufenden Routinen den Datentransfer realisierten.
3½-Zoll-Diskettenlaufwerk.
Das Laufwerk vom Typ VC1581 fristete im Zusammenhang mit dem C64 aufgrund seiner Inkompatibilität zur VC1541 nur ein Schattendasein – trotz seines gegenüber der VC1541 erheblich gesteigerten Speichervermögens von 800 kB auf 3½-Zoll-DD-Disketten. Wegen Kopierschutzmaßnahmen erforderten sehr viele Programme das VC1541-Laufwerk, so dass dem Modell 1581 kein Erfolg beschert war. Wie die VC1541 war auch dieses Laufwerk technisch gesehen ein eigenständiger Computer.
Eingabegeräte.
Commodore-Maus 1350/1351.
Mäuse spielten als Eingabegeräte beim C64 eine eher untergeordnete Rolle, da sie sich erst Jahre nach ihrer Einführung etablierten. Es gab nur wenige Programme, die sie unterstützten bzw. für Mausbenutzung (anstatt Joystick) ausgelegt waren, so z. B. das grafikorientierte Betriebssystem GEOS, Hi-Eddi und Printfox.
Gamepad.
Gamepads, seit Mitte der 1980er-Jahre die typischen Eingabegeräte für Spielkonsolen, waren teilweise mit den Ports des Commodore 64 kompatibel, setzten sich aber als Eingabegeräte nicht durch. Mitte der 1990er-Jahre wurden vereinzelt Gamepads speziell für den Commodore 64 produziert.
Joystick.
Neben der Tastatur waren Joysticks die wichtigsten Eingabegeräte am C64, denn fast alle Spiele und viele Anwendungen ließen sich nur mit ihnen steuern. Beim C64 wurde der damals recht verbreitete Atari-Standard für Joysticks unterstützt, so dass die gleichen Joysticks wie an sehr vielen anderen Rechnern verwendet werden konnten. Zwar stellte Commodore eigene Joysticks her, beliebter und verbreiteter waren jedoch Spectravideos QuickShot-Joysticks, Joysticks von QuickJoy sowie – aufgrund seiner Robustheit – der Competition Pro.
Koalapad.
Das Koalapad war ein Grafiktablett für den Commodore 64, das für das Grafikprogramm "KoalaPainter" entwickelt worden war, aber auch von einigen anderen Programmen genutzt wurde.
Lichtgriffel.
Lichtgriffel sind „Stifte“, die zum Zeichnen direkt auf dem Monitor verwendet werden. Wie auch Paddles hatten sie auf dem C64 kaum eine Bedeutung.
Lightgun.
Eine Lightgun ist von der Funktionsweise ähnlich wie die Lichtgriffel, jedoch meist in der Form einer Pistole und für Spiele gedacht. Auch dieses Eingabegerät war beim C64 kaum von Bedeutung.
Paddle.
Paddles sind Eingabegeräte, die vor allem in den 1970er-Jahren bei vielen Videospielen verbreitet waren und so auch ihren Weg zum C64 fanden. Bis auf wenige der frühen C64-Spiele und einige spätere Ausnahmen wie Arkanoid hatten Paddles aber kaum eine Bedeutung auf dem C64.
Scanner.
Von der Firma Scanntronik waren ein Schwarz-Weiß-Scanner erhältlich, der auf den Druckkopf geeigneter Nadeldrucker aufgesteckt wurde und das zu scannende Bild zeilenweise abtastete, während es von der Druckerwalze transportiert wurde, sowie ein Handscanner.
Ausgabegeräte.
Drucker.
Commodore verkaufte seine eigenen Druckermodelle MPS 801, -802, -803 und -1230 (hauptsächlich Seikosha-OEM, z. B. der baugleiche GP 500 VC). Diese Matrixdrucker können im Textmodus aufgrund technischer Limitierungen (Unihammer-Technik beim MPS 801/803) bzw. der Tatsache, dass nur 8 der 9 verfügbaren Nadeln angesteuert wurden (MPS 802), keine echten Unterlängen drucken. Für dieses Problem gab es aber einige Softwarelösungen im Angebot. Fremdhersteller produzierten einige spezielle Drucker für Commodore-Rechner, die wie ein Diskettenlaufwerk am seriellen Bus des C64 angeschlossen werden, z. B. der sehr beliebte Star LC10. Weit verbreitet waren zwei weitere Lösungen: Man konnte gängige Drucker mit Centronics-Schnittstelle über einen speziellen Konverter an den seriellen IEC-Bus des C64 anschließen und dann wie Commodore-Drucker ansteuern, oder man konnte sie mittels eines einfachen Kabels mit dem Userport verbinden, brauchte dann aber eine Software, die eine spezielle Unterstützung für diesen Anschlussmodus bot. In einigen Floppy-Schnellladern (z. B. SpeedDOS) waren solche Routinen bereits integriert. Es gab elektrische Schreibmaschinen, die von diesen Schnittstellen angesteuert und als Drucker verwendet werden konnten. Auf Treiberebene existieren zwei Standards, der MPS-801/803-Modus sowie der Epson FX-80-Modus (ESC-P) für Neun-Nadel-Drucker. Der Standard NEC-P6 wurde nur selten unterstützt, da die meisten NEC-P6-kompatiblen Drucker auch FX-80-kompatibel sind, wenngleich dann die Ausgabe lediglich mit neun Nadeln erfolgte. Die überwiegende Mehrheit der damaligen Drucker waren Nadeldrucker mit 7, 8, 9 oder 24 Nadeln, wobei 24-Nadel-Drucker aufgrund ihres hohen Preises eher selten waren und nur mit Spezialsoftware eingesetzt werden konnten. Im untersten Preissegment fanden sich einige Thermodrucker, die aber wegen ihres schlechten Druckbildes, dem notwendigen teuren Thermopapier und der schlechten Haltbarkeit des Drucks keine sehr weite Verbreitung fanden. Tintenstrahldrucker, Thermotransferdrucker und Laserdrucker waren zu dieser Zeit noch sehr teuer und somit selten bei Heimcomputeranwendern zu finden.
Fernseher/Monitor.
Mithilfe des HF-Ausgangs konnte der C64 über die Antennenbuchse an jeden Fernseher angeschlossen werden, so dass kein zusätzlicher Monitor für den Betrieb des Rechners nötig war. Die Bildqualität war aufgrund der Umsetzung naturgemäß bescheiden.Für den C64 und andere damalige 8-Bit-Heimcomputer gab es eine recht große Auswahl an Video-Monitoren. Hier sind vor allem der Commodore 1701 und der Philips CM8833, mit Auflösungen von 300×300 Pixeln, sowie die kompatiblen Monitore der Amiga-Baureihe zu nennen, die aufgrund ihrer feineren Lochmaske ein schärferes Bild lieferten.
Plotter.
Weniger verbreitet war der Plotter Commodore VC-1520, ein einfacher Stiftplotter für Endlos-Rollenpapier. Die Papierrolle war ca. 10 cm breit. Das Gerät bot die Möglichkeit der einfachen Textausgabe in Rot, Grün, Blau und Schwarz. Außerdem konnten Zeichnungen in den gleichen Farben ausgegeben werden.
DFÜ-Geräte.
Akustikkoppler.
Damals war der Betrieb von nicht durch die Deutsche Bundespost zertifizierten – und das waren die meisten – Modems am deutschen Telefonnetz illegal, so dass man anstelle dieser Modems sogenannte Akustikkoppler verwenden musste. Die Übertragung war damit allerdings sehr langsam, typischerweise 300 bis 1200 Bit/s und zudem sehr fehleranfällig, da Nebengeräusche oft zu Übertragungsfehlern führten.
Modems.
Es gab spezielle C64-Modems, die an den Userport des C64 angeschlossen wurden, sowie andere, die mithilfe einer (gegebenenfalls am Expansionsport anzuschließenden) RS-232-Schnittstelle am C64 betrieben werden konnten.
Netzwerkkarten.
2003 kam von "individual Computers" ein Netzwerkadapter für den C64 unter der Bezeichnung "RR-Net" auf den Markt. Für den Betrieb benötigt man allerdings das "Retro Replay Cartridge" oder das "MMC64", welches ebenfalls von "individual Computers" herausgebracht wurde.
Weitere Peripherie.
EasyFlash.
Ein auf Flashspeicher basierendes Modul, das viele ROM-basierende Module ersetzen kann. Die Grundidee war dabei, die „großen“ Ocean-Spielmodule ersetzbar zu machen, indem der Inhalt eines solchen Moduls in den Flashspeicher geschrieben wird und sich das EasyFlash dann wie ein Original-„Ocean-Modul“ verhält. In der Entwicklungsphase wurden dann noch weitere Modulformate implementiert, so dass ein EasyFlash fast alle Spielmodultypen korrekt emulieren kann. Das EasyFlash verfügt über einen 1 MB großen Flashspeicher, der mittels des C64 und Diskettenlaufwerk oder größere Massenspeicher beschrieben wird. Daraufhin wurde Software (EasyLoader) entwickelt, die es ermöglicht, beliebige Programme oder auch Modulkopien für den C64 auf den Flashspeicher zu schreiben und über ein Startmenü auszuwählen. In Betrachtung dieser Möglichkeiten wurden mittlerweile viele Spieletitel auf das EasyFlash umgesetzt, so dass die Diskettenladezeiten entfallen und sogar die Möglichkeit gegeben ist, die Spielstände auf dem EasyFlash zu speichern. Die Umsetzung von „Prince of Persia“ für den C64 basiert auf dem Easyflash.
EPROM-Karten.
Diese Karten erlaubten den direkten Zugriff auf ein oder mehrere EPROMs zum Aufruf fest gespeicherter Programme und waren meist elektronisch umschaltbar.
Massenspeicher.
In den 1990er-Jahren entwickelte die Firma CMD neue Diskettenlaufwerke mit einer Speicherkapazität von bis zu 2880 kB. In den späten 1990er-Jahren entwickelten technisch versierte Bastler eine IDE-Schnittstelle. Sowohl an der IDE-Schnittstelle als auch an der SCSI-Festplatte lassen sich weitere Geräte wie CD-ROM-Laufwerke oder Compact-Flash-Karten betreiben. Die beiden Laufwerke CBM D9060 und CBM D9090 waren die einzigen IEEE-488 Festplatten, welche von Commodore für die PET und CBM 8-Bit Computer hergestellt wurden.
MMC64.
Das MMC64 ist ein Steckmodul für den C64, das es ermöglicht, mit dem C64 MMC- und SD-Speicherkarten zu lesen und zu beschreiben. Programme können direkt von der Speicherkarte geladen und ausgeführt werden. Jedoch können Programme nicht vom Speicher des C64 auf die SD-Karte (oder MM-Karte) geschrieben werden. Damit kann für Selbstprogrammierer die MMC64 die Commodore Floppy 1541 als Speichermedium nicht ersetzen. Laden und danach Speichern funktioniert nur mit einer alten 1541. Das MMC64 ist daher eher für die Ausführung (Wiedergabe) von fertigen Spielen (oder auch eigenen Programmen) gedacht. Das Laden eines solchen Spiels wird in wenigen (Milli-)Sekunden bewerkstelligt. Darüber hinaus existieren zahlreiche Plugins, die es beispielsweise ermöglichen, sogenannte Diskettenimages von Disketten zu erzeugen oder diese auf Diskette zu schreiben (immer nur als ganze Image-Dateien).
MP3@64.
Das MP3@64 ist ein MP3-Modul für das MMC64.
Multifunktionscartridges.
Sie waren sehr verbreitet. Das hat vor allem mit der geringen Ladegeschwindigkeit der 1541 zu tun, die sich per Software auf die 10- bis 20-fache Geschwindigkeit steigern ließ. Den Anfang machten einfache Schnelllader-Cartridges, schnell kamen weitere Funktionen dazu, so dass am Ende Cartridges wie "The Final Cartridge 3," "Hypra Load II" oder "Action Replay" mit einer großen Anzahl von Funktionen aufwarteten. Neben dem Schnelllader sind meist noch diverse BASIC-Erweiterungen, Funktionstastenbelegungen, Freezerfunktionen, Druckfunktionen, Maschinensprachemonitor und einiges mehr vorhanden. Auch heute wird noch ein solches Cartridge hergestellt und verkauft: das "MMC Replay." Es ist wie sein (mittlerweile eingestellter) Vorgänger Retro Replay Cartridge weitgehend "Action-Replay"-kompatibel und um Fehler bereinigt. Das Modul verwendet höher integrierte und modernere Bauteile und bietet mehr Speicher, mehr Funktionen und hat die Möglichkeit des ROM-Updates, zusätzlich wurde die Funktionalität des (ebenfalls eingestellten) MMC64 integriert.
Relais-Karten.
Um den C64 zum Steuern von elektronischer Hardware zu benutzen, existierten diverse Relais-Karten. Diese wurden meist an den Userport angeschlossen und erlaubten so die Ansteuerung von acht Relais.
Reset-Taste.
Ein Steckmodul, das es ermöglichte, durch Drücken eines Tastenschalters den C64 zurückzusetzen (‚reset‘). Die überwiegende Anzahl der in Maschinencode geschriebenen Programme konnte nur verlassen werden, indem der Computer aus- und wieder eingeschaltet wurde. Genauso musste bei Abstürzen vorgegangen werden, nur selten funktionierte das eigentlich hierfür vorgesehene gleichzeitige Drücken der Tasten und . Die übermäßige Benutzung des Ein- und Ausschalters war nicht nur lästig, sondern konnte auch zu Defekten führen.
Schachcomputer.
Es gab eine Steckkarte für den C64, "The Final Chesscard," die einen vollständigen Computer mit einer Schachspielsoftware (Schachcomputer) enthielt, der C64 übernahm dabei die Darstellung des Spiels und die Eingabe der Züge.
Speichererweiterungen.
Es kam vor, dass für bestimmte Anwendungen die 64 KB Hauptspeicher des C64 nicht ausreichend waren, so dass zahlreiche Speichererweiterungen hergestellt wurden, die meistens an den Expansionsport angeschlossen wurden. Von Commodore selbst vertrieben wurde die REU (RAM Expansion Unit CBM1700, CBM1764 und CBM1750). Alle Speichererweiterungen für den C64 konnten nur von Software ausgenutzt werden, die speziell darauf ausgelegt war; das schloss vor allem die meisten Spiele aus. Weitere, meist nur von GEOS oder wenigen Spezialanwendungen (z. B. "Pagefox") unterstützte Speichererweiterungen spielten nur eine untergeordnete Rolle.
Teleclubdecoder.
Als Bausatz wurden sogenannte Teleclubdecoder vertrieben. Damit konnte die recht einfache Verschlüsselung des Pay-TV-Senders Teleclub aufgehoben werden.
Turbokarten/Prozessorkarten.
Es gab einige wenige Versuche, dem C64 mit Hilfe eines schnelleren Prozessors zu mehr Leistung zu verhelfen. Als erstes kam die Erweiterung "Turbo Process" von "Roßmöller" auf den Markt, die einen 65C02-Prozessor mit 4 MHz hatte. Der direkte Nachfolger dieser Karte war die "Flash 8," mit einer 8 MHz schnellen 65816-CPU. Beide Karten sind teilweise inkompatibel zu existierender Software und überdies im Betrieb sehr instabil, so dass sie lediglich ein Nischendasein fristeten. Erst der SuperCPU, einer Beschleunigerkarte basierend auf einem mit 20 MHz getakteten 65816-Prozessor, war ein gewisser Erfolg beschieden. Eine Prozessorkarte mit einem Z80, die den C64 zu einem CP/M-Computer werden ließ, wurde bei der Markteinführung des C64 stark propagiert, erreichte aber wegen der sehr geringen CPU-Geschwindigkeit und der schlechten Kompatibilität zu anderen CP/M-Rechnern keine große Verbreitung. Insbesondere verlangten fast alle kommerziellen CP/M-Programme eine Zeilenlänge von 80 Zeichen, was der C64 von Haus aus nicht bieten konnte.
Videotext.
Es gab Erweiterungen, mit deren Hilfe der C64 die Videotexttafeln der Fernsehsender auslesen konnte.
Produzierte Varianten.
Intern gab es 16 verschiedene Versionen des C64-Mainboards.
C64 (1982).
Der C64 wurde anfangs in einer beigefarbenen „Brotkasten“-Gehäuseform, zunächst mit orangefarbenen, dann mit dunkelbraunen Funktionstasten produziert. Urversionen mit den orangen Funktionstasten und dem silbernen Commodore-Typenschild gehören zu den Raritäten. Ein Großteil der deutschen Produktion wurde im Commodore-Werk in Braunschweig montiert.
Educator 64 (1982).
Der Educator 64 ist eine spezielle Version des C64 im PET-Gehäuse, er war vor allem für Schulen gedacht. Das Modell ist auch als „4064“ oder „PET 64“ bekannt. Diese Version konnte sehr preisgünstig angeboten werden, da instand gesetzte Hardware von reklamierten C64 verwendet wurde.
SX-64/DX-64 (1983/1984).
Der SX-64/DX-64 ist eine tragbare Version des C64 mit einem (SX-64) oder zwei (DX-64) eingebauten 1541-kompatiblen Diskettenlaufwerken und eingebautem 5-Zoll-Farbmonitor. Der Rechner war nicht hundertprozentig kompatibel, man konnte aber C64-ROMs anstelle der leicht geänderten SX-64-ROMs einsetzen. Aufgrund niedriger Absatzzahlen wurden jedoch nur wenige Geräte hergestellt: Vom SX-64 etwa 49000 Stück, vom DX-64 sind nur Prototypen bekannt.
C64 Gold (1986).
Die „Gold Edition“ des C64 besaß ein goldfarbenes Brotkasten-Gehäuse und war auf einer Acryl-Platte mit einem Emblem montiert. Anlass war der einmillionste verkaufte C64 in Deutschland. Produziert wurde die Kleinserie 1986 in sehr geringer Stückzahl von etwa 400 Stück, andere Quellen geben 1.000 Stück an. Bei einer Feier am 5. Dezember 1986 im Münchner BMW-Museum wurde dieser C64 an wichtige Personen innerhalb des Unternehmens sowie Journalisten und Händler vergeben, die maßgeblich zum Erfolg des C64 beigetragen hatten. Die speziell in Braunschweig gefertigte „Gold Edition“ wurde damals von Hand ab Nummer 1.000.000 beschriftet. Dieses Gerät ist sehr selten und ein begehrtes Sammlerstück.
C64C (1986).
Das Modell C64C hat ein neues, flacheres Gehäuse, das dem Gehäuse des C64-Nachfolger C128 nachempfunden ist, und trägt die Aufschrift „Personal Computer“. Zudem ist es mit leicht überarbeiteter, kostenreduzierter Hardware ausgestattet – die Hauptplatine ist kleiner. In Deutschland wird der C64C oft als „C64-II“ bezeichnet.
C64G (1987).
Der C64G besitzt wieder die alte Gehäuseform („Brotkasten“), diesmal grau/beige mit heller Tastatur und kostenreduzierter Hauptplatine. Die Grafikzeichen der Tastatur sind auf der Oberseite statt auf der Stirnseite der Tasten abgebildet. Das G in der Bezeichnung steht für Germany, da in Deutschland die Brotkastenform sehr beliebt war und man dem Wunsch der Kunden mit diesem Modell nachkommen wollte.
Aldi-C64 (1988).
Der Aldi-C64 ist dem C64G ähnlich. Er war nur in Deutschland erhältlich und der Vertrieb erfolgte über Discounter (zum Beispiel die Aldi-Gruppe). Durch das Wegfallen des 12-V-Spannungsreglers bei den 250469-Boards wurde in der Zeitschrift "64er" fälschlicherweise geschrieben, der neue SID 8580 würde ausschließlich 5 Volt Gleichspannung benötigen. Die 9 Volt Wechselspannung würde daher nicht mehr benötigt und am Userport fehlen. Diese Angaben waren falsch. Der neue SID 8580 benötigte zusätzlich zu den 5 Volt Gleichspannung auch 9 Volt Gleichspannung, die aus den 9 Volt Wechselspannung erzeugt wurde. Auch für das Taktsignal (50 Hz) der beiden CIA-Echtzeituhren und für die Motoransteuerung der Datasette wurde die 9 Volt Wechselspannung benötigt. Die neuen flacheren Gehäuse und hochintegrierten Platinen waren bei Bastlern unbeliebt, da sie mit internen Erweiterungen von Fremdherstellern nicht mehr kompatibel waren.
C64GS (1990).
Der Commodore 64 GS (GS = Games System) ist ein 1987 als Spielkonsole herausgebrachter C64. Es war der Versuch, die Marke Commodore auch auf den Konsolen-Markt zu etablieren. Es besaß keine Tastatur und keinen Anschluss für Datasette und Diskettenlaufwerke. Spiele konnten nur über Module geladen werden. Der Modulschacht befand sich auf der Oberseite des Gerätes. Der C64 GS war genauso teuer wie ein vollwertiger C64, weswegen der C64 GS floppte. Offiziell wurde das Modell C64GS nur in England vertrieben.
Vorgänger und Nachfolger.
Der Vorgänger des C64 war der 1981 zur Marktreife gebrachte, farbfähige VC 20, von dem erstmals in der Geschichte der Mikrocomputer über eine Million Exemplare verkauft wurden. Als offizieller Nachfolger des C64 wurde 1985 der Commodore 128 auf den Markt gebracht, welcher neben dem eigenen C128-Modus über einen C64- sowie einen CP/M-Modus verfügte. Die Produktion des Nachfolgemodells wurde jedoch wegen nicht zufriedenstellender Verkaufszahlen und hoher Produktionskosten schon 1989 und damit fünf Jahre vor dem Produktionsende des C64 eingestellt.
Die ab 1984 gefertigten Modelle der Commodore-264-Serie, der C16, C116 und Plus/4, konnten sich aufgrund ihrer Inkompatibilität zum beliebten C64 sowie bestimmter technischer Defizite auf dem Markt ebenfalls nicht durchsetzen. Noch im selben Jahr erfolgte die Produktionseinstellung und verbliebene Geräte wurden für Schleuderpreise verkauft. Als späten Nachfolger des C64 entwickelte Commodore den Commodore 65, der jedoch nie in Serie produziert wurde, da man dem sehr erfolgreichen Amiga 500 mit dem C65 keine Konkurrenz machen wollte.
Die als Tastaturcomputer ausgeführten Einsteigermodelle der von Commodore hergestellten Amiga-Reihe, insbesondere der Amiga 500, erfreuten sich Ende der 1980er-Jahre einer ähnlichen Beliebtheit als leistungsfähige Spielecomputer wie der C64, die jedoch den C64 nie vom Markt verdrängen konnten. Technisch war der Amiga dem C64 überlegen, er besaß allerdings auch eine vollkommen abweichende und modernere Hardware.
Commodore International musste am 29. April 1994 Insolvenz anmelden. Mit dem Hersteller Commodore verschwand auch der letzte Heimcomputer C64 vom Markt, dessen Produktionseinstellung eigentlich erst für 1995 vorgesehen war.
Nachbauten und Weiterentwicklungen.
Während der 8-Bit-Ära gab es vom C64, anders als bei vielen Konkurrenzmodellen, keine legalen oder illegalen Nachbauten durch andere Firmen. Die vielen speziellen Chips im C64, die nur von Commodore selbst beziehungsweise von deren Tochter MOS Technology hergestellt und die nicht an potenzielle Nachbauer verkauft wurden, verhinderten dies.
Web.it.
Im Jahre 1998 erschien von der belgischen Firma "Web Computers International" der "Web.it", ein PC-kompatibler Rechner mit Microsoft Windows 3.1 und vorinstalliertem C64-Emulator. Herz war ein AMD-Mikroprozessor auf 486-Basis (66 MHz), dazu kamen 32 MiByte RAM, 32 MiByte ROM. Der Web.it war zudem mit einem Webbrowser (Netscape Navigator), einem Textverarbeitungsprogramm (Lotus AmiPro) und einer Tabellenkalkulation (Lotus 1-2-3) ausgestattet. Wie beim Original-C64 befand sich der gesamte Rechner im selben Gehäuse wie die Tastatur. Die Produktion des erfolglosen Modells wurde relativ schnell wieder eingestellt. Das mag unter anderem damit zusammengehangen haben, dass das Gerät nicht annähernd die notwendige Prozessorgeschwindigkeit aufwies, um einen C64 in Echtzeit zu emulieren.
C-One.
Jeri Ellsworth und Individual Computers entwickelten den C-One oder auch "Commodore One" als Nachbau des C64 und bildeten die Hardware mittels FPGAs nach. Erste Platinen wurden 2003 ausgeliefert.
C64 Stick/C64 DTV.
Ende 2004 brachte die englische Firma "The Toy:Lobster Company" den C64 Stick – auch als C64 DTV ("Direct To TV") bekannt – heraus, der auch in Deutschland erschien. Der Entwurf stammt ebenfalls von Jeri Ellsworth, es handelt sich im Wesentlichen um einen auf das Notwendigste reduzierten C-One. Es ist ein C64-Nachbau in Form des Joysticks Competition Pro mit 30 eingebauten Spielen (darunter unter anderem Summer Games, California Games sowie Pitstop, Super Cycle und Uridium). Der Anschluss erfolgt direkt an das Fernsehgerät. Begabte im Löten und technisch Bewanderte können den Joystick um weitere Joystickports sowie um PS/2-Port für Tastatur, IEC-Port für Drucker und Diskettenlaufwerke sowie Buchse für Stromanschluss erweitern. Es existieren NTSC- (seit 12/2004) und PAL-Versionen (seit 8/2005).
Commodore 64x.
Im August 2010 veröffentlichte "Commodore USA" die Nachricht, die weltweiten Lizenzrechte für bisherige Commodore-Marken erworben zu haben, insbesondere für den C64 und den Amiga-Computer. Im Dezember 2010 wurde ein "Commodore 64" genanntes PC-System im originalgetreuen Retro-Gehäuse angekündigt. Basis ist ein Mainboard mit einem Intel Atom D525 DualCore-Chip, nVidia ION2 Grafik, USB-Ports, Kartenleser sowie optional DVD- oder BluRay-Laufwerk. Der Rechner wurde mit dem Betriebssystem Ubuntu Version 10.10 ausgeliefert. Später erhielt es mit Commodore OS ein eigenes Betriebssystem und einen integrierten C64-Emulator.
Chameleon 64.
Der Chameleon 64 ist ein von "Individual Computers" entwickeltes Modul, das 2013 erschien. Es enthält unter anderem einen VGA-Port, PS/2-Anschlüsse für Maus und Tastatur und einen Slot für SD-Karten. Grundsätzlich stehen zwei Betriebsmodi zur Verfügung:
Wird das Modul am C64 betrieben, so bietet es eine VGA-Ausgabe, VC-1541-kompatible Floppy-Emulation von zwei Diskettenlaufwerken, die Emulation von REU, GeoRAM und diverser Anwendungs- und Spielmodule. Im autarken Betrieb stehen zusätzlich die Funktionen eines mittels FPGA umgesetzten C64 zur Verfügung. Das Modul bietet zusätzlich einen Uhrenport zum Anschluss einer Netzwerkkarte vom Typ RR-Net Mk2 oder Mk3, die im Modulgehäuse untergebracht werden kann.
C64 reloaded.
Erstes Modell
Am 1. April 2014 kündigte individual Computers an, neue C64-Mainboards unter dem Namen "C64 reloaded" zu produzieren. Der Platinenentwurf folgte größtenteils dem Originalschaltplan mit der Commodore-Nummer 250466. Jedoch gibt es auch Abweichungen vom Schaltplan. So wurden Nullkraftsockel verbaut und eine 12V DC-DC Wandlertechnik hielt Einzug. Statt eines TV-Modulators wurde ein S-Video-Ausgang und eine 3,5 mm Audio-Klinkenbuchse verbaut. Der C64 reloaded kann ohne Lötarbeiten von PAL- auf NTSC-Videonorm umgeschaltet werden. Der C64 Reloaded benötigt zum Betrieb zusätzlich originale Chips, die aus defekten C64-Computern entnommen werden können. Dieses Modell wurde noch ohne den Markennamen "Commodore" vertrieben. Der Verkaufsstart des C64 reloaded war am 20. Mai 2015. Diese Boards waren schnell ausverkauft.
Zweites Modell
Das "C64 reloaded MK2" ist das erste Board der Reihe, welches unter dem Markennamen Commodore vertrieben wird. Im Gegensatz zum ersten Modell erkennt das MK2 die installierten Chipversionen automatisch und konfiguriert sich von selbst entsprechend. Der Verkaufsstart ist für den 21. November 2017 anvisiert.
Ultimate64 (Elite).
Im August 2017 kündigte Gideon Zweijtzer an, neue C64-Mainboards unter dem Namen Ultimate64 zu produzieren. Im Gegensatz zum C64-Original handelt es sich dabei um eine komplett neue Reimplementation des C64 auf FPGA Basis, somit benötigt das Board keinerlei originale Chips. Es besteht jedoch die Möglichkeit, 2 SID MOS 6581 oder MOS 8580/6582 in beliebiger Zusammenstellung einzusetzen, jedoch aufgrund der Bauform nicht zwei FPGASID gleichzeitig. Im FPGA ebenfalls integriert ist die 1541 Ultimate-II+ desselben Entwicklers, ein vollständiger Diskettenlaufwerksersatz. Als Datenmedium wird ein USB-Stick verwendet. Es können maximal zwei 1541 Diskettenlaufwerke emuliert werden. Das Bildsignal wird als analoges Videosignal und auch als HDMI-Signal ausgegeben.
TheC64 Mini.
2017 wurde bekannt, dass die britische "Retro Games Ltd." und die österreichische Koch Media eine voll lizenzierte auf der Arm-Architektur basierende Mini-Version des C64 unter den Namen "TheC64 Mini" Anfang 2018 auf den Markt bringen wird. Das Gerät selbst lehnt sich an das Design des C64 an, ist aber nur halb so groß. Die Tastatur des "TheC64 Mini" ist eine Attrappe. Es verfügt über einen HDMI-Port für moderne Fernsehgeräte und Monitore. Der mitgelieferte Joystick wird über einen USB-Port mit dem Gerät verbunden. Auch eine USB-Tastatur lässt sich an dem Gerät anschließen, somit ist es möglich eigene Basic-Programme auf dem "TheC64 mini" zu schreiben. Das Gerät wurde 2017 mit 64 vorinstallierten Spielen ausgeliefert, in neueren Firmware-Versionen sind weitere Titel hinzugefügt worden.
TheC64.
Im Dezember 2019 wurde schließlich unter dem Namen "TheC64" ein Gerät auf den Markt gebracht, dass das originale Brotkastengehäuse besitzt und im Gegensatz zum Mini mit funktionierender Tastatur ausgestattet ist. Die Hardwarespezifikationen entsprechen ansonsten im Wesentlichen denen des "TheC64 Mini", die Firmware bietet jedoch zusätzlich einen Emulator für den Commodore VC 20, der in Amerika als „VIC 20“ bekannt wurde. Der Computer wird daher in Amerika auch als "TheVIC20" angeboten und außerdem zur Unterscheidung vom Mini (nicht nur in Amerika) oft als "TheC64 Maxi" bezeichnet.
Gehäuse für den C64C.
Im August 2016 wurde bekannt, dass "individual Computers" (icomp) neben der Lizenz für den Markennamen Commodore auch die originalen Gussformen des C64C-Gehäuses erworben hat und mit diesen neue Gehäuse produzieren will. Am 22. August 2017 wurde das Gehäuse auf der Gamescom der Öffentlichkeit präsentiert und bereits verkauft; der reguläre Verkauf startete am 1. September 2017. Die neuen Gehäuse sind dabei in den vier Farbgebungen Original Beige, Classic Bread Bin, SX-64 Style und Black Edition verfügbar. Da fast alle C64-Platinen vom Aufbau identisch sind und es nur kleinere Abweichungen von der C64C Platine gibt, lassen sich auch andere C64-Versionen in dem Gehäuse einbauen. Dies trifft auch auf die Modelle des "C64 reloaded" zu.
uAX64 Mini/Long.
Im Oktober 2019 startete die Entwicklung eines C64 in gänzlich neuer Form mit einem 100 × 100 mm Board und 6 Slots jeweils mit 72 Pins, der steckbare Modul-Karten aufnehmen kann. Dazu gehören die Modul-Karten: CPU, RAM, VIDEO, SOUND, REMOTE KEYBOARD mit jeweils 72 Pin Slots. Mit einer Abmessung von nur 100 × 100 mm ist dieser neue C64 derzeit (2022) der kleinste C64 der Welt der die originalen Chips des C64 verwendet. Vom uAX64 Mini gibt es eine "Long" Version mit 9 Slots.
uEliteBoard64.
Kurz nach dem uAX64 Mini wurde im Januar 2020 das uEliteBoard64 vorgestellt, der als erster neuer C64 ermöglichte drei SID Chips auf das C64 Board zu stecken. Zusätzlich dazu besitzt das neue C64 Board einen "HAT SOCKET" Steckplatz zur Aufnahme steckbarer "HAT" Erweiterungen. Zu den Erweiterungen gehören die MIDI-, OPL2- und Code-Injection Steckkarte.
uBook64.
Im März 2020 erschien der nur 184 × 146 mm große C64, der trotz seiner nur geringen Abmessungen einen vollwertigen C64 darstellt. Dieser C64 hat auf der linken Seite eine 3,5 mm Kopfhörerbuchse.
uLaserBoard64.
Das uLaserBoard64 ist ein C64 der von der Bauform her einer aus dem Film Alien M41A Pulse Rifle nachempfundenen ist. Bei diesem C64 kann eine Steuerungsplatine sowie ein LCD Panel und ein Laser-Modul aufgesteckt und kann zu einer M41A Pulse Rifle umgebaut werden.
uHeld64.
Der uHeld64 ist ein C64 im Gameboy Formfaktor wahlweise mit DPAD oder Analogstick Steuerung. Dieser C64 besteht aus 3 Platinen die übereinander montiert werden, und somit die Handgroße Form ermöglichen. Bei diesem C64 wurde neben einem LC-Display, ein Joystick-Umschalter sowie eine komplette C64 Tastatur in Miniaturform integriert. Optional kann eine Pi1541 (Raspberry Pi Zero) eingebaut werden, mit der eine 1541 Floppy simuliert wird. Der Expansionsport des originalen C64 ist ebenfalls vorhanden, das es ermöglicht oben am uHeld64 originale C64 Module zu stecken.
uAX64.
Ein C64 in ATX Form stellt der uAX64 mit 4 Karten-Slots in Micro-ATX Form dar. Neben dem "uAX64" existiert eine "uAX64 MAX" Version mit 7 Slots. Beide uAX64 Versionen ermöglichen von Hause aus zwei SID Soundchips und bieten mehrere Steckkarten: MIDI, OPL2, Bluetooth/USB Keyboard, I/O, 2MB RAM, RGB-Video, SID (8x). Zusätzlich dazu besteht die Möglichkeit interne Tape und Serial Anschlüsse zu nutzen.
uSIDTower64.
Mitte 2020 wurde der uSIDTower64 vorgestellt, der auf die Musik vom C64 ausgerichtet ist. Dieser C64 besteht aus mehreren runden 100 × 100 mm Platinen die übereinander gesteckt werden. Der uSIDTower64 ermöglicht drei SID Soundchips zu stecken, enthält neben einem Midi-Interface auf der obersten ?Platine 14 RGB WS2812 LEDs die automatisch vom SID angesteuert werden können und somit die vom SID erzeugte Musik optisch visualisieren.
Mega65.
Ein FPGA-basierter 8-Bit Computer als Open Source System, das seit 2014 von der M-E-G-A e.V. - Gemeinde entwickelt wird, mit Cherry-Retro-Tastatur, internem 3,5"-Diskettenlaufwerk, SDHC™ Karten-Slot und Anschluss für externe Diskettenlaufwerke. Klassische Commodore™ 64 Module können am internen Expansionsport verwendet werden. Darüber hinaus enthält das Gerät 100-Mbit LAN und digitalen Videoausgang.
Software.
Neue C64-Software und C64-Hardware wird auch heute noch von verschiedenen Firmen (zum Beispiel "Protovision") entwickelt und vertrieben.
Anwendungssoftware.
Obwohl der C64 oft als „Spielcomputer“ und „Daddelkiste“ bezeichnet wurde, da der überwiegende Teil der Software Spiele waren, wurden für das Gerät – auch wegen seiner für die damalige Zeit gehobenen Hardware-Eigenschaften – auch viele „ernsthafte“ Programme produziert. Neben Office-Programmen wie der Textverarbeitung Vizawrite oder Textomat und den Tabellenkalkulationen Microsoft Multiplan und SuperCalc gab es für alle erdenklichen Anwendungen eine Vielzahl von Programmen, von denen hier stellvertretend nur einige aus dem deutschen Raum genannt seien: Für grafische Anwendungen waren Programme wie "Hi-Eddi" (für HiRes-Grafik) von Hans Haberl, "Amica Paint" von Oliver Stiller für Multicolor-Grafiken und "GIGA-CAD" von Stefan Vilsmeier für 3D-Modelle konzipiert. Ebenfalls von Hans Haberl und veröffentlicht von Scanntronik waren die Desktop-Publishing-Programme Printfox und Pagefox. Letzteres wurde als Steckmodul entwickelt und enthielt eine zusätzliche Speichererweiterung, um Zeichensätze, Grafiken und Text für eine ganze DIN-A4-Seite im Speicher halten zu können. Dabei standen alle üblichen Layoutfunktionen zur Verfügung, inklusive Spezialfunktionen wie Kerning.
Lernprogramme.
Auch etliche Lernprogramme wurden für den C64 produziert, wenngleich er kein typischer Rechner war, der im Schulunterricht zum Einsatz kam. Hier waren besonders der Apple II und seine Klone stark verbreitet.
Neben Lernprogrammen wie Vokabeltrainern, Mathekursen und Programmen zum Erlernen des Chemielernstoffes wurden auch Hardware-Erweiterungen angeboten, mit denen Schüler zum Beispiel mit der Fischertechnik-Schnittstelle 30562 für den C64/VC20 die Grundzüge der Robotik erlernen konnten. Der C64 konnte auch für Lern- und Forschungszwecke genutzt werden. So trat das Gerät in den 1980er-Jahren bei vielen Beiträgen der Jugend-forscht-Wettbewerbe als Bestandteil der Versuchsanordnungen in Erscheinung.
Auch in der Fliegerei wurden Programme für den C64 eingesetzt. US-Piloten konnten beispielsweise Flüge nach Instrumentenflugregeln (IFR) mit dem "Flight-Simulator II" von Bruce Artwick machen, die für die Verlängerung der Pilotenlizenz angerechnet wurden. Das deutsche Pendant dazu war der "Flight-Teacher" von Uwe Schwesig, der eine Einführung in die Fliegerei bot.
GEOS.
Im Jahr 1986 wurde das Betriebssystem GEOS (Graphic Environment Operating System) mit grafischer Oberfläche (GUI) für den C64 angeboten. Es wurde in mehreren Versionen veröffentlicht und enthielt sehr viele Anwendungsprogramme. Diese grafische Oberfläche erweiterte den C64 in seiner Anwendungsbreite stark. Das war notwendig geworden, weil ab Mitte der 1980er-Jahre grafische Oberflächen immer häufiger als Serienausstattung bei Heimcomputern zum Einsatz kamen, so zum Beispiel beim Amiga, dem Apple Macintosh oder beim Atari ST. GEOS wurde auf unterschiedlichen Plattformen bis in die 2000er-Jahre gepflegt und erweitert. Allerdings ist GEOS sehr ressourcenaufwendig, so dass sich im Besitz des Anwenderkreises von GEOS auch am häufigsten moderne Hardware wie große Speichererweiterungen, Super-CPUs oder Festplatten befinden.
Unix.
Darüber hinaus wurde für den C64 ein Unix-artiges Betriebssystem namens "LUnix" (für ) entwickelt. Aktuell weiterentwickelt wird das ebenfalls Unix-orientierte "Wings"-Betriebssystem für den C64.
Als reines Hobby-Projekt wurde ab 1989 von einem einzelnen Entwickler GeckOS für den 8-Bit-Mikrochip MOS6502 entwickelt, das Multitasking beherrscht und zu LUnix kompatibel ist. GeckOS gibt es auch in einer Variante für den C64.
Programmiersprachen.
Die wichtigsten Programmiersprachen für den C64 waren das eingebaute BASIC und Assembler. Daneben gab es eine Vielfalt an Programmiersprachen und -Dialekten für den C64:
BASIC.
Das eingebaute Commodore BASIC V2 bietet keine Befehle, um die Grafik- und Soundmöglichkeiten des C64 komfortabel anzusprechen, da diese beim VC20, von dem der Code übernommen worden war, noch nicht vorhanden waren. Das bereits vorhandene und bessere BASIC 4.0 der neueren PETs wurde beim C64 nicht verwendet, da man den PETs keine interne Konkurrenz machen wollte. Über die BASIC-Befehle codice_9 und codice_10 kann direkt auf die Hardware – auch auf Video- und Soundchip – zugegriffen werden, was z. B. auch in Basic die Programmierung von Sprites ermöglicht. Weiterhin können über den codice_11-Befehl Systemroutinen direkt angesprungen werden: Beispielsweise bewirkt codice_12 einen Reset des C64. Sound und Grafik lassen sich nur in Assembler maximal ausreizen. Komfortablere Grafik- und Soundprogrammierung ist mit erweiterten BASIC-Varianten wie etwa Simons’ BASIC möglich, die jedoch nicht Bestandteil des Lieferumfangs waren. Spiele für den C64 sind daher nahezu ausschließlich in Assembler programmiert. Bei späteren BASIC-Versionen, beispielsweise dem BASIC 3.5 des C16 und Plus4, ist der Befehlsvorrat wesentlich umfangreicher.
Neben dem eingebauten Commodore BASIC V2 gab es noch diverse Dialekte und Compiler. Eine Auswahl:
Austrospeed.
Austrospeed ist ein 2-Pass-Compiler (3-Pass-Compiler im Overlay-Modus), der BASIC V2.0-Code in einen kompakten, schnell interpretierbaren Zwischencode (ähnlich P-Code) übersetzt. Derart kompilierte Programme laufen drei- bis fünfmal schneller ab als unkompilierte. Zum Austrospeed gab es auch einen dazugehörigen Decompiler.
Basic-Boss BASIC-Compiler.
Basic-Boss ist ein BASIC-Compiler aus dem Hause Markt & Technik Verlag, der im Jahre 1988 erschien und sehr stabile Programmergebnisse aus reinen BASIC-Programmen erzeugt. Reine BASIC-Programmierer können mit Hilfe des Compilers schnelle Programme erhalten, ohne auf Assembler ausweichen zu müssen. Der Benutzer muss dafür bestimmte „Definitionen“ in sein BASIC-Programm einbauen, die dann nach dem Kompilieren diese hohen Geschwindigkeiten ermöglichen. In sehr günstigen Fällen laufen die Programme 50- bis 100-fach schneller ab.
BASICODE.
Für den C64 gab es Bascoder für den BASIC-Dialekt BASICODE. Dabei handelte es sich um einen rechnerübergreifenden BASIC-Standard.
Exbasic Level II BASIC.
Exbasic Level II ist ein erweitertes und verbessertes BASIC für den C64, das von Diskette geladen oder per Cartridge installiert wurde. Im Gegensatz zu Simons’ Basic war Exbasic Level II ursprünglich nicht für den C64 geschrieben worden, so dass nicht alle Möglichkeiten der Hardware dieses Rechners durch diese BASIC-Erweiterung ausgenutzt wurden.
G-Basic.
G-Basic stellte umfangreiche Programmierfunktionen zur Verfügung, über die das Standard-BASIC des C64 nicht verfügte. Es wurde als Hardwareerweiterung geliefert, die in Form und Größe an eine Zigarettenschachtel erinnerte. Diese besaß einen eigenen Resettaster, da der C64 ab Werk nicht über einen solchen verfügte.
Geo-Basic.
Geo-Basic ist ein BASIC unter der grafischen Oberfläche GEOS. Es enthielt allerdings viele Fehler und lief langsam, weshalb es sich nicht durchsetzen konnte. Auch war der für die Anwendungsprogramme zur Verfügung stehende Arbeitsspeicher nur sehr klein.
Petspeed.
Petspeed ist ein Compiler für das eingebaute BASIC V2.0 von Commodore; für längere Programme benötigte der Compiler ein – selten vorhandenes – Doppelfloppylaufwerk.
Simons’ Basic.
Simons’ Basic ist ein stark erweitertes BASIC mit grafischen Funktionen (Kreis, Ellipse) sowie teilweise strukturierter Programmierung. Vertrieben auf Diskette oder Cartridge.
Assembler.
Assembler ist die wichtigste und – zusammen mit dem eingebauten BASIC – die am häufigsten genutzte Programmiersprache für den C64. Nur mit Assembler konnten die Fähigkeiten des Gerätes optimal genutzt werden. Es gab verschiedene Assembler-Entwicklungsumgebungen, die bekanntesten hießen TurboAss, Hypra-Ass und Giga-Ass. Für große Projekte wurden Cross-Assembler-Systeme eingesetzt. Diese bestanden aus zwei Computern, die mit einem Datenkabel verbunden waren: Einem C64, auf welchem das neu entwickelte Programm getestet wurde, und einem zweiten Computer, zum Beispiel ein weiterer C64, ein Amiga oder PC, auf welchem der Quelltext geschrieben und von einem Cross-Assembler übersetzt wurde. Das machte die Programmierung weitaus komfortabler, da auf dem Test-C64 der komplette Speicher bis auf die wenigen Bytes für die Übertragungsroutine zur Verfügung stand und im Fall eines Absturzes Quelltext und Assembler nicht gelöscht wurden. Jedoch reichte schon ein einfacher Maschinensprachemonitor aus, um Software für den C64 zu entwickeln: Das wohl bekannteste Exemplar eines solchen Programmes war der Smon. Auch brachten viele Erweiterungsmodule, wie das Action Replay oder die Final Cartridge, eigene Maschinensprachemonitore mit.
Pascal.
Mit Oxford Pascal gab es eine Pascal-Implementierung, die in der Lage war, eigenständige Programme auf Diskette zu schreiben oder im Speicher zu halten. Sie war durchaus standard-konform. Auch von UCSD Pascal gab es eine Portierung auf den C64; sie war jedoch so umständlich und langsam, dass sie in der Praxis keine Rolle spielte.
Weiterhin gab es aus dem Hause "Markt & Technik" das Buch "Pascal mit dem C64", das ein Pascal-Entwicklungssystem enthielt.
Sonstige.
Zusätzlich zu den genannten Sprachen gibt es weitere Programmiersprachen, die aber eher exotisch sind. So gibt es einen C-Compiler (der allerdings nur eine Teilmenge von C implementiert), Forth und COMAL sind ebenfalls vertreten; es wurde sogar eine COBOL-Implementierung produziert. Auch Logo gibt es für den C64.
Weiterhin existiert das Betriebssystem Contiki, das eine Internet- und Ethernetanbindung über den C64 erlaubt.
Heute existiert mit cc65 ein leistungsfähiger Cross-Compiler für die Sprache C, der bis auf Gleitkommazahlen fast den ganzen ANSI-Standard abdeckt. Der Compiler selbst läuft auf den meisten modernen Plattformen.
Spiele.
Die Spiele für den C64 waren eines der besten Verkaufsargumente für den Rechner: Fast jedes bekannte Computerspiel in den 1980er- und teilweise in den 1990er-Jahren wurde für den C64 umgesetzt, darunter viele Arcade-Spiele, so auch Donkey Kong und Pac-Man. Schätzungen gehen von etwa 17.000 kommerziellen Spieletiteln für dieses Gerät aus, nicht mitgezählt die zahllosen Spiele, die C64-Besitzer selbst programmierten. Über 95 Prozent aller Spiele haben eine Auflösung von 160 × 200 doppelbreiten Pixeln.
Im Laufe der Jahre wurden insbesondere die Spiele immer komplexer und grafisch anspruchsvoller. Einige grafische Höhepunkte für den C64 sind unter anderem das Strategiespiel Defender of the Crown oder Manfred Trenz’ Actionspiel "Turrican II: The Final Fight", deren Grafiken teilweise an Amiga-Qualität heranreichen. Andere herausragende Beispiele sind Wizball (Rahmensprites), Stunt Car Racer (3D-Grafik mit ausgefüllten Polygonen) oder die "Last-Ninja"-Trilogie. Auch die Präsentation und Animation der beliebten Sportspiele der Firma "Epyx/U.S.Gold" ("Summer Games 1+2," "Winter Games", "California Games" und so weiter) konnten überzeugen. Das von Nintendos Mario-Serie inspirierte Great Giana Sisters erfreute sich ebenfalls großer Popularität.
Propaganda.
Schon in den 1980er-Jahren erprobten politische Gruppierungen die Möglichkeit, Computerspiele für ihre Zwecke zu nutzen. Diese technisch primitiven Spiele, die als Kopien auf Schulhöfen getauscht wurden, basieren meist auf der Technik des C64, etwa das von einem 17-Jährigen programmierte rechtsextremistische Spiel „Anti-Türken-Test“, in dem rassistische Fragen über die Tastatur zu beantworten sind, oder das Spiel „KZ-Manager“, in dem ein Konzentrationslager möglichst effektiv geführt werden muss. Viele dieser Programme wurden in den 1980er- und frühen 1990er-Jahren durch die Bundesprüfstelle für jugendgefährdende Medien (damals noch Bundesprüfstelle für jugendgefährdende Schriften, kurz BPjS) indiziert und später durch Gerichtsbeschlüsse bundesweit beschlagnahmt.
Demoszene.
Der C64 trug besonders zur Entwicklung einer vielfältigen Subkultur bei, in der talentierte Programmierer Tricks entwickelten (zum Beispiel die Ausnutzung undokumentierter Hardwarefunktionen, darunter sehr viele Tricks für den Grafikchip), um die augenscheinlichen Limitierungen des Computers zu umgehen. Teile dieser Szene leben heute noch fort oder entwickelten sich weiter zu anderen Computersystemen wie Amiga oder PC. Die Demoszene entstand in den 1980er-Jahren aus der damaligen Crackerszene. Die Intros, die ursprünglich als Vorspann zwecks Präsentation der Fähigkeiten und Wiedererkennung vor gecrackte Spiele gesetzt wurden, nahmen stetig an Komplexität zu und wurden schließlich als Einzelwerke ("Demos") ohne dazugehörige gecrackte Software veröffentlicht.
Einem Außenstehenden erschließen sich die Schwierigkeiten dieser Programmierung häufig nicht, da er die Komplexität oder die laut Spezifikation eigentliche Unmöglichkeit des Effekts nicht einschätzen kann. Einige der grundlegenden Mechanismen betrafen die Nutzung des im Grafikchip integrierten sogenannten Rasterzeileninterrupts (Interrupt-Auslösung bei einer bestimmten Bildzeile) zur Synchronisierung von Code-Sequenzen, das ruckfreie Scrollen der Bildschirmfläche in beiden Achsen oder die Wiederverwendung von Sprites innerhalb eines Bildes. Typische Kennzeichen waren vor allem rasante, tanzende Rollschriften, mit 16 Farben vorgetäuschte, waagerechte Zylinderformen, sowie fast immer ein üppiges akustisches Beiwerk.
Die Demoszene lotete die Möglichkeiten des C64 am weitesten aus. Höhepunkte setzten Demos wie "Deus Ex Machina" der Gruppen Crest und Oxyron, "Tower Power" der Gruppe Camelot, "+H2K" der Gruppe Plush oder "Dutch Breeze" der Gruppe Blackmail sowie "Double Density" von Mr.Cursor aka Ivo Herzeg, der in der Entwicklung mitverantwortlich für bekannte PC-Spiele wie Far Cry ist.
Die Website der Demogruppe Alpha Flight 1970 enthält einige Flashversionen von szenetypischen Produktionen. Ein riesiges Repertoire an Informationen zu alten wie neuen Produktionen ist in der "Commodore 64 Scene Database" (CSDb) verzeichnet.
Raubkopien.
Mit dem rasanten Aufstieg des Heimcomputers in den 1980er-Jahren im Allgemeinen und des C64 im Speziellen entstand auch ein Tauschmarkt für Raubkopien von Software für diesen Rechner. Auch Anwendersoftware, aber im überwiegenden Maße Spiele wurden zwischen den C64-Besitzern getauscht. Das war mit den ersten kommerziellen Programmen noch sehr einfach machbar. Doch schon bald versuchte die Softwareindustrie, durch verschiedene Kopierschutzmaßnahmen (mittels Datenträger, durch Papier-basierte Abfragen oder auch durch Laufzeitmaßnahmen) der Situation Herr zu werden. Das gelang kaum, da quasi gleichzeitig die Szene dafür sorgte, dass die Software einerseits mit ihren eigenen Programmen wieder kopierbar wurde, andererseits erzeugte man durch Decodieren und gezieltes Modifizieren der Originale ungeschützte Versionen, die sich mit jedem beliebigen Kopierprogramm duplizieren ließen. Es entstand eine Art „Hase-und-Igel“-Wettlauf zwischen der Softwareindustrie und den C64-Besitzern, in dem immer neue Kopierschutzmaßnahmen die illegale Verbreitung von Software verhindern sollten. Letztlich war jedoch fast jedes Programm für den C64 früher oder später auch als „freie“ Raubkopie in Umlauf.
Eine erste Abmahnwelle veranlasste Ende 1992 der Rechtsanwalt Freiherr von Gravenreuth, als er über Testbesteller auf verdächtig erscheinende Kleinanzeigen in Computerzeitschriften, in denen überwiegend Privatleute inserierten, die sogenannten „Tanja-Briefe“ (unter dem Pseudonym „Tanja Nolte-Berndel“ und einigen weiteren weiblichen Pseudonymen) versandte. Falls ein so Angeschriebener auf die Bitte um Softwaretausch des angeblichen Teenagers einging, wurde dieser bei entsprechender Beantwortung wegen Verstoßes gegen das Urheberrecht abgemahnt, gegebenenfalls auch angezeigt. Auch führten einige Fälle zu Hausdurchsuchungen.
Mit der Zeit wurde es Brauch bei den Crackern, vor die von ihnen „geknackten“ Programme einen eigenen, mehr oder weniger aufwändigen Vorspann (ein sogenanntes „Cracktro“) zu setzen. Typischerweise wurde dort in Laufschriften die eigene Coolness gepriesen, es wurden befreundete Crackergruppen gegrüßt, und zunehmend stellte man auch optisch und akustisch die eigene Programmierkunst zur Schau. Die oben beschriebene Demoszene ging zuerst aus der Verselbstständigung dieser Cracker-Vorspänne zu eigenständigen Programmen hervor, auch wenn später eine klare Abgrenzung der Demo- von der Crackerszene stattfand.
Musik.
Der Soundchip des C64 war zum Verkaufsstart des C64 eine Sensation, da es bis dahin keinen vergleichbaren Heimcomputer gab, der eine solche Vielfalt an Klangvariationen bot. Durch diese technischen Möglichkeiten machten sich unzählige Programmierer daran, den C64 als Musikcomputer zu nutzen und entsprechende Musik auf ihm zu programmieren.
Für den deutschen Sprachraum besonders zu erwähnen ist das komplett auf dem C64 programmierte Stück „Shades“ von Chris Hülsbeck, der mit diesem Song im Jahre 1986 den Musikwettbewerb der Fachzeitschrift 64’er gewann und damit den Grundstock für seine Karriere im Bereich der Spielevertonung legte. Weitere bekannte C64-Komponisten waren Rob Hubbard, Martin Galway, Ben Daglish, David Dunn, Markus Schneider, Stefan Hartwig, Holger Gehrmann, Reyn Ouwehand, Jonathan Dunn, Matt Gray, Jeroen Tel, Jens-Christian Huus (JCH) und Charles Deenen (Maniacs of Noise).
Auch die professionelle Musikszene nutzte den C64 als Musikinstrument. So experimentierte der Musiker und Musikproduzent Michael Cretu in den 1980er-Jahren mit den Klängen des C64 und auch die Band von Inga Rumpf setzte den C64 ein. Viele Musiker geben noch heute an, durch den C64 den ersten Zugang zu einem Synthesizer bekommen zu haben, der eine Grundlage ihrer späteren Entwicklung war, so z. B. Rick J. Jordan von der Band Scooter. In der E-Musik wurde der C64 etwa von Yehoshua Lakner eingesetzt und bewusst als „historisches Musikinstrument“ mit eingeschränkten, aber produktiven Möglichkeiten gesehen.
Mitte der 1980er-Jahre kam MIDI-Sequenzer-Software u. a. von der Hamburger Firma Steinberg (heute mit dem Produkt "Cubase" marktbeherrschend) auf den Markt, die den C64 als Steuerzentrum für MIDI-Synthesizer und MIDI-Sampler nutzten. Mit der Software "Pro 16" von Steinberg konnte man professionelle Popmusik-Produktionen erstellen. Der C64 konnte über eine grafische Darstellung und mit manipulierbaren Zahlenwerten 16 verschiedene Instrumente (Piano, Drums, Bass usw.) gleichzeitig ansteuern. Die Taktrate und der Speicher des C64 reichten voll und ganz aus, MIDI-Instrumente nach Belieben zu steuern. Der SID des C64 wurde dabei nicht benutzt, da die Sounds nur von den Peripheriegeräten kamen. Auch in der Filmmusikszene fasste der C64 (wenn auch nur kurzzeitig) Fuß. So wurde beispielsweise der 80-minütige Dokumentarfilm über die berüchtigten Meuterer von der Bounty „Pitcairn – Endstation der Bounty“ (Regie: Reinhard Stegen) vollständig mit Musik untermalt, die auf einem C64 komponiert worden war. Damit stellte der C64 seine Praxistauglichkeit auch im Profibereich vollends unter Beweis. Der kurz darauf, Ende der 1980er-Jahre aufkommende Atari ST übernahm in fast allen deutschen Musikstudios das Kommando in Sachen MIDI-Sequencing und löste den C64 im Profibereich ab.
Magazine.
In Deutschland kamen ab Anfang der 1980er-Jahre verschiedene Computermagazine speziell für den C64 auf den Markt. Am bekanntesten war die „64’er“ vom Verlag „Markt & Technik“, der Heise-Verlag gab mit der „Input 64“ ein Magazin auf einem Datenträger (Kassette und Diskette) heraus. Auch bekannt und verbreitet waren die Diskettenmagazine „Magic Disk 64“ und sein Ableger „Game On“ sowie die „RUN“. Als inoffizieller Nachfolger der 64'er erschien von 1997 bis 2006 die „Go64!“ (CSW-Verlag, Winnenden), die in der „Retro“ aufging, welche seit 2006 vierteljährlich erscheint. Des Weiteren existieren gegenwärtig noch zwei deutschsprachige Amateur-Printmagazine, die „Lotek64“ (auch als kostenlose PDF-Version im World Wide Web erhältlich) und die „Return“. In England waren „Commodore Force“ und „Commodore Format“ beliebt. Heute gibt es noch das englischsprachige Fanmagazin „Commodore Free“, das ebenfalls kostenlos als PDF erhältlich ist. Zudem erscheinen in mehr oder weniger regelmäßiger Reihenfolge Magazine auf Diskette, wie etwa die "Digital Talk", die "Mail Madness" oder das australische Diskmag "Vandalism News". Diese enthalten neben am Bildschirm zu lesenden Artikeln auch aktuelle Software, Musik und Bilder.
Auch einige der damaligen Magazine, die viele verschiedene Rechnerplattformen abdeckten (wie „Happy Computer“, „Power Play“ und „ASM“), waren aufgrund des Markterfolges des C64 zunächst sehr auf diesen fixiert, was Besitzer anderer Rechner oftmals bemängelten.
Inhalte aller dieser Magazine war nicht nur die Berichterstattung über neue Hard- und Software für die jeweiligen Geräte, sondern auch der seitenweise Abdruck von Listings, also von Programmtexten, die der Leser dann per Hand in den Computer abtippen konnte. Diese Art des Vertriebs von Software für den C64 war für den Besitzer, neben dem Erwerb von Kaufsoftware oder Schwarzkopien, oft der einzige Weg, an Programme zu gelangen, da es den Download über das Internet noch nicht gab.
Der C64 in der DDR.
Ab Ende 1985 wurde der C64 im Intershop gegen „Westgeld“ oder Forumschecks verkauft, weitere Geräte fanden als Geschenk ihren Weg in die DDR. Gelegentlich konnte der C64 dank asiatischer Gastarbeiter im staatlich organisierten Gebrauchtwarenhandel („A & V“) für 8000 Mark als Neuware erstanden werden. Daneben gab es einen Privathandel über Kleinanzeigen. Die Gebrauchtpreise lagen bei 3000 bis 6000 Mark für den C64 und bis zu 5000 Mark für ein Diskettenlaufwerk. Bespielte Disketten und Kassetten unterlagen als Datenträger jedoch strengsten Importkontrollen, durften auch nicht als Geschenk aus dem Westen geschickt werden und waren daher ohne Beziehungen so gut wie nicht erhältlich.
Emulatoren.
Heute gibt es etliche Commodore-64-Emulatoren, wie den VICE, den M.E.S.S., Power 64 (für macOS, vormals Mac OS X, und die letzte Version von klassischem Mac OS, Version 9), Frodo (u. a. für Symbian-Handys, sowie iOS und Android) und den ccs64. Diese erlauben es, C64-Software auf moderneren Rechnern wie etwa einem Windows-PC auszuführen. Mit den Emulatoren kann neben Disk-Images auch Original-C64-Zubehör wie z. B. Disketten- und Datasettenlaufwerke angesteuert werden. Für die Verwendung der Datasette oder der Original-Diskettenlaufwerke sind jedoch Bastelarbeiten für Kabel notwendig, um die Geräte mit den heutigen Ports anzusteuern. Für Nutzer, die die langen Ladezeiten des C64 nicht mögen, bieten die Emulatoren einen virtuellen Lademodus.
Die meiste C64-Software, die in den 1980er-Jahren veröffentlicht wurde, kann auf heutigen Systemen (PC, Mac) mit Hilfe dieser Emulatoren genutzt werden. Seit dem 28. März 2008 stehen ausgewählte C64-Spiele im Download-Katalog der Wii-Konsole zur Verfügung.
Das Internet Archive bietet eine im Webbrowser benutzbare Emulatoroberfläche mit einer großen Menge an Programmen und Spielen.
Literatur.
Originalliteratur der Firma Commodore
Geschichte
Allgemeines
Hardware
Programmierung
Spieleprogrammierung
Demoszene
Grafik
Musik
Spiele
Sonstiges
Zeitschriften |
933 | 178175 | https://de.wikipedia.org/wiki?curid=933 | Culpa in contrahendo | Culpa in contrahendo (lateinisch: "Verschulden bei Vertragsschluss"), oft auch "c.i.c." abgekürzt, bezeichnet die schuldhafte Verletzung von Pflichten aus einem vorvertraglichen (gesetzlichen) Schuldverhältnis. Die c.i.c. gehört zu den vertragsähnlichen Ansprüchen.
Grundlagen und Entwicklung.
Gesetzlich geregelt wurden die Folgen eines Verschuldens beim Vertragsschluss erstmals im Preußischen ALR von 1794: „Was wegen des bey Erfüllung des Vertrages zu vertretenden Grades der Schuld Rechtens ist, gilt auch auf den Fall, wenn einer der Contrahenten bey Abschließung des Vertrags die ihm obliegenden Pflichten vernachläßigt hat.“
Als Entwickler des Grundsatzes der "culpa in contrahendo" gilt allerdings Rudolf von Jhering, der 1861 eine Abhandlung darüber verfasste. Diese befasste sich in erster Linie mit den Themenkomplexen der Haftung des Irrenden nach Anfechtung, der Haftung des Vertreters ohne Vertretungsmacht beziehungsweise des Verkäufers einer nicht existierenden Sache. Unter Einbezug eines Urteils des damaligen Landgerichts Köln, das den sogenannten „Telegraphen-Fall“ zu entscheiden hatte, ging Jhering davon aus, dass schon im Veranlassen eines Missverständnisses ein Verschulden des Erklärenden erblickt werden könne. Ihm fiel auf, dass die von ihm untersuchten Fälle die Gemeinsamkeit aufwiesen, dass sie in einem engen Verhältnis zu einer Vertragsanbahnung standen. Aus der Tradition der Historischen Rechtsschule war für ein eigenformuliertes Postulat (wertende Fallentscheidung) nach einer Rückversicherung in den Quellen des römischen Rechts zu suchen, das Jhering – zwar in spärlicher Form – sogar vorfand. So hielt er letztlich fest: „Wer kontrahiert, tritt damit aus dem rein negativen Pflichtenkreis des außerkontraktlichen Verkehrs in den positiven der Kontraktssphäre.“ Letztlich nutzte Jhering, nach Auffassung Kreuzers, ein klassisches Instrument der Rechtsfortbildung und blieb im System der anerkannten Rechtsquellen. Rechtsgrund für die Konstruktion war die archaische "actio legis Aquiliae", kombiniert mit der auf der "actio doli" beruhenden Deliktsordnung des späteren Gemeinen Rechts.
Für die abgehandelten Fallgestaltungen wurde im BGB die von Jhering vorgeschlagene Rechtsfolge der Haftung auf das negative Interesse verankert. Gleichwohl gab es zunächst keine Norm, die vorvertragliche Pflichtverletzungen allgemein regelte. Da darin eine Gesetzeslücke im BGB erkannt wurde, füllte die Rechtsprechung diese durch die (Weiter-)Entwicklung des Rechtsinstituts der "culpa in contrahendo".
Mit der gesetzlichen Schuldrechtsmodernisierung im Jahr 2002 wurde das Rechtsinstitut endlich gesetzlich ( Abs. 2 in Verbindung mit Abs. 1 in Verbindung mit Abs. 2 BGB) geregelt.
Das „Gegenstück“ zur vorvertraglichen "culpa in contrahendo" bildet die "culpa post contractum finitum". Sie erfasst Verletzungen nachwirkender Pflichten, die erst nach der Abwicklung des Vertrags auftreten.
Inhalt und Beispiele.
Es geht um den Ersatz eines außervertraglichen (vertragsähnlichen) Vertrauensschadens. Der Anspruch ergibt sich in besonderen Fällen eines vertrauensbildenden (Geschäfts-)Kontaktes aus der Konstruktion eines gesetzlichen Schuldverhältnisses, das sich nicht bereits aus einem Vertrag oder einer sonstigen gesetzlichen Regelungen ergibt. Dieser Kontakt kann durch die Aufnahme von Vertragsverhandlungen entstehen, unabhängig davon, ob es letztendlich zu einem Vertragsschluss kommt oder nicht. Rechtsdogmatische Begründung der c.i.c. ist, dass bereits im vorvertraglichen Bereich dem Gegenüber eine erhöhte Einwirkungsmöglichkeit auf Rechte und Rechtsgüter Dritter ermöglicht wird. Deshalb wird davon ausgegangen, dass gesteigerte Schutz- und Verkehrssicherungspflichten bestehen, deren Verletzung schadensersatzpflichtig machen. Werden beispielsweise einem Unternehmensberater von einem potenziellen Mandantenunternehmen während der Akquisephase Geschäftsgeheimnisse anvertraut, kommt im Anschluss aber kein Vertrag zustande, und der Unternehmensberater veröffentlicht daraufhin die Geschäftsgeheimnisse dieses Interessenten, so liegt ein Fall der "culpa in contrahendo" vor.
In einer Grundsatzentscheidung hatte der BGH betont, dass Haftungsansprüche Dritter grundsätzlich nur die unmittelbar am beabsichtigten Vertrag beteiligten Parteien seien und nicht deren Vertreter oder Verhandlungsgehilfen. Soweit die Rechtsprechung dazu Ausnahmen zuließ, waren diese auf an Vertragsverhandlungen beteiligte Dritte beschränkt, die neben der verhandelnden Partei „besonders an einem Vertragsschluss interessiert“ waren oder „besonderes Vertrauen für sich beansprucht“ hatten. Der BGH erkannte in diesen beiden deutlich auseinanderliegenden Kriterien für die Schaffung von Ausnahmen eine Widersprüchlichkeit, die er so auflöste, dass heute nur das letztere Kriterium die Haftung eines hinter den an der Vertragsanbahnung Beteiligten auslösen kann.
Aber auch in alltäglicheren Situationen erlangt dieses Institut Bedeutung: Verletzt man sich z. B. beim Bummeln im Kaufhaus, weil die Reinigungskräfte ihren Aufgaben nicht ordentlich nachgekommen sind (Salatblattfall) oder weil das Verkaufspersonal Ware unsachgemäß in einem Hochregal gelagert hat (sogenannter ), so ist auch hier eine vorvertragliche Haftung des Kaufhausbetreibers eröffnet. Nachrangig greift zwar daneben die deliktische Haftung. Im Deliktsrecht kann sich der Geschäftsherr jedoch (anders als im Bereich des vertraglichen Schadensersatzes) gegebenenfalls von der Verantwortung für das Fehlverhalten der Angestellten exkulpieren ( BGB).
Dieser Umstand kann bedeutsam sein, wenn der verantwortliche Angestellte nicht konkret ermittelt werden kann oder selbst gar nicht die finanziellen Mittel besitzt, um für den Schaden aufzukommen. Der "culpa in contrahendo" kommt besondere Bedeutung dort zu, wo die vorvertragliche Haftung gegenüber anderen Haftungsinstituten, insbesondere gegenüber dem Deliktsrecht, einen weiterreichenden Schutz bietet. Der Vorteil besteht vor allem im Bereich der Verschuldenszurechnung (keine Exkulpationsmöglichkeiten des Haftenden, vgl. zweites Beispiel), sowie einer Vermutung dieses Verschuldens ( Abs. 1 S. 2 BGB), welche dann die Gegenseite widerlegen muss (Beweislastumkehr). Auch sind über die weitergehenden Vertragspflichten reine Vermögensschäden erfasst. (vgl. im ersten Beispiel oben den besonderen Vertrauensschutz).
Ausnahmsweise können auch Dritte vom Schutz der "culpa in contrahendo" erfasst werden. Dies geschieht nach den Regeln des Vertrages mit Schutzwirkung zugunsten Dritter.
Rechtsfolgen.
Wer schuldhaft eine vorvertragliche Pflicht verletzt, ist, ebenso wie der Verletzer einer vertraglichen Pflicht, zum Schadensersatz nach den §§ 249 ff. BGB verpflichtet. Unabhängig davon, ob später ein Vertrag geschlossen wurde, kann der Geschädigte verlangen, so gestellt zu werden, wie er ohne die Pflichtverletzung während der Vertragsverhandlungen stünde. Wäre es bei pflichtgemäßem Verhalten des anderen Teils überhaupt nicht zu einem Vertragsabschluss gekommen, kann der Geschädigte die Rückabwicklung des Vertrages verlangen.
Culpa in contrahendo nach Schweizer Recht.
Die culpa in contrahendo ist im Schweizer Recht die schuldhafte Verletzung von vorvertraglichen Pflichten. Ihre Voraussetzungen sind dabei Vertragsverhandlungen, das Vorliegen eines schutzwürdigen Vertrauens, eine Pflichtverletzung sowie ein Schaden, Kausalzusammenhang und Verschulden. Die Pflichtverletzung im Besonderen leitet sich aus dem Grundsatz von Treu und Glauben ab und umfasst u. a. die Pflicht zu ernsthaften Verhandlungen.
Ihrer Natur nach handelt es sich um eine eigenständige Haftungsgrundlage, welche zwischen Vertrag und Delikt angesiedelt ist. In der Schweiz hat die c.i.c. bisher jedoch noch keinen Niederschlag im Gesetz gefunden. Gemäß schweizerischer Doktrin ist die c.i.c. eine Sonderform der Vertrauenshaftung. Aus dogmatischer Sicht ist die c.i.c. im Schweizer Recht den quasivertraglichen Ansprüchen zuzuweisen, was zur Folge hat, dass das positive Vertrauensinteresse zu ersetzen ist, dem Schädiger jedoch die Herabsetzungsgründe nach Art. 44 OR sowie Art. 99 Abs. 3 OR zur Verfügung stehen. Während das Bundesgericht von einer Verjährungsfrist von 1 Jahr ausgeht (Delikt), verlangt die Lehre eine 10-jährige Verjährungsfrist (Vertrag).
Das Vorliegen eines c.i.c. führt ebenfalls nicht zur Aufhebung des Vertrags, sondern nur zu den Schadenersatzfolgen. Wer als Geschädigter den Vertrag aufheben will, muss sich daher auf Übervorteilung (Art. 21 OR), Irrtum (Art. 23 OR) oder absichtliche Täuschung (Art. 28 OR) berufen. |
935 | 235078318 | https://de.wikipedia.org/wiki?curid=935 | Chile | Chile (Aussprache: [], deutsch auch [] oder []), amtlich (), ist ein Staat im Südwesten Südamerikas, der den westlichen Rand des Südkegels "(Cono Sur)" des Kontinents bildet. Chile erstreckt sich in Nord-Süd-Richtung zwischen den Breitengraden 17° 30′ S und 56° 0′ S; somit beträgt die Nord-Süd-Ausdehnung rund 4200 Kilometer. In west-östlicher Richtung liegt Chile zwischen dem 76. und dem 64. westlichen Längengrad und besitzt eine Ausdehnung von durchschnittlich weniger als 200 Kilometern. Wegen dieser – durch seine Lage am Westhang der Andenkordillere bedingten – ungewöhnlichen Form wird Chile schon seit seiner Entdeckung häufig „das langgestreckte Land“ genannt.
Das Land grenzt im Westen und Süden an den Pazifischen Ozean, im Norden an Peru (auf einer Länge von 160 Kilometern), im Nordosten an Bolivien (861 km) und im Osten an Argentinien (5308 km). Die Gesamtlänge der Landgrenzen beträgt 6329 Kilometer. Daneben zählen die im Pazifik gelegene Osterinsel (Rapa Nui), die Insel Salas y Gómez, die Juan-Fernández-Inseln (einschließlich der "Robinson-Crusoe-Insel"), die Desventuradas-Inseln sowie im Süden die Ildefonso-Inseln und die Diego-Ramírez-Inseln zum Staatsgebiet Chiles. Ferner beansprucht Chile einen Teil der Antarktis. Über die vollständig zu Chile gehörende Magellanstraße hat das Land Zugang zum Atlantischen Ozean.
Der moderne souveräne Staat Chile gehört zu den wirtschaftlich und sozial stabilsten und wohlhabendsten Ländern Südamerikas mit einer einkommensstarken Wirtschaft und einem hohen Lebensstandard. Es führt die lateinamerikanischen Nationen in Bezug auf menschliche Entwicklung, Wettbewerbsfähigkeit, Pro-Kopf-Einkommen, Globalisierung, Friedenszustand, wirtschaftliche Freiheit und geringes Korruptionsempfinden an. Nach Einschätzung der Weltbank ist Chile ein Schwellenland mit einem Nettonationaleinkommen im oberen Mittelfeld.
Es hat auch einen hohen regionalen Stellenwert in Bezug auf die Nachhaltigkeit des Staates und die demokratische Entwicklung. Chile ist seit 2010 Mitglied der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD). Chile weist nach Kanada die niedrigste Mordrate in Amerika auf. Das Land ist Gründungsmitglied der Vereinten Nationen, der Union der Südamerikanischen Nationen (UNASUR), der Gemeinschaft Lateinamerikanischer und Karibischer Staaten (CELAC) und der Pazifik-Allianz.
Chile ist durch die globale Erwärmung ernsthaft gefährdet und hat seit Anfang der 1990er Jahre mindestens 37 % seiner Wasserressourcen verloren.
Etymologie.
Die Herkunft des Wortes "Chile" ist nicht eindeutig geklärt. Die Spanier bezeichneten das Land südlich der Atacamawüste seit Anbeginn der Kolonisation Südamerikas mit dem Namen "Chile". Die verbreitetste Hypothese ist, dass sich das Wort aus der Sprache der Aymara herleitet. Dort bedeutet das Wort "chilli" ‚Land, wo die Welt zu Ende ist‘. Diese Annahme wird durch die Tatsache gestützt, dass die ersten Spanier, die nach Chile kamen, von den Siedlungsgebieten der Aymara aus aufbrachen.
Eine weitere, weniger verbreitete Theorie nennt die Inka-Sprache Quechua als Ursprung. Das Herrschaftsgebiet der Inka stieß zur Zeit seiner größten Ausdehnung etwa bis zum heutigen Santiago vor. Die Inka könnten das Land südlich des Río Aconcagua in Anlehnung an das relativ kalte Klima und die schneebedeckten Anden "tchili" genannt haben, was ‚Schnee‘ bedeutet. In chilenischen Schulen wird außerdem noch die Variante gelehrt, dass der Name die lautmalerische Bezeichnung eines in Chile verbreiteten Vogels sein könnte, der heute "Trile" genannt wird.
Als gesichert hingegen gilt, dass die Landesbezeichnung "Chile" nicht auf die (spanisch gleichnamige) Chilischote zurückzuführen ist. Dieses Wort stammt aus der mittelamerikanischen Aztekensprache Nahuatl. Die Chili (und die daraus gemachte Salsa) heißt im chilenischen Spanisch "ají" (siehe auch: Beispiele für Unterschiede im Wortschatz).
Geographie.
Chile erstreckt sich auf dem südamerikanischen Kontinent über 4275 Kilometer in Nord-Süd-Richtung entlang der Anden und des Pazifischen Ozeans (zählt man den antarktischen Teil hinzu, circa 8000 Kilometer), ist aber durchschnittlich nur circa 180 Kilometer breit. Die engste Stelle im kontinentalen Chile (ohne Antarktis) beträgt 90 Kilometer, die breiteste Stelle etwa 440 Kilometer. Die Längenausdehnung Chiles entspricht auf Europa und Afrika übertragen in etwa der Entfernung zwischen der Mitte Dänemarks und der Sahara.
Aufgrund der langen Nord-Süd-Ausdehnung über mehr als 39 Breitengrade, aber auch der beträchtlichen Höhenunterschiede in West-Ost-Richtung weist Chile eine große Vielfalt an Klima- und Vegetationszonen auf.
Geologie.
Chile liegt an der Grenze mehrerer Lithosphärenplatten: Unter die Südamerikanische Platte wird bis zum Golf von Penas die Nazca-Platte subduziert, südlich davon bis zur Magellanstraße mit geringerer Geschwindigkeit die Antarktische Platte. Durch die Magellanstraße verläuft in ostwestlicher Richtung die Grenze zwischen der Südamerikanischen und der Scotia-Platte.
Dies ist die Ursache des ausgeprägten Vulkanismus in Chile und der regelmäßig auftretenden, zum Teil massiven Erdbeben. Das erste dokumentierte Beben war das große Erdbeben von Concepción im Jahre 1570. Das Erdbeben von Valdivia 1960, dessen Tsunami im gesamten zirkumpazifischen Raum schwere Schäden verursachte, war das Beben mit der weltweit größten jemals aufgezeichneten Magnitude. Am 27. Februar 2010 erschütterte ein massives Erdbeben der Stärke 8,8 Mw auf der Momenten-Magnituden-Skala den Süden Chiles und zerstörte große Teile der chilenischen Infrastruktur. Auch Zentral-Chile war stark betroffen. In der Region VI und VII trafen nach etwa 20 Minuten hohe Tsunami-Wellen ein und zerstörten ganze Küstenstädte und Gebiete. Auch noch Wochen nach dem Erdbeben wurde das Land von vielen Nachbeben erschüttert. Insgesamt waren in Chile die Regionen III bis IX betroffen.
Relief.
Stark vereinfacht besteht Mittel- und Südchile aus zwei parallelen Gebirgszügen mit Nord-Süd-Verlauf: den Anden im Osten und dem niedrigeren Küstenbergzug (Küstenkordillere, "Cordillera de la Costa") im Westen. Dazwischen liegt das Zentraltal ("Valle Central" oder "Valle Longitudinal") mit dem Hauptteil der Bevölkerung, des Ackerlands und des Weinbaus.
Die Höhe von Kordillere, Zentraltal und Anden nimmt im Mittel von Norden nach Süden ab, so dass das Zentraltal südlich der Stadt Puerto Montt, die etwa 1000 Kilometer südlich von Santiago liegt, unter den Meeresspiegel abtaucht.
Die Küstenkordillere, von der nur noch die Bergspitzen aus dem Wasser ragen, wird gleichzeitig zur Inselkette. In dieser Region lässt sich deswegen eine einzigartige Fjord- und Insellandschaft entdecken.
Im Norden Chiles dagegen gibt es kein ausgeprägtes Zentraltal, das heißt, die Landschaft steigt von der Küste kommend zunächst steil an und bildet dann mit der Pampa del Tamarugal ein etwa bis hohes Plateau bis zum Fuße der Anden.
Die chilenischen Anden, die nur an wenigen Stellen die 2000-Meter-Höhenlinie unterschreiten, unterteilen sich hinsichtlich ihrer geologisch-tektonischen Struktur von Nord nach Süd in vier größere Blöcke.
Der Übergangsbereich zwischen Küstenkordillere und den Anden lässt sich in zwei Bereiche untergliedern: die "Pampa del Tamarugal" im Norden und das "Valle Longitudinal" im zentralen und südlichen Bereich. Beide sind ausgeprägte Graben-Systeme.
Die "Pampa del Tamarugal" erstreckt sich direkt entlang der nördlichen Vulkankette, während das etwas tiefer gelegene "Valle Longitudinal" der südlichen Vulkankette folgt und bei Puerto Montt (41° 30′ S) ins Meer abtaucht.
Die Küstenkordillere erstreckt sich mit einer kurzen Unterbrechung südlich der Insel Chiloé über die gesamte Westseite des Landes. Sie steigt im Norden des Landes zwischen Arica und Chañaral (26. Breitengrad) als Steilküste unmittelbar auf (stellenweise über ) an. Da die wenigen Flüsse in diesem Raum aufgrund des extrem ariden Klimas nicht die Kraft zum Durchbruch haben, wird sie hier nur von wenigen Tälern durchschnitten. Die Talsysteme häufen sich erst südwärts von Chañaral.
Das Küstengebirge flacht nach Süden hin ab und erreicht im Kleinen Süden schließlich nur noch an wenigen Stellen Höhen über .
Die Küstenkordillere setzt sich ab dem 44. Breitengrad (Chonos-Archipel) als Inselkette fort.
Berge.
Die chilenischen Anden bilden einen der höchsten Gebirgszüge der Welt und weisen eine Vielzahl von Gipfeln über 6000 m auf. Unter ihnen befindet sich der höchste Berg Chiles, der Ojos del Salado (6893 m), welcher zugleich der höchste Vulkan der Welt ist.
Im Folgenden sind die bekanntesten Berge Chiles aufgelistet (vom Norden nach Süden):
Flüsse und Seen.
Aufgrund der besonderen Struktur des Landes gibt es in Chile keine längeren Flüsse. Der mit 443 Kilometern längste ist der Río Loa im Norden inmitten der Atacamawüste. Die Flüsse, die dauerhaft Wasser führen, werden meist aus der Schnee- und Eisschmelze der Anden genährt. Gemäß den zunehmenden Niederschlägen nimmt nach Süden hin das mitgeführte Wasservolumen zu. Die Flüsse werden für die Bewässerung in der Landwirtschaft, zur Energiegewinnung und zu kleineren Teilen auch für den Tourismus genutzt. Einige Flüsse von Nord nach Süd sind folgende:
Zu den chilenischen Seen zählen im Norden die Salzseen, deren größter und bekanntester der Salar de Atacama (3000 Quadratkilometer) ist. Ganz im Norden liegt der 21,5 Quadratkilometer große Lago Chungará auf rund 4500 Meter Höhe, einer der höchstgelegenen Seen der Welt.
Die großen und landschaftlich schönsten Seen Chiles erstrecken sich südöstlich der Stadt Temuco bis nach Puerto Montt in folgender Reihenfolge:
Viele Seen sind schiffbar.
Naturräumliche und klimatische Gliederung.
Chile liegt auf der Südhalbkugel, weshalb die Jahreszeiten um ein halbes Jahr im Vergleich zur Nordhalbkugel verschoben sind. Das Land lässt sich klimatisch in drei Zonen einteilen: Nord-, Mittel- und Südchile.
Nordchile (genannt „großer Norden“) besitzt viele Berge, die über hoch sind. Zwischen der Küste und der westlichen Anden-Hauptkette erstreckt sich die Atacamawüste. Diese Wüste ist eines der trockensten Gebiete der Erde; oft fällt jahrelang kein Regen. Die Wüste war in der Vergangenheit für ihre großen Salpetervorkommen bekannt, während dort heute vor allem Kupfer gefördert wird. Die größte und wichtigste Stadt dieser Region ist die Hafenstadt Antofagasta (310.000 Einwohner).
In Mittelchile herrscht ein dem Mittelmeerraum vergleichbares Klima. Diese Region ist sehr fruchtbar und dicht besiedelt. Hier befindet sich die Hauptstadt Santiago de Chile mit rund 5,5 Millionen Einwohnern. Daneben sind Valparaíso (Seehafen und Parlamentssitz, 280.000 Einwohner), Viña del Mar (beliebter Urlaubsort, 320.000 Einwohner) und Concepción (Zentrum der Landwirtschaft und Industrie, 216.000 Einwohner) von Bedeutung. Der Raum nördlich von Santiago wird „kleiner Norden“, der südlich von Santiago „kleiner Süden“ genannt.
Das sehr dünn besiedelte Südchile (genannt „großer Süden“) ist eine äußerst niederschlagsreiche Region. Die Küste ist durch eine Vielzahl vorgelagerter Inseln stark zerklüftet. Südlich des Festlands befindet sich die Insel Feuerland, die sich Chile mit dem Nachbarland Argentinien teilt. Auf der Feuerland vorgelagerten Insel Isla Hornos befindet sich Kap Hoorn, der südlichste Punkt Chiles und Südamerikas.
Besonderheiten des Klimas
Insgesamt wird das Klima Chiles stark durch den Humboldt-Meeresstrom entlang der Küste beeinflusst. Dieser fließt von Süden nach Norden und transportiert kaltes Meerwasser aus der Antarktis. Während zum Vergleich Nordeuropa vom warmen Golfstrom profitiert, liegen die Wassertemperaturen in Chile bei analogem Breitengrad (Nord-/Südkoordinate) deutlich niedriger. In Punta Arenas (Südchile) – das etwa gleich weit vom Äquator entfernt liegt wie Hamburg – beträgt die mittlere Tagestemperatur im Sommer 12 Grad Celsius.
Eine Besonderheit des chilenischen Klimas ist der El-Niño-Effekt, auch "Südliche Oszillation" genannt. Dieses Klimaphänomen betrifft zwar hauptsächlich Länder wie Peru oder Indonesien, aber auch in Chile ist es etwa alle sieben Jahre wirksam und führt hier zu vermehrten Niederschlägen im Vergleich zu Normaljahren.
Flora und Fauna.
Flora.
Aufgrund der riesigen Ausdehnung von über 4000 Kilometern Länge gibt es in Chile sehr viele Vegetationszonen. Im Bereich der Atacamawüste wächst wenig. Bewuchs gibt es nur in Küstennähe oder im Bereich der Anden. Hier wachsen sehr viele verschiedene Kakteenarten, Sukkulenten und Zwergsträucher. Allerdings kommt es im Zusammenhang mit dem Klimaphänomen El Niño regelmäßig zum Phänomen der blühenden Atacamawüste, bei dem nach Regenfällen in der Wüste große Wüstenflächen nur für wenige Tage von Millionen von Blumen überzogen werden.
Südlich der Wüste folgt die Steppe mit trockenem Grasland und in den Anden wächst die steinharte Yareta ("Azorella yareta"), auch „Andenpolster“ genannt. In den trockenen Gebieten wächst der „Boldo-Strauch“ ("Peumus boldus"). An den Küstengebirgen und in den Anden Mittelchiles gibt es kleinflächig subtropische Nebelwälder („hydrophile Wälder“), wo zum Beispiel Baumfarne (spanisch "Helecho arborescente") wachsen.
Die Weinanbaugebiete beginnen im Bereich des Flusses Río Elqui, außerhalb des Flusstals gibt es dagegen nur Dornensträucher und Kakteen.
In Zentralchile wächst die Honigpalme ("Jubaea chilensis"). Die Araukarie ("Araucaria araucana") ist der heilige Baum der Mapuche (Ureinwohner Chiles), ihre großen Samen dienten ihnen zur Ernährung. In Chile gibt es auch zahlreiche große Eukalyptus-Plantagen.
In Mittel- und Südchile gibt es große Wälder, die dem gemäßigten Regenwald zugeordnet werden. Sie werden unterteilt in den "Valdivianischen Regenwald" im Norden und den "Magellanischen Regenwald" im Süden, die ursprünglich beide von Scheinbuchen dominiert wurden. Im Valdivianischen Regenwald kommen noch einige Koniferen der Südhalbkugel wie die Chilenische Araukarie und die Patagonische Zypresse hinzu. Heute finden sich auch eingeführte Kiefern, Lärchen und Pappeln in den chilenischen Wäldern.
In der XI. Region (Aisén) gibt es Wälder mit beispielsweise folgenden Baumarten: Lenga-Südbuche ("Nothofagus pumilio"), Coihue-Südbuche ("Nothofagus dombeyi"), "Luma apiculata", "Aextoxicon punctatum" (der unter anderem in Chile Olivillo heißt), "Embothrium coccineum", Chilenische Scheinulme ("Eucryphia cordifolia"), Kerzenbaum ("Maytenus boaria").
Die „Nationalblume“ Chiles ist die rote Chilenische Wachsglocke ("Lapageria rosea"), sie heißt in Chile "Copihue" und ist eine Kletterpflanze.
Patagonien besteht aus weiten Steppen und Halbwüsten, an der Südwestküste findet sich die sogenannte Magellan-Tundra. Große Teile der Region Aisén und der Region Magallanes sind bereits vergletschert, so dass hier keine Vegetation mehr anzutreffen ist.
Feuerland ist von großen Mooren durchzogen. Hier halten sich nur noch wenige Baumarten, wie die Lenga-Südbuche, die Magellan-Südbuche ("Nothofagus betuloides") oder die Coihue-Südbuche ("Nothofagus dombeyi").
Fauna.
In den Steppengebieten sind Guanakos, die zur Familie der Kamele gehören, weit verbreitet. In den Andenregionen leben Vikunjas und der Huemul, der als "Nationaltier" Chiles zusammen mit dem Andenkondor im Staatswappen dargestellt ist.
Der Chinchilla, ein Nagetier, sowie der Puma leben ebenfalls in gebirgigen Steppenlandschaften. Die Wälder bieten Platz für Hirsche, Chilenische Waldkatzen, Füchse und für Kolibris.
Der Humboldt-Pinguin, Pelikane und Mähnenrobben leben selbst an den kalten Küsten Nordchiles, Mähnenrobben und Magellan-Pinguine im eisreichen Süden.
Über fast den ganzen Bereich Chiles ist der majestätische Andenkondor verbreitet, einer der größten Vögel der Welt. Die großen Salzseen beherbergen tausende Flamingos.
Im kargen Süden Feuerlands leben Eulen, Magellan-Füchse und Darwin-Nandus. Sehr häufig anzutreffen sind Strauchratten (Degus), kleine, ausschließlich in Chile heimische und vom Aussehen her rattenähnliche Nagetiere aus der Familie der Trugratten, die mit drei Arten fast das ganze Land bewohnen. Sie leben in Erdhöhlen in Kolonien und nehmen im Ökosystem die Nische ein, die in Deutschland die Wildkaninchen innehaben.
Bevölkerung.
Demografie.
Chile hatte 2020 19,1 Millionen Einwohner. Das jährliche Bevölkerungswachstum betrug + 0,9 %. Die Bevölkerungszählung des staatlichen chilenische Statistikamt INE ergab, dass das Land in der Mitte des Jahres 2017 17,5 Millionen Einwohner hatte. Davon waren 8.6 Millionen Männer und 9,0 Millionen Frauen. Die Bevölkerung hat sich seit Beginn des 20. Jahrhunderts verfünffacht. Bei der Volkszählung des Jahres 1895 wurden 2.695.625 Einwohner ermittelt. Die Einwohnerzahl stieg auf 5,0 Mio. bei der Zählung 1940 und 13,3 Mio. im Jahr 1992. Seitdem hat sich das Bevölkerungswachstum verlangsamt. Zum Bevölkerungswachstum 2020 trug ein Geburtenüberschuss (Geburtenziffer: 12,0 pro 1000 Einwohner vs. Sterbeziffer: 6,3 pro 1000 Einwohner) bei. Die Anzahl der Geburten pro Frau lag 2020 statistisch bei 1,6, die der Region Lateinamerika und die Karibik betrug 2,0. Die Lebenserwartung der Einwohner Chiles ab der Geburt lag 2020 bei 80,3 Jahren (Frauen: 82,5, Männer: 78). Der Median des Alters der Bevölkerung lag im Jahr 2020 bei 34,5 Jahren. Im Jahr 2021 waren 19,0 Prozent der Bevölkerung unter 15 Jahre, während der Anteil der über 64-Jährigen 12,7 Prozent der Bevölkerung betrug.
Migration.
Die Migrationsrate Chiles lag im Jahr 2012 bei 0,35 Migranten je 1000 Einwohner und Jahr und war damit eine der niedrigsten in ganz Lateinamerika. Im Jahre 2017 waren 2,7 % der Bevölkerung im Ausland geboren.
Im Jahre 1848 begann die deutsche Kolonisierung, die von der chilenischen Regierung gefördert wurde, um den Süden des Landes zu bevölkern. Die Einwanderung aus deutschsprachigen Staaten beeinflusste die Kultur eines großen Gebietes in Südchile, besonders in den Provinzen Valdivia, Osorno und Llanquihue. Einwanderer aus anderen europäischen und westasiatischen Staaten kamen im 19. und 20. Jahrhundert vor allem in Valparaíso und im äußersten Norden und Süden an. Darunter befanden sich Österreicher, Briten und Iren, Kroaten, Spanier, Franzosen, Griechen, Italiener, Niederländer, Polen, Russen, Schweizer, Juden und Palästinenser. Im Jahre 1953 gründete Präsident Carlos Ibáñez del Campo die Einwanderungsbehörde "Departamento de Inmigración" und ließ Regeln für die Einwanderung aufstellen.
Im 21. Jahrhundert hat die Einwanderung aus den benachbarten Staaten mehr an Bedeutung gewonnen. Zwischen 2004 und 2010 stieg sie um 50 % auf geschätzt 365 459 Personen. Die Volkszählung des Jahres 2012 ergab, dass 339 536 im Ausland geborene Menschen in Chile wohnhaft waren. Sie stammten vor allem aus Peru (103 624), Argentinien (57 019), Kolumbien (27 411), Bolivien (25 151) und Ecuador (16 357). 2014 stammten 74,9 % der Einwanderer vom gleichen Kontinent ab.
Obwohl die Auswanderung aus Chile im vergangenen Jahrzehnt zurückgegangen ist, lebten im Jahr 2005 487 174 Chilenen außerhalb Chiles. Dies entspricht 3,01 % der Bevölkerung des gleichen Jahres (16 165 316 Menschen). Die meisten ausgewanderten Chilenen leben heute in Argentinien (43,33 %), des Weiteren 16,58 % in den USA, 5,61 % in Schweden, 5,21 % in Kanada und 4,80 % in Australien.
Die interne Migration von den ländlichen Gebieten in die Großstädte hat sich in den letzten Jahrzehnten verstärkt. So wurden etwa 80 % der Bevölkerung der mittleren und südlichen Regionen Chiles in der Region selbst geboren. In Región del Biobío erreicht dieser Wert mit 86,11 % den Höchststand. Nur 71 % der Bewohner der Hauptstadtregion wurden auch in der Region geboren und gar nur 55 % der Region Magallanes y Antártica Chilena stammen von dort.
Bevölkerungsverteilung.
Der Großteil der Bevölkerung lebt in den Regionen V bis X. Am dichtesten besiedelt ist der Großraum Región Metropolitana de Santiago, wo etwa die Hälfte der chilenischen Einwohner lebt. Die Stadt selbst hat etwa 5,5 Millionen Einwohner; sie beherbergt also in etwa ein Drittel aller Einwohner Chiles. Nördlich und vor allem südlich davon erstrecken sich landwirtschaftlich genutzte und dicht besiedelte Gebiete in der Ebene zwischen den Hauptketten der Anden. Nur 100 Kilometer westlich von Santiago liegt der Großraum um die Hafenstadt Valparaíso mit etwa einer Million Einwohnern.
Nach Norden und Süden verringert sich die Bevölkerungsdichte immer stärker. Die Atacamawüste im äußersten Norden und die rauen, stürmischen Gebiete im Süden sind aufgrund der ungünstigen klimatischen Bedingungen nur sehr dünn besiedelt.
Urbanisierung und wichtige Städte.
Die Bevölkerung Chiles ist im internationalen Vergleich sehr ungleich verteilt. Die Volkszählung des Jahres 2002 ergab, dass 13 090 113 Chilenen, oder 86,59 % der Gesamtbevölkerung, in Städten leben. Die Regionen in klimatisch extremen Zonen weisen den höchsten Urbanisierungsgrad auf – 97,68 % der Bevölkerung der Region Antofagasta, 94,06 % von Tarapacá und 92,6 % von Magallanes y Antártica Chilena leben in Städten. Auch die Industriestandorte in Mittelchile sind stark urbanisiert – 96,93 % der Menschen in der Hauptstadtregion und 91,56 % in der Region Valparaíso sind Stadtbewohner. Die 2 026 322 Menschen oder 13,41 % der Gesamtbevölkerung, die auf dem Land leben, arbeiten größtenteils in Landwirtschaft und Viehzucht. Sie konzentrieren sich auf Mittel- und Südchile; 33,59 % der Bevölkerung von Maule, 32,33 % von La Araucanía und 31,56 % von Los Lagos leben auf dem Land.
In den 1920er Jahren begann eine starke Abwanderung von Landbewohnern, die auf der Suche nach besseren Lebensbedingungen in die Städte zogen. Die Städte wuchsen dadurch schnell und bildeten große Ballungsräume. Der Großraum Santiago ist der größte derartige Ballungsraum. Im Jahr 2002 wohnten hier 5 428 590 Menschen oder mehr als ein Drittel aller Bewohner von Chile, während er 1907 383 587 und 1920 noch 549 292 Einwohner hatte, was 16 % der Bevölkerung Chiles entsprach. Das Städtewachstum führte auch dazu, dass vormals ländliche Gebiete Teile der Städte wurden, wie Puente Alto oder Maipú, die heute zu den bevölkerungsreichsten Gemeinden Chiles zählen. Im Januar 2015 nahm Santiago hinter São Paulo, Ciudad de México, Buenos Aires, Rio de Janeiro, Lima und Bogotá den siebenten Rang unter den lateinamerikanischen Städten mit den größten Bevölkerungszahlen ein; weltweit rangiert es auf 54. Stelle.
Analog zur Hauptstadt sind auch Valparaíso und Viña del Mar von starkem Bevölkerungswachstum betroffen gewesen. Sie sind dadurch mit Concón, Quilpué und Villa Alemana zum Großraum Gran Valparaíso zusammengewachsen. Auch Concepción, Talcahuano, Hualpén, Chiguayante, San Pedro de la Paz, Penco, Coronel, Lota, Hualqui und Tomé bilden ein Ballungsgebiet namens Gran Concepción. Beide Ballungsräume hatten im Jahr 2002 mehr als 660 000 Einwohner.
Weitere wichtige Städte und Ballungsräume sind die Agglomeration La Serena-Coquimbo (296 253 Einwohner im Jahre 2002), Antofagasta (285 255), Temuco-Padre Las Casas (260 878), Rancagua (236 363), Iquique-Alto Hospicio (214 586), Talca (191 154), Arica (175 441), Chillán-Chillán Viejo (165 528), Puerto Montt (153 118), Los Ángeles (138 856), Calama (136 600), Copiapó (134 531), Osorno (132 245), Quillota (128 874), Valdivia (127 750), Punta Arenas (116 005), San Antonio (106 101) und Curicó (104 124). Die Mehrzahl dieser Städte liegt entlang der Pazifikküste oder im Zentraltal in der Mitte Chiles zwischen Santiago und Puerto Montt.
Ethnische Zusammensetzung.
Die chilenische Bevölkerung ist durch einen hohen Grad an Homogenität gekennzeichnet. Die Chilenen mit europäischen Vorfahren und Mestizen bilden rund 88,92 Prozent der Bevölkerung. 11,08 Prozent werden durch die indigene Bevölkerung gebildet. Davon sind 82 Prozent Mapuche, 6 Prozent Aymara, 2,5 Prozent Diaguita und 0,5 Prozent Rapanui. Chile hat bisher die Convention 169 der ILO, die die Rechte indigener Völker schützt, nicht unterzeichnet.
Das Volk der Mapuche lebt überwiegend in der Region zwischen den Flüssen Bío-Bío und Toltén und besitzt dort einen Bevölkerungsanteil von 23 Prozent. Die Mapuche, früher zusammen mit anderen Völkern der Region auch unter der (von den Mapuche selbst abgelehnten) Sammelbezeichnung Araukaner bekannt, lassen sich in Pewenche, Lafkenche, Wenteche und Huilliche unterteilen (die im Norden lebenden Picunche sind der spanischen Eroberung zum Opfer gefallen). Ihre Sprache, das Mapudungun, wird seit wenigen Jahren als Ergänzungsfach in der Schule gelehrt und für eine tägliche Nachrichtensendung im lokalen Fernsehen auf "Canal 13 Temuco" verwendet. Trotz dieser Errungenschaften bleibt die traditionelle Lebensweise der Mapuche durch den Verlust ihres Landes und die liberale Wirtschaftsordnung gefährdet. Mapuche müssen oft in die Großstädte abwandern, um bezahlte Arbeit zu suchen.
Im nördlichen Teil Chiles leben kleinere Gruppen von Quechua, Aymara, Chango, Atacameño, Diaguita und Kolla. Im Süden Chiles lebten bis zum Anfang des 20. Jahrhunderts auch kleine Gruppen von Selk’nam, Kawéskar, Yámana, Caucahue sowie Tehuelche, deren Nachfahren in der heutigen Mehrheitsbevölkerung aufgegangen sind oder sich heute als Mapuche verstehen. Von den rund 5000 Einwohnern der Osterinsel sind ca. 40 Prozent, also etwa 2000 Menschen, Polynesier (Rapanui).
Während der Kolonialzeit wurde Chile durch spanische Einwanderer besiedelt, die großteils aus den kastilischen Regionen Spaniens kamen. Im 19. Jahrhundert wanderten besonders viele englische und irische sowie deutsche Siedler nach Chile ein. Nennenswerte Einwandererkontingente kamen außerdem aus Frankreich, Italien, Kroatien und in jüngerer Zeit aus Palästina bzw. dem Nahen Osten. Die ersten Deutschen trafen 1843 ein und siedelten sich später vor allem im Gebiet um den Llanquihue-See und in Valdivia, Osorno sowie Puerto Montt an. Im Jahr 1913 nannte das Handbuch des Deutschtums im Ausland 30.000 in Chile lebende „Auslandsdeutsche“; 1916 betrug die Zahl der im Lande ansässigen Deutschchilenen und Chiledeutschen einer Zählung des Deutsch-Chilenischen Bunds zufolge etwa 25.500. Zuletzt gab es während und nach dem Zweiten Weltkrieg eine Zuwanderungswelle aus dem deutschsprachigen Raum. Noch heute wird die deutsche Sprache von bis zu 35.000 Einwohnern verwendet, deren Zahl allerdings stetig abnimmt.
Die Verschleppung schwarzer Sklaven nach Chile war zu allen Zeiten sehr gering. Die Mehrheit von ihnen konzentrierte sich auf die Städte Santiago de Chile, Quillota und Valparaíso. Im Laufe der Jahrhunderte vermischten sich die Schwarzen mit den Weißen und Mestizen, so dass heute das afrikanische Element in Chile fast völlig verschwunden ist. Eine Ausnahme bildet die Stadt Arica in der Provinz Tarapacá. Arica wurde 1570 gegründet und gehörte bis 1883 zu Peru. Die Stadt zählte zu den peruanischen Einfuhrzentren für afrikanische Sklaven. Von hier aus wurde auch ein großer Teil der bolivianischen Handelsgüter auf europäische Schiffe verladen. Arica lag mitten in der Wüste und bildete – dank der hervorragenden Anbaumöglichkeiten für Zuckerrohr und Baumwolle im Azapatal – eine Oase. Erdbeben, Piratenüberfälle und der Ausbruch von Malariaepidemien führten dazu, dass viele Weiße die Stadt verließen. So entwickelte sich mit der Zeit eine mehr oder weniger isolierte afro-chilenische Enklave. Chile erklärte sich 1811 als erster Staat in Südamerika gegen die Sklaverei und schaffte sie 1823 endgültig ab.
In den vergangenen Jahrzehnten suchten vermehrt Arbeiter aus Peru und Bolivien in Chile ihr Glück. In den 1980er Jahren gewann hierdurch bedingt die Peruanische Küche einen gewissen Einfluss in Chile. 2007 beschloss die Regierung eine Amnestie für diejenigen Ausländer, meistens aus Peru, die ohne Aufenthaltserlaubnis im Land arbeiteten. Die Wirtschaftskrise in Argentinien zwang seit der Jahrtausendwende vermehrt auch Argentinier zur Arbeitssuche im Nachbarland. Eine kleine Gruppe von Einwanderern kommt aus Asien, vor allem aus Korea, und lebt im Großraum Santiago.
Sprache.
Die bekannteste indigene Sprache ist das Mapudungun, die in Südchile gesprochene Sprache der Mapuche (ca. 250.000 Sprecher); daneben sind in Nordchile Aymara (ca. 20.000 Sprecher) und auf der Osterinsel Rapanui (ca. 1000 Sprecher) verbreitet. Insgesamt werden in Chile neun verschiedene Sprachen und Idiome benutzt, darunter mindestens vier aussterbende Sprachen, für die nur noch einige wenige Sprecher bekannt sind. So wird für die Sprache der Yámana im Jahr 2013 noch ein einziger, 85-jähriger Sprecher genannt. Das in Peru und Bolivien verbreitete Quechua wird nur in den (früher peruanischen bzw. bolivianischen) chilenischen Nordprovinzen von einer nennenswerten Sprecherzahl verwendet. Vor allem in den südchilenischen Regionen IX und X leben zahlreiche Deutschchilenen, die teilweise noch Deutsch sprechen, sodass Deutsch die drittverbreitetste Sprache des Landes nach Spanisch und Mapudungun ist (genannt werden ca. 35.000 Sprecher).
Die Amtssprache und bei weitem überwiegende Alltagssprache Chiles ist Spanisch (in Chile "Castellano" genannt), wobei das in Chile gesprochene Spanische verschiedene Eigentümlichkeiten aufweist, welche Vokabular und Aussprache, die charakteristische Sprechmelodie und einzelne grammatikalische Besonderheiten betreffen. Zahlreiche in Chile verwendete Ausdrücke wurden aus einheimischen Sprachen (größtenteils dem Quechua und Aymara, nur selten aus dem Mapudungun) oder aus den Sprachen der Einwanderer übernommen (zum Beispiel "cachar" – von engl. "to catch" – oder "kuchen"). Von 1844 bis 1927 galt in Chile die an den Vorschlägen von Andrés Bello orientierte, von den Regelungen der Real Academia Española stark abweichende „amerikanische“ spanische Rechtschreibung.
In Chile herrscht wie in Lateinamerika generell der Seseo. Wie überall im lateinamerikanischen Spanischen fehlt auch eine grammatikalische zweite Person im Plural völlig; auch das dazugehörige Pronomen "vosotros/-as" („ihr“ als Plural-Anrede) ist unbekannt und die Anrede einer Mehrzahl von Personen erfolgt ausschließlich mit den Verbformen der dritten Person und dem Anredepronomen "ustedes". Auch im Singular wird die Anrede standardsprachlich in der dritten Person mit der Höflichkeitsform "Usted" gewählt. Die vertraute Anrede mit "tú" („Du“) ist auf den Kreis engster Freunde, Lebenspartner und gleichaltriger oder jüngerer Angehöriger beschränkt. Umgangssprachlich ist ein unvollständiger Voseo gebräuchlich, bei dem zur Anrede des Gegenübers in der zweiten Person Singular spezifische chilenische Voseo-Verbformen (zum Beispiel: „estái“ statt "estás", „querís“ statt "quieres", „venís“ statt "vienes", „vai“ statt "vas") eingesetzt werden, deren Bildungsweise an die Formen der zweiten Person Plural nach kontinentalspanischem Standard ("estáis", "queréis", "venís", "vais") erinnert. In deutlichem Kontrast zum Nachbarland Argentinien wird das entsprechende Personalpronomen "Vos" („Ihr“ als Singular-Anrede) in Chile jedoch gemieden und zumeist als vulgär oder despektierlich empfunden.
Religion.
Das Land galt lange als sehr katholisch geprägt, auch wenn Staat und Kirche seit 1925 offiziell getrennt sind. Der kirchliche Einfluss auf das gesellschaftliche Leben, das Rechtswesen (besonders das Familienrecht) und die Kultur- und Medienwelt ist noch immer recht stark. So gehörte bis 2010 der zweitgrößte Privatsender des Landes, Canal 13, allein der römisch-katholischen Kirche. Jedoch sind eheliche und uneheliche Kinder seit 1998 rechtlich gleichbehandelt, das chilenische Eherecht sieht seit November 2004 eine Möglichkeit der Scheidung vor und 2015 wurde für gleich- und verschiedengeschlechtliche Paare die eingetragene Partnerschaft "(acuerdo de unión civil)" eingeführt. Abtreibungen sind seit 1990 verboten; eine Lockerung des absoluten Abtreibungsverbots in bestimmten medizinisch und ethisch indizierten Fällen wurde aber seit Jahren kontrovers diskutiert und 2017 verwirklicht.
Rund 70 Prozent der Bevölkerung (7.853.000 Befragte) rechneten sich bei der Volkszählung 2002 zur römisch-katholischen Kirche, die die zahlenmäßig stärkste Religionsgemeinschaft des Landes bildet. Die kirchliche Verwaltungsstruktur besteht aus fünf Kirchenprovinzen mit 26 Bistümern und 920 Pfarreien. Im Oktober 1999 wurde ein Gesetz zur Gleichstellung der Religionsgemeinschaften verabschiedet, das allerdings die Privilegien der römisch-katholischen Kirche unangetastet ließ und nur den Status der anderen Kirchen und Glaubensgemeinschaften verbesserte. Rund 15 Prozent der Chilenen gehörten 2002 protestantischen Glaubensgemeinschaften an; durch den weit verbreiteten pfingstlerischen Einfluss ist der Anteil der evangelikalen Einwohner wie in ganz Lateinamerika vor allem in den letzten Jahrzehnten angestiegen (er lag in Chile 1930 bei 1,5 Prozent, 1992 bereits bei rund 13 Prozent). An weiteren Weltanschauungen wurden 8,3 Prozent Agnostiker und Atheisten genannt und 4,4 Prozent „Andere“, wozu auch die indigenen Religionen zählen (etwa die Religion der Mapuche). Kleinere Glaubensrichtungen bilden die Zeugen Jehovas (1,06 Prozent), Mormonen (0,92 Prozent), Juden (0,13 Prozent) und andere.
Neuere Befragungen ergaben, dass Chile zusammen mit Uruguay das am stärksten säkularisierte Land in Lateinamerika ist. Demnach entfielen auf die katholische Kirche 2013 noch 57 Prozent, auf die evangelischen Kirchen (hauptsächlich Evangelikale) 13 Prozent, während Religionsfreie seit 2011 mit 25 Prozent zu Buche schlagen. Auffällig ist der um 2010 abrupt einsetzende Rückgang der praktizierten Religiosität in Chile: Nur noch 27 Prozent der gläubigen Chilenen bezeichneten sich 2013 als praktizierend (2010: 41 %; 2011: 38 %), das ist das niedrigste Ergebnis in ganz Lateinamerika. Zugleich gehört Chile zu den lateinamerikanischen Ländern, in denen evangelikale Gruppierungen aktuell ein vergleichsweise geringes Wachstum verzeichnen. Obwohl der Untersuchungszeitraum der Studie bereits 2013 endete, halten die Autoren einen Vertrauenszuwachs der katholischen Kirche infolge des Amtsantritts von Papst Franziskus in allen Ländern einschließlich Chiles für erkennbar, ohne jedoch dessen Nachhaltigkeit einschätzen zu können. Die Anfang 2018 veröffentlichte Folgeuntersuchung desselben Instituts belegt eine ungebrochene Fortsetzung des Rückgangs auch nach 2013: Demnach bezeichnen sich heute nur noch 45 Prozent der Chilenen als Katholiken, sodass Chile nach Uruguay als zweites lateinamerikanisches Land keine mehrheitlich katholische Bevölkerung mehr besitzt. Bei der amtlichen Volkszählung 2017 bezeichneten sich allerdings noch 59 Prozent der Chilenen als katholisch.
Geschichte.
Präkolumbische und Kolonialgeschichte.
Etwa 13.000 Jahre v. Chr. siedelten die ersten Menschen im heutigen Staatsgebiet Chiles (siehe Monte Verde). Später gehörte der Norden Chiles bis zu seiner Eroberung durch die Spanier kurzzeitig zum Inkareich. Im Jahr 1520 entdeckte der Portugiese Ferdinand Magellan während seines Versuches, die Erde zu umsegeln, die nach ihm benannte Magellanstraße, die an der heutigen Südspitze Chiles liegt. 1535 erreichte Diego de Almagro von Peru aus das heutige Chile, fand aber nicht die erhofften Reichtümer vor und kehrte enttäuscht zurück. Die erste permanente Siedlung der Europäer war das 1541 durch Pedro de Valdivia gegründete Santiago. Seit 1542 war Chile Bestandteil des spanischen Vizekönigreiches Peru.
Da die Spanier wenig Gold und Silber fanden, war Chile aufgrund seiner abgeschiedenen Lage eine eher wenig beachtete Kolonie der spanischen Krone. Die große Atacamawüste behinderte den direkten Weg nach Peru. Erst später wurde Chile durch landwirtschaftliche Produkte für die anderen spanischen Besitzungen ein wichtiger Versorgungspartner.
Chile beherbergte verschiedene Volksgruppen, die lange Zeit fälschlicherweise unter dem Begriff Araukaner zusammengefasst wurden. Im Süden leisteten die Mapuche in zahlreichen Kriegen erbitterten Widerstand. Der Konflikt, der als Arauco-Krieg ("Guerra de Arauco") bezeichnet wird, verhinderte eine spanische Besiedlung der südlichen Hälfte Chiles nachhaltig. Die meisten Städte, Ansiedlungen und Forts wurden kurz nach ihrer Errichtung von den Kampfverbänden der Ureinwohner überrannt und wieder zerstört. Ab 1602 bildete der Fluss Bío Bío faktisch die Grenze zum Mapuchegebiet. Der andauernde Widerstand der Ureinwohner zwang die Spanier 1641 zur Anerkennung einer unabhängigen Mapuche-Nation im Vertrag von Quillín. Darin wurde der Bío-Bío-Fluss als Grenze festgeschrieben und dem Volk der Mapuche Souveränität zugebilligt, ein in der Geschichte indigener Bevölkerungen in Südamerika einzigartiger Vorgang. Zwar kam es auch danach immer wieder zu kriegerischen Auseinandersetzungen und glücklosen Eroberungsversuchen, doch hatte die Grenzziehung im Wesentlichen bis zum Ende der Kolonialzeit Bestand. Erst im Rahmen der 1861 von Präsident José Joaquín Pérez ausgerufenen sogenannten „Befriedung Araukaniens“ wurde die Mapuche mit Hilfe chilenischer Truppen gewaltsam unterworfen und im Jahre 1883 an Chile angegliedert.
Neben den Attacken der Mapuche behinderten schwere Erdbeben, Tsunamis und Vulkanausbrüche die Entwicklung des Landes. Viele Städte wurden komplett zerstört, wie beispielsweise Concepción 1570 und Valdivia 1575. Die chilenischen Küstenstädte waren im 16. und 17. Jahrhundert häufigen Angriffen englischer Piraten ausgesetzt.
1609 wurde das Generalkapitanat Chile gegründet, dieses war jedoch abhängig vom Vizekönigreich Peru. 1778 wurde Chile zum eigenständigen "Generalkapitanat" mit Handelsfreiheit innerhalb des spanischen Königreiches.
Unabhängigkeitskrieg und Entstehung der Republik.
Der Drang nach Unabhängigkeit kam auf, als 1808 Spanien von Napoleons Bruder Joseph regiert wurde. Am 18. September 1810 wurde eine Junta ins Leben gerufen, die die Treue Chiles zum abgesetzten König Ferdinand VII. erklärte, und zwar als eine autonome Provinz innerhalb des spanischen Königreichs. Dieses Datum feiert man in Chile als den Beginn der Unabhängigkeit. Wenig später erklärte Chile seine Loslösung von Spanien und der Monarchie.
1814, nach dem Ende des Spanischen Unabhängigkeitskrieges und der Niederlage der Patrioten in der Schlacht von Rancagua, übernahm Spanien wieder die Macht in Chile. Die Spanier wurden aber in der Schlacht von Chacabuco durch ein chilenisch-argentinisches Heer unter General José de San Martín geschlagen. In der Schlacht von Maipú 1818 brach die spanische Kolonialherrschaft endgültig zusammen. San Martín verzichtete zugunsten von Bernardo O’Higgins auf das Präsidentenamt.
O’Higgins selbst wurde gestürzt und ging 1823 ins Exil nach Peru. Sein Nachfolger Ramón Freire y Serrano konnte seine politische Macht nicht richtig festigen und wurde von Francisco Antonio Pinto Díaz 1828 gestürzt. Dieser führte eine liberale Verfassung ein, was den Zorn der Konservativen hervorrief. Am 17. April 1830 stürzte Diego Portales Palazuelos in der Schlacht von Lircay die Regierung. Portales regierte (indirekt, denn er wurde nie Präsident) bis August 1831 mit diktatorischen Mitteln. Im Jahre 1833 entstand mit Hilfe Portales eine streng präsidiale Verfassung. Diese stark zentralistische Verfassung gewährte Chile eine lange Zeit der Stabilität, bis zum Bürgerkrieg von 1891.
Von 1836 bis 1839 kam es zum Konföderationskrieg gegen Bolivien und Peru, den die Chilenen gewannen.
Am 17. September 1865 erklärte Chile Spanien den Krieg (Spanisch-Südamerikanischer Krieg), nachdem Spanien versucht hatte mit militärischen Mitteln in Peru Einfluss zu gewinnen. Es kam daraufhin zu den Seegefechten bei Papudo sowie bei Abtao vor der Insel Chiloé. Am 5. Dezember 1865 verbündete sich auch Peru mit Chile, um den gemeinsamen Gegner zu bekämpfen. Die Spanier beschossen am 31. März 1866 die Stadt Valparaíso massiv. Der Konflikt mit Spanien konnte aber erst in Verträgen von 1871 und 1883 endgültig gelöst werden.
Im Verlauf des 19. Jahrhunderts wanderten verstärkt auch nicht-spanische Europäer nach Chile ein, darunter Deutsche, deren Spuren noch heute vor allem im südlichen Mittelteil des Landes zu sehen sind (Valdivia, Osorno, Puerto Montt, Puerto Varas, Frutillar, Puerto Natales).
Salpeterkrieg.
Im Salpeterkrieg von 1879 bis 1884 besetzte Chile die bis dahin zu den Nachbarländern Peru und Bolivien gehörende Atacamawüste, Lima und Teile der Pazifikküste von Peru. Im Friedensvertrag von 1904 zwischen Chile und Bolivien übergab Bolivien an Chile seinen freien Zugang zum Pazifik. In den eroberten Gebieten wurden später große Kupfervorkommen gefunden: Chuquicamata, der größte Kupfertagebau der Welt, befindet sich in diesem Gebiet.
Peru übergab an Chile im Vertrag von Ancón die heutigen Regionen von Arica, Parinacota und Tarapacá als Reparationen.
Bürgerkrieg von 1891.
1891 widersetzten sich Parlament und Marine dem Präsidenten José Manuel Balmaceda; es kam zum Bürgerkrieg. In diesem Konflikt starben rund 6000 Menschen. Balmaceda verlor zwei größere Schlachten und beging am 18. September 1891 Selbstmord. Das bis dahin präsidial geprägte Regierungssystem wurde nach dem Sieg der Kongressanhänger durch ein parlamentarisches System ersetzt, bis 1925 wiederum ein präsidentielles Regierungssystem eingeführt wurde. Während der Unruhen kam es zum Baltimore-Zwischenfall, der zu einem diplomatischen Konflikt zwischen der neuen chilenischen Regierung und den USA führte.
Grenzverlauf.
Trotz des Grenzvertrags mit Argentinien (1881) verschärften sich ab 1893 die Grenzstreitigkeiten mit Argentinien, weil der Vertrag die Andenkordillere als Grenze bestimmte: Die Grenzlinie verlaufe „über die höchsten Berge, die die Wasserscheide bilden“. Auf manchen Abschnitten führte diese Definition zu strittigen Ergebnissen. Im Norden tauschte Bolivien einen Teil der "Puna" gegen Tarija mit Argentinien, nachdem Chile die Puna-Region im Salpeterkrieg besetzt hatte. Zwischen Chile und Argentinien kam es zu einem Wettrüsten. Erst durch ein Schiedsgerichtsverfahren konnte der Grenzstreit 1902 beigelegt werden. Patagonien und Feuerland wurden neu aufgeteilt, dabei fielen 54.000 Quadratkilometer an Chile und 40.000 Quadratkilometer an Argentinien. Der Grenzverlauf mit Bolivien wurde 1904 mit einem im gegenseitigen Einvernehmen geschlossenen Friedensvertrag festgelegt. Doch bald keimte in Bolivien ein Revisionismus auf, der bis heute eine schwierige und oft sehr angespannte politische Situation zwischen den beiden Ländern verursacht. In den 1970er Jahren, als beide Länder durch Militärdiktaturen regiert wurden, wurde von chilenischer Seite angeboten, einen zirka 10 km breiten Gebietsstreifen entlang der Grenze mit Peru an Bolivien abzutreten, um endgültig Frieden zu schaffen. Der Vorschlag wurde nicht umgesetzt, weil Bolivien keine Kompensation dafür geben wollte. Bolivien versuchte daraufhin, einen Anspruch auf einen souveränen Zugang zum Meer mit einer Klage vor dem Internationalen Gerichtshof in Den Haag durchzusetzen. Am 1. Oktober 2018 wies der Internationale Gerichtshof die Klage Boliviens gegen Chile ab.
Erster und Zweiter Weltkrieg.
Chile blieb im Ersten Weltkrieg neutral, die innenpolitische Lage war aber weiterhin instabil. Präsident Arturo Alessandri Palma, der in Chile ein Sozialversicherungssystem eingeführt hatte, wurde 1924 durch einen Militärputsch abgesetzt, kam aber, nach der Einführung einer neuen Verfassung im Jahre 1925, im März 1926 wieder an die Macht. Bis 1932 regierte (am längsten) Carlos Ibáñez del Campo das Land mit diktatorischen Mitteln. 1932 wurde die verfassungsmäßige Ordnung wiederhergestellt und die Radikalen erwiesen sich in den folgenden 20 Jahren als führende Partei.
Die Weltwirtschaftskrise um 1930 traf Chile besonders hart. Die Preise für die wichtigsten Exportgüter Kupfer und Salpeter verfielen dramatisch. Ab den 1930er Jahren folgte eine langsame Erholung des Landes, die 1938 durch einen Putschversuch der Nationalsozialistischen Bewegung Chiles und das darauffolgende Massaker unterbrochen wurde.
1934 kam es zu einer letzten großen Bauernrebellion in Ranquil, die durch Polizeikräfte niedergeschlagen wurde.
Nachdem Chile lange Zeit – auch aus Rücksicht auf die zahlreichen deutschstämmigen Chilenen – im Zweiten Weltkrieg neutral geblieben war, beschloss 1944 Präsident Juan Antonio Ríos Morales, an der Seite der Alliierten in den Krieg einzutreten. Daraufhin erklärte Chile 1945 den Krieg gegen Japan. Der Einfluss Chiles auf den Kriegsausgang blieb jedoch unbedeutend.
Nachkriegszeit.
1945 gehörte das Land zu den Gründungsmitgliedern der Vereinten Nationen und trat 1948 der OAS bei.
Am 2. August 1947 ernannte Präsident González Videla ein Kabinett aus Militärs und Unabhängigen. Finanzminister dieses Kabinetts war Jorge Alessandri, der 1958 unter Mithilfe der Konservativen, der Liberalen und der Radikalen Partei Präsident Chiles wurde. Er gewann die Präsidentschaftswahl gegen Salvador Allende, den Kandidaten der Vereinigten Linken.
Großer Gegenspieler der Konservativen wurden die Christdemokraten, die zwar strikt antikommunistisch, nach europäischen Maßstäben aber in Fragen der Sozialpolitik gemäßigt links eingestellt waren.
Am 22. Mai 1960 erschütterte das bisher stärkste gemessene Erdbeben der Welt mit anschließendem Tsunami die Küsten Chiles und verwüstete besonders die Hafenstadt Valdivia. Das Beben hatte die Stärke 9,5 auf der Momenten-Magnituden-Skala. Mehr als 2000 Menschen starben, was in Folge Ablenkung von innenpolitischen Problemen schaffte. Weite Teile des Landes waren immer noch in den Händen einiger weniger vermögender Familien.
1964 gewann Eduardo Frei Montalva als Kandidat der Christdemokratischen Partei die Wahl zum Präsidenten, auch mit Wahlhilfe aus den USA. Er versuchte unter dem Motto „Revolution in Freiheit“, Sozialreformen mit dem Erhalt der demokratischen Ordnung zu verbinden und den Spagat zwischen den radikalen Forderungen der Linken und der rigorosen Abwehr von Reformen durch die Rechten zu schaffen. Eine Landreform verteilte über drei Millionen Hektar Großgrundbesitz an Bauerngenossenschaften. Frei scheiterte letztlich mit seinen wichtigsten Reformen, darunter der teilweisen Verstaatlichung der Kupferindustrie. 1969 trat Chile als Gründungsstaat der Andengemeinschaft bei, allerdings 1976 wieder aus.
Wie schon 1958 hieß auch 1970 der Gegner von Jorge Alessandri im Wahlkampf um das Präsidentenamt Salvador Allende, dem die Gewerkschaften und Sozialisten zur Seite standen. Allende gewann die Wahl und wurde Präsident.
Präsidentschaft Salvador Allende.
Die Kräfte der Linken bildeten 1969 die Unidad Popular (UP), ein Wahlbündnis, dem neben der Kommunistischen und der Sozialistischen Partei kleine humanistische, linkschristliche und marxistische Parteien angehörten. Die UP vertrat eine sozialistische Linie, warb für die Verstaatlichung der Industrie und die Enteignung der Großgrundbesitzer. Dieses Bündnis stellte 1970 als Präsidentschaftskandidaten Salvador Allende auf, der schon zum vierten Mal kandidierte.
Aus den Wahlen von 1970 ging das linke Wahlbündnis Unidad Popular mit 37 % der Stimmen als stärkste Kraft hervor und Salvador Allende wurde zum Präsidenten gewählt. Sein konservativer Gegner, Jorge Alessandri, kam auf 35,3 %, und der Christdemokrat Radomiro Tomic erzielte 28,1 %. Stichwahlen waren in der damaligen Verfassung nicht vorgesehen. Allende wurde im Parlament mit den Stimmen der Christdemokraten (um Tomic) unter der Voraussetzung, er werde sich streng an die Verfassung und Rechtsstaatlichkeit halten, als Präsident gewählt. Er verstaatlichte in der Folge die wichtigsten Wirtschaftszweige (Bankwesen, Landwirtschaft, Kupferminen, Industrie, Kommunikation) und geriet dadurch in wachsende Konflikte mit der Opposition – obwohl die Verstaatlichungen von der Verfassung gedeckt waren. Zudem stieß der Wahlsieg Allendes in den USA auf heftigen Widerstand.
Mit dem Sieg der „Volksfrontregierung“ unter marxistischem Einfluss in Chile war nach Kuba der zweite amerikanische Staat sozialistisch regiert. Dies schien die 1954 von US-Präsident Eisenhower postulierte Domino-Theorie zu bestätigen, wonach die Länder Südamerikas nach und nach wie Dominosteine dem Kommunismus anheimfallen würden. US-Außenminister Henry Kissinger ließ, als der Sieg der linken Kräfte absehbar war, verlauten: „Ich sehe nicht ein, weshalb wir zulassen sollen, dass ein Land marxistisch wird, nur weil die Bevölkerung unzurechnungsfähig ist.“ Allende betrachtete sich nicht als Marxist und lehnte sowohl die Diktatur des Proletariats als auch ein Einparteiensystem entschieden ab.
Bei seinem Amtsantritt hatte Allende also mit Sanktionen und Gegenmaßnahmen der USA zu rechnen. So kam es bereits 1970 zu einem tödlichen Attentat auf General René Schneider, bei dem die CIA und Außenminister Kissinger massiv beteiligt waren (siehe US-Intervention in Chile). Schneider war für die US-Regierung ein Hindernis, da er gegen einen Militärputsch war.
Durch den Boykott der USA, der westeuropäischen Staaten und der internationalen Konzerne wurde das politische System derart labil, dass von Teilen des Militärs ein Putsch geplant wurde. Ein erster Putsch des 2. Panzerregiments scheiterte im Juni 1973.
Die Diktatur Pinochets.
Am 11. September 1973 kam es schließlich zu einem blutigen Militärputsch gegen die Regierung. Präsident Allende beging in der Moneda Selbstmord. Hunderte seiner Anhänger kamen in diesen Tagen ums Leben, Tausende wurden inhaftiert. Sämtliche staatlichen Institutionen in ganz Chile wurden binnen Stunden vom Militär besetzt. Die Macht als Präsident einer Junta übernahm General Augusto Pinochet.
Überall im Lande errichtete das Militär in der Folgezeit Geheimgefängnisse, wo Oppositionelle und deren Sympathisanten nicht selten zu Tode gefoltert wurden. Tausende Chilenen gingen wegen der fortgesetzten Menschenrechtsverletzungen ins Exil (→ Folter in Chile).
Kurz nach der Machtübernahme Pinochets begannen die USA und die westeuropäischen Staaten, Chile wieder intensiv mit Wirtschaftshilfe zu unterstützen. Die Militärregierung machte die Verstaatlichungen Allendes mit Ausnahme der Kupferminen rückgängig, führte radikale Wirtschaftsreformen durch und schaffte die Gewerkschaftsrechte ab.
Im Jahr 1976 ernannte die Militärregierung den Papierfabrikanten und früheren Präsidenten Chiles, Jorge Alessandri, zum Präsidenten des neu gegründeten Staatsrates ("Consejo de Estado"), dessen Aufgabe es war, eine neue Verfassung zu schreiben, um die Militärdiktatur in Chile zu legitimieren.
In Deutschland erhielt die Regierung Pinochets lange Zeit Unterstützung aus den Reihen der Union, vor allem der CSU. So lobte Franz Josef Strauß 1977 bei seinem Besuch den Umsturz als „gewaltigen Schlag gegen den internationalen Kommunismus“. Es sei „Unsinn, davon zu reden, daß in Chile gemordet und gefoltert würde“. Die Auseinandersetzung um die Bezeichnung der Militär-Junta als „Mörderbande“ durch den der SPD angehörigen Forschungsminister Hans Matthöfer anlässlich eines Streits um Wirtschaftshilfe im Jahr 1975 steht exemplarisch für die Spaltung der deutschen Politik in dieser Frage. In den achtziger Jahren wurde auch in der CDU die Kritik an den Menschenrechtsverletzungen des Regimes deutlicher. In diese Zeit fällt auch der Chilebesuch von Norbert Blüm, bei dem dieser Pinochet im direkten Gespräch damit konfrontierte.
Insbesondere in der Colonia Dignidad, einer streng bewachten Siedlung von Auslandsdeutschen unter Führung von Paul Schäfer, wurde gefoltert. Die Sekte beziehungsweise totalitäre Religionsgemeinschaft war etwa zehn Jahre vor der Machtübernahme Pinochets gegründet worden und diente während der Militärherrschaft als Folterzentrum für die chilenischen Geheimdienste. Darüber entwickelte sich die Colonia zu einem florierenden Konzern, der unter anderem Titan nach Deutschland exportierte. Trotz Hinweisen, gerichtlichen Anklagen und Fluchtversuchen deutscher Bürger übte die deutsche Botschaft in Chile „äußerste Zurückhaltung“ und blieb untätig, mehr noch, sie ließ Handwerker der Siedlung die Botschafterresidenz renovieren.
Im Dezember 1978 verschärfte sich der Beagle-Konflikt mit Argentinien und es kam zu kriegerischen Drohungen gegen Chile. Die unbewohnten Inseln Lennox, Picton und Nueva im Beagle-Kanal wurden zum Streitpunkt, vor allem weil in der Gegend größere Ölreserven vermutet wurden. Der Streit erreichte seinen gefährlichsten Höhepunkt am 22. Dezember 1978, als Argentinien die Operation Soberanía startete, um die Inseln militärisch zu besetzen und in Festland-Chile einzumarschieren. Der Einmarsch wurde gestoppt, als die Junta in Buenos Aires einer päpstlichen Vermittlung zustimmte. Diese Mediation führte nach der Niederlage Argentiniens im Falklandkrieg zu dem Freundschafts- und Friedensvertrag von 1984 zwischen Chile und Argentinien, bei dem alle drei Inseln Chile zugesprochen wurden. Die fast abschließende Grenzziehung mit Argentinien am Fitz-Roy-Massiv wurde am 16. Dezember 1998 vereinbart. Es bleibt bis heute nur noch ein kleiner undefinierter Abschnitt im Bereich des Campo de Hielo Sur („Südliches Eisfeld“) übrig. Dieser Bereich beherbergt das größte Süßwasserreservoir Südamerikas.
Infolge des früheren Konflikts mit Argentinien unterstützte Chile während des Falklandkrieges 1982 Großbritannien. So landete ein beschädigter britischer Hubschrauber in Chile. Bisher ist der Grund seines Aufenthaltes in dieser Region allerdings unbekannt. Des Weiteren half Chile Großbritannien mit Radar- und Spionagetätigkeit. Der chilenische Ex-Luftwaffenchef Fernando Matthei bestätigte später die geheime Kooperation.
Redemokratisierung.
1988 wurde eine erste für die Opposition grundsätzlich problematische Volksabstimmung über eine Ausweitung der Befugnisse Pinochets abgehalten. Die Junta musste nach der geltenden Verfassung erstmals seit 1980 einen zukünftigen Präsidenten vorschlagen. Obschon eine Beteiligung an dieser Abstimmung auch eine Anerkennung des Regimes bedeutete, nahm die Opposition an dem Verfahren teil, bei welchem wenig überraschend Pinochet bestimmt worden war. Eine Mehrheit (54 %, bei einer Stimmbeteiligung von rund 90 Prozent) sprach sich zur Frage ja oder nein gegen eine weitere Amtszeit Pinochets aus.
1989 fanden die ersten freien Wahlen nach 15-jähriger Diktatur statt. Präsident wurde der Christdemokrat Patricio Aylwin. Bereits wenige Monate nach der Rückkehr zur Demokratie setzte der neugewählte Präsident Mitte 1990 eine Wahrheits- und Versöhnungskommission ein. Sie sollte die zwischen 1973 und 1989 begangenen politischen Morde und den Verbleib von Verschwundenen (Desaparecidos) aufklären. Neu und für spätere Wahrheitskommissionen in postdiktatorischen Demokratien des Ostblocks und Afrikas während der neunziger Jahre prägend war dabei, dass die chilenische Kommission „Wahrheit“ über Verbrechen während der Zeit der Diktatur als ihr Ziel definierte. Mithilfe einer „offiziellen Wahrheit“ sollte die Spaltung der chilenischen Gesellschaft in zwei Lager mit jeweils unterschiedlichen Deutungen der Geschichte überwunden werden.
Aylwin setzte die neoliberale Wirtschaftspolitik Pinochets fort und bemühte sich, die verfeindeten politischen Lager zu versöhnen, um ein demokratisches Zusammenleben zu ermöglichen. Behutsam („Gerechtigkeit soweit es geht“) begann er mit der Aufarbeitung der Verbrechen der Militärdiktatur: Im November 1993 standen erstmals Offiziere wegen Menschenrechtsverletzungen vor Gericht. Viele Exilanten kehrten zurück in ihre Heimat. Von 1994 bis 2000 regierte der Christdemokrat Eduardo Frei Ruiz-Tagle.
Pinochet trat 1998 als Heereschef ab, blieb aber Senator auf Lebenszeit und genoss daher Immunität. Im gleichen Jahr wurde er in Großbritannien aufgrund eines Haftbefehls des spanischen Richters Baltasar Garzón verhaftet, konnte aber 1999 aus gesundheitlichen Gründen nach Chile zurückkehren. 1998 wurde er von Gladys Marín vor dem chilenischen Richter Juan Guzmán Tapia angeklagt, 2002 jedoch wegen leichter Demenz als verhandlungsunfähig erklärt, worauf Pinochet auf sein Amt als Senator verzichtete. Weitere Versuche, ihn gerichtlich zu belangen, scheiterten. Er starb am 10. Dezember 2006, ohne je verurteilt worden zu sein.
Im Jahr 2000 wurde der Sozialist Ricardo Lagos neuer chilenischer Präsident. Er bezwang in einer Stichwahl seinen konservativen Gegner Joaquín Lavín nur knapp. Mit Lagos zog nach Allende der zweite sozialistische Präsident in die Moneda ein. Lagos machte die Bekämpfung der Arbeitslosigkeit zum Ziel seiner Regierung. Sein Programm sah außerdem die Wiedereinführung der Tarifautonomie und die Einbindung des Armee-Budgets in den staatlichen Haushalt vor. Lagos verließ im Jahr 2006 das Amt mit einer wirtschaftlich und politisch positiven Bilanz. Als Nachfolgerin wurde die Sozialistin Michelle Bachelet zur ersten Präsidentin in der Geschichte des Landes gewählt.
2010 gewann Sebastián Piñera nach einer Stichwahl gegen seinen Konkurrenten Frei die Präsidentschaftswahl. Am 11. März 2011 war sein Amtsantritt. Piñera war der erste rechtsgerichtete Präsident nach fast 20 Jahren.
Am 15. Dezember 2013 wurde in einem zweiten Wahlgang wieder die Sozialistin Michelle Bachelet zur Präsidentin gewählt. Bachelet setzte sich mit rund 62,2 Prozent der Stimmen gegen die konservative Herausforderin Evelyn Matthei durch.
Die Wahlen Ende 2017 gewann wiederum Sebastián Piñera. Er trat seine zweite Präsidentschaft am 11. März 2018 an.
Erarbeitung einer neuen Verfassung 2019–2022.
"siehe auch: Verfassunggebende Versammlung Chiles"
Ausgelöst durch eine Erhöhung der U-Bahn-Preise, kam es seit Mitte Oktober 2019 zu Protesten gegen die soziale Ungleichheit in Chile. Im Verlauf der Unruhen erklärte Piñera den Ausnahmezustand, setzte das Militär ein und rief den „Krieg gegen einen mächtigen, unversöhnlichen Feind“ aus, wie er die Aufständischen nannte. Wegen der anhaltenden Proteste sagte die Regierung die UN-Klimakonferenz ab, die geplant im Dezember 2019 in Santiago de Chile abgehalten werden sollte.
Im Dezember 2019 wurde eine Volksabstimmung über eine neue Verfassung angekündigt. Ursprünglich für den 26. April 2020 geplant, wurde sie aufgrund der COVID-19-Pandemie auf den 25. Oktober selbigen Jahres verschoben. Eine große Mehrheit stimmte dafür, dass eine neue Verfassung erarbeitet werden solle (78 %). Dazu soll eine verfassunggebende Versammlung gewählt werden, deren Vertreter komplett direkt gewählt werden (79 %).
In der am Wochenende vom 15. und 16. Mai 2021 stattgefundenen Wahl zur verfassungsgebenden Versammlung erlitt das Parteienbündnis Chile Vamos von Präsident Sebastián Piñera eine Niederlage. In der aus 155 Delegierten bestehenden Versammlung werden linke, neutrale und parteilich ungebundene Delegierte dominieren, während konservative und rechte Parteien nicht die notwendige Sperrminorität von einem Drittel der Sitze erreichten, um bestimmte Änderungen alleine blockieren zu können.
Am 5. Juli 2021 tagte der Verfassungskonvent erstmals, bis im Februar 2022 lief die Frist zur Einreichung von Diskussionsvorschlägen für die Verfassungsreform. Im Juni wurde der 388 Artikel umfassende Verfassungsvorschlag von der Versammlung offiziell angenommen, und daraufhin am 4. Juli an Präsident Gabriel Boric übergeben. Am 4. September 2022 wurde dieser in einem Plebiszit mit 62 % deutlich abgelehnt.
Präsidentschaftswahl 2021.
Am 21. November 2021 fand der erste Wahlgang für die achte Präsidentschaftswahl in Chile (Transición) statt. Bei der Stichwahl am 19. Dezember 2021 wurde Gabriel Boric zum Präsidenten gewählt. Seine Amtszeit begann am 11. März 2022.
Politik.
Verfassung.
Chile ist eine Präsidialrepublik. Die aktuelle Verfassung stammt von 1980 unter der Diktatur Augusto Pinochets und wurde am 16. August 2005 vom chilenischen Parlament modifiziert.
Exekutive.
Der Präsident, nach US-amerikanischem Vorbild zugleich Regierungschef, wird für eine vier Jahre andauernde Amtszeit gewählt. Der Präsident kann zwar mehrere Amtszeiten absolvieren, jedoch nicht direkt hintereinander. Er ernennt die Minister (2005: 18 Minister) und Subsekretäre (Vergleichbar mit Staatssekretären; 2005: 30) sowie die Regional-Intendanten (einen für die Hauptstadtregion und je einen für die Regionen) und Provinzgouverneure (je Provinz einer). Er kann innerhalb eines durch die Verfassung festgelegten Rahmens Dekrete erlassen, die Gesetzeskraft haben. Zudem kann er die obersten Befehlshaber der Teilstreitkräfte ernennen.
Legislative.
Die Legislative (Congreso Nacional) besteht aus zwei Kammern. Der erste chilenische Kongress wurde am 4. Juli 1811 durch Beschluss (1810) der Regierungs-Junta gebildet.
Die Abgeordnetenkammer ("Cámara de Diputados") besteht aus 120 durch direkte Wahl ermittelten Abgeordneten. Das ganze Land wird in 60 Wahlkreise eingeteilt, in denen alle vier Jahre jeweils zwei Abgeordnete gewählt werden. Das erstplatzierte Parteibündnis stellt jedoch beide Abgeordnete, wenn es doppelt so viele Stimmen wie das oppositionelle Wahlbündnis erreicht. Dieses binomiale Wahlsystem verhindert, dass kleinere Parteien ins Parlament gewählt werden.
Der Senat ("Senado") umfasst 43 Mitglieder. Aufgrund der Verfassungsreform, die am 16. August 2005 beschlossen wurde, werden seit dem 11. März 2006 alle Senatoren direkt von den Wahlbürgern gewählt. Die gewählten Senatoren stammen aus 19 Wahlbezirken. Jede der zwölf Regionen und die Hauptstadtregion besitzen mindestens einen Wahlbezirk. Die V., VII., VIII., IX. und X. Region sowie die Hauptstadtregion werden in jeweils zwei Wahlbezirke aufgeteilt. Alle vier Jahre wird jeweils die Hälfte der Senatoren für eine Amtszeit von acht Jahren gewählt.
Erfolge bei der Einführung des Frauenwahlrechts gab es in Chile schon in den 1930er Jahren: Frauen über 21, die lesen und schreiben konnten, erhielten das Wahlrecht für Gemeinde- und Stadtratswahlen zu Beginn der 1930er Jahre. Eine Quelle nennt hierfür den 30. Mai 1931, eine andere 1934. Das uneingeschränkte aktive Wahlrecht wurde in dem Gesetz vom 15. Dezember 1948 festgeschrieben. Das passive Frauenwahlrecht gibt es bei Lokalwahlen seit 1931, auf nationaler Ebene erst seit 1949.
Judikative.
Der Oberste Gerichtshof ("Corte Suprema de Justicia") ist ein Kollegialgericht mit 21 Richtern. Es ist die höchste richterliche Gewalt in Chile. Die Richter werden von den Richtern des Obersten Gerichts vorgeschlagen und vom Präsidenten auf Lebenszeit ernannt. Unter dem Obersten Gerichtshof ist das Appellationsgericht angesiedelt. Zusätzlich gibt es 17 Berufungsgerichte in Chile.
Durch eine Justizreform wurden die Aufgaben des Anklägers (Staatsanwalt) und des Richters getrennt. Im Zuge dieser Reform werden Gerichtsverfahren nun öffentlich und mündlich geführt, statt wie zuvor üblich schriftlich. Angeklagte mit geringem Einkommen können einen staatlichen Pflichtverteidiger in Anspruch nehmen. Für dieses neue Justizsystem mussten 300 neue Gerichtsgebäude in zahlreichen chilenischen Städten gebaut werden.
Das Verfassungsgericht "(Tribunal Constitucional)" ist zuständig für die Kontrolle der vom Parlament erlassenen Gesetze auf Verfassungswidrigkeit.
Parteien.
Chile besitzt trotz präsidialer Verfassung eine für Lateinamerika ungewöhnlich starke parteiendemokratische Tradition. Parteien wurden bereits in der Endphase der Militärdiktatur ab 1987 wieder zugelassen. Das gegenwärtige Wahlrecht hat dazu geführt, dass sich alle Parteien zu Parteibündnissen zusammengeschlossen haben. Nach Beendigung der Diktatur (1973–1990) erreicht das Land beim Demokratieindex inzwischen eine der besten Platzierung in Lateinamerika.
Die „Alianza por Chile“ war ein konservatives Bündnis, das aus der „Nationalen Erneuerungspartei“ (Renovación Nacional, RN) und der Rechtspartei „Unabhängige Demokratische Union“ (Unión Demócrata Independiente, UDI) bestand, die in der Transitionszeit beide für eine Verlängerung der von Augusto Pinochet begründeten autoritären Regierungsform eintraten. Zwischenzeitlich gehörten dem Bündnis auch einige andere rechtsliberale und konservative Parteien an. Das Bündnis ging siegreich aus den Präsidentschaftswahlen 2009 hervor und stellte mit Sebastián Piñera von 2010 bis 2013 den ersten konservativen Präsidenten Chiles nach dem Ende der Militärdiktatur. Unter seiner Präsidentschaft wurde es umbenannt in "Coalición por el Cambio", später "Alianza por el Cambio", und 2015 schließlich durch das neue Rechtsbündnis Chile Vamos ersetzt, das mit dem erneuten Wahlsieg und der zweiten Präsidentschaft Piñeras seit 2018 die Regierung führt.
Die „Concertación de Partidos por la Democracia“ war ein Bündnis aus vier Mitte-Links-Parteien, die sich aktiv am Sturz der Militärdiktatur beteiligt hatten. Mitglieder waren die Parteien „Christlich-Demokratische Partei“ (Partido Demócrata Cristiano, PDC), „Radikale und Sozialdemokratische Partei“ (Partido Radical Social Demócrata, PRSD), „Partei für Demokratie“ (Partido por la Democracia, PPD) sowie „Sozialistische Partei“ (Partido Socialista, PS). Das Bündnis, das nach dem Rückzug der Militärs bis zum Amtsantritt Sebastián Piñeras im Frühjahr 2010 ununterbrochen die Regierung stellte, wurde nach der erneuten Wahl der Sozialistin Michelle Bachelet 2013 aufgelöst und durch das neue Linksbündnis Nueva Mayoría ersetzt.
Das Linksbündnis "Juntos Podemos Más" („Gemeinsam können wir mehr“) umfasste die Christliche Linke, die Humanistische Partei, die Kommunistische Partei sowie einige andere linke und linksliberale Splitterparteien. 2010 konnte "Juntos Podemos Más" zwei kommunistische Abgeordnete ins Parlament senden. Die Mehrzahl der Mitgliedsparteien bildete anschließend zusammen mit den Parteien der "Concertación" das neue Bündnis der "Nueva Mayoría".
Seit dem 11. März 2022 stellt eine Koalition der Parteienbündnisse Apruebo Dignidad und Socialismo Democrático, sowie einigen Unabhängigen die Regierung unter Präsident Gabriel Boric.
Streitkräfte und Polizei.
Die Streitkräfte Chiles () bestehen aus den Teilstreitkräften Heer, Marine, Luftwaffe und der nationalen Polizei (Carabineros de Chile). Im Jahre 2021 umfassten die Streitkräfte der Republik Chile insgesamt etwa 80.000 Soldaten. Chile gab 2019 knapp 1,8 Prozent seiner Wirtschaftsleistung oder 5,15 Mrd. US-Dollar für seine Streitkräfte aus.
Außenpolitik.
Chile ist Mitglied der APEC und versucht momentan mit möglichst vielen Staaten Freihandelsabkommen zu schließen (zum Beispiel gibt es Abkommen mit den USA, der EU, Südkorea und China).
Chile ist seit 1945 Mitglied der UN und seit 1948 Mitglied der OAS. In der UN spielt Chile seit 2004 eine wichtigere Rolle, da es sich zur Teilnahme an Friedensmissionen entschlossen hat. Heute stehen chilenische UN-Einheiten zum Beispiel in Haiti.
Im Mai 2007 lud die OECD Chile zu Beitrittsgesprächen ein und der Beitritt wurde am 7. Mai 2010 vollzogen.
Beziehungen innerhalb Südamerikas
In Südamerika ist Chile assoziiertes Mitglied des Mercosur; diese Nichtvollmitgliedschaft erlaubt Chile, eigene Handelsabkommen zu schließen. Die Konzentration Chiles auf die großen Handelspartner USA, EU und Asien wird von den anderen Andenstaaten kritisch gesehen. Man befürchtet eine Vernachlässigung des lateinamerikanischen Marktes. Insbesondere die vielen Freihandelsabkommen Chiles, aber auch die niedrigen Einfuhrzölle Chiles machen eine engere Bindung an Mercosur schwer.
Chile hat seit 1988 eine Reihe von Konfliktherden mit Argentinien und Peru abgebaut. Dies betrifft den Beagle-Kanal und die Grenzziehung am Fitz-Roy-Massiv. Seitdem der peruanische Kongress im Oktober 2005 maritime Gebiete Chiles in Frage stellt, sind allerdings wieder starke Spannungen im Verhältnis beider Länder vorhanden.
Die Beziehungen zu Bolivien sind weiterhin stark gestört, da der Wunsch Boliviens nach einem Meerzugang bisher ungelöst ist sowie ein Konflikt um Wasserrechte am Río Lauca besteht. Eine geplante Erdgas-Pipeline von Bolivien zu chilenischen Häfen, um Flüssigerdgas in die Vereinigten Staaten zu exportieren, wurde durch den starken Widerstand in der bolivianischen Bevölkerung nicht gebaut.
Im Zuge der geglückten Rettung von Bergleuten nach dem Grubenunglück von San José trafen sich im Oktober 2010 die Präsidenten beider Länder am Unglücksort. Boliviens Präsident Morales dankte den Chilenen für die Rettung eines Bolivianers, der zu den verschütteten Kumpeln gehörte. Die Präsidenten vereinbarten erstmals seit Jahrzehnten den gegenseitigen Austausch von Botschaftern.
Chile war bis zur Fertigstellung der LNG-Terminal von Quintero stark von Erdgaslieferungen aus Argentinien abhängig. Die Drosselung der Lieferungen von Seiten Argentiniens zwang Chile zum verstärkten Nachdenken über alternative Energien. Das Erdgas-Lieferabkommen zwischen Bolivien und Argentinien verbietet den Argentiniern den Export von bolivianischem Erdgas nach Chile.
Beziehungen zu den USA
Die Militärdiktatur unter Augusto Pinochet hatte stets enge Beziehungen zu den USA, die den Sturz der demokratisch gewählten Linksregierung unter Salvador Allende 1973 aktiv gefördert hatten. Auch nach dem Ende der Diktatur bestehen gute Beziehungen zwischen beiden Ländern. Allerdings lehnte die chilenische Regierung ein Eingreifen im Irakkrieg ab. Chile konnte am Ende langer Verhandlungen mit der Stimme der USA den Posten des Generalsekretärs der OAS mit José Miguel Insulza einnehmen.
Die USA sind der wichtigste Handelspartner für Chile, beide Länder haben 2004 ein Freihandelsabkommen geschlossen. Allerdings sinkt der Anteil des US-Handels zugunsten der EU und Asiens. Chile hat 2002 moderne Kampfflugzeuge von Typ F-16 in den USA bestellt.
Beziehungen zur EU
Die Europäische Union ist neben den USA ein sehr wichtiger Handelspartner. 2005 trat ein Assoziierungsabkommen zwischen der EU und Chile sowie ein Abkommen über die technisch-wissenschaftliche Zusammenarbeit in Kraft.
Besondere Beziehung zu Deutschland
Es bestehen enge Verbindungen zwischen beiden Ländern, die Schwerpunkte liegen in der Politik, Wirtschaft und besonders in der Wissenschaft. Viele Chilenen pflegen einen besonderen Bezug zu Deutschland, was zum Teil auf historische Bindungen unter Deutschchilenen, zum Teil auf Exilerfahrungen während der Diktatur zurückzuführen ist. Zur Zeit der Herrschaft von Augusto Pinochet flohen Regimegegner häufig in die DDR ins Exil. Auch die ehemalige Präsidentin des Landes, Michelle Bachelet, verbrachte einige Jahre im ostdeutschen Exil, lernte Deutsch an der Universität Leipzig und studierte Medizin an der Humboldt-Universität Berlin. Auch in der Vorgängerregierung unter Präsident Sebastián Piñera gab es mehrere Minister, die deutsche Schulen besucht oder in Deutschland studiert haben. Hinzu kommt, dass in der Zeit zwischen dem Salpeterkrieg und dem Ersten Weltkrieg deutsche Ausbilder die Streitkräfte Chiles formten, die bis heute stark von preußisch-deutschen Traditionen geprägt sind, was sich etwa in der Uniformierung und im militärischen Liedgut äußert.
Bildung und Forschung.
Seit 2002, als der damalige Präsident Ricardo Lagos eine Reform des Ausbildungssystems auf den Weg brachte, gibt es eine Schulpflicht. Diese ist auf zwölf Jahre begrenzt. Die Schulen unterstehen dem Erziehungsministerium. Es herrscht Lehrmittelfreiheit. Die Alphabetisierung liegt bei 97,3 %, dies ist für Südamerika sehr hoch. Im Jahr 2006 hat Chile erstmals an der PISA-Studie der OECD teilgenommen. Im PISA-Ranking von 2015 erreichen die Schüler des Landes Platz 49 von 72 Ländern in Mathematik, Platz 45 in Naturwissenschaften und Platz 42 beim Leseverständnis. Chile erreichte damit innerhalb Lateinamerikas die zweitbeste Platzierung, liegt jedoch unterhalb des OECD-Durchschnitts.
Chile führte in den 1990er-Jahren das Programm „PRADJAL“ ("Programa Regional de Acciones para el Desarrollo de la Juventud en América Latina") sowie das Ausbildungsprogramm „Chile Joven“ ein. Ziel der Programme ist die Senkung der Jugendarbeitslosigkeit durch eine staatlich finanzierte Berufsausbildung mit anschließendem Betriebspraktikum. Außerdem werden Kurse für jugendliche Unternehmensgründer angeboten. Damit soll auch die Jugendkriminalität und der Drogenkonsum indirekt bekämpft werden.
Die wichtigsten Universitäten wie die Pontificia Universidad Católica de Chile liegen in Santiago de Chile, Concepción und Valparaíso. Allerdings ist der Zugang zu den Universitäten aufgrund hoher Studiengebühren trotz Stipendienprogrammen für die ärmeren Schichten nur schwer möglich.
Das Niveau der Universitäten streut durch viele private Einrichtungen stark, da sich auch die Berufsakademien Universität nennen dürfen. In letzter Zeit formieren sich in Chile Studentenproteste, die u. a. von Camila Vallejo angeführt worden sind. Unter anderem werden bessere Kreditbedingungen verlangt, damit auch Jugendliche aus unteren, ärmeren Schichten Zugang zu Bildung haben.
Aufgrund ihrer klimatischen Eigenschaften und ihrer guten infrastrukturellen Erschließung sind die Wüsten Chiles beliebte Orte für Teleskope. Allein die Europäische Südsternwarte (ESO) hat drei Standorte in Chile mit Großteleskopen: La Silla, Paranal und Alma. Daneben gibt es weitere Observatorien in Chile, beispielsweise Cerro Pachon mit dem 8,1-Meter-Gemini-Süd-Teleskop oder das Las Campanas mit den zwei 6,5-Meter-Magallan-Teleskopen.
Seit den frühen 1990er-Jahren arbeitet in Chile das Paranal-Observatorium. Das Observatorium befindet sich in der Atacamawüste im Norden des Landes auf dem Berg Cerro Paranal. Dieser liegt etwa 120 Kilometer südlich von Antofagasta und 12 Kilometer von der Pazifikküste entfernt. Das Observatorium wird von der ESO betrieben und ist Standort des Very Large Telescope (VLT) und des Very Large Telescope Interferometer (VLTI). Zusätzlich werden die Surveyteleskope VISTA und VST gebaut. Die Atmosphäre über dem Gipfel zeichnet sich durch trockene und außergewöhnlich ruhige Luftströmung aus, was den Berg zu einem sehr attraktiven Standort für ein astronomisches Observatorium macht. Der Gipfel wurde in den frühen 1990er-Jahren von seiner ursprünglichen Höhe von 2660 Metern auf 2635 Meter heruntergesprengt, um ein Plateau für das VLT zu schaffen.
Menschenrechte.
Amnesty International weist darauf hin, dass es im Zusammenhang mit Landstreitigkeiten immer wieder zu Menschenrechtsverletzungen an Angehörigen der indigenen Gruppe der Mapuche kommt. Diese geraten nach Informationen von Amnesty International oft in Konflikte bei der Verteidigung ihrer wirtschaftlichen, sozialen und kulturellen Rechte gegenüber Forst- und Energieunternehmen, die in ihren traditionellen Siedlungsgebieten tätig sind. Im Jahr 2006 kam es zu Ausschreitungen der Polizei gegen Angehörige der Mapuche. Festgenommene gaben damals an, gefoltert worden zu sein.
Chile erfüllt bis heute nicht alle Verpflichtungen, die es mit Unterzeichnung der "UN-Antifolter-Konvention" eingegangen ist. Besonders gravierend ist die Situation in den oft überfüllten Gefängnissen, die nicht internationalen Standards gerecht wird. Nach einer Reihe von Ereignissen kam es am 8. Dezember 2010 in der Haftanstalt San Miguel bei Santiago zu einem Aufstand und ein Feuer brach aus. In San Miguel waren zu diesem Zeitpunkt 1900 Menschen inhaftiert – ausgelegt ist das Gefängnis für 1000. In der Haftanstalt Santiago Sur mussten sich 400 Häftlinge die für 76 Insassen vorgesehenen Räumlichkeiten teilen. Die medizinische Versorgung und sanitäre Grundausstattung in den Gefängnissen sind nicht ausreichend. Eine Trennung minderjähriger Gefangener von Erwachsenen ist nicht sichergestellt.
Eine Untersuchungskommission der Vereinten Nationen kam 2018 zu dem Ergebnis, dass in den Kinder- und Jugendheimen des Landes die Menschenrechte der Kinder systematisch verletzt werden. Mehr als 865 Minderjährige sind zwischen 2005 und 2016 unter staatlicher Obhut gestorben.
Die Interamerikanische Kommission für Menschenrechte sowie das UN-Hochkommissariat für Menschenrechte warfen in jeweils eigenen Berichten Chile vor, im Verlauf der Proteste in Chile 2019/2020 schwere Menschenrechtsverletzungen der Strafverfolgungs- und Justizvollzugsbehörden toleriert zu haben.
Abtreibungsverbot.
Mit Inkrafttreten des ersten Chilenischen Strafgesetzbuches im Jahr 1875, das in diesem Punkt dem Vorbild des spanischen Strafgesetzbuches von 1870 folgte, waren Abtreibungen in Chile strafbar. Strafmilderungen waren möglich, wenn die Betroffene die Abtreibung zum Zwecke der Verheimlichung eines Ehebruchs, mithin zum Schutz der Ehre (ihrer eigenen Person oder des Mannes) vorgenommen hatte.
Unter dem autoritären Militärregime von Oberst Carlos Ibáñez, der bürgerlich-liberalen Ehrbegriffen kritisch gegenüberstand und gesellschaftspolitisch eine linkspopulistische Linie verfolgte, wurde der Schwangerschaftsabbruch 1931 in Fällen der kriminologischen, medizinischen und eugenischen Indikation (d. h. nach Vergewaltigung, bei Gefahr für das Leben der Mutter und wenn der Fötus nicht überlebensfähig ist) erlaubt. Diese Indikationsregelung wird in der chilenischen Rechtsterminologie und politischen Debatte „therapeutischer Abort“ genannt. 1968 wurde die Anwendung der „therapeutischen“ Indikationen unter dem christdemokratischen Präsidenten Eduardo Frei Montalva nochmals erleichtert. Die Indikationsregelung bestand formell auch während der Militärdiktatur Augusto Pinochets fort, dessen Regierung sich erfolglos bemühte, ein absolutes Abtreibungsverbot in der Chilenischen Verfassung von 1980 zu verankern. Stattdessen wurde der Schutz des ungeborenen Lebens nur mit einer unbestimmten Formulierung in die von den Militärmachthabern erarbeitete Verfassung aufgenommen. Gesetzlich umgesetzt wurde das absolute Abtreibungsverbot erst im Zuge der politischen Neuordnung und schrittweisen Entmachtung Pinochets gegen Ende der 1980er Jahre mit Unterstützung der römisch-katholischen Kirche und scheidender Mitglieder der ehemaligen Militärjunta. Mit dem 1990 in Kraft getretenen Abtreibungsgesetz vom 15. September 1989, das auf Druck des damaligen Juntachefs Admiral José Toribio Merino und unter Mitwirkung des damaligen Bischofs von Rancagua und späteren Kardinals Jorge Medina zustande kam, wurde Chile zu einem der wenigen Länder der Welt, in denen Schwangerschaftsabbrüche auch in allen denkbaren Ausnahmekonstellationen und sogar in Abwägung gegen das Leben der Mutter komplett verboten waren. Die kontroverse Diskussion über eine Lockerung des absoluten Abtreibungsverbots zumindest in medizinisch und ethisch indizierten Ausnahmefällen begann schon unmittelbar nach Inkrafttreten des Verbots und dauert bis heute an.
In der zweiten Amtszeit von Michelle Bachelet, zu deren Wahlprogramm die Aufhebung des Abtreibungsverbots gehörte, begann ein Gesetzgebungsprozess, der 2016 zum Abschluss gelangte. Am 21. August 2017 hob der chilenische Oberste Gerichtshof das generelle Abtreibungsverbot in Chile auf und machte den Weg für das von Staatspräsidentin Bachelet und der Mehrheit der Bevölkerung unterstützte und vom Parlament bereits verabschiedete Gesetz frei, das die Abtreibung in den drei „therapeutischen“ Ausnahmetatbeständen (nach Vergewaltigung, bei Gefahr für das Leben der Mutter und wenn der Fötus nicht überlebensfähig ist) wieder erlaubt. Laut UN-Schätzungen werden in Chile jährlich zwischen 60.000 und 70.000 illegale Abtreibungen vorgenommen.
Am 27. September 2021 stimmte das Abgeordnetenhaus für die Einführung einer Fristenregelung. Am 30. November 2021 scheiterte die Fristenregelung im Senat.
Sozialversicherungssystem.
Das Gesundheitssystem wurde in den 1970er und 1980er Jahren stark privatisiert. Chilenische Arbeitnehmer müssen sich privat krankenversichern. Den ärmeren Bevölkerungsschichten steht für bestimmte Krankheiten eine kostenlose Behandlung in staatlichen Gesundheitszentren zu. Rund 80 Prozent der Bevölkerung nutzen das staatliche Gesundheitssystem und 20 Prozent lassen sich privat behandeln. Michelle Bachelet, die bereits unter Ricardo Lagos für das Ressort Gesundheit zuständig gewesen war, brachte nach ihrem Amtsantritt als Präsidentin einige Reformen auf den Weg, die unter anderem eine kostenlose Gesundheitsversorgung für ältere Menschen vorsehen. Außerdem wurden Anstrengungen unternommen, die medizinische Infrastruktur, in der teils deutliche Unterschiede bestehen, weiter zu verbessern.
Die durchschnittliche Lebenserwartung der Chileninnen beträgt 79 Jahre und der Chilenen 72 Jahre (Stand: 2003).
1981 wurde das Rentenversicherungssystem unter José Piñera, einem Minister im Kabinett des Diktators Augusto Pinochet, vom Umlageverfahren auf das Kapitaldeckungsverfahren umgestellt. Die Arbeitnehmer müssen seitdem 13 Prozent ihres Gehalts als Beiträge für private Rentenfonds abführen. Außerdem werden 7 Prozent ihres Einkommens für eine private Krankenversicherung abgezogen, sodass die Sozialbeiträge im neuen System ein Fünftel eines Gehalts ausmachen. Nur das chilenische Militär wurde von Piñeras Reform ausgenommen; Soldaten haben bis heute Anspruch auf großzügige Pensionsleistungen vom Staat. Das neue Rentensystem wurde später von der Weltbank trotz interner Kritik als vorbildhaft angepriesen und verbreitete sich seit den frühen 1990er Jahren in verschiedenen Varianten in Lateinamerika, wobei die meisten Staaten wie etwa Argentinien ein gemischtes Modell mit teils privatem, teils staatlichem Gesundheitssystem einführten. Besonders das argentinische Modell wurde später von weiteren Ländern übernommen, besonders in Osteuropa. Unter der Regierung Bachelet wurde das Rentensystem im Jahr 2008, auch auf Empfehlung der Weltbank, erneut reformiert.
Staatshaushalt.
Der Staatshaushalt umfasste 2016 Ausgaben von umgerechnet 55,74 Mrd. US-Dollar, dem standen Einnahmen von umgerechnet 49,52 Mrd. US-Dollar gegenüber. Daraus ergibt sich ein Haushaltsdefizit in Höhe von 2,5 % des BIP.
Die Staatsverschuldung betrug 2016 21,1 % des BIP. Von der Ratingagentur Standard & Poor’s werden die Staatsanleihen des Landes mit der Note A+ bewertet (Stand 2018). Chile hat damit die höchste Kreditwürdigkeit unter allen Ländern Südamerikas.
2006 betrug der Anteil der Staatsausgaben (in % des BIP) folgender Bereiche:
Verwaltungsgliederung.
Chile ist in 16 Verwaltungsregionen aufgeteilt. Diese waren von 1978 bis 2018 mit römischen Zahlen durchnummeriert. Die Regionen spielen politisch nur eine geringe Rolle, da Chile ein ausgeprägter Zentralstaat ist. Die Regionen sind in 56 Provinzen unterteilt.
Regionen
Unterhalb der Provinzebene befinden sich die 346 Gemeinden ("municipalidad" oder "comuna"). Diese sind gemäß Artikel 61 der Verfassung die Organe der lokalen Selbstverwaltung. Sie werden von einem Bürgermeister ("alcalde") und einem Stadtrat geleitet.
Infrastruktur.
Straßennetz.
"Siehe auch: Nationalstraßen in Chile"
Der Straßenverkehr hat sich in Chile zum wichtigsten Verkehrsträger entwickelt. Im Jahr 2005 besaß das Land ein Straßen- und Wegenetz von insgesamt 80.651 Kilometern, davon waren 16.967 Kilometer asphaltiert. Bedingt durch die gerade in den letzten Jahren intensiv betriebenen Ausbaumaßnahmen sind diese Zahlen allerdings heute obsolet.
Die wichtigste und mittlerweile von La Serena bis Puerto Montt als Autobahn ausgebaute Transportachse ist die etwa 3000 Kilometer lange "Ruta 5" – ein Bestandteil der Panamericana. Sie verläuft in Nord-Süd-Richtung von der Grenzstadt Arica bis nach Quellón im Süden.
Im Jahre 1976 begann der Bau der Carretera Austral, ein ehrgeiziges Straßenbau-Projekt unter Diktator Augusto Pinochet, um die Regionen von Puerto Montt bis Feuerland zu verbinden. Die Straße ist bis heute im Bau – eine durchgehende Straßenverbindung zwischen Puerto Montt und Coyhaique bzw. zwischen Coyhaique und Punta Arenas existiert nach wie vor nur über das Nachbarland Argentinien.
Gut ausgebaut sind insbesondere die Panamericana und andere mautpflichtige Straßen vor allem im Großraum Santiago, in dem in den letzten Jahren viele neue Stadtautobahnen wie zum Beispiel die "Américo Vespucio" oder "Costanera Norte" entstanden sind; ferner eine Jahr für Jahr zunehmende Zahl von Hauptverbindungsstrecken. Viele Nebenstrecken, insbesondere in den abgelegeneren Teilen des Landes, bestehen jedoch nach wie vor lediglich aus unbefestigten Schotter- oder Erdpisten. Das Landstraßennetz wurde besonders in den mittleren Landesteilen seit dem Jahr 2005 sehr stark modernisiert und verbessert, wobei kontinuierlich bislang einfach ausgebaute Strecken zu mehrspurigen Fernstraßen ausgebaut werden. Straßenkarten sind im Buchhandel, bei Mietwagenstationen, Hotels oder an Tankstellen nicht zu bekommen und müssen im Voraus bei der Reiseplanung besorgt werden.
Nah- und Fernverkehr mit Bussen und Taxen.
ÖPNV-Busse in der Hauptstadt.
Im Großraum Santiago wird der öffentliche Personennahverkehr (Transantiago) von privaten Firmen betrieben, jedoch unter starker staatlicher Kontrolle. Mit dem vor einigen Jahren umgestellten System gibt es nun feste Haltestellen, an denen die Busfahrer verpflichtet sind, zu halten. Im Gegensatz zum deutschen System gibt es allerdings keine genauen zeitlichen Fahrpläne, sondern Taktzahlen, die von den Verkehrsverhältnissen abhängig sind. In Santiago wird in Bussen wegen der Diebstahlsgefahr vielfach mit Prepaid-Karten anstelle von Bargeld bezahlt.
In den Provinzen.
Das Nahverkehrsbusnetz in den Provinzen ist vollkommen in privater Hand und recht unübersichtlich. Bei den städtischen Omnibussen ("Micro") sollte vorher der Streckenverlauf bekannt sein, denn an dem Großteil der Bushaltestellen gibt es keine Informationen über die Buslinien. Man erhält solche unter Umständen am lokalen Busbahnhof, wo auch die Fernbusse abfahren, oder in den Touristeninformationszentren an zentralen Plätzen. Auch Passanten und Fahrer sind häufig hilfsbereit und auskunftsfreudig, oft aber auch wenig informiert. Mitfahrinteressenten signalisieren dem ankommenden Busfahrer ihren Zusteigewunsch durch Handzeichen am Fahrbahnrand. Für aussteigewillige Fahrgäste gibt es einen Haltewunschknopf oder man meldet sich bei den Schaffnern oder Schaffnerinnen, die durch den Wagen gehen und die Fahrkarten verkaufen und kontrollieren. Die Busse sind wie Reisebusse bestuhlt (Pullmanbänke), Stadtbusse europäischen Typs gibt es kaum. Oft werden Kleinreisebusse für 18 oder 36 Personen als "Micro" genutzt.
Sammeltaxen.
Eine wichtige Rolle für den lokalen Personennahverkehr spielen Sammeltaxen ("Colectivos"), die auf festen Routen verkehren und Fahrgäste an beliebigen Stellen auf der Strecke aufnehmen und absetzen. Im Ortszentrum gibt es normalerweise einen oder mehrere Knotenpunkte, an denen Sammeltaxen aller Linien ständig vorfahren und wo man die Fahrtrouten erfragen und in den passenden Wagen einsteigen kann. Bei den Sammeltaxen handelt es sich um gewöhnliche Personenkraftwagen (nicht wie in anderen Ländern um Kleinbusse), die sich farblich nicht von normalen Taxen unterscheiden, sondern nur durch Kennzeichen (etwa die Liniennummer auf dem Dach) erkennbar sind. Der Fahrpreis (in der Regel ein Pauschalpreis unabhängig von Mitfahrstrecke oder Fahrziel) wird beim Einsteigen oder kurz nach Fahrtbeginn an den Fahrer gezahlt, der so lange weitere Personen zusteigen lässt, bis der Wagen voll besetzt ist. Gepäck (etwa Einkaufstaschen) kann man wie bei einem Taxi auch im Kofferraum ablegen, soweit dort noch Platz ist. Die Endpunkte der Linien, an denen der Fahrer wendet und wieder zurück ins Stadtzentrum fährt, liegen meist an markanten Punkten in den Vororten oder Wohngebieten.
Taxen.
Auch der gewöhnliche Taxiverkehr ist von Bedeutung, das gilt besonders für die Hauptstadt und größere Metropolen. Die Fahrpreise sind relativ erschwinglich. Traditionell sind die Taxen durch ihre Farbgebung im Straßenbild erkennbar und können überall angehalten oder angerufen werden. Besonders in der Hauptstadt gibt es aber auch immer mehr Funktaxen, die sich nach außen hin nur durch ihre Nummernschilder von privaten Pkw unterscheiden und ihre Fahrgäste nur auf telefonische Bestellung abholen. Da auch illegale Taxiunternehmer mit solchen Privatfahrten Geld zu verdienen suchen und teils mit kriminellen Netzwerken kooperieren, wird vor allem in Santiago strikt davon abgeraten, ohne telefonische Vorbestellung auf freier Strecke in solche nicht klar gekennzeichneten Taxen einzusteigen, auch wenn der Fahrer dazu einlädt und mit besonders günstigen Preisen wirbt. Ansonsten lassen sich die öffentlichen Verkehrsmittel in Chile bei Beachtung gängiger Sicherheitsempfehlungen in der Regel gefahrlos nutzen. Uber-Fahrer arbeiten in Chile in einer rechtlichen Grauzone und werden sowohl von den Behörden als auch von konkurrierenden Taxiunternehmern bekämpft.
Fernbusverkehr.
Die gängigste Art, um mit öffentlichen Verkehrsmitteln in andere Städte und Regionen zu gelangen, ist die Tag- und Nachtreise mit dem Überlandbus. Es gibt verschiedene Anbieter, teils mit regionalen Schwerpunkten, und verschiedene Preis- und Komfortklassen. Diese Klassen gehen von Standardsitzen bis hin zu Liegebussen ("Bus Cama"), die für Übernachtreisen ausgelegt und mit höhenverstellbaren Sitzliegen in der Art eines Business-Class-Flugzeuges ausgestattet sind. Die Fahrzeugflotten vieler Unternehmen sind hochmodern, ältere Fahrzeuge finden sich nur noch bei Kleinunternehmen oder Billiganbietern. Die meisten größeren Gesellschaften bieten ein landesweites Routennetz an oder kooperieren mit Partnerfirmen in den von ihnen selbst nicht versorgten Regionen. Seit 2008 sind die Busunternehmer dazu übergegangen, alle Busse mit LED-Geschwindigkeitsanzeigern zu versehen, die von außen und von innen ständig sichtbar sind, um die Einhaltung der Geschwindigkeitsbegrenzungen nachvollziehbar zu dokumentieren. Die Fahrer sind immer in Doppelbesetzung unterwegs, oft fährt zusätzlich ein uniformierter Gepäckbursche mit, der auch die Fahrscheine kontrolliert. Alle Städte, auch Kleinstädte, verfügen über einen Busbahnhof ("terminal de buses") mit Schalterhalle, Ladenstraße, Gastronomiebetrieben, marktähnlichen Vorhallen und zum Teil überdachten Bussteigen. Die Reisen dauern oft sehr lange, Pausen werden in der Regel bis auf die fahrplanmäßigen Zwischenhalte nicht gemacht. Getränke und Speisen kann man an Bord mitbringen oder erwerben, häufig steigen streckenweise lokale Händler zu oder bieten ihre Waren an den Stationen feil. Der Ticketverkauf an den Schaltern und über das Internet funktioniert reibungslos; Fahrpläne werden in aller Regel zuverlässig eingehalten, bei Verspätungen werden Ersatzbusse eingesetzt.
Eisenbahn.
Die älteste Eisenbahn Chiles, die auch als erste des südamerikanischen Festlandes angesehen wird, ist die im Mai 1850 begonnene und am 2. Januar 1852 fertiggestellte Bahn vom Hafen Caldera nach Copiapó. Die erste Strecke der Staatsbahnen von Valparaíso nach Santiago de Chile wurde am 15. September 1865 in Betrieb genommen.
Mit dem Salpeterboom wurde das Schienennetz in Nordchile, damals noch Teil Perus und Boliviens, ab 1871 stark ausgebaut. Eine der ersten Strecken führte von La Noria nach Iquique. Die Strecken wurden direkt an den Salpeterminen verlegt, so dass Ende des 19. Jahrhunderts große Teile der Regionen Tarapacá, Antofagasta und Atacama eisenbahntechnisch erschlossen waren. Parallel dazu erfolgte der Ausbau der Strecken zu den großen Hafenstädten in Zentralchile, wie San Antonio und Talcahuano.
Das Eisenbahnnetz von Chile hatte 1909 einen Umfang von 5675 km, davon 2618 km Staatsbahnen und 3057 km Privatbahnen, im Bau befindlich waren weitere 1393 km Staatsbahnen. Auch mehrere Privatbahnen waren im Bau und in Vorbereitung.
Heute wird das chilenische Schienennetz von der staatlichen Eisenbahngesellschaft EFE betrieben. Zudem betreibt eine Tochtergesellschaft der staatlichen Eisenbahngesellschaft das S-Bahn-Netz in Valparaíso.
Der Güter- und Personenverkehr, das Immobilienvermögen und der Personalbestand werden von verschiedenen Tochtergesellschaften verwaltet. Das Eisenbahnnetz kann aufgrund unterschiedlicher Spurweiten nicht durchgehend betrieben werden und besteht deshalb aus zwei verschiedenen Teilnetzen:
Der Eisenbahnpersonenverkehr ist seit vielen Jahrzehnten im Rückgang begriffen und wird kaum genutzt, was durch die starke Konkurrenz der Busunternehmen, die schlechte Qualität der Waggons und die wenigen bedienten Strecken begründet ist. Es gibt Bestrebungen, wieder mehr Personen per Schiene zu befördern. So wurde in modernere Waggons und Triebwagen investiert, Bahnhöfe renoviert oder neu errichtet (Puerto Montt hat 2006 einen neuen Hauptbahnhof am Stadtrand erhalten) sowie die Strecke zwischen Temuco und Puerto Montt wieder hergerichtet. Allerdings konnte die Eisenbahngesellschaft EFE ihre hochgesteckten Ziele nicht erfüllen und hat mit erheblichen technischen und organisatorischen Problemen zu kämpfen. Ebenso sind die Pläne auf Eis gelegt, Valdivia wieder an das Streckennetz anzubinden.
Nahverkehrszüge, Stadtbahnen und Metro.
In der Hauptstadt Santiago de Chile existiert ein U-Bahn-Netz ("Metro de Santiago"), dessen erste Teilstrecke 1975 eröffnet wurde. Nach zahlreichen Streckeneröffnungen und -verlängerungen umfasste das U-Bahn-Netz Anfang 2019 136 Stationen und hatte eine Länge von mehr als 140 km erreicht.
In der Agglomeration von Valparaiso ist seit 2005 eine Stadtbahn in Betrieb, und im Großraum Concepción verkehrt seit 1999 der so genannte Biotrén.
Häfen.
Ein Großteil des Im-/Exports Chiles wird über große Seehäfen abgewickelt. Die Hauptausfuhrgüter sind Kupfer, Eisen, Zellstoff, sowie landwirtschaftliche Erzeugnisse. Viele Häfen verfügen über moderne Containerterminals.
Wichtige Häfen gibt es in Arica, Iquique, Antofagasta, Chañaral, Coquimbo, Valparaíso, San Antonio, Talcahuano, Puerto Montt und Punta Arenas.
Besonders in Südchile spielen Fährverbindungen eine wichtige Rolle, da hier die Straßenverbindungen aufgrund von vielen Fjorden und Inseln schlecht realisierbar sind.
Wichtigste Stützpunkte der chilenischen Marine sind Valparaíso und Talcahuano.
Vor dem Bau des Panama-Kanals waren Valparaíso und Punta Arenas die wichtigsten Häfen sowohl für den Pazifikhandel als auch über die Magellanstraße und den dadurch ermöglichten direkten Zugang zum Atlantik nach Europa. 1840 errichtete die Pacific Steam Navigation Company die erste Dampfschifffahrtslinie in Südamerika von Valparaíso nach Callao in Peru.
Flughäfen/Luftfahrt.
Aufgrund der großen Entfernungen spielt der Flugverkehr eine wichtige Rolle. Die größten Flughäfen besitzen Santiago de Chile, Puerto Montt, Concepción, Temuco, Iquique, Antofagasta und Punta Arenas. Der größte Flughafen ist der "Comodoro Arturo Merino Benítez Airport" (5.650.000 Passagiere) in Santiago, der um ein großes internationales Terminal erweitert wird und bis 2020 eine Passagierkapazität von mehr als 30 Mio. Personen jährlich erreichen soll. Über das ganze Land sind zusätzlich viele kleine Regionalflughäfen verteilt, die untereinander durch die zwei wichtigsten chilenischen Luftverkehrsgesellschaften LATAM Airlines und Sky Airline verbunden werden. Von einigen Regionalflughäfen werden auch direkte Verbindungen in die Nachbarländer angeboten. Die zu Chile gehörende Osterinsel wird von Santiago de Chile und Lima in Peru angeflogen.
Der erste Motorflug in Chile fand am 21. August 1910 statt, der Pilot hieß César Copetta Brosio. Bekannt wurden insbesondere Dagoberto Godoy, der 1918 als erster die Anden überflog und José Luis Sánchez Besa, ein chilenischer Flugbootpionier. Der Beginn der Flugpostbeförderung wurde ab 1. Januar 1919 von Santiago de Chile nach Valparaíso vom Piloten Clodomiro Figueroa mit einer Morane-Saulnier "MS-35" durchgeführt.
1929 gründete Kommodore Arturo Merino Benítez mehrere lokale Fluggesellschaften, diese formierten sich ab 1932 zur Línea Aérea Nacional (LAN), die als nationale Airline Chiles fungierte. Diese wurde 1989 privatisiert und ging 2012 in der chilenisch-brasilianischen Fluggesellschaft LATAM Airlines auf. LAN beziehungsweise heute LATAM gehört infolge der expansiven Geschäftspolitik zu den drei größten Airlines Lateinamerikas, mit Filialen in Peru (LATAM Airlines Perú), Argentinien (LATAM Airlines Argentina) und Ecuador (LATAM Airlines Ecuador). Die zweite chilenische Fluggesellschaft Ladeco wurde Anfang der 1990er-Jahre von LAN aufgekauft.
Postwesen.
Das Postwesen wurde bereits 1748 von den Spaniern eingeführt, ab 1853 gab es chilenische Briefmarken ("Siehe": Chilenische Postgeschichte).
Telekommunikation.
Im Jahre 1851 erhielt der Engländer William Wheelwright von der Pacific Steam Navigation Company den Auftrag eine Telegrafenlinie zu errichten. Nach ersten Tests konnte am 21. Juni 1852 die erste Nachricht von Valparaíso nach Santiago geschickt werden. Im April 1853 begann der reguläre Betrieb. Danach begann man mit dem Ausbau der Telegrafenstrecken entlang der Eisenbahnlinien. Die ersten Strecken von Santiago führten nach Valparaíso und Talca und wurden 1857 komplett fertig gestellt. Bis 1892 konnte das ganze Land mit Telegraphen erreicht werden. Feuerland war über ein Seekabel angebunden worden.
Die ersten Telefone wurden 1880 in Valparaíso eingeführt. 1930 bildete sich die Telefongesellschaft "Compañía de Teléfonos de Chile CTC", die später von der spanischen Telefónica übernommen wurde. Der Radiobetrieb begann mit "Radio Chileña" in Santiago 1922.
Der zweite große Telekommunikationskonzern in Chile ist ENTEL "(Empresa Nacional de Telecomunicaciones SA de Chile)", der größte Anbieter von Internet- und Mobilfunkdiensten in Chile. ENTEL, Telefonica und weitere zum Teil lokale Anbieter betreiben heute ein nahezu flächendeckendes Netz für die Mobiltelefonie.
Im Jahr 2020 nutzten 88,3 Prozent der Einwohner Chiles das Internet.
Wirtschaft.
Als Gegenpol zum sozialistischen Konzept von Salvador Allende wurde die chilenische Volkswirtschaft unter Augusto Pinochet nach der Maxime der Chicago Boys konsequent nach marktwirtschaftlich-wirtschaftsliberalen Aspekten umgebaut. Staatliche Unternehmen wurden sowohl zu Zeiten Pinochets als auch danach größtenteils privatisiert, allerdings sind die von Allende verstaatlichten Kupferminen, die seit Pinochet unter direkter Kontrolle des Militärs standen, immer noch in Staatsbesitz. Auch wenn die nach Pinochet regierenden Mitte-links-Regierungen bemüht waren, soziale Härten abzufedern, gilt Chile heute nach wie vor als eines der Länder mit den größten sozialen Ungleichgewichten.
Die chilenische Volkswirtschaft wies zwischen 1988 und 1998 überdurchschnittliche Wachstumsraten auf. Die Asien- und Brasilienkrise 1997/98 führten zwar zu einer Rezession, seit 2000 wächst die Wirtschaft jedoch wieder mit Wachstumsraten zwischen 2,5 Prozent und 6 Prozent.
In einem Ranking der unternehmerfreundlichsten Länder der Welt, das von der Weltbank-Tochter International Finance Corporation erstellt wurde, landete Chile 2005 auf dem 25. Platz als bestes lateinamerikanisches Land. Deutschland besetzt laut dieser Studie Platz 19, Kolumbien als zweitbestes südamerikanisches Land Platz 66.
Im jährlichen Globalisierungsindex der Beratungsfirma A.T. Kearney und der Zeitschrift Foreign Policy lag Chile 2007 auf Rang 43 der insgesamt 72 bewerteten Länder. Im Vergleich zu 2006 verlor Chile die führende Position unter den lateinamerikanischen Ländern an Panama, den letzten Platz belegte Venezuela. Im Global Competitiveness Index, der die Wettbewerbsfähigkeit eines Landes misst, belegt Chile Platz 33 von 137 Ländern (Stand 2017–2018).
Die Arbeitslosenquote lag im Jahre 2004 bei 7,8 Prozent. Die Armutsquote lag 2003 bei 18,8 Prozent und die Rate extremer Armut bei 4,7 Prozent der Bevölkerung. Die Armutsquote hat sich seit 1987 mehr als halbiert, die extreme Armut hat nur noch etwa 30 Prozent des Wertes von 1987. Die neue demokratische Regierung Chiles führte das Programm „Chile Solidario“ ein, damit werden die 250.000 ärmsten Familien im Land von staatlichen Helfern betreut und finanziell unterstützt.
Die Inflationsrate liegt im Schnitt zwischen 2 Prozent und 4 Prozent. Seit 1998 hat sie die Fünf-Prozent-Marke nicht mehr überschritten. Im Jahre 2004 lag sie bei 2,4 Prozent und wurde 2006 mit einem Wert von 2,6 Prozent angegeben.
Das Bruttosozialprodukt stieg im Jahr 2016 um 1,6 Prozent auf 247,0 Milliarden US-Dollar, dies entspricht in etwa 7146 US-Dollar je Einwohner. Chile hat das höchste Pro-Kopf-Einkommen und das höchste Exportvolumen je Einwohner unter den südamerikanischen Staaten.
Wirtschaftssektoren.
Den größten Anteil an der Wertschöpfung hat der Dienstleistungssektor mit 57 Prozent, gefolgt vom Produktionssektor und der Landwirtschaft mit 34 Prozent beziehungsweise 9 Prozent Anteil (Stand: 2001).
Chile gehört zu den führenden Wirtschaftsnationen Lateinamerikas sowie zu den größten Rohstoffproduzenten. Es verfügt über die größten bekannten Kupfervorkommen der Welt (etwa 40 Prozent). In Chile liegen die größten Kupferminen der Welt, Chuquicamata (über Tage) und El Teniente (unter Tage). Sie werden vom staatlichen Konzern Codelco ausgebeutet. Die von der Produktionsmenge größte Kupfermine, der Tagebau Escondida, wird von der privaten Gesellschaft Minera Escondida betrieben. Verschiedene Edelmetalle und vor allem Salpeter führten Chile schon im 19. Jahrhundert zu Reichtum.
Chile ist der größte Lithium-Produzent der Welt. Die Regierung kündigte im April 2023 an, den Lithiumabbau zu vergrößern.
Daneben werden heute Forst-, Fischerei- und Landwirtschaft betrieben. Nur etwa 7 Prozent der Landfläche werden für die Landwirtschaft genutzt. Diese Flächen befinden sich hauptsächlich im Zentraltal. Im wüstenhaften Norden Chiles gibt es Landwirtschaft fast nur in Oasen. Viehzucht wird hauptsächlich in Zentralchile und im nördlichen Teil von Südchile betrieben. Chile ist das einzige Land Südamerikas, in dem Zuckerrüben angebaut werden. Der Weinbau hat Chile zum Weinexporteur Nummer eins in Südamerika gemacht hat.
Außenhandel.
Chiles Wirtschaft hängt stark vom Export ab. 2004 betrug der Exportanteil 34 Prozent des Bruttosozialprodukts, was ziemlich genau dem von Deutschland entspricht. Besonders wichtig für die chilenische Wirtschaft ist der Kupferexport. Momentan steigen andere Exportgüter stärker als Kupfer und Mineralien. 1975 lagen diese noch bei 30 Prozent, heute sind es etwa 60 Prozent. Zu diesen Exportgruppen gehören Forst- und Holzprodukte, frische Früchte, Wein und Nahrungsmittel, Lachs, verarbeitete Nahrungsmittel, Fischmehl und Meeresfrüchte. 2004 stieg die Handelsbilanz um neun Milliarden US-Dollar, viel stärker als 2003. Mit dem starken Anstieg der Rohstoffpreise explodierten die Exporte geradezu von 20,4 (2003) auf 32,1 im Jahr 2004 und 39,4 Milliarden US-Dollar im Jahr 2005. Chile verdrängte 2005 Norwegen als weltweit größten Lachsproduzent.
Die VR China ist mit 28 Prozent der größte chilenische Einzel-Exportmarkt, auf Platz 2 stehen die USA. Weitere Haupthandelspartner des Landes sind Brasilien und Argentinien, mit denen Chile über den Mercosur assoziiert ist. Bis heute ist Chile dem Mercosur jedoch nicht als vollständiges Mitglied beigetreten, da dies dem Land die Möglichkeit nehmen würde, eigenständige Handelsabkommen mit anderen Ländern abzuschließen und es auch befürchtet wird, dass das Land im Falle eines vollständigen Beitritts sich der Gefahr aussetzen würde, durch wirtschaftliche Schwankungen seiner Nachbarn stärker getroffen zu werden. Durch den Kompromiss der Assoziierung bestand für Chile die Möglichkeit, eigene Freihandelsabkommen mit Japan, der EU und der NAFTA abzuschließen. Chile hat 2005 auch ein Freihandelsabkommen mit der Volksrepublik China und 2006 eines mit Brunei, Neuseeland und Singapur (P4 Agreement) abgeschlossen. Aufgrund dessen gilt die chilenische Volkswirtschaft heute als eine der offensten der Welt.
Wirtschaftskennzahlen.
Die wichtigen Wirtschaftskennzahlen Bruttoinlandsprodukt, Inflation, Haushaltssaldo und Außenhandel entwickelten sich in den letzten Jahren folgendermaßen:
Energiewirtschaft.
Elektrizitätsversorgung.
Im Jahre 2012 lag Chile bzgl. der jährlichen Erzeugung mit 66,89 Mrd. kWh an Stelle 41 und bzgl. der installierten Leistung mit 18.600 MW an Stelle 42 in der Welt. Im März 2021 war die installierte Gesamtleistung 27.726 MW. Davon entfallen 6.807 MW an Wasserkraft (28. Platz in der Welt), 3.137 MW an Windkraft (28. Platz in der Welt), 4.468 MW an Solarenergie (22. Platz in der Welt) und 375 MW an Biomasse.
Seit 2017 gibt es in Chile ein landesweites Verbundnetz, das "Sistema Eléctrico Nacional", dessen Kabelverbindungen 2021 eine Gesamtlänge von 35.919 km erreichten. Vor 2017 gab es zwei große voneinander unabhängige Verbundsysteme, das "Sistema Interconectado Central" (SIC) für das Zentrum sowie das "Sistema Interconectado del Norte Grande" (SING) für den Norden des Landes. Außerdem gab es im Süden des Landes noch zwei weitere lokale und separate Netze (Inselnetze Aysén und Magallanes). Diese Netze wurden 2017 miteinander synchronisiert. Außerdem besteht eine Verbindung zwischen dem SING und dem "Sistema Argentino de Interconexión" in Argentinien: eine 345-kV-Leitung verbindet Mejillones in Chile mit Cobos in der argentinischen Provinz Salta.
Die Stromerzeugung in Chile beruht traditionell zu einem erheblichen Teil auf Wasserkraft. Die Wasserkraftwerke liegen praktisch ausschließlich im Bereich des SIC. Eine ausgeprägte Trockenheit, verursacht durch El Niño führte von November 1998 bis April 1999 zu Stromabschaltungen in der Hauptstadt Santiago de Chile. Daraufhin beschloss die Regierung, die Abhängigkeit von Wasserkraft zu verringern und die Stromerzeugung durch GuD-Kraftwerke zu diversifizieren. Das Erdgas wurde durch Pipelines aus Argentinien geliefert. 2004 verringerte die Regierung von Néstor Kirchner jedoch die Gaslieferungen unerwartet, wodurch es in Chile erneut zu einer Krise kam. Aufgrund dieser Erfahrungen setzt Chile seither auch wieder verstärkt auf Kohle zur Stromerzeugung. Außerdem wurden Gasterminals für den Import von LNG errichtet, eines in Mejillones für die Versorgung der Gaskraftwerke im SING und eines in Quintero für das SIC. Ein weiterer Ausbau der Wasserkraft ist aus ökologischen Gründen umstritten (siehe HidroAysén).
Sehenswürdigkeiten.
Aufgrund der großen Länge des Landes verfügt Chile über unterschiedlichste Landschaften. Im Norden dominiert die Atacamawüste. Der Osten ist von den Anden geprägt. Zentralchile ist von mediterranem Klima beeinflusst. Der "Kleine Süden" ist geprägt von Wäldern und herrlichen Landschaften, die oft auch als "Chilenische Schweiz" bezeichnet werden. Ab der Region XI. gibt es bereits große Gletschergebiete. Der größte Gletscher Südamerikas ist das Campo de Hielo Sur. Hier beginnt die karge Landschaft Patagoniens. Das Klima ist rau und regenreich.
Eine ganz andere Welt bieten die ozeanischen Inseln, wie die Osterinsel und die Juan-Fernández-Inseln. Die Osterinsel ist besonders aus archäologischer Sicht sehr interessant.
Feuerland dient oft als Ausgangspunkt zur Chilenischen Antarktis.
Nationalparks in Chile.
Chile verfügt über eine sehr große Anzahl von Nationalparks und nationalen Reservaten, diese werden von der chilenischen Forstbehörde CONAF verwaltet.
Die bekanntesten Nationalparks sind der Nationalpark Conguillio, der Nationalpark Torres del Paine, der Nationalpark Lauca, der Nationalpark Bernardo O’Higgins und der Nationalpark Rapa Nui auf der Osterinsel.
In der Provinz Palena bei Chaitén liegt der mit privaten Mitteln errichtete, über 3000 Quadratkilometer große Parque Pumalín. Er wurde vom US-Amerikaner Douglas Tompkins durch große Landkäufe ab Mitte der 1990er-Jahre errichtet. Das Land wurde später der Non-Profit-Organisation "Fundación Pumalin" übergeben. Der Park ist insbesondere für den Öko-Tourismus interessant.
Biosphärenreservate in Chile.
Die UNESCO erklärte insgesamt 10 Gebiete in Chile zu Biosphärenreservaten
Weltkulturerbe/Weltnaturerbe der UNESCO in Chile.
Die UNESCO erklärte bisher sieben Plätze in Chile zum Weltkulturerbe :
Museen und historische Plätze.
Santiago de Chile, Concepción (Chile) und Valparaíso bieten die größte Vielfalt an Museen und historischen Plätzen. Über das Land verteilt gibt es viele Monumente, die lange vor der spanischen Besiedlung entstanden sind.
Kultur.
Zwischen der Kultur in den Städten und auf dem Land gibt es starke Unterschiede. Auf dem Lande spielt die Folklore mit traditionellen Tänzen, wie dem Nationaltanz Cueca, eine wichtige Rolle. Die volkstümliche Kultur ist stark spanisch und araukanisch geprägt. "Payadores" sind Volkssänger, deren Lieder meist von Liebe und Träumen handeln. Politische Lieder waren ihnen während der Pinochet-Diktatur verboten. Das Kunsthandwerk auf dem Lande ist von indianischen Einflüssen gekennzeichnet. Hergestellt werden vor allem Web- und Töpferarbeiten sowie Schnitzereien. Eine wichtige Rolle auf dem Lande spielen die Huasos, eine Art chilenischer Cowboys oder Gauchos. Sie sind auf fast allen Folklorefesten und speziell beim chilenischen Rodeo dabei. Die Stadtkultur ist kosmopolitischer geprägt.
Fast 50 Prozent der Chilenen gaben in einer 2008 durchgeführten repräsentativen Umfrage an, nie oder fast nie zu lesen. Bücher sind in Chile sehr teuer, da die Auflagen sehr gering sind. Der Buchmarkt hat sich nach der kulturellen Lähmung unter der Militärdiktatur nur langsam erholt.
Kulinarische Spezialitäten und Essgewohnheiten.
Die chilenische Küche ist keineswegs ein Ableger der spanischen Küche, wie viele vermuten. Vielmehr gibt es eine Vielzahl von Einflüssen – vielfach auch von deutschen Einwanderern. So finden sich etwa deutsche Bezeichnungen wie „Kuchen“ ("kuchen", Aussprache wie im Deutschen) oder „Apfelstrudel“ ("estrudel") auch im Wortschatz der chilenischen Konfiserie. Berliner (zumeist mit einer Puddingfüllung) sind unter der Bezeichnung "Berlines" verbreitet. Auch der Christstollen als Weihnachtsgebäck ist bekannt (unter der Bezeichnung "pan de pascua") und gilt in Südamerika als chilenische Spezialität; ebenso die Schweinskopfsülze ("queso de cabeza"), Tatar ("tártaro de carne") oder die einer Bouillabaisse ähnelnde chilenische Fischsuppe "Paila marina". Ebenfalls auf mitteleuropäische Einflüsse zurückzuführen ist das typisch chilenische Sauerkraut (genannt "Chucrú", abgeleitet vom französischen Choucroute), die Vorliebe für quarkähnliche Frischkäsezubereitungen und die vor allem im Süden sehr starke Brautradition. Viele Biere werden nach dem deutschen Reinheitsgebot gebraut und oft wird aus deutschen Anbaugebieten importierter Hopfen verwendet.
Aufgrund der sonnigen Bedingungen in Mittel- und Nordchile und der vulkanischen Böden eignet sich das Land sehr gut zum Anbau von Feldfrüchten und Obstsorten, die in großer Vielfalt auf Chiles Märkten feilgeboten werden. In Chile als einem der Ursprungsländer der Kartoffel finden sich auch sehr viele unterschiedliche Speisekartoffelsorten. Der mindestens einmalige wöchentliche Marktbesuch und die Verwendung frischer Gemüse und anderer Zutaten in der Küche spielt für die Mehrzahl der chilenischen Hausfrauen und die in wohlhabenden Haushalten häufig anzutreffenden Küchenmamsells noch immer eine große Rolle.
Neben einem reichen Angebot an Fisch und Meeresfrüchten wird in Chile sehr gerne Huhn gegessen. Gegrilltes Fleisch, ein so genannter "Asado", gehört wie im Nachbarland Argentinien zu den traditionellen Speisen bei geselligen Anlässen. Neben Rind- und Schweinefleisch werden dabei vor allem würzige Paprikawürste ("Longanizas") verwendet. Das Fleisch wird vor dem Grillen gern einige Stunden in Bier eingelegt, um seine Zartheit zu erhöhen.
Zu den Nationalgerichten zählt die chilenische Empanada, das sind unterschiedlich (bspw. mit Rindfleisch, Hühnchen, Meeresfrüchten oder Käse) gefüllte Teigtaschen, die entweder im Ofen gebacken oder in Bratfett frittiert zubereitet werden können. Die "Cazuela" ist ein kräftiges Eintopfgericht, für das Hühnchen oder auch Rindfleisch, Maiskolben ("Choclos"), Kürbis und weitere Gemüse verwendet werden. Als "Humitas" wird ein Maisbrei bezeichnet, der in Maisblättern gekocht oder gegrillt und süß oder salzig gegessen wird. "Pebre" ist eine aus scharfem Paprika ("Ají"), fein gehackten Zwiebeln und Kräutern zubereitete Öl-Zitronen-Sauce, die vor allem zu Fleisch, aber auch zu sonstigen Gerichten als Würze gereicht wird. Beliebt sind auch mit getrocknetem Kelp, "Cochayuyo" genannt (es handelt sich um Braunalgen der Art "Durvillaea antarctica"), zubereitete Beilagen. Die relativ geschmacklose Alge wird dazu klein geschnitten und mit Zwiebeln, unterschiedlichen Gewürzen und Kräutern und unter Umständen Hülsenfrüchten oder anderem Gemüse vermengt gegart. Typisch ist auch das so genannte „geröstete Mehl“ ("harina tostada"), gewonnen aus erhitztem und anschließend zermahlenen Weizen, der mit Wasser und Zucker, eventuell auch Melonensaft oder Wein, zu einer zähflüssigen Mischung verarbeitet werden kann, dem "ulpo", der als stärkendes Erfrischungsgetränk zu sich genommen wird.
Der klassische chilenische Schnellimbiss ist der in den 1950er Jahren entstandene "Completo", eine Art Hot Dog, der mit reichlich Avocadomus ("Palta") und Sauerkraut oder Krautsalat ("Chucrú") gereicht und mit Chilipaste ("salsa de ají chileno") und dem mild-süßen chilenischen Senf gegessen wird. Ebenfalls als typisch chilenisch gelten die oft mit gebratenem Fleisch oder anderen Zutaten reich belegten Sandwiches ("sánguches"), die an Garküchen, Imbissständen oder in Gaststätten fast überall in den Städten auch zum Mitnehmen zu bekommen sind.
Zu den Besonderheiten der Mahlzeitenfolge in Chile gehört, dass neben Frühstück ("desayuno") und Mittagessen ("almuerzo") auch am frühen Abend ein Imbiss gereicht wird, zu dem stets Tee getrunken wird und der das in der Regel erst sehr spät eingenommene Abendessen ("comida") mitunter ersetzen kann. Diese Zwischenmahlzeit wird "tomar once" (wörtlich „Elf einnehmen“) genannt. Diese für Chile eigentümliche Tradition wird oft auf englische Gebräuche (etwa den „Fünf-Uhr-Tee“ oder den in England „Elevenses“ genannten Vormittagstee) zurückgeführt. Einer volkstümlich-humoristischen Erklärung zufolge soll der Ausdruck dagegen auf die Tatsache zurückgehen, dass das spanische Wort "aguardiente" (Schnaps) genau elf ("once") Buchstaben hat. Zu Zeiten eines Alkoholverbots in Chile hätten die Leute deshalb "Once" bestellt und Schnaps in einer Tasse serviert bekommen. Auch wenn sich der genaue Ursprung der Bezeichnung nicht mehr mit letzter Sicherheit aufklären lässt, liegt besonders eine Ableitung aus der nahe, die in vom Katholizismus geprägten Ländern wie Spanien, Italien oder Chile bis weit ins 19. Jahrhundert üblich war: Die elfte Stunde der kirchlichen Tageseinteilung entspricht exakt der traditionellen „Tea Time“ 17 Uhr. Dessen ungeachtet wird die „Once“ in Chile allerdings besonders im Sommer oft bis 19.30 Uhr hinausgeschoben.
Der Wein in Chile ist von sehr guter Qualität und wird seit vielen Jahren mit großem Erfolg auf den Weltmarkt exportiert. Rebsorten wie Merlot und Cabernet Sauvignon sind im Rotweinsegment weit verbreitet und werden auf verschiedenen Qualitätsstufen produziert. Eine exklusive Rebsorte ist die Carménère, eine besonders empfindliche Sorte von außergewöhnlicher Qualität, die heute (da in Frankreich durch Reblausbefall ausgestorben) praktisch nur noch in Chile angebaut wird.
Literatur.
Isabel Allende (* 1942) ist wohl die bekannteste zeitgenössische Schriftstellerin Chiles. Ihre Romane wie "Das Geisterhaus", "Fortunas Tochter" oder "Der unendliche Plan" sind weltweit verlegt worden. Viele ihrer Bücher sind stark autobiografisch geprägt. Sie ist die Nichte des früheren Präsidenten Salvador Allende.
Roberto Bolaño (1953–2003), Verfasser surrealistischer Lyrik und Prosa, ging nach dem Militärputsch 1973 ins Exil. Er ist Träger vieler Literaturpreise und starb in Barcelona.
Jorge Edwards (1931–2023) ist Träger des Cervantespreises. In Deutschland ist sein Werk kaum bekannt. Erst neun Jahre nach seiner Veröffentlichung erschien sein Roman "Der Ursprung der Welt" 2005 in deutscher Übersetzung.
Alberto Blest Gana (1830–1920) schrieb den ersten chilenischen Roman ("Martín Rivas", 1862), eine realistische und sozialkritische Familiengeschichte. Er wurde seit 1925 fünfmal verfilmt und auch für das Theater und als Musical adaptiert. Die Werke des Autors sind in Chile heute noch wichtige Bestandteile der Schullektüre.
Gabriela Mistral (1889–1957), Dichterin und Nobelpreisträgerin 1945, schrieb in ihren Gedichten über Liebe, Tod und Hoffnung, nachdem ihr Geliebter Romelio Ureta Selbstmord begangen hatte. Später arbeitete sie im diplomatischen Dienst Chiles.
Der avantgardistische Lyriker Vicente Huidobro (1893–1947) begründete mit seinem Gedichtband "Ecos de Alma" (1911) die modernistische Bewegung in Chile. Er kämpfte im spanischen Bürgerkrieg auf republikanischer Seite.
Pablo Neruda (1904–1973) war ein weltbekannter Dichter, Schriftsteller und Nobelpreisträger 1971. Er verfasste viel soziale und politische Lyrik und arbeitete als Botschafter in Frankreich für die Regierung von Salvador Allende. Er starb kurz nach dem Militärputsch 1973 an Krebs. Sein Begräbnis wurde zur ersten öffentlichen Demonstration gegen das Militärregime.
Luis Sepúlveda (* 1949) wurde unter Pinochet mehrfach verhaftet und musste ins Exil gehen. Zu seinen in Deutschland bekannten Werken gehört das „Tagebuch eines sentimentalen Killers“.
Auch Antonio Skármeta (* 1940), Schriftsteller und Anhänger von Salvador Allende, verließ nach dem Militärputsch 1973 das Land. Er verfasste Romane und Erzählungen, die sich oft mit der Militärdiktatur befassten. Von 2000 bis 2003 war er chilenischer Botschafter in Berlin, wo er auch während seines Exils gelebt hatte.
Musik.
1941 wurde das "Orquesta Sinfónica de Chile", 1955 das "Orquesta Filarmónica de Santiago" (das kommunale und Opernorchester von Santiago) gegründet.
Von der chilenischen Volksmusik beeinflusst sind die Werke des Komponisten Carlos Isamitt (1887–1974).
Claudio Arrau (1903–1991), geboren in Chillán, war der bedeutendste chilenische Pianist und eine der wichtigsten Musikerpersönlichkeiten der Nachkriegszeit. Seine Interpretation der Werke Beethovens, Schumanns und vieler anderer Komponisten des klassischen Repertoires setzen bis heute Maßstäbe.
Violeta Parra (1917–1967) begründete die „Nueva canción Chilena“. Von Chile ausgehend erreichte diese gesellschaftskritische künstlerische Bewegung („Neues Lied“) bis in die 1980er Jahre weite Verbreitung in Lateinamerika, Portugal und Spanien. Die Sängerin wuchs in Armut auf, komponierte schon früh eigene Folklorelieder und begann in den 1950er Jahren, traditionelles Liedgut zu sammeln und zu dokumentieren. Ihre davon beeinflussten eigenen Werke hatten einen stärker politisch-gesellschaftskritischen Charakter. Neben der Musik dichtete sie, malte, webte und schuf Skulpturen. Viele chilenische und internationale Künstler wie Mercedes Sosa und Joan Baez haben ihre Werke interpretiert; ihr bekanntestes Lied ist "Gracias a la vida".
Víctor Jara (1932–1973) war ein politischer Sänger und zählt ebenfalls zu den großen Vertretern der „Nueva canción“. Er unterstützte Salvador Allende und wurde während des Militärputsches 1973 gefoltert und getötet.
Die Gruppen Illapu, Inti Illimani und Quilapayún machten die Musik der „Nueva Canción Chilena“ weltbekannt. Sie mussten nach dem Militärputsch lange Jahre im Exil verbringen und haben ihr musikalisches Spektrum beständig erweitert.
Film.
Der moderne chilenische Film beschäftigt sich oft mit der Zeit der Militärdiktatur von 1973 bis 1989. Zu den berühmtesten Regisseuren gehören Andrés Wood und Miguel Littín.
Carmen Castillo (* 1945) ist eine chilenische Dokumentarfilmerin. Sie schrieb 1979 "Santiago de Chile, ein Tag im Oktober", ein Buch über ihr Leben im Untergrund nach dem Militärputsch.
Orlando Lübbert (* 1945) und Andrés Wood (* 1965) befassen sich mit humorvollen Sozialdramen, Cristián Galaz (* 1958) zeigt den Beziehungsalltag der Chilenen. Alejandro Jodorowsky ist Schauspieler, Autor und Regisseur einer Reihe surrealistischer Filme, darunter El Topo und Montana Sacra – Der heilige Berg.
Bildende Kunst.
Aus der präkolumbischen Zeit sind nur wenige Kunstwerke erhalten, so z. B. Höhlenmalereien und andere Petroglyphe, Keramiken und Holzskulpturen sowie vor allem Produkte der Webkunst der Mapuche. Die von den Jesuiten geprägte, fast ausschließlich religiöse Malerei der Kolonialzeit bemühte sich, alle „heidnischen“ Spuren zu verdrängen. Doch verwiesen Farbwahl und einfache Formen auf weiter wirkende indigene Einflüsse.
In der ersten Hälfte des 19. Jahrhunderts bereisten viele europäische Maler Chile und hinterließen dort ihre Spuren, oft in Form von Porträts der Revolutionshelden. Der deutsche, von Alexander von Humboldt beeinflusste Maler Johann Moritz Rugendas hielt viele ländliche Szenen und Feste mit ethnographischem Blick fest und vermittelte so ein Bild der jungen Republik. Der Afroperuaner José Gil de Castro (1785–ca. 1840/41) verbrachte einige Jahre in Chile und wurde dort wie in Argentinien und Peru als Porträtmaler wichtiger Persönlichkeiten bekannt. Sein Auftreten markiert das Ende des akademischen Kolonialstils.
1849 wurde die Chilenische Malakademie eröffnet, deren erster Leiter, der Franzose Raymond Monvoisin, vor allem Porträts der Oberschicht anfertigte. Manuel Antonio Caro studierte in den 1860er Jahren als erster Chilene Malerei in Europa; er fertigte realistische volkstümliche Szenen und Porträts. Pedro Lira (1845–1912) schuf Historiengemälde im Stil des Historismus, hinterließ aber ein realistisch-sozialkritisches Spätwerk.
Der sehr populäre, mit 4000 Bildern extrem produktive Juan Francisco González (1853–1933), sein Schüler Joaquín Fabres (1864–1914) und Pablo Burchard Eggeling (1875–1964), der vom Stil Pierre Bonnards beeinflusst war, brachen endgültig mit dem Akademismus und begründeten den chilenischen Impressionismus. Zu dessen Vertretern zählt auch Ramón Subercaseaux (1854–1936), der sich von Cézanne beeinflusst zeigte. Pedro Subercaseaux (1880–1956) schuf die ersten chilenischen Comics, in denen er berühmte historische Figuren und den fiktiven deutschen Professor Baron Federico von Pilsener in seinem Magazin "Lustig" (1906/07) mit schwarzem Humor präsentierte. Bekannt wurden auch seine Figuren Don Otto und Fritz, mit denen er die deutschen Einwanderer karikierte.
Die "Generación del 13", zu der Arturo Gordon (1883–1944) gehörte, war eine 1913 gegründete chilenische Künstlergruppe, die gemeinsam ausstellte. Sie stellte erstmals das Leben der Mapuche und der arbeitenden Klassen in nicht-romantisierender Weise dar. Gordon selbst neigte zu allegorisierenden Darstellungen mit expressiver Farbgebung.
Roberto Matta (1911–2002) war ein weltweit bekannter surrealistischer Maler des 20. Jahrhunderts. Zeitweise lebte er in Paris und war mit Salvador Dalí und Federico Garcia Lorca befreundet. Zu den Expressionisten zählen Israel Roa (1909–2002). Ximena Cristi (* 1920) zeigt sich von Matisse und Bonnard beeinflusst. Beide zählten zur "Generación del 40". Den abstrakten Expressionismus der 1960er Jahre vertrat Guillermo Núñez (* 1930).
Der Maler und Grafiker Nemesio Antúnez (1918–1993) begründete die „Werkstatt 99“ ("taller 99"), die der modernen Druckgrafik den Weg bereitete. 1973 bis 1984 lebte er im Exil. Der 1913 auf Kuba geborene Maler Mario Carreño Morales malte wuchernde Formen in warmen Farben; er gilt als einer der wichtigsten lateinamerikanischen Maler und starb 1999 in Santiago de Chile.
Vielfach international ausgezeichnet wurden Arbeiten des in Katalonien geborenen, auch politisch sehr aktiven Vertreter der Informel José Balmes (1927–2016), der 1939 nach Chile und 1973 nach Frankreich ins Exil ging, um 1986 nach Chile zurückzukehren. Gracia Barrios (1917–2020), eine Vertreterin des "realismo informal", die nach dem Putsch 1973 ebenfalls vorübergehend nach Frankreich emigrierte, wurde durch ihre Alltagsszenen und Wandmalereien bekannt. Mario Toral (* 1934) knüpft in seinem Werk an präkolumbianische Formen an.
In der neueren chilenische Malerei dominieren figürliche Darstellungen, wobei bemerkenswert viele Frauen aktiv sind. Einen neorealistischen Stil vertreten die in Katalonien geborene Roser Bru (* 1923), die während des Spanischen Bürgerkriegs nach Frankreich und dann nach Chile emigrierte, die feministische Malerin Carmen Aldunate (* 1940) und Natalia Barbarovic (* 1966). In Brus Bildern spiegeln sich die Krisen der Demokratie und die Verfolgung durch die Diktatur. Ihr öffentlich ausgestelltes Bild "Ejecución" („Hinrichtung“) war ein Symbol des Widerstands gegen das Pinochet-Regime. Ein Vertreter des Neoexpressionismus und Mitbegründer der "Schule der 80er" ist Samy Benmayor (* 1956). Nadra Jacob (* 1970) stellte 2020 ein Fortoposter in der Berliner U-Bahn aus (Expo Metro Berlin).
Sport.
Die Fußball-Weltmeisterschaft 1962 fand in Chile statt. Die chilenische Fußballnationalmannschaft erreichte dabei einen achtbaren dritten Platz; das ist das beste Ergebnis bei einer Weltmeisterschaft. Chile hat sich bisher achtmal für die WM qualifiziert und liegt nach diesem Kriterium in Südamerika auf dem vierten Platz hinter Brasilien, Argentinien und Uruguay. Darüber hinaus gewann die Nationalmannschaft auch die Copa América 2015, die im eigenen Land ausgetragen wurde sowie die Copa América Centenario 2016 in den USA. Zu den nationalen Fußballlegenden zählen Ivan Zamorano, Marcelo Salas und unangefochten an der Spitze Elías Figueroa, erster (und neben Zico einziger) Spieler Amerikas, der dreimal den Titel des besten Spielers des Kontinents erringen konnte. Figueroa gilt heutzutage als einer der besten Abwehrspieler des letzten Jahrhunderts. Zu erwähnen sind auch Matías Fernández, Südamerikas Fußballer des Jahres 2006, und David Arellano, der als Erfinder des Fallrückziehers (auf Spanisch "la chilena") gilt. Die bekanntesten chilenischen Fußballspieler sind aktuell Alexis Sánchez und Arturo Vidal.
Neben Fußball spielen insbesondere Tennis, der Reitsport (hier vor allem auch das chilenische Rodeo) und das Segeln eine bedeutende Rolle. Im Tennisdoppel gewann Nicolás Massú mit seinem Partner Fernando González bei den Olympischen Sommerspielen 2004 das erste Olympiagold für Chile überhaupt. Einen Tag später krönte Massú seine Olympiateilnahme mit dem Sieg im Herreneinzel, González gewann die Bronzemedaille. Eine der großen Sportlegenden in Chile ist Marcelo Ríos, der als erster spanischsprechender Tennisspieler die Spitze der Weltrangliste erreichte und hierbei zeitweise Pete Sampras ablöste. Im Segelsport, Kategorie Breitling, besetzten chilenische Teams in prestigeträchtigen Rennen wie der Copa del Rey regelmäßig die ersten drei Plätze.
Am 3. Mai 2008 besiegte die chilenische Polo-Nationalmannschaft im WM-Finale in Mexiko-Stadt den amtierenden Weltmeister Brasilien und wurde somit erstmals Weltmeister in dieser Disziplin.
Im Rudern (Zweier ohne Steuermann) wurden Christian Yantani und Miguel Angel Cerda im Jahre 2002 in Sevilla Weltmeister. 2005 wurde Cerda in Japan mit Felipe Leal Vizeweltmeister und in der Schweiz Weltmeister.
Carlo de Gavardo ist zweifacher Motorrad-Rallye-Weltmeister.
Rugby Union wird seit den 1880er Jahren in Chile gespielt und wurde von Briten in das südamerikanische Land gebracht. In den letzten Jahren gehörte der Rugbysport zu den schnellwachsenden Sportarten Chiles und wird vor allem an Universitäten gespielt. Die chilenische Nationalmannschaft qualifizierte sich 2023 erstmals für eine Rugby-Union-Weltmeisterschaft. Chile gilt als die drittstärkste Mannschaft Südamerikas nach Argentinien und Uruguay.
Special Olympics Chile wurde 2013 gegründet und nahm mehrmals an Special Olympics Weltspielen teil. Der Verband hat seine Teilnahme an den Special Olympics World Summer Games 2023 in Berlin angekündigt. Die Delegation wird vor den Spielen im Rahmen des "Host Town Programs" von Heilbronn betreut.
Medien.
Wichtigste Informationsquelle der chilenischen Bevölkerung ist das Fernsehen.
Die wichtigsten Fernsehsender sind das staatliche TVN-Programm, der Sender "Canal 13" der katholischen Universität "Universidad Católica" und private Sender wie "Megavisión" oder "Chilevisión". Das Programm der Fernsehsender ist hauptsächlich auf Unterhaltung, das heißt auf Shows, US-amerikanische Filme und Fernsehserien, die beliebten „Teleseries“ (Telenovelas, zumeist aus eigener Produktion) sowie auf Sportberichterstattung ausgerichtet. Politische Sendungen, Naturdokumentationen und Kulturprogramme sind dagegen eher dünn gesät, dann aber oft von guter Qualität. Die Nachrichten beginnen erst um 21 Uhr und dauern etwa eine Stunde.
Die Presselandschaft wird weitgehend von zwei Konzernen dominiert, dem "Mercurio"- und dem "COPESA"-Konzern, nachdem sich eine Reihe von Publikationen aus dem politischen Mitte-links-Spektrum nach dem Rückgang der Politikbegeisterung zur Zeit der Redemokratisierung nicht auf Dauer im Markt halten konnten. Die beiden jeweiligen „Flaggschiffe“ der Pressekonzerne sind "El Mercurio" und "La Tercera". Zu den selten gewordenen "bunten Vögeln" in der Presselandschaft gehört das Hausblatt der kommunistischen Partei, "El Siglo", sowie die ebenfalls linksorientierte, aber parteiungebundene Zeitschrift "Punto Final".
Wichtige Wochenzeitschriften sind "Ercilla" und "Qué Pasa". Darüber hinaus gibt es die deutschsprachige Wochenzeitung "Cóndor". |
936 | 63470 | https://de.wikipedia.org/wiki?curid=936 | Ceratophyllaceae | |
937 | 26711 | https://de.wikipedia.org/wiki?curid=937 | Commelinaceae | |
938 | 89014904 | https://de.wikipedia.org/wiki?curid=938 | Caryophyllaceae | |
939 | 91452149 | https://de.wikipedia.org/wiki?curid=939 | Cucurbitaceae | |
940 | 89486749 | https://de.wikipedia.org/wiki?curid=940 | Cornaceae | |
941 | 11498 | https://de.wikipedia.org/wiki?curid=941 | Rechnergestützte Entwicklung | Die rechnergestützte Entwicklung (englisch "" und kurz "CAE" genannt) umfasst alle Varianten der Rechner-Unterstützung von Arbeitsprozessen in der Technik.
Teilgebiete.
Die folgenden Teilgebiete sind bekannt: |
942 | 7137 | https://de.wikipedia.org/wiki?curid=942 | Carpinaceae | |
943 | 568 | https://de.wikipedia.org/wiki?curid=943 | Ceratophyllum | |
944 | 99728 | https://de.wikipedia.org/wiki?curid=944 | Compositae | |
945 | 114111 | https://de.wikipedia.org/wiki?curid=945 | CERN | Das CERN, die Europäische Organisation für Kernforschung, ist eine Großforschungseinrichtung in der Nähe von Genf, die teilweise in Frankreich und teilweise in der Schweiz liegt. Am CERN wird physikalische Grundlagenforschung betrieben, insbesondere wird mit Hilfe großer Teilchenbeschleuniger der Aufbau der Materie erforscht.
Der derzeit (2019) bedeutendste ist der Large Hadron Collider, der 2008 in Betrieb genommen wurde.
Das Akronym CERN leitet sich vom französischen Namen des Rates ab, der mit der Gründung der Organisation beauftragt war, dem "Conseil européen pour la recherche nucléaire". Die offiziellen Namen des CERN sind "European Organization for Nuclear Research" im Englischen beziehungsweise "Organisation européenne pour la recherche nucléaire" im Französischen.
Derzeit hat das CERN 23 Mitgliedstaaten. Mit etwa 3.400 Mitarbeitern (Stand: 31. Dezember 2017) ist das CERN das weltweit größte Forschungszentrum auf dem Gebiet der Teilchenphysik. Über 14.000 Gastwissenschaftler aus 85 Nationen arbeiten an CERN-Experimenten. Das Jahresbudget des CERN beläuft sich 2023 auf ungefähr 1,23 Milliarden Schweizer Franken (ca. 1,27 Milliarde Euro).
Das CERN ist außerdem der Geburtsort des World Wide Web.
Geschichte.
Gründung.
Nach zwei UNESCO-Konferenzen in Florenz und Paris unterzeichneten elf europäische Regierungen die Vereinbarung zu einem provisorischen CERN. Im Mai 1952 traf sich der provisorische Rat zum ersten Mal in Paris. Am 29. Juni 1953, auf der 6. Konferenz des provisorischen CERN in Paris, unterzeichneten Vertreter der zwölf europäischen Staaten die Gründungsurkunde. Im Oktober 1953 wurde auf einer Konferenz in Amsterdam der Sitz des CERN und dessen Laboratoriums in der Nähe von Genf bestimmt. Am 24. Februar 1954 erfolgte die 1. Konferenz des CERN-Rates nach der Gründung in Genf. Am 29. September 1954 ratifizierten sieben der zwölf Mitgliedstaaten den Staatsvertrag zur Gründung. Am 10. Juni 1955 erfolgte die Grundsteinlegung des CERN-Laboratoriums durch Felix Bloch, den ersten regulären Generaldirektor des CERN.
Erste Beschleuniger.
Ursprünglich war das CERN vor allem für die Forschung im Bereich der Kernenergie vorgesehen, schon bald entstanden aber die ersten Teilchenbeschleuniger. 1957 wurde das Synchro-Zyklotron (SC), das Protonen auf bis zu 600 MeV beschleunigte, in Betrieb genommen, das erst nach über 33 Jahren Betrieb 1990 abgeschaltet werden sollte. Am 24. November 1959 folgte das Protonen-Synchrotron (PS) mit einer (damals weltweit höchsten) Protonenergie von 28 GeV, es arbeitet heute noch als Vorbeschleuniger. 1965 erfolgte eine Vereinbarung mit Frankreich, die geplanten Protonen-Speicherringe, Intersecting Storage Rings (ISR) genannt, auch auf französischen Boden auszubauen. 1968 erfand Georges Charpak einen Teilchendetektor, der in einer gasgefüllten Kammer eine große Anzahl parallel angeordneter Drähte zur besseren Orts- und Energieauflösung enthielt. Er revolutionierte mit dieser Drahtkammer den Teilchennachweis und erhielt 1992 den Nobelpreis für Physik. 1970 belief sich das Budget des CERN auf 370 Millionen Schweizer Franken. Die Kosten wurden 1970 zu 23 Prozent durch die Bundesrepublik Deutschland, zu 22 Prozent durch das Vereinigte Königreich und zu 20 Prozent von Frankreich getragen.
1970/71 gingen die großen Blasenkammern Gargamelle und BEBC zur Untersuchung von Neutrino-Reaktionen in Betrieb. 1971 wurde auch der ISR fertiggestellt. 1973 gelang mit Gargamelle die Entdeckung der neutralen Ströme der Z0-Teilchen durch André Lagarrigue. 1976 folgte als neuer Beschleuniger das Super-Protonen-Synchrotron (SPS), das auf einem Bahnumfang von 7 km Protonen mit 400 GeV liefert. 1981 wurde es zum Proton-Antiproton-Collider ausgebaut; dabei wurde die Technik der stochastischen Kühlung von Simon van der Meer genutzt. Im Mai 1983 wurden am CERN die W- und Z-Bosonen entdeckt, Carlo Rubbia und Simon van der Meer erhielten dafür 1984 den Nobelpreis.
Die im Laufe der über 60-jährigen Geschichte verwendeten und inzwischen abgebauten oder außer Betrieb gesetzten Beschleuniger sind:
Large Electron-Positron Collider.
Im August 1989 ging der Large Electron-Positron Collider (LEP) in Betrieb, einer der größten jemals gebauten Beschleuniger. In einem Tunnel von 27 km Länge kollidierten hier an ausgewählten Orten Elektronen und ihre Antiteilchen, die Positronen, mit Energien von 100 GeV. 1996 wurden am LEAR-Speicherring (Low Energy Antiproton Ring) erstmals Antiwasserstoffatome produziert, es gab dabei erste Hinweise auf geringfügige Unterschiede zwischen Materie und Antimaterie (CP-Verletzung), was 2001 durch ein weiteres Experiment bestätigt wurde.
Die vier Detektoren am LEP wurden für den Test des Standardmodells entwickelt. Sie wurden nach erfolgreichem Betrieb abgebaut, um Platz für die LHC-Detektoren zu schaffen. Es handelte sich um die folgenden LEP-Detektoren:
Im Jahre 1999 begannen die Bauarbeiten für den LHC in dem Tunnel des Large Electron-Positron Colliders. Im Jahre 2000 wurde der LEP endgültig abgeschaltet.
Experimente und Anlagen.
Grundlagenforschung.
Am CERN werden der Aufbau der Materie und die fundamentalen Wechselwirkungen zwischen den Elementarteilchen erforscht, also die grundlegende Frage, woraus das Universum besteht und wie es funktioniert. Mit großen Teilchenbeschleunigern werden Teilchen auf nahezu Lichtgeschwindigkeit beschleunigt und zur Kollision gebracht. Mit einer Vielzahl unterschiedlicher Teilchendetektoren werden sodann die Flugbahnen der bei den Kollisionen entstandenen Teilchen rekonstruiert, woraus sich wiederum Rückschlüsse auf die Eigenschaften der kollidierten sowie der neu entstandenen Teilchen ziehen lassen. Dies ist mit einem enormen technischen Aufwand für die Herstellung und den Betrieb der Anlagen sowie mit extremen Anforderungen an die Rechnerleistung zwecks Datenauswertung verbunden. Auch aus diesem Grund wird CERN international betrieben und finanziert.
Beschleuniger.
Am Anfang der Experimente stehen Beschleuniger, welche den Teilchen die für die Untersuchungen notwendige kinetische Energie verleihen. Hervorzuheben sind das Super Proton Synchrotron (SPS) für die Vorbeschleunigung und der Large Hadron Collider (LHC), der Große Hadronen-Speicherring, der bei weitem größte und aufwendigste Beschleuniger, der am Anfang vieler Experimente steht. Weitere Anlagen sind die CERN Hadron Linacs:
und darüber hinaus:
Large Hadron Collider.
Der Large Hadron Collider (LHC) ist der größte Teilchenbeschleuniger der Welt. Der Beschleunigerring hat einen Umfang von 26.659 m und enthält 9.300 Magnete. Zur Durchführung der Experimente muss der Speicherring in zwei Schritten auf die Betriebstemperatur heruntergekühlt werden. Im ersten Schritt werden die Magnete mit Hilfe von flüssigem Stickstoff auf 80 K (−193,2 °C), in einem zweiten Schritt mittels flüssigen Heliums auf 1,9 K (−271,25 °C) heruntergekühlt. Anschließend wird die Anlage kontrolliert hochgefahren. Die Teilchen werden in mehreren Umläufen auf nahezu Lichtgeschwindigkeit beschleunigt und mit extrem hoher kinetischer Energie zur Kollision gebracht.
Am 8. August 2008 wurden die ersten Protonen in den LHC geschossen, am 10. September 2008 folgte der erste Rundumlauf von Protonen. Noch vor dem 21. Oktober 2008 sollte es zu den ersten Protonen-Kollisionen kommen; dieser Termin konnte jedoch auf Grund der erzwungenen Abschaltung nach einem Problem nicht eingehalten werden. Am 23. Oktober 2009 wurden erneut Protonen in den Tunnel injiziert. Am 30. März 2010 gelang es erstmals, Protonen mit einer Rekordenergie von jeweils 3,5 TeV (also insgesamt 7 TeV) aufeinandertreffen zu lassen. Es wurden auch erfolgreich Blei-Ionen zur Kollision gebracht, sowie Kollisionen von Blei-Ionen mit Protonen herbeigeführt.
2012 wurde die Gesamtenergie auf 8 TeV erhöht. Seither operiert der LHC in einer Folge von "Runs", in denen Experimente laufen, unterbrochen von planmäßigen Pausen, die für Reparaturen und Verbesserungen genutzt werden. Nach dem "Long Shutdown" LS1 lief der LHC seit dem 5. April 2015 mit einer Gesamtenergie von 13 TeV. Von Ende 2018 an wurde der LHC im Rahmen des zweiten planmäßigen langen Shutdowns (LS2) auf den Betrieb bei der Designenergie von 14 TeV und höherer Kollisionsrate aufgerüstet, seit 22. April 2022 läuft „Run 3“.
Detektoren.
Die bei den Kollisionen entstehenden Teilchen werden im Rahmen verschiedener Experimente mit Hilfe von Detektoren registriert und anschließend von internationalen Wissenschaftler-Teams mittels spezieller Computerprogramme analysiert. Die Experimente bzw. Detektoren am LHC sind:
Weitere physikalische Experimente.
Neben den Experimenten am LHC werden mit den anderen Beschleunigern und Detektoren weitere Experimente durchgeführt zur Erforschung von Hadronstruktur und -produktion, Neutrinooszillation und Dunkler Materie:
Daneben werden eine Vielzahl kleinerer Experimente durchgeführt, so unter anderem:
Computertechnik.
Um die ungeheuren Datenmengen, die seit November 2009 an den vier großen Experimenten ALICE, ATLAS, CMS und LHCb des LHC anfallen, verarbeiten zu können, wurde das LHC Computing Grid, ein System für verteiltes Rechnen, entwickelt.
Auch das World Wide Web hat seine Ursprünge am CERN. Um Forschungsergebnisse auf einfache Art und Weise unter den Wissenschaftlern austauschen zu können, wurde das Konzept bereits 1989 quasi als Nebenprodukt der eigentlichen Forschungsarbeit von Tim Berners-Lee entwickelt.
Sonstige Innovationen.
Das CERN betreibt das Open Hardware Repository zur Sammlung und Adaption technischer Dokumentation (Open Hardware). 2011 wurde zudem die CERN Open Hardware License (OHL) veröffentlicht.
Forschungsergebnisse.
Viele fundamentale Erkenntnisse über den Aufbau der Materie und die Grundkräfte der Physik wurden am CERN gewonnen. Die Entdeckung der W- und Z-Bosonen gelang 1983 Carlo Rubbia und Simon van der Meer, für die sie 1984 den Nobelpreis erhielten. Auch der erste Hinweis auf die Entstehung eines Quark-Gluon-Plasmas bei extrem hohen Temperaturen wurde 1999 am Relativistic Heavy Ion Collider (RHIC) gefunden. Folgeexperimente laufen am LHC mit dem ALICE-Detektor. Im Jahre 2002 gelang die Produktion und Speicherung von mehreren tausend „kalten“ Antiwasserstoff-Atomen durch die ATHENA-Kollaboration, ebenso begann die Datenaufnahme im COMPASS-Experiment.
Ein weiteres Forschungsfeld ist die Erforschung des Higgs-Bosons, eines wichtigen Teils des Standardmodells. Nach jahrzehntelanger Suche wurde 2012 ein Teilchen gefunden, das in allen gemessenen Eigenschaften mit dem gesuchten Higgs-Boson übereinstimmt. Die Erhöhung der Energie am Large Hadron Collider von 7 auf 13 TeV ermöglicht es, dessen Eigenschaften genauer zu vermessen. Dies ist auch für die Suche nach schweren Teilchen notwendig sowie für die genauere Untersuchung des Quark-Gluon-Plasmas.
Standort und rechtlicher Status.
Das CERN hat zwei Hauptgelände, die sich nahe Genf befinden. Eines davon, die "Site de Meyrin", liegt auf der Grenze zwischen Frankreich und der Schweiz und verteilt sich auf die Gemeinde Meyrin in der Schweiz sowie die Gemeinden Prévessin-Moëns und Saint-Genis-Pouilly in Frankreich. Die "Site de Prévessin" befindet sich etwa drei Kilometer weiter nördlich und liegt ausschließlich auf französischem Staatsgebiet. Sie verteilt sich etwa zu gleichen Teilen auf Prévessin-Moëns und Saint-Genis-Pouilly.
Das CERN hat damit, wie auch das Europäische Laboratorium für Molekularbiologie, als internationales Forschungszentrum eine besondere Stellung. Das oberste Entscheidungsgremium der Organisation ist der "Rat des CERN", in welchen alle Mitgliedsstaaten jeweils zwei Delegierte entsenden: einen Repräsentanten der Regierung und einen Wissenschaftler. Die offiziellen Arbeitssprachen des CERN sind Englisch und Französisch.
Seit Dezember 2012 verfügt das CERN über einen Beobachterstatus bei der Generalversammlung der Vereinten Nationen. Dieser besondere Status verleiht dem CERN das Recht, bei Konferenzen der Generalversammlung zu sprechen, bei formellen Abstimmungen zu votieren und UN-Resolutionen zu unterstützen und unterzeichnen, nicht jedoch über sie mit abzustimmen.
Der Status wurde verliehen, nachdem die Schweiz und Frankreich unter Befürwortung aller weiteren 18 Mitgliedsstaaten sowie diverser weiterer Nicht-Mitgliedsstaaten einen entsprechenden Antrag gestellt hatten.
Begründet wurde die Entscheidung mit der wichtigen Rolle des CERN in Wissenschaft und Entwicklung und dem Aspekt der außerordentlichen internationalen Zusammenarbeit.
Organisation.
Rechtliche Grundlagen.
Der rechtliche Status des CERN beruht auf einem Abkommen zwischen der Schweiz und der Europäischen Organisation für kernphysikalische Forschung vom 11. Juni 1955. Im Abkommen werden die internationale Rechtspersönlichkeit und die Rechtsfähigkeit der Organisation festgelegt. Demnach genießt das CERN die bei internationalen Organisationen üblichen Immunitäten und Vorrechte, soweit sie zur Erfüllung ihrer Aufgaben notwendig sind. Auch die natürlichen Personen, die das CERN nach außen hin vertreten, genießen in der Schweiz Immunität. Das CERN unterliegt weder der Schweizer Gerichtsbarkeit noch dem Schweizer Steuerregime.
Mitgliedstaaten.
Die Gründungsmitglieder 1954 waren die Schweiz, Belgien, Dänemark, Bundesrepublik Deutschland, Frankreich, Griechenland, Vereinigtes Königreich, Italien, Jugoslawien (bis 1961), Niederlande, Norwegen und Schweden.
Es folgten weitere Staaten: Österreich (1959), Spanien (1961–1968 und ab 1983), Portugal (1986), Finnland (1991), Polen (1991), Ungarn (1992), Tschechien (1993), Slowakei (1993), Bulgarien (1999), Israel (2013), Rumänien (2016) und Serbien (2018).
Finanzierung (Budget 2020).
Die Anteile der Finanzierung haben dabei keinen beziehungsweise nur geringen Einfluss auf die Vertretung der einzelnen Nationalitäten. Dies spiegelt sich sowohl bei den offiziellen Arbeitssprachen Englisch und Französisch, als auch bei der Herkunft der beschäftigten Mitarbeiter () und Gastwissenschaftler () wider. Deutschland ist hier mit 1194 Gastwissenschaftlern (Stand: 2015) im Vergleich zu seinem Finanzierungsanteil deutlich unterrepräsentiert. Auch auf die Anzahl der in den "Rat des CERN" entsandten Vertreter haben die Anteile an der Finanzierung keinen Einfluss.
Assoziierte Mitglieder, Beobachterstatus und Kooperationen.
Slowenien, Estland und die Republik Zypern sind assoziierte Mitglieder im Vorstadium einer Vollmitgliedschaft.
Pakistan, Indien, die Ukraine, die Türkei, Litauen und Kroatien sind assoziierte Mitglieder.
Beobachterstatus haben gegenwärtig die Staaten Japan und die Vereinigten Staaten sowie die internationalen Organisationen Europäische Union, JINR und UNESCO. Der Beobachterstatus Russlands wurde als Reaktion auf den Russischen Überfall auf die Ukraine 2022 bis auf Weiteres suspendiert. Später erklärte der CERN Council seine Absicht, die 2024 auslaufenden Kooperationsvereinbarungen mit Russland und Belarus nicht zu verlängern.
CERN hat zudem Kooperationsvereinbarungen mit mehr als 40 weiteren Staaten abgeschlossen, darunter Australien, Brasilien, Volksrepublik China, Iran, Kanada und Südkorea. |
946 | 1716 | https://de.wikipedia.org/wiki?curid=946 | Cruciferae | |
949 | 33503 | https://de.wikipedia.org/wiki?curid=949 | Cerataphyllaceae | |
951 | 7137 | https://de.wikipedia.org/wiki?curid=951 | Corylaceae | |
952 | 289075 | https://de.wikipedia.org/wiki?curid=952 | Cannabaceae | |
959 | 47951 | https://de.wikipedia.org/wiki?curid=959 | Callitrichaceae | |
964 | 878287 | https://de.wikipedia.org/wiki?curid=964 | Charles Sanders Peirce | Charles Santiago Sanders Peirce (ausgesprochen: /'pɜrs/ wie: "pörs") (* 10. September 1839 in Cambridge, Massachusetts; † 19. April 1914 in Milford, Pennsylvania) war ein US-amerikanischer Mathematiker, Philosoph, Logiker und Semiotiker.
Peirce gehört neben William James und John Dewey zu den maßgeblichen Denkern des Pragmatismus, wobei er sich später deutlich von den Entwicklungen der pragmatischen Philosophie distanzierte (insbesondere wendete er sich gegen die relativistische Nützlichkeitsphilosophie, die von vielen Pragmatisten als Grundprinzip der Wahrheit mit dem Pragmatismus gelehrt wurde) und sein philosophisches Konzept fortan "Pragmatizismus" nannte, um sich von James, Dewey, Schiller und Royce abzugrenzen; außerdem gilt er als Begründer der modernen Semiotik. Bertrand Russell und Karl-Otto Apel bezeichneten ihn als den „größten amerikanischen Denker“, Karl Popper betrachtete ihn sogar als „einen der größten Philosophen aller Zeiten“.
Peirce leistete wichtige Beiträge zur modernen Logik, unter anderem:
Peirce beschäftigte sich auch mit logischen Schlussfolgerungsweisen und führte neben der bekannten Induktion und Deduktion die Abduktion (Hypothese) als dritte Schlussfolgerungsweise in die Logik ein. Aus der Abfolge von Abduktion, Deduktion und Induktion entwickelte er einen erkenntnis- und wissenschaftstheoretischen Ansatz.
Leben.
Peirce wurde in Cambridge, Massachusetts, als zweites von fünf Kindern von Sarah und Benjamin Peirce (1809–1880) geboren. Sein Vater war Professor für Astronomie und Mathematik an der Harvard University und nachweislich der erste ernsthaft forschende Mathematiker in den USA. Sein Lebensumfeld war das eines gut situierten Bildungsbürgertums. Schon als Junge erhielt Peirce von einem Onkel die Einrichtung eines Chemielabors. Sein Vater erkannte seine Begabung und bemühte sich, ihm eine umfassende Bildung zu vermitteln. Mit 16 Jahren begann er die "Kritik der reinen Vernunft" zu lesen. Er benötigte für das Studium des Werkes, mit dem er sich täglich mehrere Stunden auseinandersetzte, drei Jahre, nach denen er nach eigener Aussage das Buch fast auswendig konnte.
Peirce litt seit seiner späten Jugend an Schmerzattacken, die heute als Trigeminusneuralgie diagnostiziert würden. Sein Biograph Joseph Brent berichtet, dass er während dieser Schmerzen „zuerst fast betäubt war, dann distanziert, kalt, deprimiert, extrem misstrauisch, ungeduldig bei der kleinsten Berührung und zu heftigen Wutausbrüchen neigend“.
Peirce studierte an der Harvard University und an der Lawrence Scientific School. Er bestand 1862 den Master of Arts und war einer der ersten (1863), die den Bachelor of Science im Fach Chemie ablegten – mit Summa cum laude. Noch während seines Chemiestudiums heiratete er Harriett Melusina Fay, die aus einer prominenten Pfarrersfamilie stammte. Sie veröffentlichte Bücher zu allgemein politischen Themen und war in der Frauenrechtsbewegung aktiv.
Von 1859 bis 1891 war er mit Unterbrechungen bei der United States Coast and Geodetic Survey tätig. Ab 1861 hatte er eine reguläre Planstelle, so dass er nicht am amerikanischen Sezessionskrieg teilnehmen musste. Er erhielt diese Stelle auf Vermittlung seines Vaters, der als einer der Gründer dieser Behörde dort als Aufsichtsrat fungierte. Peirce' Aufgabenfeld lag im Bereich Geodäsie und Gravimetrie in der Weiterentwicklung der Anwendung von Pendeln zur Bestimmung von lokalen Abweichungen in der Erdgravitation. In Harvard hielt Peirce zwischen 1864 und 1870 nebenberuflich Vorlesungen über Wissenschaftsgeschichte und Wissenschaftstheorie. Schon zu diesem Zeitpunkt findet man in den Manuskripten der Vorlesungen fast alle Grundthemen der Philosophie, die ihn sein Leben lang beschäftigten. Zu Beginn war er sehr stark von Kant geprägt, setzte sich aber intensiv mit Fragen der Logik auseinander und entwickelte zunächst seine eigene Kategorienlehre. Die logischen Arbeiten standen in den ersten Jahren im Vordergrund. So befasste er sich 1865 mit der neuen Logik von George Boole und 1866 erhielt er einen Sonderdruck von Augustus De Morgans Logik der Relative, die seiner Denkentwicklung einen wesentlichen Impuls gab. 1867 wurde er in die American Academy of Arts and Sciences gewählt, 1877 in die National Academy of Sciences. 1868 veröffentlichte Peirce eine Artikelserie in den Proceedings der American Academy of Arts and Sciences (PAAAS, Band 7, 1868).
Kurz darauf publizierte er im Journal of Speculative Philosophy die zweite Artikelserie
Ab 1869 schrieb Peirce in unregelmäßigen Abständen eine Vielzahl von Rezensionen und kleineren Beiträgen in "The Nation", der Sonntagsausgabe der New York Evening Post. Zum Jahreswechsel 1869/70 hielt Peirce erneut Vorlesungen über die Geschichte der Logik mit Schwerpunkt „British Logicians“ an der Harvard-Universität.
In den 1860er Jahren begleitete Peirce interessiert die astronomischen Forschungen des gleichaltrigen George Mary Searle, der in dieser Zeit ebenfalls für die Coast Survey und am Harvard Observatory tätig war. Von 1869 bis 1872 arbeitete Peirce dann selbst im astronomischen Observatorium von Harvard als Assistent über Fragen der Photometrie zur Bestimmung der Helligkeit von Sternen und der Struktur der Milchstraße. 1870 erschien eine kleine, für Peirce und Logiker aber wichtige Schrift über die Logik der Verwandten (Begriffe), die auch als Vortrag vor der American Academy of Arts and Sciences veröffentlicht wurde unter dem Titel "Description of a Notation for the Logic of Relatives, Resulting from the Amplification of Boole's Calculus of Logic" (CP 3.45–148). Wichtig für Peirce und auch für William James war ein Zirkel junger Wissenschaftler verschiedener Disziplinen Anfang der 1870er Jahre, der als „metaphysischer Club“ bezeichnet wurde. Hier lernte Peirce die Philosophie von Alexander Bain kennen, von dem er das Prinzip des Zweifels und der Überzeugungen, die das Handeln der Menschen bestimmen, übernahm. Peirce trug seine Grundgedanken zum Pragmatismus vor und stellte sie zur Debatte, woraus später seine wichtige Aufsatzreihe von 1877/78 entstand. Diese Veröffentlichung in Popular Science wird gewöhnlich als die Geburtsstunde des Pragmatismus bezeichnet. Die Aufsatzreihe umfasst die Titel
Zwischen 1871 und 1888 konnte Peirce im Rahmen seiner geodätischen Aufgabenstellung insgesamt fünf jeweils mehrmonatige Forschungsreisen nach Europa unternehmen, wo er eine Reihe prominenter Wissenschaftler traf. In einem Bericht an den Coast Survey legte Peirce 1879 eine neue Methode der Kartenprojektion vor, die er „Quincunx“ oder auch „quincunial projection“ nannte. Diese Art der Projektion wurde (in erweiterter Fassung) noch im Zweiten Weltkrieg von der Coast Survey als besonders geeignet zur Aufzeichnung internationaler Flugrouten vorgeschlagen. 1879 wurde Peirce „half-time lecturer of logic“ an der Johns-Hopkins-Universität in Baltimore, seine einzige akademische Festanstellung. Dort waren unter anderem John Dewey und Josiah Royce seine Hörer. In dieser Zeit kam es zur Veröffentlichung von "A Brief Description of the Algebra of Relatives" (1882, Privatdruck) und der Herausgabe der "Studies in Logic by Members of the Johns Hopkins University" (1883).
Peirce hatte außer dieser Anstellung niemals wieder eine feste akademische Stelle. Von seinen Biographen wird als Ursache seine schwierige Persönlichkeit gesehen. Es gibt Vermutungen, dass er manisch-depressiv gewesen sei (Brent). Seine erste Frau verließ ihn 1876 während eines Europaaufenthaltes, von dem sie allein zurückkehrte. Über den Grund haben sich beide nie geäußert. Schon bald darauf ging er ein Verhältnis mit Juliette Froissy (Geburtsname nicht gesichert) ein, mit der er bis zu seiner Scheidung von Fay 1883 unverheiratet zusammenlebte. Schon zwei Tage nach der Scheidung heiratete er Juliette. Vermutlich aufgrund des damit verbundenen Skandals verlor er 1884 seinen Posten an der Johns-Hopkins-Universität.
1887 nutzte Peirce die Erbschaft seiner Eltern, um sich eine Farm bei Milford, Pennsylvania, zu kaufen, wo er – mit Ausnahme einiger Reisen, vor allem zu Vorträgen – den Rest seines Lebens verbrachte, unablässig schreibend. Ende der 1880er Jahre leistete Peirce einen wesentlichen Beitrag zu "The Century Dictionary and Cyclopedia", einer von James Mark Baldwin herausgegebenen, 450.000 Begriffe und Namen umfassenden Enzyklopädie in den Bereichen Mechanik, Mathematik, Astronomie, Astrologie und Philosophie. Nachdem er einen umfangreichen wissenschaftlichen Bericht über seine Pendelversuche an die US Coast Survey geliefert hatte, dieser aber von dem erst seit kurzem amtierenden Superintendenten Thomas C. Mendenhall abgelehnt worden war, gab Peirce seine Stellung bei dieser Behörde nach über 30 Jahren Ende 1891 auf. Damit hatte er seine gesicherte wirtschaftliche Lebensgrundlage verloren und musste nun sein Geld ausschließlich durch Unterricht, Übersetzungen, Vorträge und Veröffentlichungen verdienen. Eine wesentliche Basis waren Lexikonbeiträge sowie die Rezensionen in der Zeitschrift "The Nation", mit deren Herausgeber Wendell Phillips Garrison Peirce freundschaftlich verbunden war. Durch eine weitere Freundschaft mit einem Richter fand er auch ab ca. 1890 Zugang zu Paul Carus, dem Herausgeber der Zeitschrift "The Monist", in der er eine Vielzahl von Aufsätzen veröffentlichte. Erst spät baute Peirce seine metaphysischen Gedanken aus, insbesondere den des Kontinuums und die Integration der Evolution in seine Philosophie. Diesen Themenkreis behandelte Peirce in seiner ersten Aufsatzserie in "The Monist" (1891–1893):
Den Schwerpunkt Logik und Methoden logischen Schließens hatte eine Artikelserie aus dem Jahr 1892 in "The Open Court", einer ebenfalls von Carus herausgegebenen Zeitschrift:
Der formale und mathematische Anspruch dieser Artikelreihe war so hoch, dass zwei weitere Artikel, deren Manuskripte bereits fertiggestellt waren, nicht mehr zur Veröffentlichung kamen:
Peirce Verhältnis zur Religion ergibt sich unter anderem aus drei Artikeln in "The Open Court" aus dem Jahr 1893, in denen er sich einerseits für eine klare Trennung von Wissenschaft und Religion aussprach, andererseits Verkrustungen und Zersplitterungen der verfassten Kirchen kritisierte. Liebe ist das Prinzip für das Leben und die einzige Grundlage einer Universalreligion. Die Titel der Aufsätze lauten:
In den Folgejahren begann er eine Reihe von Buchprojekten, die sich jedoch nicht realisieren ließen, obwohl die Manuskripte zum Teil schon weit gediehen waren. Im Winter 1892/93 konnte Peirce am Lowell Institut 12 Vorlesungen über Wissenschaftsgeschichte halten. Im Lauf der Zeit geriet er in immer größere finanzielle Schwierigkeiten, die ihn bis an sein Lebensende begleiteten. Oft genug fehlte das Geld, um auch nur Nahrungsmittel oder Brennmaterial für die Heizung zu beschaffen. Auf Vermittlung von William James, mit dem er seit der Zeit seines Chemiestudiums befreundet war, konnte Peirce im Jahr 1898 eine Vorlesungsreihe in Cambridge mit dem Generalthema "Reasoning and the Logic of Things" halten. 1903 konnte James nochmals helfen, so dass Peirce die Möglichkeit einer Vorlesungsreihe in Harvard über "Pragmatism as a Principle and Method of Right Thinking" erhielt. Ebenfalls 1903 konnte Peirce acht Vorlesungen am Lowell Institut über "Some Topics of Logic Bearing on Questions Now Vexed" halten. Die drei Vorlesungsreihen sind für die Rezeption wichtig, da Peirce sich auf Drängen von James bemüht hatte, seine Vorlesungen nicht zu schwierig zu gestalten, sondern auf ein allgemeines Publikum auszurichten. So hat Peirce in einem relativ reifen Stadium seines Denkens wesentliche Eckpunkte seiner Philosophie in einem geschlossenen Zusammenhang dargestellt, allerdings nicht veröffentlicht. Einen anderen Überblick über das Denken von Peirce gibt eine Bewerbung aus dem Jahr 1902 auf ein Stipendium der Carnegie Institution, in der er in einem umfangreichen Exposé darlegt, wie er seine Philosophie in einem geschlossenen Werk darstellen könnte. Seine Bewerbung wurde jedoch abgelehnt. Ebenfalls in das Jahr 1903 fällt die Rezension des Buches "What is Meaning" von Victoria Lady Welby. Diese hatte für die Klärung des Begriffs Bedeutung einen semiotischen Ansatz mit drei Graden der Signifikation gefunden. Hieraus entspann sich ein langjähriger Briefwechsel, aus dem sich umfangreiche Darlegungen zur Semiotik ergaben. In den Jahren 1905 bis 1907 distanzierte Peirce sich immer mehr von den anderen Pragmatisten und nannte schließlich seine Philosophie Pragmatizismus. Ab 1906 wurde er von einer Stiftung unterstützt, die James ins Leben gerufen hatte. Peirce blieb ohne Kinder und starb 1914 an Krebs, zwanzig Jahre vor seiner Witwe.
Schriften.
Peirce hat seine Gedanken zur Mathematik, Logik und Philosophie niemals in einer geschlossenen Arbeit publiziert. Während seiner Tätigkeit an der Johns-Hopkins-Universität gab er die "Studies in Logic" (1883) heraus, die einige Kapitel von ihm selbst sowie weitere seiner Doktoranden enthielten. Sein Ruf ist ursprünglich fast ausschließlich begründet durch Aufsätze in Fachzeitschriften.
Nach seinem Tod erwarb die Harvard-Universität auf Veranlassung von Josiah Royce die Papiere aus seinem Nachlass. Da Royce bereits 1916 verstarb, kam es nicht zur geplanten Aufarbeitung des Materials. Es wurde ein kleiner unvollständiger Katalog verfasst. Die Unterlagen wurden in 83 Kisten verpackt und verschwanden zunächst in den Archiven der Universität. Dass Peirce überhaupt weiter rezipiert wurde, verdankt sich Morris Raphael Cohen, der 1923 einen Sammelband unter dem Titel "Chance, Love and Logic" mit einigen wichtigen Aufsätzen von Peirce herausgab. Beigefügt ist auch ein Aufsatz von Dewey aus dem Jahr 1916, den dieser im Rückblick auf Peirce verfasst hatte.
Das Vorhaben der Herausgabe der Werke von Peirce wurde erst in den 1930er-Jahren in Harvard von Charles Hartshorne und Paul Weiss aufgegriffen. Aus der Fülle des gesamten Materials wurden die meisten Veröffentlichungen sowie umfangreiches unveröffentlichtes Material thematisch zusammengestellt und zwischen 1931 und 1935 in sechs Bänden als "Collected Papers" publiziert. Die Themen der Bände lauten:
Zwei weitere Bände wurden mit Förderung der Rockefeller Foundation erst nach dem Zweiten Weltkrieg ergänzt und von Arthur W. Burks herausgegeben:
Erst mit der Herausgabe der "Collected Papers" begann man sich überhaupt mit den Arbeiten von Peirce intensiver auseinanderzusetzen. Durch die systematische Zusammenstellung der "Collected Papers" ist allerdings der innere Zusammenhang des Werkes teilweise verloren gegangen. So wurden Aufsatzreihen und Vorlesungen teilweise auf die verschiedenen Bände verteilt und Arbeiten aus verschiedenen Entwicklungsphasen nebeneinandergestellt, obwohl bei Peirce eine deutliche Entwicklung des Denkens zu konstatieren ist. Zum Teil wurden sogar zum Zweck der systematischen Darstellung Fragmente verschiedener, zeitlich nicht zusammengehörender Texte zusammengestellt.
Erst nach Veröffentlichung der "Collected Papers" begann man mit einer systematischen Katalogisierung und Mikroverfilmung. Die Mikroverfilmung war erst 1966 (vorläufig) abgeschlossen. Immer wieder wurden in den Archiven Ergänzungen gefunden, zuletzt 1969, so dass die Mikrofilmdateien und die Kataloge jeweils nachgepflegt werden mussten. Die aktuelle Katalogisierung basiert auf dem Jahr 1971. Erst dann wurde klar, dass Peirce neben den 12.000 Druckseiten seines Werkes ungefähr 1650 unveröffentlichte Manuskripte mit ca. 80.000 handschriftlichen Seiten hinterlassen hatte, von denen der größte Teil auch heute noch nicht veröffentlicht ist. Ein Teil der Unterlagen, der nicht nach Harvard gegangen war, ging verloren, weil er nach dem Tode von Peirce' Frau Juliette verbrannt wurde. Da die "Collected Papers" unvollständig sind und auch nicht allen wissenschaftlichen Ansprüchen genügen, wurde in den 1970er Jahren im Rahmen des sogenannten "Peirce Edition Projects" mit einer kritischen, chronologisch organisierten Edition begonnen, in der bis 2004 sechs von geplanten ca. 30 Bänden erschienen sind, die die Zeit bis 1890 abdecken. Eine wesentliche Ergänzung der gedruckten Werke ist die Ausgabe vorwiegend mathematisch-naturwissenschaftlicher Schriften in vier Bänden (fünf Teilbänden) unter dem Titel "The New Elements of Mathematics" aus dem Jahr 1976 durch Carolyn Eisele. Die Rezensionen und Beiträge für die Zeitschrift "The Nation" sind in der vierbändigen Ausgabe "C.S. Peirce: Contributions to the Nation" von Ketner/Cook aus dem Jahr 1975–1979 erfasst. Eine weitere wichtige Quelle ist "Semiotic and Significs. The Correspondence between CHARLES S. PEIRCE and VICTORIA LADY WELBY", herausgegeben von Charles S. Hardwick (1977).
Peirce' Schriften umfassen ein weites Feld an Disziplinen: von der Astronomie über Meteorologie, Geodäsie, Mathematik, Logik, Philosophie, Geschichte und Philosophie der Wissenschaften, Sprachwissenschaft, Ökonomie bis zur Psychologie. Sein Werk zu diesen Themen fand nun in jüngerer Zeit erneute Aufmerksamkeit und Zustimmung. Diese Wiederbelebung ist nicht nur angeregt durch die Vorwegnahme aktueller wissenschaftlicher Entwicklungen durch Peirce, sondern vor allem auch dadurch, dass seine triadische Philosophie und Semiotik sowohl in der modernen Logik als auch in vielen Wissenschaftsbereichen von der Linguistik über die Rechts- und Religionswissenschaften bis hin zur Informatik einen Schlüssel zur methodischen Strukturierung des Stoffs für die praktische Arbeit bietet.
Peirce bewies 1881 unabhängig von Ferdinand Georg Frobenius den Satz von Frobenius zur Klassifizierung der endlich-dimensionalen reellen assoziativen Divisionsalgebren.
Philosophie.
Kategorienlehre.
Am 14. Mai 1867 legte der 27-jährige Peirce der American Academy of Arts and Sciences ein Papier mit dem Titel "On a New List of Categories" vor, das im folgenden Jahr veröffentlicht wurde. Das Papier umriss eine Theorie der Prädikation, die drei universelle Kategorien umfasste, die Peirce als Reaktion auf die Lektüre von Aristoteles, Immanuel Kant und G. W. F. Hegel entwickelt hatte, Kategorien, die Peirce für den Rest seines Lebens in seiner Arbeit anwandte. Als Grundlage aller weiteren Betrachtungen entwickelte Peirce eine Kategorienlehre, die sich nicht wie bei Kant mit den Arten der Erkenntnis, sondern mit Erscheinungsweisen des Seins befasst und die Grundlage seiner Zeichenlehre bildet. Die Kategorien von Peirce können nicht mit Logik beschrieben, sondern nur phänomenologisch untersucht werden. Sie sind in jedem Phänomen enthalten und daher universal. Begrifflich unterschied Peirce rein formal "Erstheit", "Zweitheit" und "Drittheit" als Formen, in denen alles, was ist, sich widerspiegelt:
In einer kritischen Analyse der Kategorien Kants zeigte Peirce, dass diese auf die Funktion der Modalität zurückführbar sind und eine Entsprechung mit seinen eigenen Kategorien haben, indem man Möglichkeit = Erstheit, Aktualität = Zweitheit und Notwendigkeit = Drittheit setzt. Ähnlich verhält es sich mit den Relationen Qualität (1), Tatsache (2) und Verhalten bzw. Gesetz (3) sowie mit den Begriffen Gegenstand (1), Relation (2) und Repräsentation (3). Die Triade war für Peirce eine grundlegende Perspektive auf alle Phänomene, und er sah sie sogar in der christlichen Dreifaltigkeit bestätigt. Die Kategorien sind zwar gedanklich unterscheidbar, aber sie sind nicht separierbar. Sie sind jeweils alle in jedem Gedanken enthalten und nur in einem langen Prozess der Aneignung mit Klarheit zu erfassen. Dementsprechend gibt es von Peirce immer wieder Texte verschiedener Annäherung an die Kategorien.
Bewusstsein.
Peirce’ Auffassung vom Bewusstsein knüpft eng an die Kategorienlehre an. Er versuchte dabei, die bisherige Unterscheidung des Geistes in der Philosophie (auch bei Kant und Aristoteles) in die drei Teile Gefühl (Lust und Schmerz), Willen (Willenskraft und Verlangen) sowie Wissen (Erkenntnis) auf eine wissenschaftlichere, auch für die Psychologie geeignete Grundlage zu stellen. Das noch unreflektierte Bewusstsein als ein Bündel von Repräsentationen ist Erstheit. Im Bewusstsein sind wiederum die Kategorien identifizierbar. Die Erscheinung von Erstheit im Bewusstsein ist das reine Gefühl oder die Gefühls-Qualität, das Gefühl des unmittelbaren Bewusstseins ohne Bezug auf etwas anderes. Man kann es als die unanalysierte Erscheinung aller Qualitäten in einem Moment beschreiben:
Die Erscheinung der Zweitheit im Bewusstsein, die Peirce „Altersense“ nannte, ist die Konfrontation mit dem Anderen, ist das Bewusstsein des Hier und Jetzt. Zur Zweitheit im Bewusstsein zählen Sinnesempfindungen als lebendige Erfahrungen. Ebenso gehört hierzu der Wille oder Wunsch als Empfindung ohne die Reflexion auf das Gewünschte. Die Zweitheit ist die Erfahrung der Dualität. Ebenso wie die Erstheit wird hier noch vom Denken abstrahiert. Weder das reine Gefühl auf der Ebene der Erstheit noch die Empfindung des Gegenübers, des Anderen auf der Ebene der Zweitheit lassen sich konkret in Begriffe fassen. Sobald dies geschieht, bewegt man sich in der Ebene der Drittheit, die die Ebene der Gedanken ist. Zweitheit kann vorwiegend aktiv sein, dann dominiert die Empfindung des Willens. Ist sie hingegen vorwiegend passiv, dann dominieren die Sinnesempfindungen.
Die Erscheinung der Drittheit im Bewusstsein bezeichnete Peirce als „Medisense“, in der die Beziehung zu einem Objekt repräsentiert wird. Hierzu zählen das Denken, das Lernen, das Gewahrsein von etwas Drittem. Dieser Modus des Gewahrseins führt bei genügender Wiederholung zu Verhaltensgewohnheiten.
Die so beschriebene psychologische Struktur des Bewusstseins verband Peirce mit einer physiologischen Sicht, in der die psychischen Prozesse jeweils physische Entsprechungen im Gehirn haben. Er vertrat eine monistische Position:
Selbstbewusstsein entsteht dadurch, dass die Repräsentationen als Zeichen im Bewusstsein sich selbst zum Gegenstand werden. Diese Reflexion ist für Peirce überwiegend dem Bereich des Altersense (der Zweitheit) zuzuordnen, da das Selbstbewusstsein so etwas wie das Wahrnehmen des Selbst ist. (CP 5.225, 5.266) Im Selbstbewusstsein treten sich die Empfindung des Ego, das wir kontrollieren können, und des unkontrollierbaren Non-Ego gegenüber.
Die Drittheit im Bewusstsein führt zu einer erneuten Reflexion, nun auf das Selbstbewusstsein. Hieraus entsteht die Selbstkontrolle, die Selbstüberprüfung und Selbstkorrektur beinhaltet. Peirce begründete mit der Vorstellung der Selbstkontrolle die Fähigkeit, sich zu entscheiden und damit die eigenen Verhaltensgewohnheiten zu beeinflussen. Eine unmittelbar kausale Wirkung aus der Selbstkontrolle sah er nicht. Die kognitive Fähigkeit der Selbstkontrolle hat aber Einfluss auf Einstellungen, die für künftiges Handeln maßgeblich sind. Durch den Vergleich mit Standards ist Selbstkontrolle zugleich Grundlage von moralischen Einstellungen und ethischem Verhalten.
Wahrnehmung.
"Wir haben kein Vermögen, ohne Zeichen zu denken." (CP 5.265). Diese Grundannahme der gesamten Philosophie von Peirce ist so auch Ausgangspunkt für seine Theorie der Wahrnehmung.
Wahrnehmung findet durch eine Umwandlung von Sinneseindrücken statt und ist deshalb niemals unmittelbar. Klassisches Beispiel dafür, dass Wahrnehmungen falsch gedeutet werden können, sind die Sinnestäuschungen. Peirce verwendet das Beispiel des blinden Flecks auf der Netzhaut. Trotz dieser Eigenschaft erscheinen Gegenstände als vollständige Bilder.
Peirce unterscheidet das Wahrgenommene (Perzept) und das Wahrnehmungsurteil.
Dabei muss ein Wahrnehmungsurteil nicht in Form von Sprache erfolgen, sondern kann z. B. auch diagrammatisch sein (z. B. die Vorstellung eines Dreiecks).
Das Wahrgenommene ist das Zeichen, das zwischen dem Objekt und dem Wahrnehmungsurteil steht. Der Zugang zu den Objekten erfolgt immer durch die Abbildung des Perzeptes als Zeichen. Das Zeichen hat die Form eines sinnlichen Eindrucks, also eines Bildes, eines Klangs etc.
Das Perzept wird als etwas interpretiert. Ein Ton kann eine Stimme sein, das Klingeln eines Telefons oder der Klang eines Radios.
Das Perzept als Zeichen ist ein so genanntes indexikalisches Zeichen (vgl. unten), das heißt, es ist bestimmt zu seiner Relation zum Objekt, wie z. B. der Rauch zum Feuer. Das Wahrnehmungsurteil selbst, also der Rauch als Begriff, ist der Interpretant der Wahrnehmung (des Perzepts). Die Form des Schlusses bei einem Wahrnehmungsurteil nannte Peirce Abduktion: "Abduktion ist der Vorgang, in dem eine erklärende Hypothese gebildet wird." (CP 5.171). Indem wir eine Wahrnehmung haben, nehmen wir an, dass es sich um einen bestimmten Gegenstand handelt. "Die Form der Folgerung ist dann folgende: Die überraschende Tatsache C wird beobachtet; aber wenn A wahr wäre, würde C eine Selbstverständlichkeit sein; folglich besteht Grund zur Vermutung, dass A wahr ist." (CP 5.189). Wenn man einen grauen Schleier in der Luft sieht, kann es sich um Nebel handeln, aber auch um Rauch. Indem man diesen grauen Schleier sieht und schließt, dass es sich um Rauch handelt (z. B. aufgrund der Form oder weil rund herum die Sonne scheint), fällt man ein Wahrnehmungsurteil. Wahrnehmungsurteile sind eine extreme Form der Abduktion, weil sie in aller Regel unbewusst und weitgehend unkontrolliert ablaufen und weil man sie aufgrund der immer aktiven Sinne nicht verneinen kann.
Je öfter sich wiederholende Wahrnehmungsurteile bestätigen, umso mehr werden sie als wahr verinnerlicht und dann zu Denk- und Verhaltensgewohnheiten.
Semiotik.
Neben Ferdinand de Saussure ist Peirce einer der Begründer der Semiotik, wobei sein bevorzugter Begriff hierfür „semeiotic“ lautete, während Saussure seinen eigenen Ansatz als „sémiologie“ (Semiologie) bezeichnete. Im Gegensatz zu Saussures Zeichenbegriff, der sich ausschließlich und formal auf Sprache bezieht, sodass hieraus wesentliche Impulse für die Linguistik entstanden, ist Peirce’ Zeichenbegriff ganzheitlich: Er enthält neben der Repräsentationsfunktion ebenso eine Erkenntnisfunktion der Zeichen. Gleichfalls darf man die Semiotik von Peirce nicht mit der Unterteilung von Charles W. Morris (Syntax, Semantik und Pragmatik) vermischen (obwohl sich Morris auf Peirce bezieht).
Peirce definierte "semiosis" (siehe auch Semiose) als
Peirce unterteilte Semiotik in spekulative Grammatik, logische Kritik und spekulative Rhetorik. Das Wort „spekulativ“ war dabei für ihn gleichbedeutend mit „theoretisch“.
In der spekulativen Grammatik arbeitete Peirce ein System möglicher Zeichenrelationen aus, in denen die Welt sich dem Menschen vermittelt. Ausgehend von der Triade Objekt – Zeichen – Interpretant unterschied er dabei drei Trichotomien:
Die Zeicheneigenschaft
Ein Quali-Zeichen ist eine Qualität, die als Zeichen wirkt, z. B. die Stille eines Raumes. Quali-Zeichen sind immer Ausdruck von Erstheit. Sin-Zeichen sind Gegenstände oder Sachverhalte, die existieren, ohne dass sie schon mit einem Begriff oder einer Bedeutung belegt sind. Legi-Zeichen sind Regeln, die als Zeichen wirken. So bedeutet die Zahl Sechs die Idee einer Anzahl von sechs Gegenständen, z. B. Gläsern oder Stühlen. Ob man nun das deutsche Wort „sechs“, die Ziffer ‚6‘ oder das englische Wort „six“ verwendet, sie alle verkörpern die Idee der Zahl Sechs. Jedes tatsächliche Exemplar eines Legi-Zeichens (z. B. das gedruckte Wort „Sechs“) stellt – als konkreter Gegenstand in der Welt – zugleich ein Sin-Zeichen dar.
Die Objekt-Beziehung
Ikone sind Zeichen, die durch eine strukturelle Ähnlichkeit unmittelbar eine Relation zu einem Objekt herstellen. Hierzu zählen Bilder, Piktogramme oder Graphiken. Ein Ikon ist grundsätzlich erstheitlich. Der Index ist insofern ein zweitheitliches Zeichen, als er ohne Beschreibung auf ein Objekt hinweist, also eine dyadische Beziehung zwischen Zeichen und Objekt besteht – das Klingeln verweist darauf, dass jemand vor der Tür steht. Symbole haben hingegen eine Bedeutung. Sie sind nur Zeichen, weil ein Interpret versteht, wofür das Zeichen benutzt wird. Dass ein Tisch mit dem Wort „Tisch“ bezeichnet wird, beruht auf einer Konvention. Verstanden wird das Wort „Tisch“, weil seine Bedeutung zur Gewohnheit geworden ist. Helmut Pape hat in „Erfahrung & Wirklichkeit“ Peirce Semiotik als eine Phänomenologie und Ontologie der Beziehungen zwischen Menschen und zu ihrer Lebenswelt entwickelt, und damit die Rolle der zwischenmenschlichen Beziehung im Zeichengebrauch genauer untersucht.
Die Interpretanten-Beziehung
Rhema ist ein Begriff, mit dem ein Gegenstand bezeichnet wird. Es kann auch ein Diagramm oder ein Ton sein. In einer Aussage (Dicent) wird zumindest eine zweistellige Relation hergestellt, also die Eigenschaft eines Gegenstandes oder ein Sachverhalt beschrieben. Das Argument drückt eine gesetzmäßige Beziehung zwischen Aussagen aus, z. B. in Form von Naturgesetzen.
Der Interpretant als die "eigentliche bedeutungstragende Wirkung eines Zeichens" muss nun wieder differenziert werden nach seinem emotionalen, energetischen und logischen Gehalt oder nach seiner unmittelbaren, dynamischen und finalen Wirkung. Er ist unmittelbar, wenn er nur eine Gefühlsqualität ist, z. B. das Empfinden der Stille (Erstheit). Er ist dynamisch, wenn er eine effektive Wirkung auslöst (ein Gefühl oder eine Handlung). Ein Interpretant ist final, wenn er mit einer beabsichtigten Wirkung verbunden ist, z. B. einer Veränderung einer Gewohnheit.
Die eigentliche semiotische Bestimmung eines Zeichens entsteht aus den logisch möglichen Kombinationen der Zeicheneigenschaft mit der Objekt- und der Interpretanten-Beziehung (Quali-Zeichen sind weder als Index noch als Symbol denkbar; Argumente können entsprechend kein Index oder Ikon sein). Bei der Bestimmung von Zeichenrelationen besteht das grundsätzliche Problem, dass einerseits Objekte durch mehrere, auch ihrer Art nach höchst unterschiedliche Zeichen repräsentiert werden können. Andererseits können die jeweiligen Zeichen situationsabhängig verschieden interpretiert werden. Zeichenbeziehungen sind daher immer perspektivisch. Wir wissen immer, dass das Objekt, wie wir es in der Kommunikation oder in der Wahrnehmung erfassen (das unmittelbare Objekt), durch Zeichen vermittelt ist. Als Folge wissen wir auch stets, dass wir uns über die Vermittlung täuschen können und demgemäß unsere Interpretation über das eigentliche Objekt (das dynamische Objekt) gegebenenfalls anpassen müssen.
Im Laufe der Zeit entwickelte Peirce seine Auffassung fort und kam aufgrund der Komplexität der möglichen Vermittlungsweisen von Zeichen zwischen Subjekt und Objekt schließlich zu einem System aus 59.049 (3 hoch 10) möglichen Elementen und Relationen. Ein Grund für diese hohe Anzahl liegt darin, dass er bei jedem Interpretanten die Möglichkeit, selbst Zeichen zu sein, zuließ, wodurch jeweils eine neue kennzeichnende Relation entsteht.
Wie bei anderen Themen schrieb Peirce niemals eine genaue Bestimmung seiner Semiotik. Vielmehr befasste er sich mit dem Thema immer wieder während seines Lebens, wobei er oft seine Auffassung über die Definition von Schlüsselbegriffen veränderte. Bei Liszka (1996) findet sich ein verdienstvoller Versuch einer kohärenten Darlegung. Gerhard Schönrich verweist darauf, dass man Parallelen zu Kant in der Theorie der des Bewusstseins ziehen kann, wenn man die kantischen Begriffe in die von Peirce übersetzt, so etwa die Synthesis bei Kant als Semiose, den Gegenstand als Zeichenobjekt, Begriff oder Regel (im Schematismus) als Interpretant und Vorstellung als Zeichen(mittel).
Erkenntnistheorie.
In seiner Erkenntnistheorie brach Peirce mit der Vorstellung, dass das Subjekt der Maßstab für Erkenntnis ist, wie es seit Descartes und bis hin zu Kant gegolten hatte.
Der zweite grundlegende Aspekt in Peirce’ Erkenntnistheorie ist die evolutionstheoretische Vorstellung, wie er sie in seiner Metaphysik entwickelte (vgl. unten). Der Mensch und sein Denken ist Bestandteil eines Entwicklungsprozesses. Zweck des Denkens ist eine Orientierung in der Welt, indem Zweifel untersucht und durch Forschen feste Überzeugungen gewonnen werden, die geeignet sind, als Grundlage des Handelns zu dienen. Hierin liegt die Vermittlung von Theorie und Praxis.
Das dritte Element der Peirce’schen Erkenntnistheorie ist das Denken in Zeichen.
Denken findet aber nicht in einzelnen, isolierbaren Zeichen statt, sondern als ein Strom von Gedanken im Bewusstsein, als ein kontinuierlicher Prozess.
Diese Ebene der Empfindungen im Bewusstseinsstrom ist die Erstheitlichkeit des Denkens.
Der Prozess der Wahrnehmung (siehe oben) führt die Ebene der Zweitheit in den Erkenntnisprozess ein. Die Bedeutung von Zeichen (Ebene der Drittheit) ergibt sich aber nicht allein aus den Sinnesdaten.
Peirce formulierte seine Überlegungen als Pragmatische Maxime:
Die Bedeutung eines Gedankens liegt also darin, welche Verhaltensweise er erzeugt. Verhaltensweise ist dabei nicht als tatsächlicher Handlungsablauf zu verstehen, sondern als Disposition zu einer möglichen Handlung. "Die Elemente eines jeden Begriffs treten durch die Pforte der Wahrnehmung in das logische Denken ein und verlassen es durch die Pforte des zweckbestimmten Handelns; und was immer seinen Ausweis an diesen beiden Pforten nicht vorweisen kann, muss, als durch die Vernunft nicht genehmigt, eingesperrt werden." (CP 5.212)
Mit diesem Konzept wich Peirce von der klassischen Fragestellung der Erkenntnistheorie ab, für die das Ziel der Erkenntnissuche die Wahrheit ist. Doch der klassische Begriff der Wahrheit als Korrespondenz von Gedanken und Tatsachen (Realität) war für Peirce nicht fassbar, weil er auf dem noch unschärferen Begriff der Realität beruht. Peirce definierte stattdessen Wahrheit pragmatistisch:
In dieser Definition steckt die Vorstellung, dass am Ende aller Tage es möglich sein wird, die Realität vollständig zu erkennen. Dieser Zustand ist aber nur ein Grenzwert, an den die Menschheit sich als Ganzes in einem Prozess des Erkenntnisfortschritts annähert. Wahrheit ist dabei objektiv, insofern sie intersubjektiv ist, d. h. nicht mit einzelnen, individuellen Vorstellungen, sondern in der Kommunikation aller (Forscher) bestimmt wird. Bis zu diesem Zeitpunkt, der in der Lebenspraxis des Menschen nicht erreicht werden kann, besteht aber immer und zu jeder Zeit die Möglichkeit, dass die bisher gewonnenen Überzeugungen falsch sein können und revidiert werden müssen. Peirce nannte diese Grundannahme Fallibilismus, die später dann von Popper neu aufgegriffen wurde. Peirce hat auch nicht ausgeschlossen, dass schon gegenwärtige Überzeugungen in vollem Umfang der Realität entsprechen. Je besser solche Hypothesen überprüft sind und sich bewährt haben, umso größer ist die Wahrscheinlichkeit hierfür. Nur sicher sein kann man sich hierüber nicht.
Abduktion.
"Hauptartikel:" Abduktion
Erkenntniserweiterung erfolgt nach Peirce ausschließlich durch Abduktion. Sie tritt auf in der Wahrnehmung sowie im schließenden Interpretieren vorhandenen Wissens. Der Mensch gewinnt in der Wahrnehmung bestimmte Überzeugungen, die sich in Gewohnheiten umsetzen, die seine Handlungen und Unterlassungen bestimmen. Entstehen durch die Wahrnehmung unerklärbare Sachverhalte, die keiner Gewohnheit entsprechen, gerät der Mensch in Zweifel und sucht nach einer neuen Orientierung. Er stellt über die zweifelhaften Phänomene Hypothesen auf und überprüft diese solange, bis er hierüber eine neue feste Überzeugung gewinnt ("doubt-belief"-Schema).
Die rationale Umsetzung dieses Schemas der Gewinnung von Überzeugungen erfolgte für Peirce im logischen Denken. Je nach Stadium des "doubt-belief"-Schemas ist die Schlussweise unterschiedlich. Liegen zunächst ein oder wenige Tatbestände vor, erfolgt das Aufstellen der Hypothese, das Peirce „Retroduktion“ oder „Abduktion“ nannte. Liegen genügend Informationen zur Hypothese vor, kann diese als Gesetzmäßigkeit formuliert werden. Die entsprechende Schlussweise ist die Induktion. Die Deduktion schließlich ist die Anwendung der Gesetzmäßigkeit, die allein analytisch ist, also einer strengen Wahrheit unterliegt. Abduktion beruht im Prinzip auf einer instinktiven Grundfähigkeit des Menschen zur Kreativität. Induktion ist durch Erfahrung bestimmt und nur Deduktion ist streng logisch. Zur Verdeutlichung hat Peirce die verschiedenen Schlussweisen, die er als einen ineinander greifenden Interpretationsprozess ansah, im Schema des Syllogismus dargestellt:
Während in der Deduktion von der Regel über den Fall auf das Ergebnis geschlossen wird, sind die Resultate der Schlussfolgerungen der Abduktion und der Induktion nicht notwendig. Sie haben ihre Berechtigung nur als hypothetisch-pragmatische Verfahren im Rahmen des Prozesses zur Absicherung einer Überzeugung und unterliegen den Gesetzen der Wahrscheinlichkeit, wobei der Abduktion aufgrund des spontanen Charakters zumeist eine erheblich geringere Wahrscheinlichkeit zukommt.
Logik.
Peirce untersuchte in seiner Logik das natürliche Schließen aus Hypothesen und entwickelte hierzu eine eigenständige Logik der Relationen, die er „Logik der Relative“ nannte. Ihm gelangen grundlegende Entdeckungen in der formalen Logik:
Er zeigte, dass die Boolesche Algebra durch eine einfache binäre Operation ausgedrückt werden kann als NAND oder dual als NOR (siehe auch DeMorgan's Gesetz). Weiterhin ergänzte er die Boolesche Algebra um Multiplikation und Exponentiation (Allquantor) und versuchte sie in die allgemeine Algebra zu integrieren.
Ein wenig später, aber unabhängig von Freges "Begriffsschrift", entwickelte er gemeinsam mit seinem Studenten O.H. Mitchell die vollständige Syntax für eine Quantorenlogik, die sich nur in wenigen Zeichen von der späteren Russell-Whitehead-Syntax (1910) unterschied. Ernst Schröder, Leopold Löwenheim von der polnischen Schule und der junge Kurt Gödel verwendeten Peirce' Notation.
Die Unterscheidung zwischen der Quantifizierung erster und zweiter Ebene war der erste Entwurf einer einfachen axiomatischen Satz-Theorie. Die von Peirce konzipierte Theorie reflexiver und transitiver Relationen wurde von Ernst Schröder in dessen "Algebra der Logik" weiterentwickelt.
Zur Anwendung der algebraischen Zeichen in der Logik führte Peirce die logischen Terme "absolute Relative" (monadisch = singuläres Objekt), "einfache Relative" (dyadisch = Anderssein) und "konjugative Relative" (triadisch = Drittheit) ein. Alle mehrstelligen Relationen sind auf triadische Relationen zurückführbar. Diese Reduktionsthese von Peirce, die ihm für den Nachweis seiner Kategorien wichtig war, konnte mittlerweile bewiesen werden. Insbesondere konnte gezeigt werden, dass die triadische Reduktion von Peirce nicht im Widerspruch zur dualistischen Reduktion von Quine steht.
Er erfand die existentiellen Graphen (engl. "existential graphs"), eine graphische Schreibweise für die Aussagenlogik (Alphagraphen), Prädikatenlogik erster Stufe (Betagraphen) und für die Prädikatenlogik höherer Stufe sowie für Modallogik (Gammagraphen). Zusammen mit den Schlussregeln, die er dazu formulierte, bilden die existenziellen Graphen einen Aussagen- bzw. Prädikatenkalkül. Die Graphen sind die Grundlage für die Begriffsgraphen von John F. Sowa und für die diagrammatische Begründung bei Sun Joo-Shin.
In einem Brief an seinen früheren Studenten Allan Marquand von 1886, der erst nach 1950 entdeckt wurde, zeigte er bereits die Anwendungsmöglichkeit der Booleschen Logik auf elektrische Schaltungen, mehr als 50 Jahre vor Claude Shannon. Einer solchen Schaltung, die er auch in zwei verschiedenen Graphiken skizzierte, schrieb er folgende Eigenschaften zu: 1. Entwicklung von Ausdrücken (a, b, c etc.) aus Zeichenketten und Syntaxregeln, 2. Vereinfachung der Ausdrücke, 3. Multiplikation mit Polynomen, 4. Addition. (NEM IV, 632) Es kann gezeigt werden, dass eine Verknüpfung der Existential Graphs mit einer solchen mechanischen Lösung möglich ist.
Bemerkenswert ist auch seine Ausarbeitung zu den verschiedenen Zahlensystemen und sein Verweis darauf, dass das Binärsystem besonders geeignet für die maschinelle Verarbeitung sei.
Wissenschaftsauffassung.
Auch wenn Peirce kein explizites System entwickelte, so kann er doch als systematischer Philosoph im traditionellen Sinne betrachtet werden. Sein Werk befasst sich mit den wissenschaftlichen und logischen Fragen nach Wahrheit und Wissen, die er mit seiner Erfahrung als Logiker und experimenteller Wissenschaftler verband. Peirce war der Überzeugung, dass Wahrheit etwas Vorläufiges ist und bei jeder Aussage ein Faktor an Unsicherheit mit enthalten ist. Für Peirce war der "Fallibilismus" ein Gegenpol gegen den Skeptizismus, der für seine Philosophie keine geringere Bedeutung hatte als der Pragmatismus, den er wiederum als Gegenpol gegen den Positivismus sah.
Peirce leistete wesentliche Beiträge zur deduktiven Logik, war aber vor allem interessiert an der Logik der Wissenschaft und vor allem an der Abduktion, die sich nicht nur im Bereich der wissenschaftlichen Forschung, sondern in allen praktischen Lebensbereichen findet. Sein Pragmatismus kann auch verstanden werden als eine Methode zur Klärung begrifflicher Verwirrung durch die Verknüpfung der Bedeutung von Begriffen mit ihren praktischen Konsequenzen.
Peirce' Pragmatismus hat allerdings nichts zu tun mit dem allgemein üblichen Begriff des pragmatischen Handelns, der oftmals irreführend Rücksichtslosigkeit, Übervorteilung und Vorteilsnahme zumindest indirekt impliziert. Stattdessen suchte Peirce eine objektive, verifizierbare Methode, um die Wahrheit von Wissen zu überprüfen, und zwar in Konkurrenz zu den klassischen Ansätzen von
Das von ihm als wissenschaftliche Methode entwickelte Konzept beschreibt den Wissenschaftsprozess als einen stufenweisen Vorgang, der mit Abduktion aufgrund ungeklärter Phänomene beginnt, bei genügender Sicherheit induktiv Gesetze formuliert, die anhand von Deduktion praktisch geprüft werden. Zum rationalen Wissenschaftsprozess gehörte für ihn ausdrücklich die Wirtschaftlichkeit der Forschung, da Verschwendung angesichts der unendlichen zu lösenden Fragen irrational ist.
Sein Ansatz wurde oft auch als eine neue Form des Fundamentalismus betrachtet, aber durch
beinhaltet er eher eine rationale Basis als eine induktive Verallgemeinerung, die sich rein auf Phänomene beruft. Peirce' Pragmatismus wurde so als erstes wissenschaftliches Verfahren zur Anwendung auf Fragen der Erkenntnistheorie angesehen.
Eine Theorie, die nachweislich erfolgreicher in der Vorhersage und der Nachvollziehbarkeit gegenüber der Lebenswelt ist als ihre Konkurrenten, kann man als näher an der Wahrheit bezeichnen. Dies ist eine in der Wissenschaft angewendete operationale Kennzeichnung von Wahrheit. Anders als andere Pragmatisten hat Peirce niemals explizit eine Theorie der Wahrheit formuliert. Aber seine verstreuten Anmerkungen zur Wahrheit haben eine Reihe erkenntnistheoretischer Wahrheitstheoretiker beeinflusst und waren eine hilfreiche Grundlage für deflationäre und korrespondenztheoretische Theorien der Wahrheit.
Metaphysik.
Tychismus (Zufall).
Ähnlich wie Kant hat Peirce den spekulativen Charakter der traditionellen Metaphysik vielfach heftig kritisiert. Andererseits hat er immer danach gestrebt, eine mit den Naturwissenschaften verträgliche Idee für eine Erklärung der Grundprinzipien der Lebenswelt zu entwickeln. Ausgangspunkt war für ihn wie in vielen anderen Dingen die Logik und hier insbesondere die von Mill zur Induktion entwickelte Theorie, dass diese ihre Gültigkeit aus der Gleichförmigkeit der Natur herleitet. Peirce kritisierte hieran, dass die Annahme der Gleichförmigkeit als Voraussetzung dann nicht zugleich über die Induktion die Gleichförmigkeit als Ergebnis liefern könne.
Als breit bewanderter und erfahrener Naturwissenschaftler führte Peirce eine Reihe von Argumenten gegen den Determinismus an, für den es aus seiner Sicht keine wissenschaftliche Begründung gibt. Insbesondere betonte er, dass die praktischen Messwerte der angewandten Wissenschaften theoretische Konzepte niemals bestätigen, weil sie in aller Regel aufgrund von Versuchsanordnungen zu ungenau sein müssen. Messergebnisse haben immer eine Verteilung, die durch Regression oder ähnliche Verfahren approximiert werden muss. Alle natürlichen Erscheinungen beinhalten Unregelmäßigkeiten.
Gegen den Determinismus setzte Peirce die Hypothese, dass die Welt eine Zufalls-Welt (Chance-world, CP 6.399) ist. Geht man davon aus, dass es einen Urzustand des völligen (nicht beschreibbaren) Zufalls für das Universum gibt, so ist bereits der erste Entwicklungsschritt eine Wahl aus einer unbegrenzten Anzahl an Möglichkeiten. Jeder weitere Schritt führt wieder zu einer Auswahl bis zum Heute. Das Erklärungsprinzip ist die Evolution als Eigenschaft unserer Welt, die sich aus einer unendlichen Zahl möglicher Welten entwickelt hat und in diesem Entwicklungsprozess fortschreitet.
Dieses Konzept der Welterklärung durch einen fortschreitenden Prozess, der zufällige Ereignisse systematisch beinhaltet, nannte Peirce „Tychismus“. Mit diesem verbunden sind eine umfassende Idee der Evolution, für die die Theorie Darwins nur einen Teil der Erklärungen liefert, sowie die Vorstellung der Selbstorganisation der Materie. Gegen den Determinismus sah Peirce sich dadurch bestätigt, dass das Prinzip des Wachstums und des Lebens unumkehrbare Vorgänge sind, die einem Determinismus widersprechen. Spontaneität (die Popper mit Emergenz verband) war für ihn ein objektiver Tatbestand der Natur und eine wesentliche Grundlage seines Fallibilismus.
Seine Auffassung sah Peirce auch gestützt durch die evolutionäre Denkweise, wie sie für ihn Hegel in Bezug auf Geschichte, Charles Lyell in Bezug auf Geologie und Charles Darwin in der Biologie vertraten. Evolution war für Peirce eines der grundlegenden Prinzipien der Welt.
Peirce ging aber noch einen Schritt weiter. Seine Frage lautete nicht, wie Erkenntnis möglich ist, sondern wie sind überhaupt physikalische Gesetze möglich? Er bezog sich dabei unter anderem auf den 2. Hauptsatz der Thermodynamik und das Phänomen der Entropie, wie auch auf die Inexaktheit der Molekularbewegungen (MS 875). Die Tendenz zur Heterogenität und die Unumkehrbarkeit der Prozesse waren für ihn Zeichen, dass der Evolutionsprozess auch in der physikalischen Welt gilt und eine innewohnende Tendenz hat, stabile Zustände („habits“ = Verhaltensgewohnheiten) anzunehmen.
Peirce hätte sich durch die Ergebnisse der Quantenphysik mit dem Übergang zu wahrscheinlichkeitstheoretischen Erklärungsmodellen und die Heisenbergsche Unschärferelation bestätigt gefunden.
Synechismus (Kontinuum).
Ausgehend von der Idee des Zufalls und der Evolution entwickelte Peirce seine Weltsicht weiter zu einem umfassenden Konzept. Basis ist das Thema des Kontinuums, das ihn über die gesamte Zeit seines Arbeitens beschäftigte. Den ersten Schritt machte Peirce erneut in der mathematischen Logik, wo er sich mit der Frage der infinitesimalen Teilbarkeit befasste. Ein Infinitesimal ist eine Größe, die kleiner ist als jede endliche Größe, aber größer ist als Null oder anders gesagt eine Größe die gegen null geht, aber nicht identisch mit null ist. Das klassische Beispiel eines Kontinuums ist eine Linie. Das Kontinuum ist nicht metrisch, so dass Punkte auf der Linie nur potentielle Punkte sind, die wieder ein beliebig teilbares infinitesimales Intervall sind. Ein Kontinuum kann durch keine Menge von Einzelbestimmungen ausgeschöpft werden (CP 6.170). In diesem Zusammenhang hat Peirce mathematische Vorstellungen entwickelt, die heute in der Nicht-Standard-Analysis diskutiert werden und ist davon ausgegangen, dass der Raum nicht-euklidisch ist.
Phänomene wie Energie, zu der auch die Gravitation gehört, oder die Zeit sind Kontinua, die dem Prozess der Evolution innewohnen. Der Mensch kann sie selbst nicht beobachten, sondern nur ihre Auswirkungen. So ist die Zeit zunächst nur ein reines vages Gefühl der Möglichkeit (Erstheit). Die Veränderung oder Wechselwirkung ist die Erfahrung des Gegensatzes (Zweitheit). Das Fortbestehen der Vorstellungen in der Zeit ist geistige Kontinuität (Drittheit).
Für Peirce war der Urgrund aller Wirklichkeit der Geist, der nichts ist als Empfindung und Qualität, reine Möglichkeit ohne Zusammenhang und Regelmäßigkeit. Dieser Geist schaffte durch ein erstes Ereignis (einen ersten dyadischen Schritt) Zeit, Raum, die Existenz der Materie und die Naturgesetze, die als relativ konstante Regelmäßigkeiten die kontinuierliche Entwicklung der Evolution in Gang setzten. In der Evolution ist das Fortschreiten eines Wachstums zu einer sich immer weiter entwickelnden Heterogenität enthalten, an deren sehr fernem Ende die vollständige Gesetzmäßigkeit steht. "Zufall ist das Erste, Gesetzmäßigkeit das Zweite und die Neigung, Gewohnheiten auszubilden, das Dritte." (CP 6.27). Den Anfang und das Ende der Evolution bilden (theoretische) Grenzsituationen. Für Peirce war damit die Wirklichkeit eine Wirklichkeit des Geistes, die auch die Wirklichkeit ihrer Objekte bestimmt. Folgerichtig vertrat er einen uneingeschränkten Universalienrealismus. Mit dieser Position eines objektiven (logischen) Idealismus sah er sich in einer Linie mit Schelling:
Agapismus (Liebe als Lebensprinzip).
Der Mensch ist Teil des evolutionären Prozesses, der sich in seinem Strom des Bewusstseins ebenso wie in dem Prozess des Denkens in Zeichen widerspiegelt. Das Denken in Zeichen funktioniert aber nur im Miteinander der Menschen; denn ohne den Anderen und die Kommunikation mit ihm ist menschliche Existenz nicht möglich. Aus diesem Horizont leitete Peirce die Grundthese ab, dass nur das Prinzip der Liebe (Agape), die Überwindung der Selbstsucht und des Egoismus zu Harmonie und Fortschritt führt. Wie das teleologische Streben nach Heterogenität in der Natur kommt der Fortschritt des Menschen nur aus dem Gedanken, dass der Einzelne seine Individualität im Mitgefühl zu seinen Mitmenschen aufgehen lässt.
Peirce hat nur wenig zur praktischen Ethik geäußert. Es gibt immerhin eine kleine Schrift, in der er eine grundsätzlich veränderte Sicht auf das Strafrecht forderte. Der Mensch hat zwar das Recht, sich vor der Kriminalität zu schützen. Aber aus dem naturgegebenen Zweck der Solidarität hat er kein Recht auf Rache. Daraus folgte für Peirce die Forderung, Verbrecher zu resozialisieren und für sie Bedingungen zu schaffen, die ihnen eine Rückkehr in die Gemeinschaft ermöglichen.
Rezeption.
Peirce wurde zu seiner Zeit als professioneller Philosoph kaum wahrgenommen, weil er keine grundlegenden Schriften zu seinem Gegenstand veröffentlichte. Bekannt war er hingegen als Naturwissenschaftler, Mathematiker und Logiker. So stand er in direktem Kontakt zu Augustus de Morgan. Ernst Schröder basierte seine Logik der Algebra auf Peirce. Über Schröder wirkte Peirce auch auf Peano und die „Principia Mathematica“ von Russell und Whitehead. Da er aber seit 1884 im Prinzip vom akademischen Leben ausgeschlossen war, entstanden Bezüge zu seinem Werk vor allem durch die Personen, die mit ihm persönlich bekannt waren. Dies waren vor allen Dingen William James und der Hegelianer Josiah Royce. Nach William James sind zwei Schriften aus den 1870er Jahren zu nennen, die die Quelle des Pragmatismus ausmachen. James widmete auch seine Schrift „The Will to Believe“ Peirce. Anders als James und spätere Pragmatisten, insbesondere John Dewey, verstand Peirce allerdings seinen Pragmatismus vor allem als Methode zur Klärung der Bedeutung von Gedanken durch Anwendung wissenschaftlicher Methodik auf die Philosophie. Den Pragmatismus von James, der sich als Physiologe vorrangig mit psychologischen Themen befasste und seinen Pragmatismus mit lebensphilosophischen Fragestellungen verband (Theorie der Emotion, Philosophie der Religion), hielt Peirce für einen individualistischen Subjektivismus, den er selbst ablehnte. Und von Deweys Logik sagte Peirce, dass sie eher eine „Naturgeschichte des Denkens“ als Logik im traditionellen Sinne einer Lehre von den normativen Prinzipien und Regeln des Denkens und Schließens sei (The Nation 1904, 220). An beiden kritisierte er das nominalistische Denken. Zur Abgrenzung gegen vereinfachende Formen des Pragmatismus (auch gegen James und Dewey) nannte Peirce seine Form des semiotischen Pragmatismus ab zirka 1905 "Pragmatizismus".
Peirce' Leistungen wurden nur allmählich wahrgenommen. An der Universität wirkte er lediglich fünf Jahre im Bereich Logik. Sein einziges Buch ist eine kurze Schrift über Astronomie ("Photometrische Untersuchungen" von 1878), das wenig Beachtung fand. Seine Zeitgenossen William James und Josiah Royce würdigten ihn zwar, aber nur zu einem gewissen Grad. Als er starb, waren Cassius Keyser von der Columbia-Universität und Morris Raphael Cohen aus New York vielleicht seine einzigen Anhänger. Zwei Jahre nach Peirce Tod erschien im Jahr 1916 ein Sonderheft des Journal of Philosophy, das Peirce gewidmet war, mit Beiträgen von Royce, Dewey, Christine Ladd-Franklin, Joseph Jastrow und Morris R. Cohen. Als erste Arbeit über Peirce gilt „A Survey of Symbolic Logic“ von Clarence Irving Lewis, der einen konzeptualistischen Pragmatismus vertrat. Ausdrücklich auf die Anthologie „Chance, Love and Logic“ bezog sich Frank Plumpton Ramsey in seiner Arbeit „Truth and Probability“ aus dem Jahr 1926. Ramsey seinerseits führte kritische Diskussionen mit Wittgenstein über den Tractatus. Eine Ähnlichkeit des späten Wittgenstein zu Peirce ergibt sich, wenn man sein Verständnis von Bedeutung eines Begriffs als dessen Gebrauch mit der pragmatischen Maxime von Peirce vergleicht. Ähnlich wie für Peirce das Zeichen unhintergehbar und nur in den Kategorien phänomenologisch fassbar war, war auch Sprache für Wittgenstein nur in der Anwendung beschreibbar. Eine andere frühe Rezeptionslinie ergibt sich aus dem Werk „The Meaning of Meaning“ von Charles Kay Ogden und Ivor Armstrong Richards aus dem Jahr 1923, das im Anhang einige Passagen von Peirce enthält. Die semiotische Interpretation von Peirce fand dann ihren Fortgang bei Charles William Morris (Foundations of a Theory of Signs, Chicago 1938), der allerdings einen behavioristischen Ansatz verfolgte.
Auch die Veröffentlichung seiner "Collected Papers" (1931–1935) führte nicht zu einem unmittelbaren Aufschwung in der Sekundärliteratur. Die Herausgeber, Charles Hartshorne und Paul Weiss waren keine Peirce-Spezialisten. Weiss verfasste jedoch 1934 einen ausführlichen Eintrag zu Charles S. Peirce im "Dictionary of American Biography", in dem dieser als „originellster Denker seiner Generation“ und „Amerikas größter Logiker“ bezeichnet wird. Ähnliche Attributierungen finden sich im neuerschienenen "Webster's Biographical Dictionary" von 1943, wo er im Artikel zu seinem Vater mit aufgeführt ist. Eine nachweisliche Rezeption begann erst mit den Arbeiten von James Feibleman (1946) und Thomas Goudge (1950), der zweiten Auflage der Collected Papers – herausgegeben von Philip Wiener und Frederick Young – sowie der umfangreichen Arbeit von Max Fisch, des Begründers des Peirce-Edition-Projekts an der Indiana University in Indianapolis. Die „Charles Sanders Peirce Society“ wurde 1946 gegründet. Seit 1965 gibt es die Zeitschrift "Transactions of the Peirce Society", die auf Peirceiana spezialisiert ist.
Die erste systematische Auseinandersetzung mit Peirce in Deutschland lieferte Jürgen von Kempski 1952, jedoch noch ohne große Wirkung. Seit den 1960er Jahren haben Max Bense und Elisabeth Walther ihre Semiotik der Stuttgarter Schule ausgehend von einer intensiven Peirce-Rezeption entwickelt. In etwa zeitgleich begründete der Linguist Roman Jacobson seine Zeichentheorie ausgehend von Peirce, wie auch Umberto Ecos strukturalistische Semiotik an Peirce anknüpft. Bertrand Russell schrieb 1959 über Peirce: „Zweifellos [...] war er einer der originellsten Köpfe des späteren neunzehnten Jahrhunderts und sicherlich der größte amerikanische Denker aller Zeiten“.
Aber erst mit der Veröffentlichung eines Textbandes durch Karl-Otto Apel im Jahr 1967, gefolgt von einem zweiten Band 1970 (siehe Schriften), setzte auch in Deutschland eine breitere Rezeptionswelle ein. Peirce lieferte für Apels Intention einer Transformation der Transzendentalphilosophie einen grundlegenden Ansatz: „Ich möchte indessen die kritische Pointe des neuen kommunikationstheoretischen Ansatzes noch zusätzlich mit Hilfe der Wittgensteinschen Konzeption des 'Sprachspiels' erläutern. Mit Hilfe dieser Konzeption lässt sich m.E. zeigen, dass die von Peirce eingeleitete – und in unserem Jahrhundert allenthalben bestätigte – semiotische oder sprachanalytische Transformation der Erkenntniskritik und Wissenschaftstheorie auf eine radikale Überwindung des 'methodischen Solipsismus' hinausläuft, der die philosophische Erkenntnistheorie von Descartes bis Husserl beherrscht hat.“ Nur ein Jahr nach Apel setzte sich auch Jürgen Habermas intensiv mit Peirce auseinander. Habermas sah im Gegensatz zu Apel Peirce nicht in der Tradition der Transzendentalphilosophie, sondern als Wissenschaftstheoretiker: „Peirce begreift Wissenschaft aus dem Horizont methodischer Forschung, und Forschung versteht er als einen Lebensprozeß. Die logische Analyse der Forschung richtet sich deshalb nicht auf die Leistungen eines transzendentalen Bewusstseins, sondern auf die Leistungen eines Subjektes, das den Forschungsprozeß im ganzen trägt, auf das Kollektiv der Forscher.“
Der österreichisch-britischer Philosoph und Wissenschaftstheoretiker Karl Popper betrachtete 1972 Peirce als „einen der größten Philosophen aller Zeiten“.
Als Kontrapunkt zur vorherrschenden nominalistischen und empiristischen Philosophie ist die Rezeption von Peirce seit den 1990er Jahren auf ein breites Spektrum von Anwendungsbereichen gewachsen. Dieses reicht von der Informatik über die Linguistik, die Semiotik, die Sozialwissenschaften, die Literaturtheorie, die Philosophie der Mathematik, die Naturphilosophie bis hin zur Religionsphilosophie. So bewertet Ilya Prigogine sein Werk: „Peirce wagte es, das Universum der klassischen Mechanik zugunsten eines evolutionären Universums zu einer Zeit zu verwerfen, als keinerlei experimentelle Ergebnisse vorlagen, die diese These hätten stützen können.“
Wenn man den Umfang von Peirce' Themen betrachtet, muss man ihn als Universalgelehrten bezeichnen, mit dem man nur wenige aus der Geschichte vergleichen kann. Besondere Ähnlichkeit findet man zu Gottfried Wilhelm Leibniz, der sich wie er mit Mathematik, Logik, Naturwissenschaften, Geschichte, Philosophie des Geistes und der Sprache und Metaphysik befasste. Beide waren metaphysische Realisten und der scholastischen Philosophie zumindest teilweise zugeneigt. So bewunderte Peirce Duns Scotus. Die Gedanken beider wurden in der Nachfolge zunächst nur wenig geschätzt und von ersten Interpreten stark vereinfacht dargestellt. Leibniz unterschied sich von Peirce vor allem in seiner finanziellen Lage, seinem Glauben und einer Korrespondenz von ca. 15.000 Briefen. Beide publizierten wenige Bücher, aber viele Aufsätze und hinterließen einen umfangreichen Nachlass. Die Werke beider Autoren sind noch bei weitem nicht vollständig ediert.
Ausgaben.
Zitierweise:
Die im Text enthaltenen Zitate stammen aus den deutschen Ausgaben oder der genannten Literatur.
Weblinks.
Lexikoneinträge
Sekundärliteratur
Materialien |
967 | 39122 | https://de.wikipedia.org/wiki?curid=967 | Carnot-Maschine | |
968 | 411728 | https://de.wikipedia.org/wiki?curid=968 | Compiler | Ein Compiler (auch "Kompilierer"; von ‚zusammentragen‘ bzw. ‚aufhäufen‘) ist ein Computerprogramm, das Quellcodes einer bestimmten Programmiersprache in eine Form übersetzt, die von einem Computer (direkter) ausgeführt werden kann. Daraus entsteht ein mehr oder weniger direkt ausführbares Programm. Davon zu unterscheiden sind Interpreter, etwa für frühe Versionen von BASIC, die keinen Maschinencode erzeugen.
Teils wird zwischen den Begriffen "Übersetzer" und Compiler unterschieden. Ein Übersetzer übersetzt ein Programm aus einer formalen Quellsprache in ein semantisches Äquivalent in einer formalen Zielsprache. Compiler sind spezielle Übersetzer, die Programmcode aus problemorientierten Programmiersprachen, sogenannten Hochsprachen, in ausführbaren Maschinencode einer bestimmten Architektur oder einen Zwischencode (Bytecode, p-Code oder .NET-Code) überführen. Diese Trennung zwischen den Begriffen Übersetzer und Compiler wird nicht in allen Fällen vorgenommen.
Der "Vorgang" der Übersetzung wird auch als "Kompilierung" oder Umwandlung (bzw. mit dem entsprechenden Verb) bezeichnet. Das Gegenteil, also die Rückübersetzung von Maschinensprache in Quelltext einer bestimmten Programmiersprache, wird "Dekompilierung" und entsprechende Programme "Decompiler" genannt.
Terminologie.
Ein Übersetzer ist ein Programm, das als Eingabe ein in einer Quellsprache formuliertes Programm akzeptiert und es in ein semantisch äquivalentes Programm in einer Zielsprache übersetzt. Es wird also insbesondere gefordert, dass das erzeugte Programm die gleichen Ergebnisse wie das gegebene Programm liefert. Als Ausnahme wird oft die Quell-Sprache Assembler angesehen – ihr Übersetzer (in Maschinencode) heißt „Assembler“ und wird i. A. nicht als „Compiler“ bezeichnet. Die Aufgabe des Übersetzers umfasst ein großes Spektrum an Teilaufgaben, von der Syntaxanalyse bis zur Zielcodeerzeugung. Eine wichtige Aufgabe besteht auch darin, Fehler im Quellprogramm zu erkennen und zu melden.
Das Wort „Compiler“ stammt vom Englischen „to compile“ (dt. zusammentragen, zusammenstellen) ab und heißt im eigentlichen Wortsinn also „Zusammentrager“. In den 1950er-Jahren war der Begriff noch nicht fest in der Computerwelt verankert. Ursprünglich bezeichnete Compiler ein Hilfsprogramm, das ein Gesamtprogramm aus einzelnen Unterprogrammen oder Formelauswertungen zusammentrug, um spezielle Aufgaben auszuführen. (Diese Aufgabe erfüllt heute der Linker, der jedoch auch im Compiler integriert sein kann.) Die einzelnen Unterprogramme wurden noch „von Hand“ in Maschinensprache geschrieben. Ab 1954 kam der Begriff „algebraic compiler“ für ein Programm auf, das die Umsetzung von Formeln in Maschinencode selbständig übernahm. Das „algebraic“ fiel im Laufe der Zeit weg.
Ende der 1950er-Jahre wurde der Begriff des Compilers im englischsprachigen Raum noch kontrovers diskutiert. So hielt das Fortran-Entwicklerteam noch jahrelang am Begriff „translator“ (deutsch „Übersetzer“) fest, um den Compiler zu bezeichnen. Diese Bezeichnung ist sogar im Namen der Programmiersprache Fortran selbst enthalten: Fortran ist zusammengesetzt aus Formula und Translation, heißt also in etwa Formel-Übersetzung. Erst 1964 setzte sich der Begriff Compiler auch im Zusammenhang mit Fortran gegenüber dem Begriff Translator durch. Nach Carsten Busch liegt eine „besondere Ironie der Geschichte darin“, dass der Begriff Compiler im Deutschen mit „Übersetzer“ übersetzt wird. Einige deutsche Publikationen verwenden jedoch auch den englischen Fachbegriff Compiler anstelle von Übersetzer.
In einem engeren Sinne verwenden einige deutschsprachige Publikationen den Fachbegriff Compiler jedoch nur, wenn die Quellsprache eine höhere Programmiersprache ist als die Zielsprache. Typische Anwendungsfälle sind die Übersetzung einer höheren Programmiersprache in die Maschinensprache eines Computers, sowie die Übersetzung in Bytecode einer virtuellen Maschine. Zielsprache von Compilern (in diesem Sinne) kann auch eine Assemblersprache sein. Ein Übersetzer zur Übertragung von Assembler-Quellprogrammen in Maschinensprache wird als Assembler oder Assemblierer bezeichnet.
Geschichte.
Bereits für die erste entworfene höhere Programmiersprache, den Plankalkül von Konrad Zuse, plante dieser – nach heutiger Terminologie – einen Compiler. Zuse bezeichnete ein einzelnes Programm als "Rechenplan" und hatte schon 1944 die Idee für ein sogenanntes "Planfertigungsgerät", welches automatisch aus einem mathematisch formulierten Rechenplan einen gestanzten Lochstreifen mit entsprechendem Maschinenplan für den Zuse-Z4-Computer erzeugen sollte.
Konkreter als die Idee von Zuse eines Planfertigungsgeräts war ein Konzept von Heinz Rutishauser zur automatischen Rechenplanfertigung. In einem Vortrag vor der "Gesellschaft für Angewandte Mathematik und Mechanik (GAMM)" wie auch 1951 in seiner Habilitationsschrift an der ETH Zürich beschrieb er, welche zusätzlichen Programmierbefehle (Instruktionen) und Hardware-Ergänzungen an der damals an der ETHZ genutzten Z4 nötig seien, um den Rechner ebenfalls als Hilfsmittel zur automatischen Programmerstellung einzusetzen.
Ein früher Compiler wurde 1949 von der Mathematikerin Grace Hopper konzipiert. Bis zu diesem Zeitpunkt mussten Programmierer direkt Maschinencode erstellen. (Der erste Assembler wurde zwischen 1948 und 1950 von Nathaniel Rochester für eine IBM 701 geschrieben.) Um diesen Prozess zu vereinfachen, entwickelte Grace Hopper eine Methode, die es ermöglichte, Programme und ihre Unterprogramme in einer mehr an der menschlichen als der maschinellen Sprache orientierten Weise auszudrücken. Am 3. Mai 1952 stellte Hopper den ersten Compiler A-0 vor, der Algorithmen aus einem Katalog abrief, Code umschrieb, in passender Reihenfolge zusammenstellte, Speicherplatz reservierte und die Zuteilung von Speicheradressen organisierte. Anfang 1955 präsentierte Hopper bereits einen Prototyp des Compilers B-0, der nach englischen, französischen oder deutschen Anweisungen Programme erzeugte. Hopper nannte ihren Vortrag zum ersten Compiler „The Education of a Computer“ („Die Erziehung eines Computers“).
Die Geschichte des Compilerbaus wurde von den jeweils aktuellen Programmiersprachen (vgl. Zeittafel der Programmiersprachen) und Hardwarearchitekturen geprägt. Weitere frühe Meilensteine sind 1957 der erste Fortran-Compiler und 1960 der erste COBOL-Compiler. Viele Architekturmerkmale heutiger Compiler wurden aber erst in den 1960er Jahren entwickelt.
Früher wurden teilweise auch Programme als Compiler bezeichnet, die Unterprogramme zusammenfügen. Dies geht an der heutigen Kernaufgabe eines Compilers vorbei, weil Unterprogramme heutzutage mit anderen Mitteln eingefügt werden können: Entweder im "Quelltext" selbst, beispielsweise von einem Präprozessor (siehe auch Precompiler) oder bei "übersetzten Komponenten" von einem eigenständigen Linker.
Arbeitsweise.
Die prinzipiellen Schritte bei der Übersetzung eines Quellcodes in einen Zielcode lauten:
Aufbau eines Compilers.
Der Compilerbau, also die Programmierung eines Compilers, ist eine eigenständige Disziplin innerhalb der Informatik.
Moderne Compiler werden in verschiedene Phasen gegliedert, die jeweils verschiedene Teilaufgaben des Compilers übernehmen. Einige dieser Phasen können als eigenständige Programme realisiert werden (s. Precompiler, Präprozessor). Sie werden sequentiell ausgeführt. Im Wesentlichen lassen sich zwei Phasen unterscheiden: das Frontend (auch "Analysephase"), das den Quelltext analysiert und daraus einen attributierten Syntaxbaum erzeugt, sowie das Backend (auch "Synthesephase"), das daraus das Zielprogramm erzeugt.
Frontend (auch „Analysephase“).
Im Frontend wird der Code analysiert, strukturiert und auf Fehler geprüft. Es ist selbst wiederum in Phasen gegliedert.
Sprachen wie modernes C++ erlauben aufgrund von Mehrdeutigkeiten in ihrer Grammatik keine Aufteilung der Syntaxanalyse in lexikalische Analyse, syntaktische Analyse und semantische Analyse. Ihre Compiler sind entsprechend komplex.
Lexikalische Analyse.
Die lexikalische Analyse zerteilt den eingelesenen Quelltext in lexikalische Einheiten ("Tokens") verschiedener Typen, zum Beispiel Schlüsselwörter, Bezeichner, Zahlen, Zeichenketten oder Operatoren. Dieser Teil des Compilers heißt Tokenizer, Scanner oder Lexer.
Ein Scanner benutzt gelegentlich einen separaten Screener, um Whitespace (Leerraum, also Leerzeichen, Tabulatorzeichen, Zeilenenden usw.) und Kommentare zu überspringen.
Eine weitere Funktion der lexikalischen Analyse ist es, erkannte Tokens mit ihrer Position (z. B. Zeilennummer) im Quelltext zu assoziieren. Werden in der weiteren Analysephase, deren Grundlage die Tokens sind, Fehler im Quelltext gefunden (z. B. syntaktischer oder semantische Art), können die erzeugten Fehlermeldungen mit einem Hinweis auf den Ort des Fehlers versehen werden.
Lexikalische Fehler sind Zeichen oder Zeichenfolgen, die keinem Token zugeordnet werden können. Zum Beispiel erlauben die meisten Programmiersprachen keine Bezeichner, die mit Ziffern beginnen (z. B. „3foo“).
Syntaktische Analyse.
Die syntaktische Analyse überprüft, ob der eingelesene Quellcode in einer korrekten Struktur der zu übersetzenden Quellsprache vorliegt, das heißt der kontextfreien Syntax (Grammatik) der Quellsprache entspricht. Dabei wird die Eingabe in einen Syntaxbaum umgewandelt. Der syntaktische Analysierer wird auch als Parser bezeichnet. Falls der Quellcode nicht zur Grammatik der Quellsprache passt, gibt der Parser einen Syntaxfehler aus.
Der so erzeugte Syntaxbaum ist für die nächste Phase (semantische Analyse) mit den „Inhalten“ der Knoten annotiert; d. h. z. B., Variablenbezeichner und Zahlen werden, neben der Information, dass es sich um solche handelt, weitergegeben.
Die syntaktische Analyse prüft beispielsweise, ob die Klammerung stimmt, also zu jeder öffnenden Klammer eine schließende desselben Typs folgt, sowie ohne Klammer-Verschränkung. Auch geben die Schlüsselworte bestimmte Strukturen vor.
Semantische Analyse.
Die semantische Analyse überprüft die statische Semantik, also über die syntaktische Analyse hinausgehende Bedingungen an das Programm. Zum Beispiel muss eine Variable in der Regel deklariert worden sein, bevor sie verwendet wird, und Zuweisungen müssen mit kompatiblen (verträglichen) Datentypen erfolgen. Dies kann mit Hilfe von Attributgrammatiken realisiert werden. Dabei werden die Knoten des vom Parser generierten Syntaxbaums mit Attributen versehen, die Informationen enthalten. So kann zum Beispiel eine Liste aller deklarierten Variablen erstellt werden. Die Ausgabe der semantischen Analyse nennt man dann dekorierten oder attributierten Syntaxbaum.
Backend (auch „Synthesephase“).
Das Backend erzeugt aus dem vom Frontend erstellten attributierten Syntaxbaum den Programmcode der Zielsprache.
Zwischencodeerzeugung.
Viele moderne Compiler erzeugen aus dem Syntaxbaum einen Zwischencode, der schon relativ maschinennah sein kann und führen auf diesem Zwischencode zum Beispiel Programmoptimierungen durch. Das bietet sich besonders bei Compilern an, die mehrere Quellsprachen oder verschiedene Zielplattformen unterstützen. Hier kann der Zwischencode auch ein Austauschformat sein.
Programmoptimierung.
Der Zwischencode ist Basis vieler Programmoptimierungen. Siehe Programmoptimierung.
Codegenerierung.
Bei der Codegenerierung wird der Programmcode der Zielsprache entweder direkt aus dem Syntaxbaum oder aus dem Zwischencode erzeugt. Falls die Zielsprache eine Maschinensprache ist, kann das Ergebnis direkt ein ausführbares Programm sein oder eine sogenannte Objektdatei, die durch das Linken mit der Laufzeitbibliothek und evtl. weiteren Objektdateien zu einer Bibliothek oder einem ausführbaren Programm führt. Dies alles wird vom Codegenerator ausgeführt, der Teil des Compilersystems ist, manchmal als Programmteil des Compilers, manchmal als eigenständiges Modul.
Programmoptimierung (ausführlich).
Viele Optimierungen, die früher Aufgabe des Compilers waren, werden mittlerweile innerhalb der CPU während der Codeabarbeitung vorgenommen.
Maschinencode ist gut, wenn er kurze kritische Pfade und wenig Überraschungen durch falsch vorhergesagte Sprünge aufweist, Daten rechtzeitig aus dem Speicher anfordert und alle Ausführungseinheiten der CPU gleichmäßig auslastet.
Zur Steuerung des Übersetzens kann der Quelltext neben den Anweisungen der Programmiersprache zusätzliche spezielle Compiler-Anweisungen enthalten.
Üblicherweise bietet ein Compiler Optionen für verschiedene Optimierungen mit dem Ziel, die Laufzeit des Zielprogramms zu verbessern oder dessen Speicherplatzbedarf zu minimieren. Die Optimierungen erfolgen teilweise in Abhängigkeit von den Eigenschaften der Hardware, zum Beispiel wie viele und welche Register der Prozessor des Computers zur Verfügung stellt. Es ist möglich, dass ein Programm nach einer Optimierung langsamer ausgeführt wird, als das ohne die Optimierung der Fall gewesen wäre. Dies kann zum Beispiel eintreten, wenn eine Optimierung für ein Programmkonstrukt längeren Code erzeugt, der zwar an sich schneller ausgeführt werden würde, aber mehr Zeit benötigt, um erst einmal in den Cache geladen zu werden. Er ist damit erst bei häufigerer Benutzung vorteilhaft.
Einige Optimierungen führen dazu, dass der Compiler Zielsprachenkonstrukte erzeugt, für die es gar keine direkten Entsprechungen in der Quellsprache gibt. Ein Nachteil solcher Optimierungen ist, dass es dann kaum noch möglich ist, den Programmablauf mit einem interaktiven Debugger in der Quellsprache zu verfolgen.
Optimierungen können sehr aufwendig sein. Vielfach muss vor allem in modernen JIT-Compilern daher abgewogen werden, ob es sich lohnt, einen Programmteil zu optimieren. Bei Ahead-of-time-Compilern werden bei der abschließenden Übersetzung alle sinnvollen Optimierungen verwendet, häufig jedoch nicht während der Software-Entwicklung (reduziert den Kompilier-Zeitbedarf). Für nichtautomatische Optimierungen seitens des Programmierers können Tests und Anwendungsszenarien durchgespielt werden (s. Profiler), um herauszufinden, wo sich komplexe Optimierungen lohnen.
Im Folgenden werden einige Optimierungsmöglichkeiten eines Compilers betrachtet. Das größte Optimierungspotenzial besteht allerdings oft in der Veränderung des Quellprogramms selbst, zum Beispiel darin, einen Algorithmus durch einen effizienteren zu ersetzen. Dieser Vorgang kann meistens nicht automatisiert werden, sondern muss durch den Programmierer erfolgen. Einfachere Optimierungen können dagegen an den Compiler delegiert werden, um den Quelltext lesbar zu halten.
Einsparung von Maschinenbefehlen.
In vielen höheren Programmiersprachen benötigt man beispielsweise eine Hilfsvariable, um den Inhalt zweier Variablen zu vertauschen:
Mit der Optimierung werden statt 6 nur noch 4 Assemblerbefehle benötigt, außerdem wird der Speicherplatz für die Hilfsvariable codice_1 nicht gebraucht. D. h., diese Vertauschung wird schneller ausgeführt und benötigt weniger Hauptspeicher. Dies gilt jedoch nur, wenn ausreichend Register im Prozessor zur Verfügung stehen. Die Speicherung von Daten in Registern statt im Hauptspeicher ist eine häufig angewendete Möglichkeit der Optimierung.
Die oben als optimiert gezeigte Befehlsfolge hat noch eine weitere Eigenschaft, die bei modernen CPUs mit mehreren Verarbeitungs-Pipelines einen Vorteil bedeuten kann: Die beiden Lesebefehle und die beiden Schreibbefehle können problemlos parallel verarbeitet werden, sie sind nicht vom Resultat des jeweils anderen abhängig. Lediglich der erste Schreibbefehl muss auf jeden Fall abwarten, bis der letzte Lesebefehl ausgeführt wurde. Tiefer gehende Optimierungsverfahren fügen deshalb unter Umständen zwischen "b → Register 2" und "Register 2 → a" noch Maschinenbefehle ein, die zu einer ganz anderen hochsprachlichen Befehlszeile gehören.
Statische Formelauswertung zur Übersetzungszeit.
Die Berechnung des Kreisumfangs mittels
pi = 3.14159
u = 2 * pi * r
kann ein Compiler bereits zur Übersetzungszeit zu u = 6.28318 * r auswerten. Diese Formelauswertung spart die Multiplikation 2 * pi zur Laufzeit des erzeugten Programms. Diese Vorgehensweise wird als Konstantenfaltung (englisch „constant folding“) bezeichnet.
Eliminierung von totem Programmcode.
Wenn der Compiler erkennen kann, dass ein Teil des Programmes niemals durchlaufen wird, dann kann er diesen Teil bei der Übersetzung weglassen.
"Beispiel:"
100 goto 900
200 k=3
900 i=7
Wenn in diesem Programm niemals ein codice_2 auf die Sprungmarke codice_3 erfolgt, kann auf die Anweisung codice_4 verzichtet werden. Der Sprungbefehl codice_5 ist dann ebenfalls überflüssig.
Erkennung unbenutzter Variablen.
Wird eine Variable nicht benötigt, so muss dafür kein Speicherplatz reserviert und kein Zielcode erzeugt werden.
"Beispiel:"
subroutine test (a,b)
b = 2 * a
c = 3.14 * b
return b
Hier wird die Variable codice_6 nicht benötigt: Sie steht nicht in der Parameterliste, wird in späteren Berechnungen nicht verwendet und wird auch nicht ausgegeben. Deshalb kann die Anweisung c = 3.14 * b entfallen.
Optimierung von Schleifen.
Insbesondere Schleifen versucht man zu optimieren, indem man zum Beispiel
Manche dieser Optimierungen sind bei aktuellen Prozessoren ohne Nutzen oder sogar kontraproduktiv.
Einfügen von Unterprogrammen.
Bei kleinen Unterprogrammen fällt der Aufwand zum Aufruf des Unterprogrammes verglichen mit der vom Unterprogramm geleisteten Arbeit stärker ins Gewicht. Daher versuchen Compiler, den Maschinencode kleinerer Unterprogramme direkt einzufügen – ähnlich wie manche Compiler/Assembler/Präcompiler Makro-Anweisungen in Quellcode auflösen. Diese Technik wird auch als Inlining bezeichnet. In manchen Programmiersprachen ist es möglich, durch "inline"-Schlüsselwörter den Compiler darauf hinzuweisen, dass das Einfügen von bestimmten Unterprogrammen gewünscht ist. Das Einfügen von Unterprogrammen eröffnet oft, abhängig von den Parametern, weitere Möglichkeiten für Optimierungen.
Halten von Werten in Registern.
Anstatt mehrfach auf dieselbe Variable im Speicher, beispielsweise in einer Datenstruktur, zuzugreifen, kann der Wert nur einmal gelesen und für weitere Verarbeitungen in Registern oder im Stack zwischengespeichert werden. In C, C++ und Java muss dieses Verhalten ggf. mit dem Schlüsselwort "volatile" abgeschaltet werden: Eine als "volatile" bezeichnete Variable wird bei jeder Benutzung wiederholt vom originalen Speicherplatz gelesen, da ihr Wert sich unterdessen geändert haben könnte. Das kann beispielsweise der Fall sein, wenn es sich um einen Hardware-Port handelt oder ein parallel laufender Thread den Wert geändert haben könnte.
"Beispiel:"
int a = array[25]->element.x;
int b = 3 * array[25]->element.x;
Im Maschinenprogramm wird nur einmal auf codice_7 zugegriffen, der Wert wird zwischengespeichert und zweimal verwendet. Ist codice_8 volatile, dann wird zweimal zugegriffen.
Es gibt außer "volatile" noch einen anderen Grund, der eine Zwischenspeicherung in Registern unmöglich macht: Wenn der Wert der Variablen codice_9 durch Verwendung des Zeigers codice_10 im Speicher verändert werden könnte, kann eine Zwischenspeicherung von codice_9 in einem Register zu fehlerhaftem Programmverhalten führen. Da die in der Programmiersprache C oft verwendeten Zeiger nicht auf ein Array beschränkt sind (sie könnten irgendwohin im Hauptspeicher zeigen), hat der Optimizer oft nicht genügend Informationen, um eine Veränderung einer Variablen durch einen Zeiger auszuschließen.
Verwendung schnellerer äquivalenter Anweisungen.
Statt einer Multiplikation oder Division von Ganzzahlen mit einer Zweierpotenz kann ein Schiebebefehl verwendet werden. Es gibt Fälle, in denen nicht nur Zweierpotenzen, sondern auch andere Zahlen (einfache Summen von Zweierpotenzen) für diese Optimierung herangezogen werden. So kann zum Beispiel (n « 1) + (n « 2) schneller sein als n * 6. Statt einer Division durch eine Konstante kann eine Multiplikation mit dem Reziprokwert der Konstante erfolgen. Selbstverständlich sollte man solch spezielle Optimierungen auf jeden Fall dem Compiler überlassen.
Weglassen von Laufzeitüberprüfungen.
Programmiersprachen wie Java fordern Laufzeitüberprüfungen beim Zugriff auf Felder oder Variablen. Wenn der Compiler ermittelt, dass ein bestimmter Zugriff immer im erlaubten Bereich sein wird (zum Beispiel ein Zeiger, von dem bekannt ist, dass er an dieser Stelle nicht NULL ist), kann der Code für diese Laufzeitüberprüfungen weggelassen werden.
Reduktion von Paging zur Laufzeit.
Eng zusammenhängende Codebereiche, zum Beispiel ein Schleifenrumpf, sollte zur Laufzeit möglichst auf der gleichen oder in möglichst wenigen Speicherseiten („Page“, zusammenhängend vom Betriebssystem verwalteter Speicherblock) im Hauptspeicher liegen. Diese Optimierung ist Aufgabe des (optimierenden) Linkers. Dies kann zum Beispiel dadurch erreicht werden, dass dem Zielcode an geeigneter Stelle Leeranweisungen („NOPs“ – "N"o "OP"eration) hinzugefügt werden. Dadurch wird der erzeugte Code zwar größer, aber wegen der reduzierten Anzahl notwendiger TLB-Cache-Einträge und notwendiger Pagewalks wird das Programm schneller ausgeführt.
Vorziehen bzw. Verzögern von Speicherzugriffen.
Durch das Vorziehen von Speicherlesezugriffen und das Verzögern von Schreibzugriffen lässt sich die Fähigkeit moderner Prozessoren zur Parallelarbeit verschiedener Funktionseinheiten ausnutzen. So kann beispielsweise bei den Befehlen: a = b * c; d = e * f; der Operand codice_12 bereits geladen werden, während ein anderer Teil des Prozessors noch mit der ersten Multiplikation beschäftigt ist.
Ein Beispielcompiler.
Folgendes in ANTLR erstelltes Beispiel soll die Zusammenarbeit zwischen Parser und Lexer erklären. Der Übersetzer soll Ausdrücke der Grundrechenarten beherrschen und vergleichen können. Die Parsergrammatik wandelt einen Dateiinhalt in einen abstrakten Syntaxbaum (AST) um.
Grammatiken.
Die Baumgrammatik ist in der Lage, die im AST gespeicherten Lexeme zu evaluieren. Der Operator der Rechenfunktionen steht in der AST-Schreibweise vor den Operanden als Präfixnotation. Daher kann die Grammatik ohne Sprünge Berechnungen anhand des Operators durchführen und dennoch Klammerausdrücke und Operationen verschiedener Priorität korrekt berechnen.
tree grammar Eval;
options {
tokenVocab=Expression;
ASTLabelType=CommonTree;
@header {
import java.lang.Math;
start : line+; //Eine Datei besteht aus mehreren Zeilen
compare returns [double value]
| ^(UMINUS a=compare) {$value = -1*a;} //Token UMINUS ist notwendig, um den binären
//Operator nicht mit einem Vorzeichen zu verwechseln
| ^('=' a=compare b=compare) {$value = (a==b)? 1:0;} //wahr=1, falsch=0
Ist eines der oben als "compare" bezeichnete Ausdrücke noch kein Lexem, so wird es von der folgenden Lexer-Grammatik in einzelne Lexeme aufgeteilt. Dabei bedient sich der Lexer der Technik des rekursiven Abstiegs. Ausdrücke werden so immer weiter zerlegt, bis es sich nur noch um Token vom Typ "number" oder Operatoren handeln kann.
grammar Expression;
options {
output=AST;
ASTLabelType=CommonTree;
tokens {
UMINUS;
start : (line {System.out.println($line.tree==null?"null":$line.tree.toStringTree());})+;
line : compare NEWLINE -> ^(compare); //Eine Zeile besteht aus einem Ausdruck und einem
//terminalen Zeichen
compare : sum ('='^ sum)?; //Summen sind mit Summen vergleichbar
sum : product ('+'^ product|'-'^ product)*; //Summen bestehen aus Produkten (Operatorrangfolge)
product : pow ('*'^ pow|'/'^ pow|'%'^ pow)*; //Produkte (Modulo-Operation gehört hier dazu) können
//aus Potenzen zusammengesetzt sein
pow : term ('^'^ pow)?; //Potenzen werden auf Terme angewendet
term : number //Terme bestehen aus Nummern, Subtermen oder Summen
|'+' term -> term
|'-' term -> ^(UMINUS term) //Subterm mit Vorzeichen
|'('! sum ')'! //Subterm mit Klammerausdruck
number : INT; //Nummern bestehen nur aus Zahlen
INT : '0'..'9'+;
NEWLINE : '\r'? '\n';
WS : (' '|'\t'|'\n'|'\r')+ {skip();}; //Whitespace wird ignoriert
Die Ausgabe hinter dem Token "start" zeigt außerdem den gerade evaluierten Ausdruck.
Ausgabe des Beispiels.
Eingabe:
5 = 2 + 3
32 * 2 + 8
(2 * 2^3 + 2) / 3
Ausgabe (in den ersten Zeilen wird nur der Ausdruck der Eingabe in der AST-Darstellung ausgegeben):
(= 5 (+ 2 3))
(+ (* 32 2) 8)
(/ (+ (* 2 (^ 2 3)) 2) 3)
1.0
72.0
6.0
Der erste Ausdruck wird also als wahr (1) evaluiert, bei den anderen Ausdrücken wird das Ergebnis der Rechnung ausgegeben. |
971 | 3596509 | https://de.wikipedia.org/wiki?curid=971 | Columban von Luxeuil | Columban von Luxeuil, auch Kolumban geschrieben (* ca. 540 in West Leinster, Irland; † 23. November 615 in Bobbio, Provinz Piacenza, Italien) war ein irischer Wandermönch und Missionar. Er wird von Katholiken und orthodoxen Christen als Heiliger verehrt. In der Evangelischen Kirche in Deutschland gilt er als denkwürdiger Glaubenszeuge.
Zur Unterscheidung zum heiligen Columban, der Schottland missionierte, wird er als Columban von Luxeuil, Columban von Bobbio (italienisch "Colombano") oder Columban der Jüngere bezeichnet.
Sein liturgischer Gedenktag ist der 23. November.
Leben.
Erziehung.
Nachdem er sich von der Welt losgesagt hatte, begann er eine klösterliche Erziehung bei Abt "Sinell" in Cluaninis bei Lough Erne. Später zog es ihn in die Abtei Bangor, die damals vom heiligen Comgall geleitet wurde.
Reisen des Hl. Columban.
Um das Jahr 591 brach Columban mit einer Reihe von Brüdern, traditionell ist in Anlehnung an die Jüngerzahl Jesu von zwölfen die Rede, vom Kloster Bangor zur Küste auf. Unter seinen Gefährten werden der heilige Gallus, Domoal, Comininus, Eunocus und Equonanus genannt. Die Gefährten schifften sich ein und erreichten zunächst die Küste Britanniens (der Text lässt offen, ob es sich um die Küste der Bretagne oder die des heutigen Großbritanniens handelt). Hier, so berichtet Jona, ruhten sie sich aus und berieten ihre Pläne, bevor sie nach Gallien gingen.
Im Frankenreich.
Childebert II. (Jonas nennt hier Sigebert) lud Columban kurz nach dessen Eintreffen in Gallien nach Austrasien ein. Hier gründete Columban mit seinen Gefährten zunächst das Kloster Annegray. Vor allem fränkische Adlige und Beamte sandten ihre Söhne als Oblaten in das Kloster, um sie dort ausbilden zu lassen. Schon bald gründeten die irischen Mönche die Klöster Luxeuil und Fontaines.
Columbansregel.
In diesem Zusammenhang entstand die "Regula Monachorum Columbans", die sich von der Regula Benedicti deutlich unterschied. Sie war strenger, indem sie auf der Grundlage gemeinsamer Gottesdienste und regelmäßigen Chorgebets individuell zu Studium und Arbeit verpflichtete. Viele Fastentage und Schweigezeiten waren vorgeschrieben. Die Kleidung bestand nur aus dem Untergewand, dem Mantel (cuculla) und Sandalen. Streng hielt Columban auf Keuschheit wegen der kultischen Reinheit und Gehorsam gegenüber Oberen und Älteren, wie Jesus dem Vater gehorsam gewesen war. „Beim ersten Wort, das ein Älterer spricht, müssen alle, die ihn hören, sich erheben.“ Anders als die Benediktiner waren die Columbaner oft Wandermönche, einsam und allein in unvertrauter Umgebung, lebten also noch entbehrungsreicher. Damit waren aber auch manche Freiheiten möglich.
Der Erfolg der irischen Mönche unter Columban weckte den Neid der Bischöfe, denn er entzog sich ihrer Jurisdiktion, da er unter dem Schutz Childeberts II. und später von dessen Nachfolger Theuderich II. stand. Da er weiterhin dem irischen Festkalender folgte, feierte er das Osterfest zu einem anderen Termin als der Rest der römischen Kirche. Dies suchten die fränkischen Bischöfe zu einer Klage auszunutzen. Der kam Columban jedoch zuvor, als er sich um das Jahr 600 in einem Brief an Papst Gregor wandte. Im zweiten noch erhaltenen Brief, der sich vermutlich an die Synode der fränkischen Bischöfe in Chalon des Jahres 603 wandte, bittet er darum, in Frieden in seiner neuen Heimat bleiben zu dürfen. Noch stand Columban unter dem Schutz Theuderichs, doch als er von ihm gebeten wurde, dessen vier illegitime Kinder zu segnen und damit zu legitimieren, weigerte sich Columban und drohte später mit der Exkommunikation, weil, wie er sich ausdrückte, diese Kinder aus dem Bordell hervorgegangen seien. Wegen Columbans Weigerung habe die Großmutter Brunichild den Heiligen ausweisen lassen (Bericht des Jonas von Bobbio). Nun sandte ihn Theuderich unter Bewachung nach Besançon. Nach dem Bericht des Jonas kam es hier zu einigen Vorfällen, die die Bewacher veranlassten, Columban gehen zu lassen. So kehrte er nach Luxeuil zurück. Doch im Jahre 610 wurde er erneut unter Bewachung gestellt und mit einigen seiner irischen Gefährten nach Nantes gebracht. Theuderich wollte wohl, da nun Theudebert II. ins Elsass eingefallen war, dieses unsichere Element loswerden. Nach zeitgenössischen Berichten war Columban schon unterwegs nach Irland, als ein Sturm ihn dazu zwang, auf den Kontinent zurückzukehren.
Der Rhein war durch den Kleinen Laufen bei Laufenburg für Boote nicht passierbar, ebenso bei Ettikon, man konnte hier nur zu Fuß oder Pferd weiter. Der einfachste Weg an den Zürichsee führte damals über die Aare, die man vom Hochrhein aus auf der Höhe ab Waldshut oder Koblenz mit Booten, meist Weidlingen befuhr, dann kam man auf der Limmat in den Zürichsee.
Columban und seine Gefährten kamen zunächst nach Tuggen an den oberen Zürichsee, wo sie mit der Missionierung begannen. Ein Teil der Einwohner nahm den neuen Glauben an, andere blieben aber skeptisch. Zum Beweis, dass ihre alten Götter nichtig seien, nahm Gallus eine Statue und warf sie in den See. Das von den Heiden erwartete Strafgericht ihrer Götter trat nicht ein, und einige mehr ließen sich vom neuen Glauben überzeugen und taufen. Dennoch mussten die Glaubensboten weiterziehen, weil ihnen die verbliebenen Heiden nach dem Leben trachteten.
Es verschlug Columban an den Bodensee, wo er in Bregenz Christen vorfand, die heidnische Bräuche wieder aufgenommen hatten. Mit der Hilfe von Gallus stellte er die kirchliche Zucht wieder her, und die Verehrung der heiligen Aurelia von Straßburg, einer Gefährtin der heiligen Ursula, lebte wieder auf.
Columban gründete dort ein kleines Kloster mit strengen Ordensregeln. Er legte so viel Wert auf Sauberkeit, dass, wenn ein Klosterbruder Bier verschüttete, dieser in der Nacht stillstehen bleiben oder für einige Zeit bei Tisch Wasser trinken musste. Die Mönche fanden heraus, dass dick gebrautes Bier beim Fasten als Sättigungsmittel helfen konnte.
Weil er und seine Gefährten in ihrem missionarischen Eifer unter den Einheimischen Streit auslösten, forderte der Herzog von Überlingen den Missionar auf, um des Friedens willen die Gegend zu verlassen. Gallus aber blieb in der Gegend, vorgeblich weil er aufgrund einer Krankheit nicht weiterziehen konnte. Weil ihm Columban nicht glaubte, verbot er ihm, die Messe zu lesen, bis zum Tag seines eigenen Todes. Gallus aber wurde zum Gründer der Stadt St. Gallen und zu ihrem Schutzpatron.
In Italien.
612 zog Columban nach Mailand und mischte sich in den Streit um den Nestorianismus ein. Ein ihm zugesprochener Brief an Papst Bonifatius IV. ist ein großes Zeugnis der Papstverbundenheit des irischen Missionars. Der langobardische König Agilulf vermachte ihm ein Gebiet namens Bobbio (Provinz Piacenza) am Fluss Trebbia, wo er ein Kloster, die heutige Abtei Bobbio, gründete und die Zeit bis zu seinem Lebensende verbrachte – trotz einer Einladung der Franken, nach Luxeuil zurückzukehren. Er starb am 23. November 615 in Bobbio in Norditalien. Der Legende nach soll Gallus an diesem Tag im Gedenken an seinen Meister erstmals wieder die heilige Messe gelesen haben – die gesicherte Nachricht über dessen Tod erreichte ihn erst Wochen später.
Werk und Einfluss.
Columban hat mit seiner Peregrinatio eine umfassende Missionsbewegung auf dem europäischen Festland angestoßen und gilt als einer der bekanntesten iroschottischen Wandermissionare. Außerdem war er auch auf dem Gebiet der Liturgie tätig. Es werden ihm einige Hymnen, Briefe, Predigten sowie ein theologisches Traktat über die Buße zugeschrieben.
Einen prägenden Einfluss hatte er auf die Christianisierung des bis dahin noch heidnisch, das heißt gallo-römisch geprägten ländlichen Raums auf der Alpennordseite. Bemerkenswert dabei ist, dass sich sein Erfolg wesentlich auf die von seiner irischen Heimat geprägte iroschottische Form des Christentums stützte. Sie war im Gegensatz zum römischen Kirchenmodell deutlich weniger hierarchisch und legte großen Wert auf die persönliche Beziehung.
Klostergründungen.
Columban selbst hatte nur drei Klöster gegründet, Luxeuil (das zusammen mit Annegray und Fontaines unter einer Verwaltung stand), das nach einem Jahr untergegangene Bregenz und Bobbio. Infolge seiner Tätigkeit breitete sich aber erfolgreich die iroschottische Mission auf dem europäischen Festland aus und wurde insbesondere durch seine Schüler Eustasius († 629) und Gallus († 645) sowie deren Schüler Kilian von Würzburg († 689) fortgeführt. Dabei wurden vor allem viele Klöster auf dem Land gegründet. Unter römischer Vorherrschaft war das Christentum nur in den Städten verbreitet gewesen und hatte es in gut fünf Jahrhunderten nicht geschafft, die gallo-römische Landbevölkerung zu erreichen. Dies änderte sich mit Columbans Klostergründungswelle, in deren Folge sich eine – vom fränkischen Adel getragene – Bewegung entwickelte, die im 7. Jahrhundert circa 300 neue Klöster gründete. Mit diesen geistlichen Zentren hielt erstmals das Christentum im ländlichen Raum Einzug. Durch ihr landwirtschaftliches Wissen und ihre wirtschaftlichen Aktivitäten waren die Klöster darüber hinaus prägend für das Entstehen der europäischen Kulturlandschaft.
Verbreitung der Regel Columbans.
Columban gab dem Mönchtum durch eine von ihm verfasste Ordensregel wesentliche Impulse.
Sein Nachfolger Abt Eustachius von Luxeuil wurde wegen der Liturgie und Ordensregel Columbans angeklagt. Der König ließ daraufhin 627 die Synode von Mâcon einberufen, auf der allerdings die Regel Columbans noch bestätigt wurde. Dennoch ist davon auszugehen, dass nach dem Tode des Abts schon bald Teile der Benediktinerregel im Kloster Luxeuil praktiziert wurden. Durch die Klostergründungen der von Columban initiierten Bewegung breitete sich diese Mischregel stark aus. Um das Jahr 670 beschloss das Konzil von Autun, dass die Klöster künftig nach der Regel Benedikts geführt werden sollten. Dennoch wurden in der Folge vielfach Mischregeln, vor allem mit Teilen Columbans und Benedikts, verwendet. Die Regel Columbans konnte sich dauerhaft zwar nicht gegen die des Benedikt von Nursia durchsetzen, dennoch beachteten einige Klöster, besonders die im Reich der Franken, noch einige Jahrhunderte zumindest Teile seiner Regel. Erst durch die umfangreichen Reformen von Benedikt von Aniane wurde die Benediktinerregel mit Unterstützung Ludwigs des Frommen über das Frankenreich im gesamten Abendland die verbindliche Mönchsregel. Insofern hatte Columban einen prägenden Einfluss auf die Christianisierung und das klösterliche Leben in Europa.
Verehrung.
Der Gedenktag des Heiligen ist der 21. November (orthodox) und 23. November (evangelisch und römisch-katholisch), in Irland und bei den Benediktinern wird er hingegen am 24. November verehrt; in den Bistümern Chur, St. Gallen und Feldkirch am 27. November. Er gilt als Patron der Motorradfahrer und Helfer bei Überschwemmungen. Dargestellt wird er als bärtiger Mönch umgeben von einem Wolfsrudel, eine Versinnbildlichung der widrigen Umstände, unter denen der Heilige oft wirkte.
Die Pfarrkirche Bregenz-St. Kolumban trägt sein Patrozinium, zusätzlich ist die dortige "Kolumbanstraße" nach ihm benannt. Ferner ist er auf den Wappen von Sagogn (Graubünden) und Tuggen (Schwyz) abgebildet. |
972 | 10276 | https://de.wikipedia.org/wiki?curid=972 | Chasarenreich | |
973 | 577447 | https://de.wikipedia.org/wiki?curid=973 | C. S. Lewis | C. S. Lewis ("Clive Staples Lewis," privat auch "Jack" genannt; * 29. November 1898 in Belfast; † 22. November 1963 in Oxford) war ein irischer Schriftsteller und Literaturwissenschaftler. Er lehrte am Magdalen College der University of Oxford und hatte den Lehrstuhl für Englische Literatur des Mittelalters und der Renaissance an der University of Cambridge inne. Vor allem im angloamerikanischen Raum ist er bekannt für seine inzwischen auch verfilmte Kinderbuchserie "Die Chroniken von Narnia." Er ist einer der einflussreichsten christlichen Apologeten der Neuzeit.
Leben.
Kindheit und Jugend.
Clive Staples („Jack“) Lewis wurde 1898 im nordirischen Belfast geboren und wuchs dort zusammen mit seinem drei Jahre älteren Bruder Warren („Warnie“) auf. Sein Vater Albert James Lewis hatte als erster seiner Familie einen akademischen Beruf ergriffen, er war Anwalt. Seine Vorfahren stammten aus Wales und waren in der Landwirtschaft tätig. Die Mutter Florence Augusta Hamilton Lewis („Flora“) war Pfarrerstochter und hatte an der Queens-Universität Mathematik und Logik studiert. Die Eltern waren sehr belesen und besaßen eine große Hausbibliothek, die den jungen Jack faszinierte und ihm einen Zugang zur Literatur ermöglichte.
Ein tiefer und traumatischer Einschnitt in Jacks Leben war die Krebserkrankung seiner Mutter. Nach anfänglicher Besserung verschlechterte sich ihr Zustand. Sie starb im August 1908, als Jack neun Jahre alt war. Im gleichen Jahr starben auch ein Großvater und ein Onkel. Sein Vater schickte ihn darauf in britische Internate:
Wynyard School in Watford (September 1908 – Juni 1910), Campbell College in Belfast (September – Dezember 1910), Cherbourg School in Malvern (Januar 1911 – Juni 1913) und Malvern College (September 1913 – Juni 1914). Von 1914 bis 1917 genoss er Privatunterricht bei William Thompson Kirkpatrick, von dessen Klarheit im Denken Lewis sehr profitierte.
Erster Weltkrieg.
Wegen des Ersten Weltkriegs musste Lewis sein Studium am University College in Oxford, das er im April 1917 angefangen hatte, abbrechen und Soldat der britischen Armee werden. In Oxford absolvierte er seine Offiziersausbildung und wurde zum Offizier in das dritte Bataillon der Somerset Light Infantry befördert. An seinem 19. Geburtstag (29. November 1917) kam er an die Front nach Frankreich. Am 15. April 1918 wurde Lewis in Mont-Bernanchon bei Lillers durch Eigenbeschuss (von einer fehlgeleiteten englischen Granate) verwundet und zur Genesung zurück nach England geschickt.
Universitätslaufbahn.
Im Jahre 1919 nahm er seine Studien am University College in Oxford wieder auf. Er legte 1920 die erste öffentliche Universitätsprüfung mit Auszeichnung in Griechisch und Latein, 1922 die Abschlussprüfung in Philosophie und antiker Geschichte und 1923 die erste öffentliche Universitätsprüfung in Englisch ab. Bis Mai 1925 war Lewis Philosophiedozent am University College und erhielt eine "Fellowship" für englische Sprache am Magdalen College in Oxford, an dem er auch J. R. R. Tolkien kennenlernte.
Seit seinem 16. Lebensjahr war Lewis ein überzeugter Atheist gewesen, hatte sich dann aber während seines Studiums der pantheistischen Philosophie des Englischen Hegelianismus zugewandt. 1929 akzeptierte er jedoch einen personalen Gott und den Gedanken der Schöpfung: Er wurde also Theist. Nach einer langen nächtlichen Diskussion mit Tolkien und Hugo Dyson im September 1931 bekehrte er sich schließlich zum Christentum. Zum Leidwesen des überzeugten Katholiken Tolkien blieb er allerdings in der anglikanischen Kirche, zu der auch seine Vorfahren gehört hatten. Er vertrat allerdings (bis auf seine Ablehnung des päpstlichen Primates) überwiegend auch für Katholiken akzeptable Ansichten.
Ab dem Herbstsemester 1933 bis 1947 traf sich Lewis mit seinem Freundeskreis, den „Inklings“, zu dem auch J. R. R. Tolkien, sein Bruder Warnie, Owen Barfield, Nevill Coghill, Hugo Dyson, Charles Williams und andere gehörten. In den nächsten Jahren wurde Lewis durch seine Vorlesungen, Veröffentlichungen in christlichen Zeitschriften und durch seine Radioansprachen, die von der BBC ausgestrahlt wurden, bekannt. Im Jahr 1948 wurde er zum Mitglied der "Royal Society of Literature" gewählt und erhielt in den nächsten Jahren drei Ehrendoktorwürden für Theologie und Literatur. Ab 1954 hatte er den Lehrstuhl für Literatur des Mittelalters und der Renaissance in Cambridge inne. 1958 wurde er Ehrenmitglied des University College Oxfords.
Heirat, späte Jahre.
Am 23. April 1956 heiratete Lewis die amerikanische Schriftstellerin Helen Joy Davidman standesamtlich in Oxford, um sie und ihre beiden Söhne vor einer Ausweisung aus England zu bewahren. Erst als er von ihrer Krebserkrankung erfuhr, begann er, sie bewusst zu lieben. Am 21. März 1957 wurde an ihrem Bett im Wingfield Krankenhaus eine kirchliche Trauung nach anglikanischem Ritus durch den Geistlichen Peter Bide durchgeführt, obwohl Joy Davidman geschieden war. In den nächsten Jahren besserte sich ihre Erkrankung zunächst.
Im Juli 1958 fuhr Lewis mit seiner Frau 10 Tage nach Irland in Urlaub, worauf er zehn Vorträge über "The Four Loves" in London hielt. Joy starb am 13. Juli 1960 im Alter von 45 Jahren, was Lewis in eine tiefe Sinn-, Glaubens- und Lebenskrise stürzte. 1961 verarbeitete er diese Krise auch literarisch in "A Grief Observed" (deutsch: "Über die menschliche Trauer"), die er zuerst unter dem Pseudonym N. W. Clerk veröffentlichte.
Tod.
C. S. Lewis starb an den Folgen eines Nierenversagens eine Woche vor seinem 65. Geburtstag am 22. November 1963. In der Presse wurde sein Tod kaum beachtet, weil knapp eine Stunde später das Attentat auf John F. Kennedy stattgefunden hatte und zudem Aldous Huxley am selben Tag starb.
Das Grab befindet sich im Garten der Holy Trinity Church in Headington Quarry in Oxford. Lewis’ Bruder Warren starb am 9. April 1973. Ihre Namen stehen auf einem gemeinsamen Stein mit der Inschrift, die Warren ausgewählt hatte: "Men must endure their going hence" („Dulden muss der Mensch sein Scheiden aus der Welt“).
Werk.
C. S. Lewis verfasste neben seinen literaturkritischen Werken bekannte christliche apologetische Schriften sowie die ebenfalls christliche Symbolik verwendende Kinderbuchserie über das Land Narnia (Genre Fantasy) und die Perelandra-Trilogie (Genre Science-Fiction und Fantasy).
Lewis war Mittelpunkt des christlich geprägten Literaturkreises der "Inklings" und lange Zeit eng mit J. R. R. Tolkien befreundet. Die beiden Autoren beeinflussten sich gegenseitig wesentlich. Später jedoch kühlte diese Freundschaft wegen Tolkiens Kritik an den „Narnia-Chroniken“ ab, in einigen späten Briefen Tolkiens finden sich ausgesprochen negative persönliche Angriffe auf Lewis. Ein weiterer enger Freund von Lewis war der britische Schriftsteller Charles Williams (1886–1945), der theologische Bücher, Romane, Gedichte und literaturwissenschaftliche Texte verfasste.
Er bezeichnete den schottischen Pfarrer und Schriftsteller George MacDonald (1824–1905) vielfach als sein Vorbild und als seinen „Meister“. Im Buch "Die große Scheidung" (engl. "The Great Divorce") ließ er MacDonald sogar als Charakter auftreten. In seinem Erzählwerk beleuchtete Lewis Fragen christlicher Ethik und Glaubenslehre. Sein Roman "Du selbst bist die Antwort" (englischer Originaltitel: "Till We Have Faces: A Myth Retold") ist eine Version von "Amor und Psyche" aus der Sicht von Psyches Schwester und gilt einigen Literaturkritikern als sein bestes Werk.
Im Februar 1943 hielt Lewis an der Universität von Durham die "Riddell Memorial Lectures," eine dreiteilige Vorlesungsreihe, die später als "The Abolition of Man" (dt. "Die Abschaffung des Menschen") herausgegeben wurde und sein wohl bekanntestes fachliterarisches Werk darstellt. Er kritisierte das angeblich oberflächliche Schulmaterial, das die Schüler zu einer Weltanschauung ohne jegliche objektive Werte führen würde. Die gesammelten Vorträge von Lewis, die die BBC ausstrahlte, wurden unter dem Titel "Mere Christianity" (dt. "Christentum schlechthin" bzw. "Pardon, ich bin Christ") veröffentlicht. Lewis verfasste zahlreiche Schriften zu theologischen Themen, weil er den Eindruck gewonnen hatte, dass die Berufstheologen die christliche Lehre nicht entschlossen darlegten, sondern voller „Wenn und Aber“.
Lewis hielt es für wichtig, die Existenz einer Hölle konkret ins Auge zu fassen. In "Über den Schmerz" schrieb er:
Rezeption.
Lewis war bereits zu Lebzeiten durch seine Bücher und durch seine populären Radioansprachen eine bekannte Persönlichkeit in Großbritannien. Nach seinem Tod 1963 geriet er vorerst eher etwas in Vergessenheit, weil die junge Generation den Wandel und somit die Distanz zur Kultur der Eltern suchte. Lewis verkörperte für sie die Werte und Haltungen der Vergangenheit, zudem war er bei Gelehrten in Oxford wegen seiner populären Werke nicht sonderlich angesehen. Er hatte vorerst nur wenige Fürsprecher wie die amerikanischen Episkopalisten Chad Walsh und Walter Hooper, der kurz vor Lewis’ Tod sein Privatsekretär geworden war.
Ehrungen und Auszeichnungen.
Seit 1955 war er Mitglied (Fellow) der British Academy. 1956 erhielt Lewis die Carnegie Medaille in Anerkennung des letzten Buches der Narnia-Chroniken "The Last Battle" (dt. "Der letzte Kampf").
Anfang der 1970er Jahre erwarb der britische Verlag "William Collins & Sons" die Rechte an Lewis’ Werken und verbreitete sie. Ihm kam dabei zugute, dass die Tolkien-Welle in den USA um 1970 ihn und seine Narnia-Kinderbücher erneut populär machte. Vor allem in den USA entstanden literarische Gesellschaften, die das Vermächtnis von Lewis pflegten. Vorreiter war 1969 die "New York C.S. Lewis Society", weitere folgten später weltweit. 1974 wurde am "Wheaton College" bei Chicago das "Marion E. Wade Center" zur Erforschung des Lebens und Werks von Lewis gegründet. Ab 1974 erschienen auch fundiertere Biografien und seit 2000 gab Walter Hooper zudem die umfangreiche Korrespondenz (3.500 Seiten) von Lewis heraus.
1993 wurde die Freundschaft und Liebe zwischen C. S. Lewis und Joy Davidman in Richard Attenboroughs Film "Shadowlands" mit Anthony Hopkins und Debra Winger verfilmt.
2001 wurde der Asteroid (7644) Cslewis nach Lewis benannt. 2017 wurde er postum in die Science Fiction Hall of Fame aufgenommen.
Weblinks.
C.S. Lewis-Gesellschaften: |
974 | 627628 | https://de.wikipedia.org/wiki?curid=974 | Clive Staple Lewis | |
976 | 235044570 | https://de.wikipedia.org/wiki?curid=976 | Chemotherapie | Die Chemotherapie ist eine medikamentöse Therapie von Krebserkrankungen (antineoplastische Chemotherapie) oder Infektionen (antiinfektiöse bzw. antimikrobielle Chemotherapie). Umgangssprachlich auch als Chemo bezeichnet ist meistens die zytostatische Behandlung von Krebs gemeint. Eine Chemotherapie kann unter kurativen, adjuvanten oder palliativen Gesichtspunkten durchgeführt werden.
Die Chemotherapie verwendet Stoffe, die ihre schädigende Wirkung möglichst gezielt auf bestimmte krankheitsverursachende Zellen beziehungsweise Mikroorganismen ausüben und diese abtöten oder in ihrem Wachstum hemmen. In der Krebstherapie heißen diese Substanzen Zytostatika; in der Behandlung von Infektionskrankheiten Antibiotika, Chemotherapeutika, Virustatika, Antimykotika und Anthelminthika. Bei der Behandlung bösartiger Tumorerkrankungen nutzen die meisten dieser Substanzen die schnelle Teilungsfähigkeit der Tumorzellen, da diese empfindlicher als gesunde Zellen auf Störungen der Zellteilung reagieren; auf gesunde Zellen mit ähnlich guter Teilungsfähigkeit üben sie allerdings eine ähnliche Wirkung aus, wodurch sich Nebenwirkungen wie Haarausfall oder Durchfall einstellen können. Bei der Behandlung von bakteriellen Infektionskrankheiten macht man sich den unterschiedlichen Aufbau von eukaryotischen (Mensch) und prokaryotischen Lebewesen (Bakterien) zunutze.
Bei der Krebstherapie mit monoklonalen Antikörpern und Zytokinen, wie beispielsweise Interleukinen und Interferonen, handelt es sich nicht um eine Chemotherapie, sondern oftmals um eine Krebsimmuntherapie.
Geschichte.
Der im 18. Jahrhundert erstmals aufgetauchte Begriff wurde 1906 von Paul Ehrlich neu definiert und geprägt. Er beschrieb damit die Behandlung von Infektionskrankheiten mit chemischen Substanzen, die direkt gegen den Krankheitserreger wirken. Als erstes wirksames Chemotherapeutikum hatte er 1904 Trypanrot erkannt, mit dem er an der Schlafkrankheit erkrankte Mäuse heilte. Ehrlich begann am 31. August 1909 in Frankfurt am Main weitere Versuche, indem er Erreger der Syphilis in Ratten injizierte und anschließend mit Hilfe chemotherapeutischer Verfahren behandelte. Diese Versuche hatten eine so überzeugende Wirkung, dass man hierin die neue „Waffe“ der Medizin gegen Infektionskrankheiten sah. Ehrlich wurde danach als „Schöpfer der Chemotherapie“ bezeichnet. Die verwendeten Medikamente werden entweder künstlich hergestellt oder sind Abkömmlinge von in der Natur vorkommenden Stoffen. Zwischen 1946 und 1950 waren bedeutende Fortschritte in der Chemotherapie der Tuberkulose durch die Einführung der Thiosemicarbazone und des Isonicotinsäurehydrazids durch Gerhard Domagk und andere erzielt worden.
Sensitivität.
Das Ansprechen einer Chemotherapie hängt von verschiedenen Faktoren ab. Erstens wird ein Chemotherapeutikum unterschiedlich schnell im Menschen abgebaut, und je kürzer das Medikament im Körper wirksam beziehungsweise präsent ist, desto kürzer kann es auch nur wirken. Zweitens ist die Erreichbarkeit der krankheitsverursachenden Zellen oder Mikroorganismen ein wichtiger Faktor. So kann ein Tumor sehr kompakt geformt sein und über wenig Blutversorgung verfügen. Daraus resultiert, dass das Medikament den eigentlichen Wirkort nicht oder nur schlecht erreichen kann. Ein dritter Faktor bestimmt das Ansprechverhalten von Chemotherapeutika. Zum Beispiel können auch bei guter Erreichbarkeit des Tumors durch das Zytostatikum die Krebszellen resistent gegen das Medikament sein. Diese Eigenschaften werden als Chemosensitivität und Chemoresistenz bezeichnet.
Es ist möglich, die Wirksamkeit von Chemotherapeutika auf Bakterien im Rahmen eines Antibiogramms zu testen. Ebenso kann bei Krebszellen die Chemosensitivität "in vitro" getestet werden (Chemosensitivitätstest).
Prinzipien der antineoplastischen Chemotherapie.
Wegen der höheren Bioverfügbarkeit wird in der Regel eine intravenöse Verabreichung gewählt. Einige Therapien sind aber auch oral möglich.
Eine bestimmte Zytostatikadosis kann immer nur einen bestimmten Anteil, z. B. 90 % der Zielzellen abtöten. Mit fortschreitender Behandlung bleibt dieser Anteil gleich, d. h., zwei Dosen erreichen 99 % der Zellen, drei Dosen 99,9 % usw. Dieser Mechanismus erklärt, warum eine Chemotherapie im Laufe der Behandlung nicht vermindert werden darf, auch wenn der sichtbare Tumor bereits verschwunden ist ("Log cell kill", Howard E. Skipper 1964.) Im Gegenteil: Es muss damit gerechnet werden, dass durch eine schwache Behandlung gerade die widerstandsfähigsten Tumorzellklone selektiert werden, d. h. übrig bleiben. Moderne Protokolle versuchen daher, „so früh und so hart wie möglich zuzuschlagen“. Die Chemotherapie wird in schneller Abfolge appliziert, und fast immer werden zwei oder mehr Zytostatika kombiniert, um die Wirksamkeit zu erhöhen. Mangelnde Therapieerfolge bei einigen Tumorarten und neuere theoretische und tierexperimentelle Daten lassen jedoch Zweifel an der generellen Richtigkeit dieses Konzeptes aufkommen.
"Adjuvant" nennt man eine Chemotherapie, die zur Erfolgssicherung nach einer vollständigen operativen Beseitigung des Tumors dienen soll. "Neoadjuvant" ist eine Chemotherapie "vor" der Operation. Sehr häufig wird die adjuvante, neoadjuvante oder alleinige Chemotherapie mit Strahlentherapie kombiniert ("Radiochemotherapie").
Bei der Behandlung von alten Menschen muss berücksichtigt werden, dass diese oft eine verminderte Leber- und Nierenfunktion und eine verminderte Knochenmarksreserve haben und ihre Empfindlichkeit gegenüber den Substanzen daher erhöht ist. Wenn die Dosis nach dem Körpergewicht oder der Körperoberfläche abgeschätzt wird, ist der erhöhte Anteil an Körperfett im Alter einzurechnen.
Resistenzen der Tumorzellen gegen einzelne oder mehrere der eingesetzten Zytostatika sind nicht selten. Außerdem sollte man während einer Chemotherapie nicht rauchen, denn bei einigen Standard-Chemotherapeutika wurde nachgewiesen, dass ihre Wirkung durch Nikotin abgeschwächt wird.
Resistenzen können viele Ursachen haben, beispielsweise verminderten Transport der Substanz in das Zellinnere oder erhöhten Transport aus der Zelle (Multiple Drug Resistance). Auch kann die Zelle inaktivierende Enzyme besitzen. Gute Durchblutung des Tumors (Angiogenese) führt wegen hoher Nährstoffversorgung zu schnellem Wachstum, aber auch zu besserem Ansprechen auf die Chemotherapie, da der Anteil der sich teilenden Zellen höher ist. Viele der durch die Zytostatika in den Zellen erzeugten Schäden setzen voraus, dass vorhandene Kontrollsysteme (beispielsweise p53) in den Tumorzellen noch aktiv sind und diese Fehler bemerken. Reparaturmechanismen (beispielsweise Exzisionsreparatur) dürfen hingegen nicht aktiviert sein, stattdessen muss ein kontrolliertes Absterben der Zelle eingeleitet werden. Resistenzen müssen frühzeitig erkannt werden, um Änderungen des Therapieregimes rechtzeitig wirksam werden zu lassen, sonst häufen sich Mutationen im Tumor an, die ihn schwerer kontrollierbar machen. Auch das Auffinden der für den speziellen Tumor optimalen Kombinationstherapie durch Labortests wird diskutiert
und wurde erfolgreich eingesetzt.
Prinzipiell können bei der Chemotherapie zwei unterschiedliche Wege zur Bekämpfung der Krebszellen eingeschlagen werden. Mit Zytotoxinen soll die Apoptose, das heißt der programmierte Zelltod der malignen Zellen, herbeigeführt werden. Dies ist der in den meisten Fällen angestrebte Weg, den Tumor zu eradizieren, das heißt vollständig aus dem Körper des Erkrankten zu beseitigen.
Zytostatika (griechisch "cyto"=Zelle und "statik"=anhalten) sind dagegen definitionsgemäß Substanzen, die Krebszellen nicht abtöten, sondern deren Zellwachstum und die Zellteilung (Proliferation) unterbinden. Konventionelle klassische Chemotherapeutika wirken im Wesentlichen zytotoxisch, während zielgerichtete neuere Therapien aus dem Bereich der Krebsimmuntherapie, wie beispielsweise monoklonale Antikörper, zytostatische Eigenschaften haben.
In der Literatur wird allerdings in vielen Fällen nicht zwischen Zytostatika und Zytotoxinen unterschieden. Die meisten derzeit angewandten Chemotherapeutika wirken zudem sowohl zytotoxisch als auch zytostatisch.
Gegenanzeigen.
Kontraindikationen für eine antineoplastische Chemotherapie können vorliegen, wenn
Beispiele für Krebserkrankungen, bei denen eine Chemotherapie zu einer dauerhaften Heilung führen kann:
Wahl des Chemotherapeutikums.
Die Wahl des Chemotherapeutikums richtet sich nicht nur nach dem Organ der Krebserkrankung (z. B. Brust-, Lungen-, Darmkrebs), sondern auch nach individuellen Kriterien, die bei verschiedenen Patienten mit „derselben“ Krebserkrankung unterschiedlich sein können.
Solche Kriterien können beispielsweise sein:
Trotz dieser individuellen Gesichtspunkte können für maligne Erkrankungen typische Chemotherapeutika genannt werden, die bei diesen regelhaft zum Einsatz kommen.
Therapieschemata.
Heutzutage werden bei der Chemotherapie fast immer (abgesehen von möglicherweise nebenwirkungsärmeren Monotherapien bei der palliativen zytostatischen Chemotherapie) mehrere Wirkstoffe kombiniert. Dazu wurden Schemata entwickelt, in denen festgelegt ist, welche Wirkstoffe in welcher Abfolge und mit welchem Zeitabstand anzuwenden sind, um eine optimale Wirkung zu erzielen. Aus den Namen der beteiligten Wirkstoffe wird der Name des Schemas (meist als Akronym) abgeleitet:
Nebenwirkungen.
Die Nebenwirkungen einer Chemotherapie sind abhängig von der Art der Therapie und der individuellen Verträglichkeit. Die einzelnen Nebenwirkungen treten unabhängig voneinander auf und können ganz ausbleiben oder in verschiedener Stärke (von mild bis tödlich) auftreten.
Diese Nebenwirkungen sind Übelkeit und Erbrechen, Erschöpfung, Haarausfall, Geschmacksstörungen, Schleimhautentzündungen und Blutbildveränderungen. Sie werden nach den Common Toxicity Criteria eingeteilt.
Viele Zytostatika sind selbst karzinogen, etwa Busulfan, Chlorambucil, Cyclophosphamid oder Semustin. Insgesamt ist die Rate an zytostatikainduzierten Leukämien zwar rückläufig, aber bei einigen Tumorarten steigt die Zahl der Erkrankungen immer noch an. Darunter fällt das Multiple Myelom, das Non-Hodgkin-Lymphom, Ösophaguskarzinom, Analkarzinom, Zervixkarzinom und Prostatakarzinom. Während bei den ersten beiden auch nach einem Jahrzehnt nach der Chemotherapie eine therapiebedingte akute myeloische Leukämie (tAML) auftreten kann, ist sie bei den übrigen Karzinomen auf die ersten zehn Jahre nach der Behandlung beschränkt.
Bis zu drei Viertel der Tumorpatienten mit einer Chemotherapie erkranken an einer chemotherapieassoziierten Anämie. Ein hohes Risiko besteht vor allem bei Tumorentitäten wie dem Lymphom, multiplem Myelom, Bronchialkarzinom sowie bei gynäkologischen und urogenitalen Tumoren. Häufigkeit und Schweregrad der Anämie sind auch vom Tumorstadium abhängig. Während die nach den Common Toxicity Criteria aufgelisteten Nebenwirkungen meist mit dem Absetzen der Chemotherapie verschwinden, kann es unter Umständen zu einer irreversiblen Herzmuskelschädigung sowie zu einer temporären oder endgültigen Unfruchtbarkeit kommen. Die Gabe von Anthracyclinen führt bei etwa zehn Prozent der Patienten zu einer bleibenden Schädigung der Herzmuskelzellen, welche Herzrhythmusstörungen und/oder eine Herzinsuffizienz (Herzschwäche) auslösen kann. Seit 2007 sind sogenannte Kardioprotektiva zugelassen, welche Herzschäden durch die Gabe der Anthracycline Doxorubicin oder Epirubicin verhindern können.
Wegen einer etwaigen durch die Chemotherapie bedingten Unfruchtbarkeit wird vor der Behandlung bei Männern, falls vom Patienten gewünscht, eine Aufbewahrung des Samens (ähnlich wie es bei Samenspendern praktiziert wird) vorgenommen. Durch die fachgerechte Lagerung wird dann die Chance auf eigene Kinder erhalten. Fertilitätserhaltende Maßnahmen bei Frauen sind möglich, tragen jedoch zum Teil noch experimentellen Charakter. Das Netzwerk Fertiprotekt bemüht sich im deutschsprachigen Raum, über Maßnahmen bei Männern und Frauen zu informieren und sie anzubieten.
Manche Patienten erleben nach einer Chemotherapie eine meist vorübergehende Beeinträchtigung des Denk-, Merk- und Stressbewältigungsvermögens, die als Post-chemotherapy Cognitive Impairment (PCCI) (auch Chemotherapy-induced Cognitive Dysfunction oder „Chemo Brain“) bezeichnet wird. Die Ursache dieses Phänomens wird derzeit erforscht. Sie kann nach gegenwärtigem Forschungsstand entweder in der psychisch belastenden, traumaähnlichen Situation der Diagnose und Krankheit selbst, in den direkten physischen Auswirkungen der Chemotherapie oder in beiden Faktoren liegen.
Zur Vorbeugung einer ausgeprägten Mukositis können mehrere Lokalanästhesien mit Vasokonstriktor im Mund-/Kieferbereich verabreicht werden, wodurch eine Anflutung des Chemotherapeutikums in die Schleimhaut vermindert wird. Zusätzlich kann eine Kältetherapie mittels Lutschen von Eiswürfeln die lokale Vasokonstriktion bei der Strahlentherapie verstärken. Die dadurch erreichte Sauerstoffunterversorgung des Gewebes vermindert die zelluläre Strahlenempfindlichkeit.
Neben den allseits bekannten Nebenwirkungen der Chemotherapie wie Haarverlust und Übelkeit kann es bei der Chemotherapie (oder Stammzelltransplantation) auch zu Blutungen kommen. Zu diesen haben Estcourt und Mitarbeiter in den Jahren 2012 und 2015 Cochrane-Übersichtsarbeiten mit randomisierten kontrollierten Studien erstellt, um herauszufinden, welche Nutzung von Thrombozytentransfusionen die wirksamste ist, um Blutungen bei Patienten mit hämatologischen Erkrankungen zu verhindern, wenn sie eine Chemotherapie oder eine Stammzelltransplantation erhalten.
Durch ein wenige Tage andauerndes, sogenanntes Kurzzeitfasten ("short-term fasting", STF) in den Tagen der Therapie wurde eine Steigerung der Verträglichkeit von Chemotherapien tierexperimentell und in Zellkultur beobachtet. Gemäß zugrundeliegender Hypothese soll Fasten zu einer Stoffwechselreduktion gesunder Körperzellen führen, wogegen Krebszellen ausschließlich auf Wachstum programmiert sind. Sie nehmen daher Chemotherapeutika unvermindert auf – im Gegensatz dazu gelangen weniger Nährstoffe und weniger Toxine bzw. Zytostatika während des Fastens in gesunde Zellen. Kurzzeitfasten könnte eine vielversprechende Strategie zur Verbesserung der Effizienz und Verträglichkeit der Chemotherapie werden. Für aussagekräftige Schlüsse bei Krebspatienten bedarf es aber an noch mehr Daten aus klinischen Prüfungen.
Wirksamkeit.
Die Wirksamkeit einer Chemotherapie hängt sehr stark von der Art des Tumors und seinem Stadium ab. Während es sehr viele Studien zu der Wirkung spezifischer Zytostatika auf entsprechende Tumorarten gibt, existiert bisher lediglich eine einzige Krebsregister-Studie, welche den Nutzen einer alleinigen Chemotherapie bei 22 Krebskrankheiten in Australien und den USA untersucht. Nicht ausgewertet wurden Krebskrankheiten, für die eine Chemotherapie die wichtigste Behandlung darstellt (z. B. Leukämie oder Lymphdrüsenkrebs), aber auch nicht die Krebsarten, bei der die Chemotherapie lediglich unterstützend (adjuvant) genutzt wird. Laut Studie sollen alleine angewandte zytotoxische Chemotherapien bei Erwachsenen "zusätzliche" 2,3 Prozent (in Australien) bzw. 2,1 Prozent (in den USA) zur jeweiligen Fünfjahresüberlebensrate beitragen. Die Studie bestätigt jedoch auch, dass bei bestimmten Krebsarten wie z. B. Hodenkrebs, Hodgkin-Lymphomen oder Zervixkarzinomen eine adjuvant angewandte Chemotherapie eine um 10 bis 40 Prozent bessere Prognose bringt.
Die Studie wurde von australischen Onkologen stark kritisiert. Die Autoren hätten die verschiedenen Krebsarten nicht gewichtet (die Fallgruppe der Krebsarten, bei welchen die Chemotherapie schlecht wirkt und somit oft auch nicht angewendet wird, ist am größten) und es gebe methodische Mängel. Bei Anwendung sauberer Methodik würde aus dem gleichen Datenmaterial die Effektivität auf 6 Prozent über alle Fälle steigen. Außerdem wurden einige Krebsarten, welche hauptsächlich durch Chemotherapie behandelt werden (z. B. Leukämie) und wo diese Therapie sehr effektiv ist, nicht betrachtet. Überdies stammten die Daten aus den 1990er Jahren und seien folglich veraltet. Da die Wirkung einer Chemotherapie von der Art des Tumors abhängt, ist ein solcher Zusammenwurf aller Tumorarten nicht zielführend, denn er sage nichts über den Einzelfall aus. Zudem verwendet die Studie nur Fünfjahresüberlebensraten – bei manchen Krebsarten wie Brustkrebs kann Chemotherapie aber das späte Auftreten eines Rezidivs verhindern.
Tatsache ist, dass hochwirksame Zytostatika dazu beigetragen haben, die relative Fünfjahresüberlebensrate bei bestimmten Krebsarten (Stand 2010) signifikant – mit verbesserten Prognosen im zweistelligen Prozentbereich – zu erhöhen. Dies gilt einerseits bei der adjuvanten Anwendung beispielsweise bei Brustkrebs, Hodenkrebs und Lungenkrebs sowie andererseits bei der primären Anwendung der Chemotherapie als Mittel der ersten Wahl, wie beispielsweise bei Hodgkin-Lymphomen und Leukämie. |
977 | 73828 | https://de.wikipedia.org/wiki?curid=977 | Cantor-Diagonalisierung | Als Cantor-Diagonalisierung werden zwei von Georg Cantor entwickelte Diagonalisierungsbeweisverfahren bezeichnet:
Im Jahr 1874 fand bzw. veröffentlichte Georg Cantor einen Beweis zur Abzählbarkeit der rationalen Zahlen und der algebraischen Zahlen durch Anwendung des „Ersten Cantorschen Diagonalverfahrens“. Gleichzeitig veröffentlichte er einen Beweis zur Überabzählbarkeit der reellen Zahlen inkl. Folgerung der Existenz nicht-algebraischer reeller Zahlen. In den Jahren 1890 und 1891 fand bzw. veröffentlichte er den Beweis, dass die Potenzmenge einer beliebigen Menge mächtiger ist als diese und dass insbesondere die Potenzmenge der natürlichen Zahlen überabzählbar ist. Dieser Beweis wird als „Zweites Cantorsches Diagonalverfahren“ bezeichnet und war Auslöser der Begründung der transfiniten Mengenlehre durch Georg Cantor in den Jahren 1895 bis 1897. Die Überabzählbarkeitsbeweise beweisen auch die Überabzählbarkeit des Kontinuums. |
978 | 1301681 | https://de.wikipedia.org/wiki?curid=978 | Comic | Comic [] bezeichnet die Darstellung eines Vorgangs oder einer Geschichte in einer Folge von Bildern. In der Regel sind die Bilder gezeichnet und werden mit Text kombiniert. Das Medium Comic vereint Aspekte von Literatur und bildender Kunst, wobei der (oder das) Comic eine eigenständige Kunstform und ein entsprechendes Forschungsfeld bildet. Gemeinsamkeiten gibt es auch mit dem Film. Als genre-neutraler, die ganze Kunstgeschichte übergreifender Begriff wird auch „sequenzielle Kunst“ oder im deutschsprachigen Raum „Bildgeschichte“ verwendet, während regionale Ausprägungen des Comics teils mit eigenen Begriffen wie Manga oder Manhwa bezeichnet werden.
Comic-typische Merkmale und Techniken, die aber nicht zwangsläufig verwendet sein müssen, sind Sprechblasen und Denkblasen, Panels und Onomatopoesien. Diese finden auch in anderen Medien Verwendung, insbesondere dann, wenn Text und die Abfolge von Bildern kombiniert sind wie in Bilderbuch und illustrierter Geschichte, in Karikaturen oder Cartoons. Die Abgrenzung zu diesen eng verwandten Künsten ist unscharf.
Definition.
In den 1990er Jahren etablierte sich eine Definition von Comic als eigenständiger Kommunikationsform unabhängig von Inhalt, Zielgruppe und Umsetzung. 1993 definierte Scott McCloud Comics als „zu räumlichen Sequenzen angeordnete, bildliche oder andere Zeichen, die Informationen vermitteln und/oder eine ästhetische Wirkung beim Betrachter erzeugen“. Er nimmt damit Will Eisners Definition auf, der Comics als sequenzielle Kunst bezeichnet. Im deutschsprachigen Raum wird das von McCloud definierte Medium auch allgemein als „Bildgeschichte“ bezeichnet und der Comic als dessen moderne Form seit dem 19. Jahrhundert. So spricht Dietrich Grünewald von einem übergeordneten „Prinzip Bildgeschichte“, als dessen moderne Form der Comic mit seinen um 1900 entwickelten Gestaltungsmitteln gilt. Andreas Platthaus nennt den Comic die „avancierteste Form“ der Bildgeschichte. Wie auch bei McCloud wird der Comic bzw. die Bildgeschichte als eigenständiges Medium definiert, das durch Bildfolgen erzählt. Eckart Sackmann definiert den Comic in direktem Bezug auf McCloud als „Erzählung in mindestens zwei stehenden Bildern“. Jedoch ist bei einigen Definitionen offen, ob auch einzelne, narrativ angelegte Bilder, die ein Geschehen darstellen, ohne das Davor und Danach zu zeigen, zum Comic zählen. Auch eine Darstellung, die formal nur aus einem Bild besteht, kann mehrere Sequenzen enthalten – so bei mehreren Sprechblasen oder mehr als einer Handlung in einem Bild, die nicht zeitgleich stattfinden können.
Frühere Definitionen des Comics bezogen sich unter anderem auf formale Aspekte wie Fortsetzung als kurze Bilderstreifen oder Erscheinen in Heftform, eine gerahmte Bildreihung und der Gebrauch von Sprechblasen. Daneben wurden inhaltliche Kriterien herangezogen, so ein gleichbleibendes und nicht alterndes Personeninventar oder die Ausrichtung auf eine junge Zielgruppe, oder die Gestaltung in Stil und Technik. Diese Definitionen wie auch das Verständnis von Comics als ausschließliches Massenmedium oder Massenzeichenware wurden spätestens in den 1990er Jahren zugunsten der heutigen Definition verworfen.
Illustrationen, Karikaturen oder Cartoons können auch Comics oder Teil eines solchen sein. Die Abgrenzung, insbesondere bei Einzelbildern, bleibt unscharf. Beim Bilderbuch und illustrierten Geschichten dagegen haben, anders als beim Comic, die Bilder nur eine unterstützende Rolle in der Vermittlung des Handlungsgeschehens. Der Übergang ist jedoch auch hier fließend.
Etymologie und Begriffsgeschichte.
Der Begriff "Comic" ist aus dem amerikanischen Englischen entlehnt, wo er als Kurzform von "comic strip" schon länger üblich war. Allgemein bedeutet das englische Adjektiv "comic" „komisch“, „lustig“, „drollig“. Im 18. Jahrhundert wurde es im Ausdruck "comic print" für Witzzeichnungen benutzt und trat damit erstmals im Bereich des heutigen deutschen Substantivs auf. Im 19. Jahrhundert wurde das Adjektiv als Namensbestandteil für Zeitschriften gebräuchlich, die Bildwitze, Bildergeschichte und Texte beinhalteten. Mit dem 20. Jahrhundert kam der Begriff "comic strip" für die in Zeitungen erscheinenden, kurzen, komischen oder humorvollen Bildgeschichten auf, die in Streifen (engl. "strip") von angeordneten Bildern erzählen. In den folgenden Jahrzehnten dehnte sich die Bedeutung des Wortes auch auf die neu entstandenen nicht komischen Formen des Comics aus und löste sich vollständig von der Bedeutung des Adjektivs "comic", sodass es seitdem auch für nicht komische Comics verwendet wird. Nach dem Zweiten Weltkrieg kam der Begriff auch nach Europa und trat in Deutschland zunächst in Konkurrenz zu "Bildgeschichte", welche qualitativ höherwertige deutsche Comic-Werke von lizenzierten ausländischen Comics abgrenzen sollte. Schließlich setzten sich "Comic" und "Comicstrip" auch im deutschen Sprachraum durch.
Comicstrips prägten durch ihre Form auch den französischen Begriff "bande dessinée" und den chinesischen "lien-huan hua" („Ketten-Bilder“). Das häufig verwendete Mittel der Sprechblase führte im Italienischen zur Bezeichnung "fumetti" („Rauchwölkchen“) für Comics. In Japan wird "manga" (, „spontanes Bild“) verwendet, das ursprünglich skizzenhafte Holzschnitte bezeichnete.
Geschichte.
Die Ursprünge des Comics liegen in der Antike. So finden sich im Grab des Menna (14. Jahrhundert v. Chr.) Malereien, die in einer Bildfolge Ernte und Verarbeitung von Getreide darstellen. Speziell diese Bildfolge liest sich im Zickzack von unten nach oben. In der Szene vom Wägen des Herzens im Papyrus des Hunefer (ca. 1300 v. Chr.) werden die Bildfolgen mit Dialogtext ergänzt. Ägyptische Hieroglyphen selbst stellen jedoch keine Vorform des Comics dar, da diese, trotz ihrer Bildlichkeit für Laute, nicht für Gegenstände stehen. Andere Beispiele früher Formen von Bildergeschichten stellen die Trajanssäule und japanische Tuschemalereien dar.
In Amerika wurden ebenso früh Erzählungen in sequenziellen Bildfolgen wiedergegeben. Ein Beispiel dieser Kunst wurde 1519 von Hernán Cortés entdeckt und erzählt vom Leben eines präkolumbianischen Herrschers des Jahres 1049. Dabei werden die Bilder um erklärende Schriftzeichen ergänzt. In Europa entstand im Hochmittelalter in Frankreich der Teppich von Bayeux, der die Eroberung Englands durch die Normannen im Jahr 1066 schildert. Auch hier werden Text und Bild kombiniert. Viele Darstellungen in Kirchen dieser Zeit, wie Altarbilder oder Fenster, haben einen comicartigen Charakter. Sie vermittelten damals besonders analphabetischen Gesellschaftsschichten Erzählungen. Auch die "Wiener Genesis", ein byzantinisches Manuskript aus dem 6. Jahrhundert, gehört zu derartigen Werken. In vielen Fällen wird dabei schon das Mittel der Sprechblase in Form von Spruchbändern vorweggenommen. Im 13. Jahrhundert fand die bebilderte Armenbibel zunehmende Verbreitung, mit der die Kirche die lese- und lateinunkundigen Gläubigen erreichen wollte. In Japan zeichneten seit dem 12. Jahrhundert Mönche Bildfolgen auf Papierrollen, häufig mit shintoistischen Motiven. Bis ins 19. Jahrhundert fanden Hefte mit komischen oder volkstümlichen Erzählungen Verbreitung. Zugleich wurde in Japan der Begriff "Manga" geprägt, der heute für Comics steht. Aus dieser Zeit am bekanntesten ist das Werk des Holzschnittkünstlers Katsushika Hokusai.
Nach der Erfindung des Buchdrucks in Europa fanden Drucke von Märtyrergeschichten in der Bevölkerung weite Verbreitung. Später wurden die Zeichnungen feiner und der Text wurde, wie bei den verbreiteten Drucken, wieder weggelassen. So bei William Hogarth, der unter anderem "A Harlot’s Progress" schuf. Diese Geschichten bestanden aus wenigen Bildern, die in Galerien in einer Reihe aufgehängt waren und später gemeinsam als Kupferstich verkauft wurden. Die Bilder waren detailreich und die Inhalte der Geschichten sozialkritisch. Auch Friedrich Schiller schuf mit "Avanturen des neuen Telemachs" eine Bildgeschichte, die auch wieder Text gebrauchte und diesen wie im Mittelalter in Schriftrollen integrierte.
Besonders in britischen Witz- und Karikaturblättern wie dem "Punch" fanden sich ab Ende des 18. Jahrhunderts viele Formen des Comics, meist kurz und auf Humor ausgerichtet. Aus dieser Zeit stammt auch der Begriff "Comic". Als Vater des modernen Comics bezeichnet McCloud Rodolphe Töpffer. Er verwendete Mitte des 19. Jahrhunderts erstmals Panelrahmen und stilisierte, cartoonhafte Zeichnungen und kombinierte Text und Bild. Die Geschichten hatten einen heiteren, satirischen Charakter und wurden auch von Johann Wolfgang Goethe bemerkt mit den Worten "Wenn er künftig einen weniger frivolen Gegenstand wählte und sich noch ein bisschen mehr zusammennähme, so würde er Dinge machen, die über alle Begriffe wären". Auch die im 19. Jahrhundert populären Bilderbögen enthielten oft Comics, darunter die Bildgeschichten Wilhelm Buschs.
In den USA wurden im späten 19. Jahrhundert kurze Comicstrips in Zeitungen veröffentlicht, die meist eine halbe Seite einnahmen und bereits "Comics" genannt wurden. "Yellow Kid" von Richard Felton Outcault aus dem Jahr 1896 wird teilweise als erster moderner Comic betrachtet, weist jedoch noch kein erzählendes Moment auf. Ein solches brachte Rudolph Dirks mit seiner von Wilhelm Busch inspirierten Serie "The Katzenjammer Kids" 1897 ein. Ein weiterer bedeutender Comic jener Zeit war "Ally Sloper’s Half Holiday" von Charles H. Ross Andreas Platthaus sieht in George Herrimans ab 1913 erscheinenden Comicstrip "Krazy Kat" eine größere Revolution als in den vorhergehenden Werken, denn Herriman erschafft das Comic-eigene Genre Funny Animal und entwickelt neue Stilmittel. Auch in Europa gab es zu Beginn des 20. Jahrhunderts Karikaturenzeitschriften, jedoch kaum sequenzielle Comics. Auch in Japan etablierten sich Karikaturmagazine und das Stilmittel der Sprechblasen wurde aus Amerika übernommen. Kitazawa Rakuten und Okamoto Ippei gelten als die ersten professionellen japanischen Zeichner, die in Japan Comicstrips anstatt der bis dahin bereits verbreiteten Karikaturen schufen.
In Europa entwickelte sich in Frankreich und Belgien eine andere Form von Comics, das Comicheft, in dem längere Geschichten in Fortsetzung abgedruckt wurden. Ein bedeutender Vertreter war Hergé, der 1929 "Tim und Struppi" schuf und den Stil der Ligne claire begründete. Auch in Amerika wurden bald längere Geschichten in Beilagen der Sonntagszeitungen veröffentlicht. Hal Fosters "Tarzan" machte diese Veröffentlichungsart populär. 1937 folgte "Prinz Eisenherz", bei dem erstmals seit langem wieder auf die Integration von Texten und Sprechblasen verzichtet wurde. Ähnlich entwickelten sich unter anderem die Figuren Walt Disneys von Gagstrips zu längeren Abenteuergeschichten. Dies geschah bei Micky Maus in den 1930er Jahren durch Floyd Gottfredson, bei Donald Duck in den 1940er Jahren durch Carl Barks. Nach der Erfindung von Superman durch Jerry Siegel und Joe Shuster 1938 brach in den USA ein Superheldenboom aus. Dieser konzentrierte sich auf die Zielgruppe von Kindern und Jugendlichen und verhalf dem Comicheft zum Durchbruch.
Durch den Zweiten Weltkrieg kam es besonders in Amerika und Japan zu einer Ideologisierung der Comics (siehe Krieg im Comic). Mit dem Aufschwung der Superheldencomics in den USA wurde die Arbeit des Autors und des Zeichners zunehmend getrennt. Das geschah vor allem, um die Arbeit an den Heften rationell zu gestalten. In Amerika gehörten der Zeichner Jack Kirby und der Autor Stan Lee zu den Künstlern, die das "Golden Age" der Superhelden in den vierziger Jahren und das "Silver Age" in den 1960er Jahren prägten. In den 1950ern kam es wegen des Comics Codes zur Schließung vieler kleiner Verlage und Dominanz der Superheldencomics in den USA. Auch in Europa wurde die Arbeitsteilung häufiger.
In der DDR galt der Begriff "Comic" als zu westlich. So entstand in der DDR die Idee, in der Tradition von Wilhelm Busch und Heinrich Zille etwas Eigenes zu schaffen, das man dem „Schund“ aus dem Westen entgegensetzen könnte. 1955 erschienen mit "Atze" und "Mosaik" die ersten Comic-Hefte in der DDR. "Mosaik" wurde das Aushängeschild des DDR-Comics.
Während der 1980er Jahre kam es kurzzeitig zu einer Rückkehr der Generalisten, die die Geschichten schrieben und zeichneten. In den 1990er Jahren kehrte man in den USA und Frankreich wieder zu der Aufteilung zurück. Diese Entwicklung führte dazu, dass die Autoren mehr Aufmerksamkeit genießen und die Zeichner, besonders in Amerika, von diesen Autoren ausgewählt werden. Zugleich entwickelte sich in Amerika seit den sechziger Jahren der Undergroundcomic um Künstler wie Robert Crumb und Gilbert Shelton, der sich dem Medium als politischem Forum widmete. Einer der bedeutendsten Vertreter ist Art Spiegelman, der in den 1980er Jahren "Maus – Die Geschichte eines Überlebenden" schuf.
Nach dem Zweiten Weltkrieg entwickelten sich Comics auch außerhalb Europas und der Vereinigten Staaten weiter. In Japan hatte der Künstler Osamu Tezuka, der unter anderem "Astro Boy" schuf, großen Einfluss auf die Weiterentwicklung des Mangas in der Nachkriegszeit. Der Comic fand in Japan weite Verbreitung in allen Gesellschaftsschichten und erreichte ab den 1960er und 1970er Jahren auch viele weibliche Leser. Auch gab es vermehrt weibliche Zeichner, darunter die Gruppe der 24er. Ab den 1980er Jahren, besonders in den Neunzigern, wurden Mangas auch außerhalb Japans populär, darunter bekannte Reihen wie "Sailor Moon" und "Dragonball".
Ab den 1990er Jahren gewannen Graphic Novels an Bedeutung, so autobiografische Werke wie Marjane Satrapis "Persepolis", Joe Saccos Reportagen "Palästina" oder die Reiseberichte Guy Delisles. Seit in den 1980ern und 1990ern die ersten Webcomics erschienen, wird auch das Internet von zahlreichen Comicproduzenten zur Veröffentlichung und Bewerbung ihrer Werke genutzt und dient Comiclesern und Comicschaffenden zum Gedankenaustausch.
Formen des Comics.
Comicstrip.
Der Comicstrip (vom englischen "comic strip", strip = Streifen) umfasst als Begriff sowohl die "daily strips" („Tagesstrips“) als auch die "Sunday pages" („Sonntags-Strips“ oder Sonntagsseiten). Der Ursprung von Comicstrips liegt in den amerikanischen Sonntagszeitungen, wo sie zunächst eine ganze Seite füllten. Als erster Comicstrip gilt "Hogan’s Alley", später bekannt als "The Yellow Kid," von Richard Felton Outcault, der 1894 entstand. Ab der Jahrhundertwende fanden Comicstrips auch in Zeitungen anderer englischsprachiger Länder Verbreitung, in Kontinentaleuropa erst in den 1920er Jahren. Eine Verbreitung wie in den USA fanden sie hier nie.
1903 erschien der erste werktägliche "daily strip" auf den Sportseiten der "Chicago American", ab 1912 wurde zum ersten Mal eine fortlaufende Serie abgedruckt. Der Tagesstrip, der von Anfang an nur auf schwarz-weiß beschränkt war, sollte auch von seinem Platz her sparsam sein. Da er nur eine Leiste umfassen sollte, wurde die Länge auf drei oder vier Bilder beschränkt, die in der Regel mit einer Pointe endeten. Bis heute hat sich erhalten, dass der Comicstrip eine feststehende Länge besitzt, die über eine Längsseite gehen sollte. Häufig werden bestimmte Motive variiert und ihnen dadurch neue Perspektiven abgewonnen. Nur in absoluten Ausnahmefällen ergeben sich längerfristige Veränderungen, meist handelt es sich um die Einführung neuer Nebenfiguren. In der Serie "Gasoline Alley" altern die Figuren sogar. Erscheinen die Geschichten täglich, werden sie häufig eingesetzt, um im Laufe einer Woche eine Art Handlungsbogen zu bestimmen, der in der nächsten Woche von einem neuen abgelöst wird.
Deshalb setzte sich vermehrt die Praxis durch, dass die "Sunday pages" unabhängig von dem Handlungsbogen funktionieren mussten, da es einerseits einen Leserstamm ausschließlich für die Sonntagszeitungen gab, der die vorhergehenden Geschichten nicht kannte und außerdem die Sonntagsstrips zum Teil separat vertrieben wurden.
Aufgrund der wirtschaftlichen Zwänge beim Druck der Strips gab es während des Zweiten Weltkriegs immer stärkere Einschränkungen der formalen Möglichkeiten. Zudem verloren die Zeitungsstrips wegen der zunehmenden Konkurrenz durch andere Medien an Beliebtheit und Bedeutung. So wurde der Comicstrip seit den 1940er Jahren formal und inhaltlich nur noch wenig verändert. Bedeutende Ausnahmen sind Walt Kellys "Pogo", "Die Peanuts" von Charles M. Schulz oder Bill Wattersons "Calvin und Hobbes". Der, wie "Pogo", politische Comicstrip "Doonesbury" wurde 1975 mit dem Pulitzer-Preis ausgezeichnet. Nach einer inhaltlichen Erweiterung hin zu gesellschaftskritischen Themen und formalen Experimenten in den 1960er Jahren bewegten sich die nachfolgenden Künstler innerhalb der bestehenden Konventionen.
Seit Anfang des 20. Jahrhunderts werden Zeitungsstrips auch gesammelt in Heft- oder Buchausgaben veröffentlicht. Bis 1909 erschienen bereits 70 solcher Nachdrucke. Auch heute erscheinen viele aktuelle oder historische Comicstrips nachgedruckt in anderen Formaten.
Heft- und Buchformate.
In den 1930er-Jahren etablierte sich der Vertrieb von Comics in den Vereinigten Staaten in Heftform. 1933 veröffentlichte die Eastern Color Printing Company erstmals ein Comicheft in noch heute gebräuchlicher Form, das aus einem Druckbogen auf 16 Seiten gefalzt und gebunden wurde. Die Seitenzahl beträgt entsprechend in der Regel 32, 48 oder 64. Zunächst wurden die Hefte als Werbegeschenk von Firmen für ihre Kunden verbreitet, gefüllt noch mit Sammlungen von Comicstrips. Bald wurden die Hefte als regelmäßige Publikationen von Verlagen auch direkt vertrieben und mit eigenen Produktionen gefüllt. Die Hefte "Detective Comics" (1937) und "Action Comics" (1938) vom Verlag Detective Comics waren die ersten bedeutenden Vertreter, mit dem Start von "Action Comics" war auch der erste Auftritt von "Superman" verbunden. Aufgrund des Formates wurden sie in den USA "Comic Books" genannt und stellen seit Ende der 1940er Jahre die gängige Vertriebsform in vielen Ländern dar.
Nach dem Zweiten Weltkrieg, teilweise schon in den 1930er Jahren, kam das Heftformat nach Europa und fand in Form von Comic-Magazinen wie dem "Micky-Maus"-Magazin Verbreitung. Das Magazin vereint verschiedene Beiträge unterschiedlicher Autoren und Zeichner, die es häufiger als Fortsetzungen übernimmt, und ergänzt diese unter Umständen um redaktionelle Beiträge. Zu unterscheiden sind Magazine wie das an Jugendliche gerichtete "Yps", in dem importierte Reihen wie "Lucky Luke" und "Asterix und Obelix" neben deutschen Beiträgen zu finden sind und deren Aufmachung Heftcharakter besitzt, von den an Erwachsene gerichteten Sammlungen wie "Schwermetall" oder "U-Comix". Zu den bedeutendsten Magazinen des Frankobelgischen Comics zählen "Spirou" (seit 1938), "Tintin" (1946–1988) und "Pilote" (1959–1989).
"Fix und Foxi" von Rolf Kauka, eine der erfolgreichsten Comic-Serien aus deutscher Produktion, erschien ab 1953 als Comic-Magazin. Sie besitzt inzwischen allerdings keine große wirtschaftliche Relevanz mehr. Im Osten Deutschlands wurden die eigenen Comiczeitschriften, zur Unterscheidung von westlichen Comics, als "Bilderzeitschriften" bzw. "Bildergeschichten" bezeichnet. Besonders prägte das "Mosaik" mit seinen lustigen unpolitischen Abenteuergeschichten die dortige Comiclandschaft. Das "Mosaik" von Hannes Hegen mit Digedags wurde 1955 in Ost-Berlin gegründet. Später wurde die Comiczeitschrift mit den Abrafaxen fortgeführt. Das "Mosaik" erscheint noch immer als monatliches Heft mit einer Auflage von etwa 100.000 Exemplaren im Jahr 2009, wie sie keine andere Zeitschrift mit deutschen Comics erreicht. Mittlerweile existieren kaum noch erfolgreiche Magazine in Deutschland und Comics werden vornehmlich in Buch- und Albenformaten veröffentlicht.
In Japan erschien 1947 mit "Manga Shōnen" das erste reine Comic-Magazin, dem bald weitere folgten. Dabei entwickelten sich eigene und insbesondere im Vergleich zum europäischen Magazin deutlich umfangreichere Formate mit bis zu 1000 Seiten. Auf dem Höhepunkt der Verkäufe im Jahr 1996 gab es 265 Magazine und fast 1,6 Mrd. Exemplaren Auflage pro Jahr. Das bedeutendste Magazin, "Shōnen Jump", hatte eine Auflage von 6 Mio. pro Woche. Seit Mitte der 1990er Jahre sind die Verkaufszahlen rückläufig.
Neben den Comic-Heften setzten sich auch das Album und das Taschenbuch durch. Comicalben erschienen in Frankreich und Belgien ab den 1930er Jahren. In ihnen werden die in Magazinen veröffentlichten Comics gesammelt und als abgeschlossene Geschichte abgedruckt. Ihr Umfang beträgt, bedingt durch die Verwendung 16-fach bedruckter Bögen, in der Regel 48 oder 64 Seiten. Im Gegensatz zu Heften sind sie wie Bücher gebunden, von diesen heben sie sich durch ihr Format, meist DIN A4 oder größer, ab. Sie sind insbesondere in Europa verbreitet. Seit es weniger Comic-Magazine gibt, erscheinen Comics in Europa meist ohne Vorabdruck direkt als Album. Bekannte in Albenform erschienene Comics sind "Tim und Struppi" oder "Yakari". In den 1950er- und 1960er-Jahren brachte der Walter Lehning Verlag das aus Italien stammende Piccolo-Format nach Deutschland. Die mit 20 Pfennig günstigen Hefte wurden mit den Comics Hansrudi Wäschers erfolgreich verkauft und prägten den damaligen deutschen Comic.
Comic-Publikationen in Buchformaten entstanden in den 1960er Jahren und kamen mit den Veröffentlichungen des Verlags Eric Losfeld auch nach Deutschland. Die 1967 gestarteten "Lustigen Taschenbücher" erscheinen noch heute. Ab den 1970er Jahren wurden bei den Verlagen Ehapa und Condor auch Superhelden im Taschenbuchformat etabliert, darunter "Superman" und "Spider-Man". Dazu kamen in diesem Format humoristische Serien, wie etwa "Hägar". In Japan etablierte sich, als Gegenstück zum europäischen Album, das Buch für zusammenfassende Veröffentlichung von Serien. Die entstandenen Tankōbon-Formate setzten sich in den 1990er Jahren auch im Westen für die Veröffentlichung von Mangas durch. Mit Hugo Pratt in Europa sowie Will Eisner in den USA entstanden ab den 1970ern erstmals Geschichten als Graphic Novel, die unabhängig von festen Formaten, in ähnlicher Weise wie Romane veröffentlicht wurden. Der Begriff „Graphic Novel“ selbst wurde aber zunächst nur von Eisner verwendet und setzte sich erst deutlich später durch. Die zunehmende Zahl von Graphic Novels wird üblicherweise in Hard- oder Softcover-Buchausgaben herausgebracht. Auch ursprünglich in Einzelheften erschienene Comicserien, wie "From Hell" oder "Watchmen", werden, in Buchform gesammelt, als Graphic Novels bezeichnet.
Entstehung von Comics.
Techniken.
Die meisten Comics wurden und werden mit Techniken der Grafik geschaffen, insbesondere als Zeichnung mit Bleistift oder Tusche. Üblich ist auch, dass zunächst Vorzeichnungen mit Bleistift oder anderen leicht entfernbaren Stiften gezeichnet werden und danach eine Reinzeichnung mit Tusche erfolgt. Als Ergänzung dazu ist teilweise der Einsatz von Rasterfolie oder vorgefertigten, mit Bildmotiven bedruckten Folien verbreitet. Neben der Zeichnung mit Stift und Tusche sind auch alle anderen Techniken der Grafik und Malerei sowie die Fotografie zur Produktion von Comics möglich und finden Anwendung, beispielsweise in Fotoromanen. Bis zum 19. Jahrhundert, in dem sich mit dem modernen Comic auch die heute üblichen Techniken durchsetzten, gab es bereits eine große Bandbreite an künstlerischen Verfahren für Bildgeschichten. So das Malen in Öl und Drucken mit Stichen, Fresken, Stickerei oder aus farbigem Glas gesetzte Fenster. Auch mit Relief und Vollplastik wurden Comics geschaffen. Seit den 1990er Jahren hat die im Ergebnis dem traditionellen Zeichnen optisch oft ähnliche Fertigung mit elektronischen Mitteln wie dem Zeichenbrett größere Verbreitung erfahren. Darüber hinaus entstanden mit dem ausschließlich elektronischen Zeichnen auch neue Stile und Techniken. Eine Sonderform bilden die 3D-Comics.
Bestimmend für die Wahl der Technik war oft, dass die Bilder mit Druckverfahren vervielfältigt werden. Daher dominieren Werke mit Grafiken, die aus festen Linien bestehen. Für farbige Bilder werden in der Regel im Druck Flächenfarben oder Rasterfarben des Vierfarbdrucks ergänzt. Durch die Verbreitung von Scanner und Computer zur Vervielfältigung sowie dem Internet als Verbreitungsweg sind die Möglichkeiten der Zeichner, andere Mittel und Techniken zu nutzen und zu entwickeln, deutlich gewachsen.
Künstler und Produktionsabläufe.
In Amerika und Europa traten in der Comicbranche lange Zeit fast ausschließlich weiße, heterosexuelle Männer in Erscheinung. Jedoch war in der ersten Hälfte des 20. Jahrhunderts über die meisten Künstler nur wenig bekannt. Angehörige von Minderheiten konnten so Vorurteilen entgehen. Frauen und gesellschaftliche Minderheiten traten erst ab den 1970er Jahren vermehrt als Autoren und Zeichner in Erscheinung. Dies ging häufig einher mit der Gründung von eigenen Organisationen, wie der "Wimmen’s Comicx Collective" oder dem Verlag "Afrocentric" in den Vereinigten Staaten.
Bis ins 19. Jahrhundert wurden Comics und Bildergeschichten fast ausschließlich von einzelnen Künstlern allein angefertigt. Durch die Veröffentlichung der Comics in Zeitungen und zuvor bereits in ähnlichen Massenprintmedien waren die Künstler im 19. Jahrhundert immer öfter für einen Verlag tätig. Ihr Produkt war dennoch individuell und Serien wurden eingestellt, wenn der Künstler sie nicht selbst fortsetzte. Mit Beginn des 20. Jahrhunderts kam es häufiger zu Kooperationen von Zeichnern und Autoren, die gemeinsam im Auftrag eines Verlags an einer Serie arbeiteten. Zunehmend wurden Serien auch mit anderen Künstlern fortgesetzt. In großen Verlagen wie "Marvel Comics" oder unter den Herausgebern der Disney-Comics haben sich so Stilvorgaben durchgesetzt, die ein einheitliches Erscheinungsbild von Serien ermöglichen sollen, auch wenn die Beteiligten ausgewechselt werden. Dennoch gibt es auch in diesem Umfeld Künstler, die mit ihrem Stil auffallen und prägen. Im Gegensatz dazu entwickelten sich auch Comic-Studios, die unabhängiger von Verlagen sind. Teilweise werden diese von einem einzelnen Künstler dominiert oder bestehen schlicht zur Unterstützung des Schaffens eines Künstlers. Eine solche Konstellation findet sich beispielsweise bei Hergé und ist in Japan weit verbreitet. In Anlehnung an den von den Regisseuren der Nouvelle Vague geprägten Begriff des Autorenfilms entstand auch der Begriff des "Autorencomic", der im Gegensatz zu den arbeitsteilig entstehenden konventionellen Mainstream-Comics nicht als Auftragsarbeit, sondern als Ausdruck einer persönlichen künstlerischen und literarischen Handschrift, die sich kontinuierlich durch das gesamte Werk eines Autors zieht, entsteht. Je nach Arbeitsweise – allein, im Team oder direkt für einen Verlag – verfügt der einzelne Mitwirkende über mehr oder weniger Spielraum, was sich auch auf die Qualität des Werkes auswirkt.
Sowohl bei Verlagen als auch bei Studios einzelner Künstler ist die Arbeit in der Regel auf mehrere Personen verteilt. So kann das Schreiben des Szenarios, das Anfertigen von Seitenlayouts, das Vorzeichnen der Seiten, das Tuschen von Bleistiftzeichnungen und das Setzen von Text von verschiedenen Personen ausgeführt werden. Auch die Anfertigung von Teilen des Bildes wie Zeichnen von Figuren und Hintergrund, Setzen von Schraffuren und Rasterfolie und das Kolorieren kann auf mehrere Mitwirkende verteilt sein.
Vertriebswege.
Populäre Lithographien, frühe Comics und Bildgeschichten, wurden in Deutschland von Lumpensammlern verkauft, die diese mit sich trugen. Später wurden Comics in Nordamerika und Europa bis in die 1930er Jahre fast ausschließlich über Zeitungen verbreitet. Mit den Comicheften kam in den USA ein Remittendensystem auf, in dem die Comics über Zeitungskioske vertrieben wurde. Nicht verkaufte Exemplare gingen dabei zum Verlag zurück oder wurden auf dessen Kosten vernichtet. Ab den 1960er Jahren konnten sich reine Comicläden etablieren und mit ihnen der „Direct Market“, in dem der Verlag die Bücher direkt an den Laden verkauft. Auch neu entstandene Formate wie das Comicalbum oder Comicbook wurden über diesen Weg an ihren Kunden gebracht.
Durch die Entwicklung des Elektronischen Handels ab den 1990er Jahren nahm der Direktvertrieb vom Verlag oder direkt vom Künstler zum Leser zu, darunter der Vertrieb von digitalen statt gedruckten Comics. Dieser bietet den Vorteil geringerer Produktionskosten, was zusammen mit der für alle Verkäufer großen Reichweite und Marketing über soziale Netzwerke zu größeren Chancen auch für kleinere Anbieter, wie Selbstverleger und Kleinverlage, führt.
Rechtliche Aspekte.
Der Umgang mit den Urheber- und Nutzungsrechten an Comics war in der Geschichte des Mediums immer wieder umstritten. So führte der Erfolg von William Hogarths Bildergeschichten dazu, dass diese von anderen kopiert wurden. Zum Schutz des Urhebers verabschiedete das englische Parlament daher 1734 den "Engraver’s Act". Künstler, die ihre Werke selbst und allein schaffen, verfügen über die Rechte an diesen Werken und können über deren Veröffentlichung bestimmen. Im 19. und beginnenden 20. Jahrhundert traten neue Konflikte auf, da zunehmend mehr Menschen an einem einzelnen Comic beteiligt waren, so der Redakteur oder verschiedene Zeichner und Autoren. Dies führte unter anderem dazu, dass die Rechte einer Serie zwischen einem Verlag und dem Künstler aufgeteilt wurden oder dass die Urheber im Vergleich zum Erlös des Verlags nur eine geringe Bezahlung erhielten. Im Laufe des 20. Jahrhunderts etablierten sich Verträge zwischen allen Beteiligten, die zu einer klaren Rechtslage führen.
Formensprache.
Neben vielfältigen Techniken hat sich im Comic eine eigene Formensprache entwickelt, da das Medium besonders auf bildhafte Symbole angewiesen ist. Diese dienen zur Verdeutlichung von Gemütszuständen oder der Sichtbarmachung nicht gegenständlicher Elemente der dargestellten Ereignisse. Dabei finden übertrieben dargestellte, aber tatsächlich auftretende „Symptome“ wie Schweißtropfen oder Tränen, oder gänzlich metaphorische Symbole Verwendung. Besonders verbreitet ist die Sprechblase als symbolische Darstellung der nicht sichtbaren Sprache und zugleich Mittel zur Integration von Text. Zur symbolhaften Darstellung von Bewegung finden vor allem „Speedlines“, die den Weg des Bewegten nachzeichnen, oder eine schemenhafte Darstellung mehrerer Bewegungsphasen Anwendung. Insbesondere beim Einsatz verschiedener Strich-, Linien- und Schraffurformen als expressionistisches Mittel zur Vermittlung von Emotionen hat sich im Comic eine große Bandbreite entwickelt. Sehr ähnlich wie der Strich wird die Schriftart und -größe von Text eingesetzt. Der Einsatz von Farben, wenn überhaupt, wird sehr verschieden gehandhabt. Da die meist eingesetzten flächigen Kolorierungen die Konturen betonen und damit das Bild statisch erscheinen lassen und die Identifizierung des Lesers erschweren können, ist die Farbkomposition auch für das Erzählen der Geschichte und die Wirkung der Figuren von großer Bedeutung.
Neben dem Einsatz der eigentlichen Symbole werden oft auch die handelnden Figuren sowie die dargestellte Szenerie vereinfacht, stilisiert oder überzeichnet dargestellt. Verschiedene Ebenen des Bildes, wie Figuren und Hintergründe, aber auch unterschiedliche Figuren, können dabei verschieden stark abstrahiert werden. Es existiert ein breites Spektrum an inhaltlicher oder formaler Abstraktion, von fotografischen oder fotorealistischen Darstellungen bis zu weitgehend abstrakten Formen oder reinen Bildsymbolen. Gerade die stilisierte, cartoonhafte Darstellung der handelnden Figuren ist bedeutend, da sie der leichten Identifikation des Lesers mit diesen Figuren dient. Durch verschiedene Maße der Stilisierung kann auf diese Weise auch die Identifikation und Sympathie des Lesers beeinflusst werden. So ist es laut Scott McCloud in vielen Stilen, wie der Ligne claire oder Manga, die Kombination von stark stilisierten Figuren und einem eher realistischen Hintergrund üblich, um den Leser „hinter der Maske einer Figur gefahrlos in eine Welt sinnlicher Reize“ eintreten zu lassen. Er nennt dies den „Maskierungseffekt“. Dieser kann auch flexibel eingesetzt werden, sodass die Veränderung der Darstellungsart einer Figur oder eines Gegenstandes auch zu einer anderen Wahrnehmung dieser führt. Die Stilisierung und Übertreibung von Merkmalen der Figuren dient auch ihrer Charakterisierung und Unterscheidbarkeit für den Leser. Durch die Verwendung von physischen Stereotypen werden Erwartungen des Lesers geweckt oder auch bewusst gebrochen.
Grafisches Erzählen.
Für das Erzählen mit Comics zentral ist die Art, wie die Inhalte der Geschichte in Bilder aufgeteilt werden, welche Ausschnitte und Perspektiven der Autor wählt und wie die Panels angeordnet werden. Die drei Prinzipien der Erzählung im Comic nennt Eckart Sackmann das kontinuierende, integrierende und separierende, und nimmt dabei Bezug auf den Kunsthistoriker Franz Wickhoff. In Erstem reihen sich die Ereignisse ohne Trennung aneinander (zum Beispiel Trajanssäule), das integrierende Prinzip vereint die zeitlich versetzten Szenen in einem großen Bild (zum Beispiel Bilderbogen oder Wiener Genesis). Das separierende Prinzip, das im modernen Comic vorherrscht, trennt die Vorgänge in nacheinander folgende Bilder. Aus den inhaltlichen Unterschieden zwischen aufeinanderfolgenden Panels schließt der Leser durch Induktion auf die Geschehnisse, auch ohne dass jeder Moment dargestellt wird. Je nach inhaltlicher Nähe beziehungsweise Ferne der Bilder wird dem Leser verschieden großer Interpretationsspielraum gewährt. Scott McCloud ordnet die Panelübergänge in sechs Kategorien: Von Augenblick zu Augenblick, von Handlung zu Handlung (bei gleich bleibendem betrachteten Gegenstand), von Gegenstand zu Gegenstand, von Szene zu Szene, von Aspekt zu Aspekt und schließlich der Bildwechsel ohne logischen Bezug. Er stellt fest, dass für Erzählungen besonders häufig die Kategorien 2 bis 4 verwendet werden, während die letzte Kategorie für Narration gänzlich ungeeignet ist. Der Umfang, in dem bestimmte Kategorien verwendet werden, unterscheidet sich stark je nach Erzählstil. Ein bedeutender Unterschied besteht zwischen westlichen Comics bis zu den 1990er Jahren und Mangas, in denen die Kategorien 1 und 5 deutlich stärkere Verwendung finden. Dietrich Grünewald definiert dagegen nur zwei Arten von Anordnungen: die „enge“ und die „weite Bildfolge“. Während die erste Aktionen und Prozesse abbilde und seit dem ausgehenden 19. Jahrhundert den Comic vorrangig präge, beschränke sich die zweite auf deutlich weiter auseinanderliegende, ausgewählte Stationen eines Geschehens. Diese miteinander zu verbinden verlange eine aufmerksamere Betrachtung des einzelnen Bildes; bis zum modernen Comic sei dies die vorherrschende Erzählweise gewesen. Die Panelübergänge beeinflussen sowohl die Wahrnehmung von Bewegung und welche Aspekte der Handlung oder des Dargestellten vom Leser besonders wahrgenommen werden, als auch die vom Leser gefühlte Zeit und den Lesefluss.
Für die Wahrnehmung von Zeit und Bewegung ist darüber hinaus das Layout der Seiten von Bedeutung. Bewegung, und mit ihr auch Zeit, wird außerdem durch Symbole dargestellt. Auch die Verwendung von Text, insbesondere der von Figuren gesprochener Sprache, wirkt sich auf den Eindruck von erzählter Zeit aus. Ebenso dient der Einsatz verschiedener Panelformen und -funktionen dem Erzählen. Verbreitet ist die Verwendung von „Establishing Shots“ bzw. eines „Splash Panel“, die in eine Szene bzw. einen neuen Ort der Handlung einführen. Diese sind auch ein Anwendungsfall teilweise oder ganz randloser Panels. Die Auswahl des Bildausschnitts und dargestellten Moments einer Bewegung beeinflusst den Lesefluss insofern, dass die Wahl des „fruchtbaren Moments“, also der geeigneten Pose, die Illusion einer Bewegung und damit die Induktion unterstützt.
Die Integration von Text geschieht im Comic sowohl über Sprechblasen, als auch die Platzierung von Wörtern, insbesondere Onomatopoesien und Inflektive, direkt im Bild oder unter dem Bild. Text und Bild können auf verschiedene Weise zusammen wirken: sich inhaltlich ergänzen oder verstärken, beide den gleichen Inhalt transportieren oder ohne direkten Bezug sein. Ebenso kann ein Bild bloße Illustration des Textes oder dieser nur eine Ergänzung des Bildes sein.
Der Leser des Comics nimmt zum einen das Gesamtbild einer Seite, eines Comicstrips oder eines einzeln präsentierten Panels als Einheit wahr. Es folgt die Betrachtung der einzelnen Panels, der Teilinhalte der Bilder und der Texte, in der Regel geführt durch Seitenlayout und Bildaufbau. Dabei findet sowohl aufeinander folgende als auch simultane, abstrakte und anschauliche Wahrnehmung statt. Die oft symbolischen Darstellungen werden vom Leser interpretiert und in einen, soweit ihm bekannten, Kontext gesetzt und das dargestellte Geschehen und seine Bedeutung daraus aktiv konstruiert. Dietrich Grünewald nennt, auf Grundlage der Arbeit Erwin Panowskys, vier inhaltliche Ebenen der Bildgeschichte. Die erste Ebene, „vorikonografische“ ist die der dargestellten Formen, Grünewald nennt dies auch die „Inszenierung“, also die Auswahl und Anordnung der Formen sowie der Bilder und Panel auf der Seite. Die zweite, „ikonografische“ Ebene umfasst die Bedeutung der Formen als Symbole, Allegorien u. a. Die „ikonologische“ dritte Ebene ist die der eigentlichen Bedeutung und Inhalt des Werks, wie sie sich auch aus dem Kontext ihrer Zeit und des künstlerischen Werks des Schöpfers ergibt. Eine vierte Ebene sieht er in der Bildgeschichte als Spiegel der Zeit, in der sie entstanden ist, und in dem, was sie über ihren Künstler, ihr Genre oder ihren gesellschaftlichen Kontext aussagt.
Inhaltliche Aspekte.
Der Comic als Kunstform und Medium ist an kein Genre gebunden. Dennoch sind bestimmte Genres innerhalb des Comics besonders weit verbreitet oder haben in ihm ihren Ursprung. So entstand durch Serien wie "Krazy Kat" bereits zu Beginn des 20. Jahrhunderts mit dem „Funny Animal“-Comicstrip ein dem Medium eigenes Genre, das später auch im Trickfilm Verwendung fand. Die seit dieser Zeit entstandenen humorvollen Comics werden allgemein als Funnys bezeichnet. Daneben waren zunächst vor allem Geschichten aus dem Alltag der Leser oder über realistische oder phantastische Reisen verbreitet. Die amerikanischen Abenteuercomics der 1930er Jahre prägten gemeinsam mit dem damaligen Film Kriminal- und Piratengeschichten, Western und Science-Fiction. Zugleich entstand als eine Zwischenform von Funny und Abenteuercomic der Semifunny. Mit dem Superhelden entstand in den USA Ende der 1930er Jahre erneut ein Comic-eigenes Genre, das sich später insbesondere auch in Film und Fernsehen fand. Das kurzzeitig umfangreiche Aufkommen von Comics mit Horror- und besonders gewaltorientierten Krimi-Themen, vor allem publiziert vom Verlag EC Comics, wurde durch den Comics Code zu Beginn der 1950er Jahre beendet.
Im europäischen Comic hat sich neben humoristischen Zeitungsstrips eine Tradition etwas längerer Abenteuergeschichten gebildet, dessen bedeutendste frühe Vertreter Hergé und Jijé sind. In Japan entstand mit der Entwicklung des modernen Mangas eine große Anzahl an Genres, die dem Medium eigen sind und sich später auch im Anime etablierten. Einige bedeutende Genres, wie Shōnen und Shōjo, kategorisieren dabei nicht nach Thema des Werks, sondern nach Zielgruppe, in diesem Falle Jungen und Mädchen. Dabei wurde, in zuvor durch das Medium Comic nicht erreichtem Umfang, auch eine weibliche Leserschaft angesprochen.
Nachdem Comics mit romantischen Geschichten, die sich traditionell an Mädchen richteten, im westlichen Comic fast völlig verschwunden waren, konnten sich weibliche Zeichner und Comics für ein weibliches Publikum ab den 1970er Jahren nur langsam durchsetzen. In der gleichen Zeit wurden Underground Comix mit Zeichnern wie Robert Crumb und Art Spiegelman zum Ausdruck der Gegenkultur in den USA. Wie auch in Japan wurden zunehmend Werke mit politischen und historischen Themen, später auch biografische Werke und Reportagen, veröffentlicht und es entwickelte sich die Graphic Novel bzw. Gekiga als Sammelbegriff für solche Comics.
Bis zum 19. Jahrhundert griffen Comics vor allem den Alltag ihres Publikums komisch oder satirisch auf, vermittelten historische Begebenheiten oder religiöse Themen. Mit dem modernen Comic kamen zu den Werken mit Unterhaltungsfunktion oder politischer Intention auch wissensvermittelnde Sachcomics und Comic-Journalismus.
Ein ebenfalls bedeutendes Genre des Comic ist der erotische Comic. Dabei ist die ganze Breite der erotischen Darstellungen vertreten; von romantisch, verklärten Geschichten über sinnlich anregende Werke bis hin zu pornografischen Inhalten mit den Darstellungen der verschiedensten Sexualpraktiken. Bedeutende Vertreter des Genres sind Eric Stanton, Milo Manara und Erich von Götha, aber auch der deutsche Zeichner Toni Greis.
Verwandtschaft und Unterschiede zu anderen Medien.
Film.
Der Leser eines Comics fügt die Inhalte der einzelnen Panels zu einem Geschehen zusammen. Damit dies möglichst gut gelingt, werden auch Techniken verwendet, wie sie in der Filmkunst ähnlich vorkommen. Die einzelnen Panels zeigen Einstellungsgrößen wie "Totale" oder "Halbnahe", es wird zwischen verschiedenen Perspektiven gewechselt. Fast alle Techniken der Filmkunst haben ihr Pendant im Comic, wobei im Comic durch den variablen Panelrahmen die Veränderung des Ausschnitts noch leichter fällt als im Film. So entspricht dem genannten Establishing Shot in vielen Comics ein „Eröffnungs-Panel“ bzw. ein Splash Panel, das die Szenerie zeigt.
Die enge Verwandtschaft zeigt sich auch in der Erstellung von Storyboards während der Produktionsphase eines Films, die den Verlauf des Films und insbesondere die Kameraeinstellung in einem Comic skizzieren und dem Regisseur und Kameramann als Anregung oder Vorlage dienen. Der textliche Entwurf eines Comics, geschrieben vom Autor, wird „Skript“ genannt und dient dem Zeichner als Grundlage für seine Arbeit. Während die durch die Gutter-Struktur vorgegebenen „Informationslücken“ im (skizzenhaften) Film-Storyboard vernachlässigt und im späteren Produkt durch filmische Mittel geschlossen werden können, erfordern sie von Comic-Autoren eine erhöhte Aufmerksamkeit, damit beim endgültigen Produkt ein flüssiges Leseverstehen seitens der Leserschaft gewährleistet ist.
Im Unterschied zum Film erfordert der Comic jedoch das Ausfüllen der Lücken zwischen den Panels. Denn anders als im Film, wo sowohl eine Änderung der Perspektive durch Kameraschwenk und/oder Zoom als auch Bewegungsabläufe von Personen und Objekten innerhalb einer Einstellung vermittelt werden können, kann dies im Comic innerhalb eines Panels allenfalls durch "Bewegungslinien", einander in "Bewegungsschemata" überlagernde Bilder oder "Panel im Panel" angedeutet werden. Zwischen den Panels ergibt sich so zwangsläufig eine Informationslücke, die im Allgemeinen größer ist, als die zwischen Einstellung und Einstellung. Der Comic-Leser ist also im Vergleich zum Film-Zuschauer stärker gefordert, durch selbsttätiges Denken – „Induktion“; vgl. Induktion (Film) – einen dynamischen Ablauf aus statischen Bildern zu konstruieren. Auf diese Weise und auch wegen der in der Regel geringeren Zahl an Beteiligten an einem Werk ist die Beziehung zwischen Autor und Konsument im Comic intimer und aktiver als im Film. Ein weiterer Unterschied ist die Lese- bzw. Sehgeschwindigkeit sowie die Reihenfolge, in der die Bilder erfasst werden. Im Film ist dies vorgegeben, der Comicleser dagegen bestimmt diese frei, kann dabei aber vom Künstler geleitet werden. Ähnliches gilt für den Inhalt der Einzelbilder, dessen Wahrnehmung beim Film durch die Tiefenschärfe gelenkt wird und auf eine gleichzeitig laufende Handlung eingeschränkt. Im Comic dagegen sind in der Regel alle Teile des Bildes scharf dargestellt und es gibt die Möglichkeit, zwei parallele Handlungen, zum Beispiel Kommentare von Figuren im Hintergrund, in einem Bild darzustellen.
Die stärkste Verwandtschaft der Medien Film und Comic zeigt sich im Fotocomic, da für diesen die einzelnen Bilder der Comicseite nicht gezeichnet, sondern wie beim Film mit einer Kamera produziert werden.
Literatur.
Ähnlich wie bei der Vorstellung der Handlung in rein wortbasierten Literaturformen ist im Comic die aktive Mitwirkung des Lesers erforderlich. Im Unterschied zur reinen Textliteratur ist das Kopfkino beim Comic-Lesen in der Regel stärker visuell ausgeprägt, der Gebrauch bildlicher Mittel ist der bedeutendste Unterschied zwischen Comic und Textliteratur. Durch Gebrauch von Bildsymbolen wirkt der Comic unmittelbarer auf den Leser als die Erzählstimme der Prosa. Auch kann der Autor nicht nur durch die Wahl der Worte, sondern auch in den Bildern einen persönlichen Stil zeigen. Die Notwendigkeit, Textkohäsion durch grafische Mittel herzustellen, führt Scott McCloud als wichtiges Kriterium von Comics an. Aufgrund dieses Kriteriums sind Comics aus literaturwissenschaftlicher Perspektive eine Form von Literatur, obgleich sie dessen unbeschadet aus kunstwissenschaftlicher Sicht eine eigenständige Kunstform darstellen.
Theater.
In der Bedeutung von markanten Posen, Symbolen und stilisierten Figuren weist der Comic Gemeinsamkeiten mit dem Theater auf, insbesondere mit dem Papiertheater. In beiden Medien soll der Rezipient die Figuren durch hervorgehobene Eigenschaften, in Gesicht oder dem Kostüm, wiedererkennen um dem Geschehen folgen zu können. Dabei werden durch Stereotypen bekannte Muster und Vorurteile angesprochen, die das Verständnis der Geschichte erleichtern oder erzählerischen Kniffen dienen. Auch die Darstellung des Handlungsortes durch einen einfachen aber prägnanten Hintergrund bzw. ein Bühnenbild ist in beiden Medien wichtig. Einige Techniken des Theaters zur Vermittlung von Raumtiefe und Dreidimensionalität, so die Überlagerung von Figuren aus dem Papiertheater, die Fluchtperspektiven des Theaters der Renaissance oder das Ansteigen des Bühnenbodens nach hinten, wurden vom Comic adaptiert. Während im Theater jedoch, eingeschränkt auch im Papiertheater, Bewegung direkt dargestellt werden kann, ist der Comic auf die Verwendung von Symbolen und die Abbildung von mehreren Bewegungsphasen angewiesen. Ähnlich verhält es sich mit Geräuschen und Sprache. Im Comic fällt es dagegen leichter, parallele Handlungen, Ort- und Zeitsprünge abzubilden.
Bildende Kunst.
Da der Comic sich der Mittel der bildenden Kunst zur Darstellung des Handlungsablaufs bedient, gibt es einige Schnittmengen zwischen beiden Kunstformen. So ist in beiden die Wahl von Bildausschnitt, Perspektive und dargestelltem Moment bzw. Pose bedeutsam. Der richtig gewählte „fruchtbare Moment“ lässt ein Bild lebendiger, überzeugender wirken und unterstützt im Comic den Lesefluss. Methoden zur Darstellung von Bewegung, die Künstler des Futurismus erkundet haben, fanden später Anwendung im Comic.
Öffentliche Wahrnehmung.
In der Anfangszeit des modernen Comic wurde das Medium als Unterhaltung für die ganze Familie verstanden. Auch ernsthafte Künstler wie Lyonel Feininger beschäftigten sich mit dem Comic und Pablo Picasso war begeistert vom Strip "Krazy Kat". Erst mit der von den Vertrieben vorgeschriebenen Beschränkung der Strips auf simple Gags und der Etablierung des Fernsehens als vorherrschendes Familienunterhaltungmedium wandelt sich die Wahrnehmung der Comics in den USA.
Zunehmend wurde Comics der Vorwurf gemacht, sie übten auf jugendliche Leser einen verrohenden Einfluss aus, der zu einer oberflächlichen, klischeehaften Wahrnehmung ihrer Umwelt führe. Ein Artikel von Sterling North, in dem erstmals auf die vermeintliche Gefahr durch Comics aufmerksam gemacht wurde, leitete 1940 in den USA landesweit eine erste Kampagne gegen Comics ein. Höhepunkt waren die Bemühungen im Amerika der 1950er Jahre, Horror- und Crime-Comics wie "Geschichten aus der Gruft" vom Verlag EC Comics zu verbieten. 1954 veröffentlichte der Psychiater Fredric Wertham sein einflussreiches Buch "Seduction of the Innocent", in dem er die schädliche Wirkung der Crime- und Horrorcomics auf Kinder und Jugendliche nachzuweisen suchte. Einer Studie von 2012 gemäß sind zahlreiche der Forschungsergebnisse in Werthams Buch durch den Autor bewusst manipuliert oder sogar erfunden worden; in seiner Zeit wurde es jedoch breit rezipiert und wirkte sich nachhaltig auf die Produktion und das Verständnis von Comics aus. Es folgten Senatsanhörungen zum Problem der Comics, was zwar nicht zum generellen Comicverbot, aber zur Einführung des Comics Code führte, einer Selbstzensur der Comicindustrie. Die hier festgelegten Verpflichtungen wie das Verbot, Verbrecher in irgendeiner Weise sympathisch und ihre Handlungen nachvollziehbar erscheinen zu lassen, führten zu einer erzählerischen Verflachung der Comics. Die Wahrnehmung der Comics beschränkte sich danach im englischen Sprachraum lange Zeit auf Genres wie den Superhelden-Comic oder Funny Animal. In Deutschland kam es in den 1950er Jahren zu einer ähnlich gearteten, sogenannten „Schmutz-und-Schund“-Kampagne. In dieser wurden Comics pauschal als Ursache für Unbildung und Verdummung der Jugend, als „Gift“, „süchtig machendes Opium“ und „Volksseuche“ bezeichnet. Auf dem Höhepunkt der Kampagne wurden Comics öffentlichkeitswirksam verbrannt und vergraben. Die Forderungen der Kritiker waren ähnlich wie in den Vereinigten Staaten und gingen bis zu einem generellen Verbot von Comics. Dies wurde jedoch nicht erfüllt, der Bundesgerichtshof forderte eine konkrete Prüfung der einzelnen Darstellung. Die dafür neu gegründete Bundesprüfstelle für jugendgefährdende Schriften indizierte schließlich deutlich weniger Werke, als von den Kritikern gewünscht. Ebenso wie in den USA wurde in Deutschland eine Freiwillige Selbstkontrolle (FSS) gegründet, die Comics auf sittliche Verstöße und Gewalt prüfte und mit einem Prüfsiegel versah. Ähnliche Initiativen und Entwicklungen gab es auch in anderen europäischen Ländern. In der Folge galten Comics, insbesondere in Deutschland, seit den frühen 1950er Jahren als Inbegriff der Schundliteratur. Langfristige Folge war, so urteilt Bernd Dolle-Weinkauff 1990, nicht die Verdrängung der Comics, sondern die Abschreckung von Autoren, Zeichnern und Verlagen mit qualitativem Anspruch, sodass „die Produktion von Schund […] kräftig gefördert“ wurde.
Die Wahrnehmung von Comics wurde im Nachgang der „Schmutz-und-Schund“-Kampagne geteilt – Bilderfolgen von Dürer bis Masereel wurden als Hochkultur anerkannt, ebenso einige Werke des frühen modernen Comics, darunter Wilhelm Busch. Die als Massenmedien verbreiteten Werke des 20. Jahrhunderts wurde als Unterhaltende, minderwertige Kunst gesehen. Seit den 1970er Jahren schwächte sich dies ab, da zum einen Populärkultur allgemein immer weniger pauschal abgewertet wird und Einfluss auf anerkannte Hochkunst nahm, zum anderen haben Werke wie Art Spiegelmans "Maus – Die Geschichte eines Überlebenden" die öffentliche Sicht auf Comics verändert. Seitdem findet beispielsweise auch in Feuilletons die Rezension von Comics statt. Das Schweizerische Jugendschriftenwerk titelte in der Ausgabe 4/1987 einem Artikel "Vom Schund zum Schulmittel" von Claudia Scherrer. Mit den Worten „Das Medium Comic ist so salonfähig geworden, daß selbst das Schweizerische Jugendschriftenwerk SJW Bildgeschichten ins Programm aufgenommen hat – dies, obwohl“ [sic] „das SJW zum Schutz der Jugend gegen Schundliteratur gegründet worden war“ empfahl es auch Werke anderer Verlage. Auch in Deutschland und Österreich sind Comics seit den 1970er Jahren unterrichtsrelevant, sowohl als Thema im Deutsch-, Kunst- oder Sozialkundeunterricht als auch als Unterrichtsmittel in anderen Fächern.
Kritik am Inhalt von Comics seit den 1960er Jahren bezieht sich oft auf wiederholende, nur wenig variierte Motive, wie sie insbesondere in den Abenteuer-Genres üblich sind (Western, Science-Fiction, Fantasy). Dem Leser werde eine einfache Welt geboten, in der er sich mit dem Guten identifiziere und mit diesem einen (Teil-)Sieg erringe. Dem wird entgegnet, dass der Reiz für den Leser gerade darin liege, dass er in Geschichten mit solchen Motiven aus seiner komplexen aber erlebnisarmen Alltagswelt ausbrechen könne. Einen vergleichbaren Zugang und Reiz wie die Abenteuer-Genres böten die älteren Märchen. Wiederholende Themen und Strukturen böten einen einfachen Einstieg in die Unterhaltungslektüre. Schließlich bevorzuge der Leser dabei Geschichten, die nicht zu weit von seinen Erwartungen abweichen, was Künstler und Verlage, die eine breite Leserschaft erreichen wollen, zu einer gewissen Konformität zwingt. Dies wirkt aber bei anderen Medien der Popkultur, wie Film und Fernsehen, ähnlich. Dennoch entwickeln sich die Motive bei gesellschaftlichen Änderungen weiter und nehmen an diesen teil. Beispielsweise zeigt sich das an der Entwicklung der Superheldencomics, in denen mit der Zeit auch Themen wie Gleichberechtigung und soziales Engagement Einzug hielten. Inhaltliche Kritik gab es außerdem an Comics, in den 1970er Jahren vor allem Disney-Geschichten, in denen die Vermittlung imperialistischer, kapitalistischer oder anderer Ideologie vermutet wurde. Es gab aber auch widersprechende Interpretationen; so kann die Figur des Dagobert Duck als Verniedlichung des Kapitalismus, aber auch als Satire mit dem Stilmittel Übertreibung gelesen werden. Sowohl bei der Flucht des Lesers aus dem Alltag in eine Fantasiewelt, bei der negative Auswirkungen auf Leben und Wahrnehmung des Lesers unterstellt werden, als auch der Furcht vor Ideologie, hängt die Sicht auf die jeweiligen Comic-Werke vor allem davon ab, welche Fähigkeiten zur Distanzierung und Interpretation dem Leser zugetraut werden. Es gibt auch viele Comics, die oft keine große Bekanntheit erreichen und sich inhaltlich jenseits der kritisierten Motive und Klischees bewegen.
Besonders in den USA kam es immer wieder zu Auseinandersetzungen und Prozessen um Comics, die pornografisch waren oder so angesehen wurden, da Comics als Bücher nur für Kinder wahrgenommen wurden. In Deutschland blieben juristische Maßnahmen wie Beschlagnahmen von Comics die Ausnahme, Gerichte räumten der Kunstfreiheit in der Regel auch bei Comics einen höheren Rang ein als dem Jugendschutz.
In Lexika wurden Comics meist abschätzig beurteilt. So befand noch die Brockhaus Enzyklopädie in ihrer 19. Auflage, Bd. 4 (1987), die meisten der Serien seien als triviale Massenzeichenware zu charakterisieren, als „auf Konsum angelegte Unterhaltung, die von Wiederholungen, von Klischees bestimmt wird und ihren Lesern kurzfristig Ablenkung von ihren Alltagsproblemen bietet“. Daneben gebe es aber auch ein Comic-Angebot, das sich künstlerischer Qualität verpflichtet fühle. In der "Grande Encyclopédie Larousse" von 1971 dagegen wurden Comics von dem französischen Schriftsteller Francis Lacassin als „neunte Kunst“ vorgestellt. Damit wurden sie salonfähig.
Comicforschung.
Wissenschaftliche Schriften zu Comics erschienen ab den 1940er Jahren, standen dem Medium jedoch oft einseitig und undifferenziert kritisch gegenüber und setzten sich nicht mit den Funktionsweisen und Aspekten des Comics auseinander. In den USA erschien mit Martin Sheridans "Comics and Their Creators" 1942 das erste Buch, das sich dem Comic widmete. Es folgten zunächst Beschäftigungen mit der Geschichte der Comics und erste Schriften, die den Umfang an erschienenen Werken systematisch erschließen sollten. Comics wurden in Deutschland zunächst wegen der „Schmutz-und-Schund“-Kampagne der 1950er Jahre nur wenig wissenschaftlich beachtet. In bestimmten Kreisen der Literaturwissenschaft wurde dem Comic der Vorwurf der Sprachverarmung gemacht, was durch den häufigeren Gebrauch von unvollständigen Sätzen und umgangssprachlichen Ausdrücken in Comics gegenüber der Jugendliteratur nachgewiesen werden sollte. Dabei wurde missverstanden, dass der Text in den meisten Comics fast ausschließlich aus Dialogen besteht, und eine eher dem Kino und dem Theater als der Literatur vergleichbare Funktion besitzt. Die Kritik der Sprachverarmung kann auch aus dem Grunde als veraltet und ahistorisch bezeichnet werden, als die Verwendung von Umgangs- und Vulgärsprache in der Literatur schon lange kein Qualitätskriterium mehr darstellt.
Eine ernsthaftere, kulturwissenschaftliche Beschäftigung begann in den 1960er Jahren zunächst in Frankreich, begonnen mit der Gründung des "Centre d'Études des Littératures d'Expression Graphique" (CELEG) 1962. Der Umfang der Veröffentlichungen nahm zu, neben der Geschichte wurden auch Genres, Gattungen, einzelne Werke und Künstler untersucht. Es erschienen lexikalische Werke über Comics, erste Ausstellungen fanden statt und Museen wurden gegründet. Bald geschah dies auch in anderen europäischen Ländern, Nordamerika und Japan. Mit der Zeit entstanden auch erste Studiengänge zu Comics. Die umfangreichere wissenschaftliche Auseinandersetzung mit Comics begann in den Vereinigten Staaten in den 1970er Jahren und beschränkte sich zunächst auf soziologische Gesichtspunkte. Unter dem Einfluss der 68er-Bewegung wurde der Comic dann zunächst unter dem Aspekt des Massenmediums oder der Massenzeichenware betrachtet und als solche definiert. Soziologisch und medienkritisch orientierte Betrachtungen waren daher zunächst vorherrschend, später kamen auch psychologische dazu, wie die Untersuchung der Auswirkung von Gewaltdarstellungen auf Kinder. Auch nachdem diese stärker eingeschränkte Definition bis spätestens in den 1990er Jahren zugunsten der heutigen verworfen wurde, bleibt die Betrachtung dieser Aspekte ein wichtiger Teil der Comicforschung- und theorie. Untersuchungen des Erzählens mit Comics fand zunächst mit Methoden statt, die für die Textliteratur entstanden und für den Comic angepasst wurden. In Berlin gründete sich mit der Interessengemeinschaft Comic Strip (INCOS) ein erster deutscher Verband zur Förderung der Comicforschung. 1981 folgte ihm der Interessenverband Comic, Cartoon, Illustration und Trickfilm (ICOM), der in seinen Anfangsjahren Veranstaltungen organisierte, darunter 1984 mit dem Comic-Salon Erlangen die bedeutendste deutsche Veranstaltung zu Comics, sowie Comicforschung unterstützt. So enthält das seit 2000 als Nachfolger des verbandseigenen Fachmagazins erscheinende COMIC!-Jahrbuch neben Interviews auch immer wieder Artikel zur Struktur und Entwicklung des Mediums. 2007 gründete sich die Gesellschaft für Comicforschung. Seit den 1970er Jahren erscheinen auch im deutschsprachigen Raum Fachmagazine und Fanzines zu Comics, darunter die "Comixene", "Comic Forum" und "RRAAH!". Auch Museen zeigten seitdem Ausstellungen zu Comics und die systematische Erfassung deutscher Werke begann. In der DDR fand dagegen nur wenig wissenschaftliche Beschäftigung mit Comics statt, diese war zudem auf die Abgrenzung von „kapitalistischem Comic“ und „sozialistischer Bildgeschichte“, das heißt die Produktionen der sozialistischen Länder, fokussiert.
Gemeinsam mit der ersten Comicforschung begann in den 1970er Jahren die Diskussion, ob Comics eine eigene Kunstform darstellen. In den 1990er Jahren wurden Comics zunehmend als Kunst anerkannt und es erfolgte die Auseinandersetzung mit den Formen und der Semiotik des Comics, zu der auch Erzähltheorien des Comics entwickelt wurden. Auch empirische Untersuchungen des Leseverhaltens finden seitdem statt, jedoch oft motiviert durch die Verlage und mit Methoden, die in Zweifel gezogen werden. In der universitären Forschung etablierte sich die 1992 gegründete Arbeitsstelle für Graphische Literatur (ArGL) an der Universität Hamburg, darüber hinaus finden sporadisch Symposien und Tagungen statt. |
979 | 0 | https://de.wikipedia.org/wiki?curid=979 | Chaitin | |
981 | 287832 | https://de.wikipedia.org/wiki?curid=981 | Cosinus (Begriffsklärung) | Cosinus steht für |
983 | 568 | https://de.wikipedia.org/wiki?curid=983 | Compact Disc | Die (kurz CD, für "kompakte Scheibe") ist ein optischer Datenträger, der Anfang der 1980er Jahre als erster digitaler Tonträger von Philips/PolyGram und Sony in Zusammenarbeit mit dem Chemiekonzern Bayer eingeführt wurde und die Kassette ablösen sollte. Von den späten 1990er Jahren bis in die früheren 2010er Jahre war die Compact Disc einer der meistgenutzten Audio- und Datenträger. Später wurde sie durch DVDs, USB-Sticks, MP3-Player und Cloudspeicher zunehmend abgelöst.
Bei Einführung einfach als CD bezeichnet, kamen mit jeder weiteren Nutzungsmöglichkeit neue Bezeichnungen hinzu (z. B.: CD-ROM, VCD, CD-i), wobei dem originären Tonträger die Bezeichnung Audio-CD zugeteilt wurde. Wegen der immer weniger gesellschaftstauglichen Menge an einzelnen Bezeichnungen setzte sich mit der Zeit die einfache Urbezeichnung CD endgültig für alle Formate durch.
Herstellung.
CDs bestehen aus Polycarbonat sowie einer dünnen Metallschicht (z. B. Aluminiumbedampfung) mit Schutzlack und Druckfarben. Sie werden – im Gegensatz zu Schallplatten – nicht gepresst, sondern in Spritzgussmaschinen in Form auf die Vater-Matrize gespritzt. Die Anlagen zur Herstellung optischer Datenträger werden dennoch Presswerk genannt.
Funktionsweise.
Die Informationen der CD, das sogenannte „Programm“, sind auf einer spiralförmig nach außen verlaufenden Spur angeordnet; sie belegen maximal 85 % der CD-Gesamtfläche. Der Programmbereich reflektiert Licht mit deutlichen Farberscheinungen wegen seiner Mikrostruktur, den Pits. Länge und Abstand dieser kleinen Vertiefungen bilden einen seriellen digitalen Code, der die gespeicherte Information repräsentiert. Auf einer Audio-CD können maximal 99 Musiktitel gespeichert werden; dazu hat jede Scheibe ein Inhaltsverzeichnis (TOC, table of contents) und einen der Information eingelagerten Zeitcode. Texteinblendungen und weitergehende Informationen können optional aufgebracht werden. Die Abtastung der CD erfolgt kontaktlos über einen der Spur nachgeführten Laser-Interferenzdetektor von der spiegelnden Unterseite her. Die Geschwindigkeit, mit der die Daten eingelesen werden, hängt von der Drehzahl der CD ab; diese wird traditionellerweise so geregelt, dass eine vorgegebene Datenrate eingehalten wird. Die Datenspur hat eine konstante Bahngeschwindigkeit (engl. "constant linear velocity, CLV"). Dadurch ergibt sich bei nach außen fahrendem Abtastsystem eine Drosselung der Drehzahl. Bei Verfahren ähnlich der Analogschallplatte spricht man hingegen von konstanter Winkelgeschwindigkeit (CAV).
Aufbau einer CD.
Bei einer CD werden Daten mit Hilfe einer von innen nach außen laufenden Spiralspur gespeichert (also umgekehrt als bei der Schallplatte). Die Spiralspur besteht aus "Pits" (Gruben) und "Lands" (Flächen), die auf dem Polycarbonat aufgebracht sind. Die Pits haben eine Länge von 0,833 bis 3,054 µm und eine Breite von 0,5 µm. Die Spiralspur hat etwa eine Länge von sechs Kilometern. Je nachdem, wie die CD erstellt wird, entstehen die Pits. Bei der industriellen Herstellung werden zunächst auf photochemischem Wege ein Glas-Master und darauf dann auf galvanischem Wege ein oder auch mehrere Stamper (Negativ) gefertigt. Anschließend wird damit in Presswerken per Spritzverfahren eine Polycarbonatscheibe geprägt und die Reflexions- und Schutzschicht angefügt.
Eine CD besteht demnach zum größten Teil aus Polycarbonat. Die Reflexionsschicht darüber besteht aus einer im Vakuum aufgedampften Aluminiumschicht.
Zwischen dem Aufdruck (Grafik und Text) und der Aluminiumschicht (Dicke der Reflexionsschicht: 50 bis 100 nm) befindet sich noch eine Schutzlackschicht, um das Aluminium vor äußeren Einflüssen zu schützen. Der Abschluss ist der Aufdruck, der mit dem Siebdruckverfahren (bis zu sechs Farben) aufgebracht wird. Alternativ kann hier auch das Offsetdruckverfahren eingesetzt werden.
Datenrate einer CD.
Der Datenstrom einer Audio-CD hat, wenn er dekodiert ist, eine Datenübertragungsrate von 176,4 kB/s. Bei üblichen Daten-CDs ist durch eine weitere Fehlerkorrektur-Ebene die Blockgröße geringer als bei Audio-CDs (2048 statt 2352 Bytes); daraus folgt bei gleicher Blockrate (75 pro Sekunde) eine Datenübertragungsrate von 153,6 kB/s. Diese Datenübertragungsrate wird als "einfache Geschwindigkeit" bezeichnet. Die Geschwindigkeitsangaben bei CD-ROM-Laufwerken sind Vielfache dieser Datenübertragungsrate; siehe dazu auch nebenstehende Tabelle "Datenübertragungsraten von CD-Laufwerken."
Daten-CDs können aufgrund der zusätzlichen Fehlerkorrektur-Ebene je nach verwendetem Laufwerk mit höheren Datenübertragungsraten gelesen werden, so dass viele Laufwerke ihre angegebene Geschwindigkeit nur bei Daten-CDs erreichen, mit Audio-CDs dagegen langsamer arbeiten.
CD-RW (Compact disc rewritable).
Ein CD-RW-Medium besitzt im Prinzip die gleichen Schichten wie ein CD-R-Medium. Die reflektierende Schicht ist jedoch eine Silber-Indium-Antimon-Tellur-Legierung, die im ursprünglichen Zustand eine polykristalline Struktur und reflektierende Eigenschaften besitzt. Beim Schreiben benutzt der Schreibstrahl seine maximale Leistung und erhitzt das Material punktuell auf 500 bis 700 °C. Das führt zu einer Verflüssigung des Materials. In diesem Zustand verliert die Legierung ihre polykristalline Struktur, nimmt einen amorphen Zustand an und verliert ihre Reflexionskraft. Der polykristalline Zustand des Datenträgers bildet die Gräben, der amorphe die Erhebungen. Das Abtastsignal beim Auslesen entsteht also nicht durch Auslöschung oder Verstärkung des Laser-Lichtes durch Überlagerung des reflektierten Lichtes mit dem ausgesendeten wie bei gepressten CDs (Interferenz), sondern wie bei beschreibbaren CDs durch gegebene oder nicht gegebene (bzw. schwächere) Reflexion des Laserstrahls. Zum Löschen des Datenträgers erhitzt der Schreibstrahl die – nur metastabilen – amorphen Bereiche mit niedriger Leistung auf etwa 200 °C. Die Legierung wird nicht verflüssigt, kehrt aber in den polykristallinen Zustand zurück und wird damit wieder reflexionsfähig.
Lesevorgang.
Das Abtasten einer CD erfolgt mittels einer Laserdiode (Wellenlänge 780 nm), wobei die CD von unten gelesen wird. Der Laserstrahl wird an der CD reflektiert und mit einem halbdurchlässigen Spiegel in eine Anordnung mehrerer Fotodioden gebündelt. Die Fotodioden registrieren Schwankungen in der Helligkeit. Die Helligkeitsschwankungen entstehen teilweise aufgrund von destruktiver Interferenz des Laserstrahls mit sich selbst: Der Fokus des Laserstrahls ist etwa zwei- bis dreimal so groß wie die Breite eines Pits. Wird gerade ein "Pit" ausgelesen, dann wird der Laserstrahl teilweise vom "Pit" und teilweise vom umliegenden "Land" reflektiert. Dann kommen zwei Teilwellen zurück, die einen leicht unterschiedlichen Laufweg haben. Der Höhenunterschied zwischen "Pit" und "Land" ist so gewählt, dass der Laufzeitunterschied etwa eine halbe Wellenlänge beträgt (siehe auch Abschnitt „Funktionsweise“), so dass wegen destruktiver Interferenz die Intensität des reflektierten Lichts abnimmt. Zusätzlich wird bei den "Pits" ein Teil des Lichtes an dessen Kanten weggestreut. Die Fotodioden registrieren also auf den "Pits" eine reduzierte Helligkeit. Da die CDs von der Oberseite gepresst werden, sind die Pits (Vertiefungen) von der Unterseite her als Hügel zu erkennen.
Durch eine spezielle Lichtführung auf die Fotodioden, beispielsweise durch einen Astigmaten auf eine quadratische Anordnung von vier Fotodioden, können durch Differenzbildung der Signale unterschiedlicher Fotodioden neben dem Nutzsignal (Summe aller Signale) auch Stellgrößen für die Spurführung und den Fokus (richtigen Abstand zwischen CD und Leseoptik) ermittelt werden.
Die Optik mit dem Laser bewegt sich beim Abspielen vom ersten zum letzten Track – im Gegensatz zur Schallplatte – von innen nach außen. Außerdem hat die CD keine feste Winkelgeschwindigkeit "(Umdrehungszahl);" diese wird der momentanen Position des Lesekopfs angepasst, so dass die Bahngeschwindigkeit (CLV) und nicht, wie bei der Schallplatte, die Winkelgeschwindigkeit (CAV) konstant ist. Wenn der Lesekopf weiter außen auf der CD liest, wird die CD also langsamer gedreht. Auf diese Weise kann überall auf der CD mit voller Aufzeichnungsdichte gearbeitet werden, und es ist ein konstanter Datenstrom gewährleistet, wie er bei Audio-CDs benötigt wird. Im Red Book sind zwei verschiedene Geschwindigkeiten festgelegt, 1,2 m/s und 1,4 m/s. Somit sind entsprechend Spielzeiten von 74:41 Min. bzw. 64:01 Min., unter maximaler Ausnutzung aller Toleranzen 80:29 Min., möglich. Das entspricht einer Umdrehungsgeschwindigkeit von über 500 min−1 am Anfang der CD (innere Spuren bei 1,4 m/s) bis unter 200 min−1 am Außenrand der CD bei 1,2 m/s. Die Umdrehungsgeschwindigkeit wird durch einen Regelkreis anhand des Füllstandes eines FIFO-Puffers geregelt. Daher muss keine Umschaltung (weder manuell noch automatisch) je nach benutzter Linear-Geschwindigkeit erfolgen. Durch den genannten Puffer wirken sich Schwankungen der Drehzahl nicht auf die Wiedergabegeschwindigkeit aus.
Viele moderne CD-ROM-Laufwerke, ab etwa 32-facher Lesegeschwindigkeit, lesen Daten-CDs hingegen mit konstanter Umdrehungsgeschwindigkeit, um das zeitraubende Beschleunigen und Abbremsen der CD beim Hin- und Herspringen der Leseposition (aufgrund des notwendigen wahlfreien Zugriffs) zu vermeiden. Dadurch hängt bei Daten-CDs die Datenrate von der Position des Lesekopfes, also letztlich der Position auf der CD, ab. Die auf der Verpackung angegebene Geschwindigkeit ist üblicherweise die maximale, nicht die durchschnittliche.
Durch die mechanische Festigkeit der CD sind der Steigerung der Lesegeschwindigkeit durch Erhöhung der Umdrehungsgeschwindigkeit Grenzen gesetzt. Sogenannte „52-fach“-Laufwerke drehen die CD mit bis zu 10.000 min−1. Bei diesen Drehzahlen führen selbst kleinste Unwuchten der CD zu starken Vibrationen, die einerseits deutlich hörbar sind und zum anderen auf Dauer sowohl Laufwerk als auch Medium beschädigen können.
Datenkodierung.
Zur Aufzeichnung der Nutzdaten auf der CD müssen diese mit einer passenden Kanalkodierung (genauer: Leitungskodierung) kodiert werden, die den Eigenheiten des Speichermediums (hier also der optischen Abtastung und der Form und Größe der Pits) Rechnung tragen muss. Bei der CD ist das die sogenannte "Eight-to-Fourteen-Modulation" (EFM). Wenn sich die CD mit der richtigen Geschwindigkeit dreht, kommen die Kanalbits vom optischen Abtaster mit einer Frequenz von exakt 4,3218 Mbit/s, entsprechend einer Bitdauer von 231,385... ns. Die EFM stellt sicher, dass sich nach minimal 3 und nach maximal 11 Kanalbits die Polarität des ausgelesenen Signals ändert, dass also nach einer "Eins" zwei bis zehn "Nullen" im differenzierten Signal folgen. Das geschieht, wenn der Laser in der Spur einen Übergang von einer Vertiefung "(pit)" zu einem Abschnitt ohne Vertiefung "(land)" passiert oder umgekehrt.
Der Hintergrund ist folgender: Die Abschnitte mit Vertiefungen bzw. ohne Vertiefungen müssen lang genug sein, damit der Laser die Veränderung erkennen kann. Würde man ein Bitmuster direkt auf den Datenträger schreiben, würden bei einem alternierenden Signal (1010101010101010…) falsche Werte ausgelesen, da der Laser den Übergang von 1 nach 0 beziehungsweise von 0 nach 1 nicht verlässlich auslesen könnte bzw. diese Übergänge gar nicht erst in der notwendigen Feinheit in Kunststoff ‚gepresst‘ werden könnten. Somit ermöglicht die EFM die hohe Datenrate. Das klingt zunächst widersprüchlich, da sie das Signal von 8 auf 14 Bit aufbläht, also rechnerisch die Datenmenge erhöht. Hinzu kommen noch weitere 3 Füllbits (Merging Bits), die so gewählt werden, dass die oben erwähnte Forderung, dass sich alle 3 bis 11 Bitdauern die Polarität ändert, auch zwischen den 14-Bit-Symbolen erfüllt wird. Aber durch diese Modulation kann die Datenrate so hoch gewählt werden, dass unmodulierte Daten gar nicht mehr in "pits" und "land" aufgelöst werden könnten; ein "pit" kann nicht kürzer sein als seine Breite (600 nm), trotzdem kann die Länge auch in Bruchteilen der eigenen Breite (ca. 278 nm bei 1,2 m/s) variieren – diese Tatsache wird durch die Kodierung ausgenutzt. Sie ist mithin eine Designentscheidung, die (unter anderen) für die Spieldauer verantwortlich ist. Weiterhin wird durch die Kodierung dafür gesorgt, dass das Signal der Fotodioden keinen Gleichanteil enthält; dadurch wird die Signalverarbeitung wesentlich vereinfacht.
Fehlerkorrektur und -verdeckung.
Damit sich Kratzer und Produktionsfehler nicht negativ auf die Lesbarkeit der Daten auswirken, sind die Daten mittels Reed-Solomon-Fehlerkorrektur gesichert, so dass Bitfehler erkannt und korrigiert werden können. Weiterhin sind aufeinanderfolgende Datenbytes per Interleaving auf eine größere Länge verteilt. Der Cross Interleaved Reed-Solomon-Code (CIRC) ist dadurch in der Lage, einen Fehler von bis zu 3500 Bit (das entspricht einer Spurlänge von etwa 2,4 mm) zu korrigieren und Fehler von bis zu 12000 Bit (etwa 8,5 mm Spurlänge) bei der Audio-CD zu verdecken. Bei der Verdeckung wird der Fehler nicht korrigiert, sondern es wird versucht, ihn unhörbar zu machen, zum Beispiel über eine Interpolation. Falls der Datenträger von der Unterseite sehr stark verkratzt ist, ist er nur eingeschränkt oder nicht mehr lesbar.
Man unterscheidet zwischen C1- und C2-Fehlern. C1-Fehler geben singuläre Einzelfehler an (beispielsweise kleine Kratzer), C2 größere Blockfehler, welche von der ersten Korrekturstufe nicht mehr korrigiert werden konnten. Die Fehler vom Typ C1 können nur von wenigen Laufwerken gemeldet werden, zum Beispiel von auf Plextor oder Lite-On basierenden mit spezieller Software ("Cdrtools, Plextools, k-probe, Nero DiscSpeed" und "QPxTool"). C2-Fehler können von den meisten Laufwerken bestimmt werden, und es gibt Software für sogenannte C2-Scans, zum Beispiel "readcd", "Nero CD-Speed" oder "CD-Doctor".
Informationen, die sich aus C1- oder C2-Fehlern ableiten lassen, geben Auskunft über den Zustand der optischen Datenträger (beeinflusst durch Alterung, Kratzer etc.), über die prinzipielle Lese- oder Brennqualität eines optischen Laufwerks in Abhängigkeit von der Geschwindigkeit (beispielsweise über eine C2-Statistik vieler Medien) und über die Qualität von frisch gebrannten Medien für eine langfristige Datenspeicherung (große C1-/C2-Werte nach dem Brennen weisen auf eine nur begrenzte langfristige Datensicherheit hin). Ein Problem ist, dass sich die Fehlerursachen nur schwer oder gar nicht trennen lassen. So kann beispielsweise ein Rohlingstyp, der mit einem spezifischen Brenner schlechte Werte erzielt, mit einem anderen Brenner-Typ trotzdem gute Ergebnisse erreichen. Außerdem lassen sich die C2-Informationen verwenden, um beim Übertragen von Audiomaterial auf einen Computer auf die Güte zu schließen, mit der Audiodaten von CD ausgelesen wurden. Dadurch können kritische Stellen ggf. erneut gelesen werden bzw. andersherum das erneute Lesen auf die kritischen Stellen eingeschränkt werden.
Bei der Interpretation für Medien gilt, dass neue CDs maximal 250 C1-Fehler pro Sekunde und keine C2-Fehler aufweisen sollten. Ein häufiges Auftreten von C2-Fehlern kann ein Indikator für eine fortschreitende Alterung des Mediums darstellen. Zur Datensicherung empfiehlt sich ein Umkopieren auf ein neues Medium. Eine solche Datensicherung sollte auch sofort nach dem Kauf von Medien erfolgen, die mit einem „Kopierschutz“-Mechanismus ausgestattet sind („Un-CDs“), da diese meist absichtlich mit weit über 250 C1-Fehlern pro Sekunde produziert werden und daher schon eine geringe Menge sonst harmloser Kratzer solche Medien unlesbar machen kann. Ferner ist die Verwendung eines Reparatursprays oder von Schleif- und Poliergeräten möglich, um eine beschädigte CD oder DVD zu retten. Zufriedenstellende Ergebnisse können jedoch nicht in jedem Fall garantiert werden.
CD-Formate.
Physische Formate.
CDs gibt es in zwei verschiedenen Größen, am weitesten verbreitet ist die Version mit einem Durchmesser von 120 mm und 15 Gramm Gewicht, seltener die Mini-CD mit einem Durchmesser von 80 mm und 30 % der Speicherkapazität bei einem Gewicht von 6,7 Gramm.
Daneben gibt es auch CDs, die eine andere Form als eine runde Scheibe haben. Diese sogenannten Shape-CDs fanden aber aufgrund von Abspielproblemen (Unwucht, kein Einzug in Slot-Laufwerke) nur eine geringe Verbreitung.
Die ersten CD-Verpackungen erlaubten die Beilage eines Booklets. Das "Jewelcase" genannte Format war 142 mm breit, 125 mm hoch und 10 mm dick. Weitere gängige Verpackungstypen leiteten sich davon ab.
Übliche Größen.
Die Format-Spezifikationen der Audio-CD (kurz "CD-DA"), bekannt als „Red Book“-Standard, wurde von dem niederländischen Elektronikunternehmen Philips entworfen. Philips besitzt auch das Recht der Lizenzierung des „Compact Disc Digital Audio“-Logos. Die Musikinformationen werden in 16-Bit-Stereo (Quantisierung mit 216 = 65.536 Stufen) und einer Abtastrate von 44,1 Kilohertz gespeichert.
Die Spezifikationen der "CD-ROM" sind im „Yellow Book“-Standard festgelegt. Ein plattformübergreifendes Dateisystem der CD-ROM wurde von der ISO im Standard ISO 9660 festgeschrieben. Sein Nachfolger lautet UDF.
Es gibt verschiedene Möglichkeiten, Audio-CD-Inhalte und CD-ROM-Inhalte auf einer Scheibe zu kombinieren. Die einfachste Möglichkeit ist, einen Datentrack mit dem CD-ROM-Inhalt als ersten Track auf die CD zu bringen ("Mixed Mode CD", von einigen Herstellern auch "Enhanced CD" genannt). Dem inzwischen praktisch nichtigen Vorteil, dass der CD-ROM-Teil auch in ausschließlich Single-Session-fähigen CD-ROM-Laufwerken gelesen werden kann, steht der vergleichsweise große Nachteil der Sichtbarkeit dieses Datentracks für normale Audio-CD-Spieler entgegen, insbesondere da manche ältere CD-Spieler die CD-ROM-Daten fälschlich als Audio-Daten interpretieren. Die unbeabsichtigte Wiedergabe der Nicht-Audio-Daten führt im Ergebnis je nach Lautstärke zu ohrenbetäubendem und die Lautsprecher gefährdenden Krach.
Als Weiterentwicklung wurde der Datentrack mit einer Index-Position von 0 versehen, wodurch dieser nicht ohne Weiteres vom CD-Spieler angefahren wird "(i-Trax)". Das Audiomaterial beginnt, wie bei einfachen Audio-CDs, an Index-Position 1 von Track 1. (Problematisch für die Abspielkompatibilität könnte die Tatsache sein, dass innerhalb des Tracks der Modus von "CD-ROM Mode 1" auf "Audio" wechselt.)
Inzwischen werden zu diesem Zwecke praktisch ausschließlich Multisession-CDs benutzt – die Audio-Daten liegen in der ersten Session, während die CD-ROM-Daten in einer zweiten Session enthalten sind, die nicht von Audio-CD-Spielern gelesen wird ("CD-Extra", "CD-Plus"). Natürlich wird für den CD-ROM-Teil ein multisessionfähiges CD-ROM-Laufwerk benötigt.
Eine Mischform ist die CD+G (CD+Graphics). Diese CD stellt zeitgleich zur Musik grafische Daten, wie beispielsweise den Liedtext, auf einem Bildschirm dar. Häufigste Anwendung dieses Formats ist Karaoke. In einem normalen CD-Spieler ist die CD+G als normale Audio-CD abspielbar. Auf speziellen Geräten (in jüngerer Zeit auch auf einigen DVD-Spielern) ist zur Musik auch die Grafik auf dem Bildschirm sichtbar. Die zusätzlichen Daten sind im Subcode der CD gespeichert, d. h., sie sind im Gegensatz zum Inhalt von Datentracks nicht ohne weiteres für ein Betriebssystem sichtbar.
Deutlich häufiger anzutreffen sind dagegen CDs mit "CD-Text". Dabei werden im Subcode der CD (meistens im Lead-in) zusätzliche Informationen gespeichert, beispielsweise Titel und Künstler. Diese Informationen werden dann von geeigneten Geräten während des Abspielens der CD angezeigt.
Weitere CD-Formate sind:
Daneben gibt es noch sogenannte "HDCD"-CDs. Diese sind mit echten 20-Bit-Musik-Information kodiert (anstatt mit 16) und sollen in Verbindung mit entsprechenden CD-Playern besser klingen. HDCD-CDs sind vollständig kompatibel mit „normalen“ CD-Spielern.
Weiterentwicklungen der CD sind die "DVD-Audio" und die "Super Audio Compact Disc" (SACD). DVD-Medien bieten wesentlich größere Speicherkapazitäten von 4,7 (eine Schicht) bis 8,5 Gigabyte (zwei Schichten). Der Hauptvorteil ist dabei nicht eine längere Spielzeit, sondern dass die Audiodaten im "5.1-Soundformat" vorliegen. Während die Super-Audio-CD und DVD-Audio ausschließlich für Audiodaten verwendet werden, sind bei der DVD verschiedene Datenarten möglich (DVD Data, DVD-Video, DVD-Audio, DVD-ROM, DVD+/-R(W)). Allerdings hat sich die DVD im Audiobereich nicht durchgesetzt.
Eine von Sony weiterentwickelte Variante der CD war die "Double Density Compact Disc" (DDCD). Die Speicherkapazität beträgt das Doppelte der Speicherkapazität der 640-MB-CD. Sie war in zwei Varianten erhältlich (eine beschreibbare DDCD-R und eine wiederbeschreibbare DDCD-RW), konnte sich jedoch nicht gegen die DVD durchsetzen.
Eine weitere von Sony entwickelte Variante ist die Blu-spec CD, die 2008 im Markt eingeführt wurde.
Das "CD-Videoformat" ist (im Gegensatz zur Video-CD) keine Compact Disc, sondern eine LV/LD (Bildplatte) mit analogen Videodaten und digitalen Audio-Daten.
Kopierschutz.
Die CD-Standards sehen keinen Kopierschutz vor, da zur Zeit ihrer Festlegung Anfang der 1980er Jahre noch nicht absehbar war, dass in näherer Zukunft beschreibbare digitale Speichermedien mit der nötigen Datenkapazität für den Endverbraucher erschwinglich sein würden – das Kopieren wurde also einfach dadurch verhindert, dass es nichts gab, wohin die Daten realistischerweise kopiert werden konnten. Es blieb nur die qualitativ schlechtere und nicht beliebig wiederholbare Analogkopie auf Audiokassetten, die ebenso wie bei Schallplatten in Kauf genommen wurde. Das Aufkommen von CD-Brennern, hochkapazitiven Festplatten, Kompressionsverfahren wie etwa MP3 und Internet-Tauschbörsen in den 1990er Jahren hat diese Situation entscheidend geändert.
Seit dem Jahr 2001 werden in Deutschland auch Medien verkauft, die einen Kopierschutz enthalten, der das digitale Auslesen der Audiodaten (und damit das Kopieren der Daten) verhindern soll. Sie wurden zwar teils ebenfalls als "Audio-CD" bezeichnet, entsprechen aber nicht den Bestimmungen des Red Book und sind daher in diesem Sinne keine echten Audio-CDs. Diese CDs werden daher auch als „Un-CDs“ "(Nicht-CDs)" bezeichnet.
Der Kopierschutz wird realisiert, indem Fehler oder eine zweite fehlerhafte Session eingebracht werden. Auch Abweichungen vom Red-Book-Standard sind möglich, aber eher selten. Der „Abspielschutz“ ergibt sich daraus, dass die Fehler bewirken sollen, dass sich die Scheiben nicht mehr in dem CD-Laufwerk eines PC abspielen lassen. So soll das Kopieren verhindert werden. Manche CD-Laufwerke und die meisten DVD-Laufwerke lassen sich davon aber nicht beeinflussen und können die Daten trotzdem lesen, wodurch diese Idee des „Kopierschutzes“ letztendlich nutzlos wird.
Stattdessen verursachen die Fehler auf der „kopiergeschützten“ CD Probleme auf zahlreichen normalen Audio-CD-Spielern und vielen Autoradios mit integrierter CD-Einheit. Diese können diese Medien entweder gar nicht oder nur teilweise abspielen, teilweise entstehen sogar ernsthafte Hardware-Defekte, etwa wenn die Firmware des CD-Spielers abstürzt und sich das Medium nicht mehr auswerfen lässt. Außerdem leiden oft die Tonqualität und die Lebensdauer des Abspielgerätes unter dem Kopierschutz.
Seit dem 1. November 2003 sind die Hersteller in Deutschland durch § 95d UrhG gesetzlich verpflichtet, kopiergeschützte Medien als solche zu kennzeichnen. Solchen Kennzeichnungen ist jedoch kaum zu entnehmen, welche Probleme im Einzelfall mit Autoradios, MP3-CD-Spielern, DVD-Spielern und anderen Geräten auftreten können.
Da der Kopierschutz in der Praxis kaum wirksam ist, immer wieder zu Problemen beim Abspielen führt und auch eine teilweise Kaufzurückhaltung zur Folge hatte, haben ab ca. 2009 immer mehr Labels das Konzept „kopiergeschützte CD“ wieder aufgegeben. Zunehmend werden wieder gewöhnliche, ungeschützte CDs nach dem Red Book veröffentlicht, zumal sich so außerdem Lizenzgebühren für den Kopierschutz einsparen lassen.
Herstellerangaben und Produktionsstätten.
Die meisten CDs sind auf dem Innenring der Abtastseite mit Angaben zum Hersteller, dem Produktionsland (zum Beispiel "Made in Germany by EDC", "Made in France by PDO" oder "Mastered by DADC Austria") und weiteren Kennungen (zum Beispiel Katalog-Nr., IFPI-Kennung, "Source Identification Code (SID)") versehen. Diese Identifizierungsmerkmale befinden sich i. d. R. auf einem etwa 5 mm breiten Kreis (dem Spiegel) und sind mit dem bloßen Auge nur schwer zu erkennen.
Gerade für Sammler von CDs sind solche Hinweise teilweise sehr wichtig, da man daran zum einen die legal hergestellte CD von einer Schwarzkopie unterscheiden und zum anderen „Sonderpressungen“ erkennen kann. Oft werden CDs eines Interpreten mit gleichem Inhalt in verschiedenen Ländern produziert. Die Auflagen können unterschiedlich hoch und dementsprechend wertvoll für Sammler und Fans sein.
Beschreibbare CDs.
Beschreibbare CDs gibt es in einer einmal beschreibbaren Variante (CD-R: CD recordable) und in einer mehrfach wiederbeschreibbaren Variante (CD-RW: CD rewritable). Während die Reflexionseigenschaften einer CD-R denen einer normalen CD nahezu gleichen und diese somit auch in älteren CD-Laufwerken gelesen werden können sollte, ist das Lesekopf-Ausgangssignal einer CD-RW weitaus schwächer, so dass diese Medien nur von entsprechend ausgestatteten (neueren) Laufwerken bzw. Spielern gelesen werden können.
Zum Beschreiben einer CD kann kein gewöhnlicher CD-Spieler benutzt werden. Es ist ein sogenannter „CD-Brenner“ (bzw. ein CD-Rekorder) notwendig. CD-Brenner können CDs nicht nur beschreiben, sondern auch lesen. Daher sind reine CD-ROM-Lesegeräte für Computer inzwischen praktisch vom Markt verschwunden.
Das ISO-9660-Dateiformat einer CD-ROM gestattet keine nachträglichen Änderungen. Außerdem können beschreibbare CDs – im Gegensatz zu Festplatten – nicht blockweise beschrieben werden. Deshalb muss erst ein Speicherabbild angelegt werden, das eine exakte Kopie der auf die CD zu brennenden Daten enthält. Dieses Abbild kann dann (als eine Spur) in einem Durchgang auf die CD „gebrannt“ werden. Dafür sind spezielle CD-Brennprogramme nötig. Aktuelle Brennprogramme beherrschen das Erstellen des Abbildes „on-the-fly“, das heißt, das ISO-Abbild wird während des Schreibens erzeugt.
Allerdings kann man, solange die CD nicht abgeschlossen („finalisiert“) wurde, mit einem weiteren Schreibvorgang nachträglich in einem weiteren Track (das heißt normalerweise in einer weiteren Session) der CD ein neues Dateisystem erzeugen. Die Verzeichnisse dieses neuen Dateisystems können auch auf Dateien in den älteren Tracks referenzieren. Da beim normalen Betrieb immer das Dateisystem des letzten Tracks benutzt wird, ist es so möglich, Dateien hinzuzufügen, umzubenennen, zu „löschen“ und zu „überschreiben“. Natürlich kann der belegte Platz nicht erneut benutzt werden. Mit spezieller Software (zum Beispiel IsoBuster unter Windows oder ISO Master unter Linux) kann auch auf die älteren Dateisysteme zugegriffen werden, das heißt, die „gelöschten“ Dateien bzw. die älteren Versionen „überschriebener“ Dateien sind damit noch erreichbar (Multisession-CD).
Alternativ können die Dateisysteme in den Tracks einer CD (analog zu Partitionen einer Festplatte) als unterschiedliche virtuelle Laufwerke betrachtet werden (Multivolume-CD). Dieses Verfahren wurde zum Beispiel beim klassischen Mac OS in den Versionen 8 und 9 eingesetzt, ist jedoch sonst kaum verbreitet.
CD-RWs können theoretisch blockweise beschrieben werden. Das muss auch vom CD-Brenner unterstützt werden. Da das auf CD-ROMs verwendete ISO-9660-Dateiformat keine nachträglichen Änderungen an Dateien unterstützt, wurde dafür ein eigenes Dateisystem namens UDF eingeführt, das auch auf DVDs verwendet wird. Dieses Format erlaubt es, wie zum Beispiel bei einer Diskette, direkt Dateien auf der CD zu speichern.
Labelaufdruck.
Für den Labelaufdruck bei der CD stehen, ebenso wie bei der DVD, verschiedene Drucktechniken zur Auswahl:
Umweltschutz.
Die Compact Disc besteht hauptsächlich aus dem wertvollen Kunststoff Polycarbonat. Ein sortenreines Recycling lohnt sich zwar nicht für die Herstellung neuer Compact Discs, jedoch kann der sehr hochwertige Rohstoff in der Medizin, der PC- und der Autoindustrie verwendet werden. Verschiedene Firmen bieten Sammelsysteme an. Dabei werden Sammelbehälter kostenlos bereitgestellt. Sammelstellen (zum Beispiel Betriebe oder Kommunen) haben somit keinerlei Risiko, sondern müssen nur eine entsprechende Fläche für den Sammelbehälter vorhalten. Die Deutsche Telekom nimmt eigene CDs in ihren Shops zurück, AOL-CDs können unfrei an AOL gesendet werden.
Vernichtung der Daten.
Da eine CD auch vertrauliche Daten enthalten kann, muss es sichere Verfahren geben, um diese Daten vor der Entsorgung unleserlich zu machen, sei es, weil die Daten nicht mehr benötigt werden oder weil sie gelöscht werden müssen. |
984 | 0 | https://de.wikipedia.org/wiki?curid=984 | Compact Disk | |
985 | 0 | https://de.wikipedia.org/wiki?curid=985 | Compact-Disk | |
986 | 0 | https://de.wikipedia.org/wiki?curid=986 | Compact-Disc | |
987 | 568 | https://de.wikipedia.org/wiki?curid=987 | CT | CT steht für:
Kfz-Kennzeichen:
Ortsbezeichnungen:
ČT steht für:
Ct steht für:
Ct steht für:
ct steht für:
c. t. steht für:
c’t steht für:
Siehe auch: |
988 | 4819 | https://de.wikipedia.org/wiki?curid=988 | Computertomografie | |
991 | 140170 | https://de.wikipedia.org/wiki?curid=991 | Carl Amery | Carl Amery (Pseudonym von "Christian Anton Mayer"; * 9. April 1922 in München; † 24. Mai 2005 ebenda) war ein deutscher Schriftsteller und Umweltaktivist.
Er war Mitglied der Gruppe 47, 1976/77 Vorsitzender im Verband deutscher Schriftsteller (VS) und von 1989 bis 1991 Präsident im PEN-Zentrum Deutschland. Von 1967 bis 1974 war Amery Mitglied der SPD, nachdem er zuvor der GVP angehört hatte. Später war Amery Gründungsmitglied der Partei Die Grünen beim Bundeskongress der Grünen in Karlsruhe am 13. Januar 1980 und Schirmherr der Wasserallianz München. Als Initiator und Mitbegründer war Amery von 1980 bis 1995 Präsident der E.-F.-Schumacher-Gesellschaft für Politische Ökologie (München).
Leben und Werk.
Seine Kindheit verbrachte Carl Amery, Sohn des Kunsthistorikers Anton Mayer-Pfannholz, vorwiegend in Passau und Freising als Schüler des Humanistischen Gymnasiums Passau bzw. des Dom-Gymnasiums – beide Städte sollten ihre Spuren in seinem Werk hinterlassen (z. B. Passau in "Der Wettbewerb" und "Der Untergang der Stadt Passau" und Freising in "Das Geheimnis der Krypta"). Anschließend war Amery Stipendiat des Maximilianeums und studierte Neuphilologie an der Ludwig-Maximilians-Universität München, später dasselbe Fach, dazu Literaturtheorie und -kritik, an der Catholic University of America in Washington, D.C.
Im Zweiten Weltkrieg geriet er 1943 in Tunesien in amerikanische Kriegsgefangenschaft und kehrte 1946 nach München zurück, wo er sein unterbrochenes Studium (Sprachen und Literaturwissenschaft) wieder aufnahm. Er begann zu schreiben, zunächst unter seinem leicht amerikanisierten Namen als Chris Mayer, dann wählte er sich als Pseudonym Carl Amery, wobei Amery' ein Anagramm von Mayer ist.
Im November 1953 wurde sein Sohn Benedikt geboren.
1954 erschien sein erster Roman "Der Wettbewerb". Inzwischen Mitglied der Gruppe 47, begründete er 1958 durch den Roman "Die große Deutsche Tour" seinen Ruf als Satiriker. Dieser Ruf blieb lange haften.
Eine andere Seite seines Arbeitens zeigte er in der 1963 erschienenen kirchenkritischen Schrift "Die Kapitulation oder Deutscher Katholizismus heute," gefolgt von "Das Ende der Vorsehung. Die gnadenlosen Folgen des Christentums", in dem er dem Christentum Mitschuld an der globalen Umweltzerstörung zuwies. Dies prädestinierte Amery für die Rolle des Vordenkers der politischen Ökologie, die er mit weiteren Schriften wie insbesondere "Die ökologische Chance" ausfüllte und durch sein persönliches Engagement unterstrich – zunächst in der Anfangsphase bei der Partei Die Grünen, dann 1980 durch die Gründung der unabhängigen E.-F.-Schumacher-Gesellschaft, deren Vorsitzender er bis 1995 war.
Von 1967 bis 1971 war Amery Direktor der Münchner Stadtbibliothek, was für ihn eine Publikationspause bedeutete.
1974 schließlich wandte er sich einem dritten Genre zu, der Science-Fiction, was damals für einen der Hochliteratur zugerechneten Autor ein überraschender Schritt war. Beeinflusst war er dabei nicht zuletzt durch Gilbert Keith Chesterton, dessen Science-Fiction-Romane er später in überarbeiteten deutschen Fassungen herausgab. Vor allem drei Romane Amerys gehören in diesen Bereich, nämlich
Zwei weitere mit Fantasy-Elementen durchsetzte Romane Amerys thematisieren bayrische Spiritualität: In "Die Wallfahrer" (1986) bewegen sich die Protagonisten auf den alten Gnadenort Tuntenhausen zu; und im "Geheimnis der Krypta" (1990) bildet die Krypta im Freisinger Dom (und dort die sogenannte Bestiensäule) das Zentrum der sich über drei Generationen erstreckenden Handlung, wobei die aus den "Feuern der Leyermark" (aber auch aus dem "Königsprojekt") her bekannte Fragestellung zu einer Wissenschaft der „Sphagistik“ erhoben wird, wie die Geschichte aufgrund geringfügig veränderter Einzelbedingungen hätte ganz anders verlaufen können.
Ab 1985 erschienen Amerys gesammelte Werke in Einzelausgaben im Münchner Paul List-Verlag. 2001 erklärte Amery in einem Interview, dass er aus gesundheitlichen Gründen keine weiteren Romane verfassen werde.
Carl Amerys Gesundheitszustand verschlechterte sich in den letzten Lebensjahren aufgrund eines Lungenemphysems bis zu seinem Tod zunehmend. Er wurde am 30. Mai 2005 am Münchner Ostfriedhof im engsten Familienkreis beigesetzt. Die Rechte an seinen Publikationen lagen bis zu ihrem Tod 2019 bei seiner Witwe Marijane Mayer.
2007 erschien posthum der Aufsatzband "Arbeit an der Zukunft", der das Fragment einer Streitschrift gegen die US-amerikanische Religiöse Rechte enthält, an der Amery bis kurz vor seinem Tod arbeitete.
Auszeichnungen und Ehrungen.
Im Jahr 2007 stiftete der "Verband deutscher Schriftsteller in Bayern" zu seinem Gedächtnis den Carl-Amery-Literaturpreis. |
992 | 3615973 | https://de.wikipedia.org/wiki?curid=992 | Chomsky-Hierarchie | Chomsky-Hierarchie, gelegentlich Chomsky-Schützenberger-Hierarchie (benannt nach dem Linguisten Noam Chomsky und dem Mathematiker Marcel Schützenberger), ist ein Begriff aus der theoretischen Informatik. Sie ist eine Hierarchie von Klassen formaler Grammatiken, die formale Sprachen erzeugen, und wurde 1956 erstmals von Noam Chomsky beschrieben. Die Hierarchiestufen unterscheiden sich darin, wie rigide die Einschränkungen für die Form zulässiger Produktionsregeln auf der jeweiligen Stufe sind; bei Typ-0-Grammatiken sind sie uneingeschränkt, bei höheren Stufen fortschreitend stärker beschränkt.
Grammatiken niedrigeren Typs sind erzeugungsmächtiger als die höherer Typen. Eine Sprache, die von einer "Grammatik des Typs k" erzeugt wird, heißt eine "Sprache des Typs k". Neben die Chomsky-Hierarchie der Grammatiken tritt in diesem Sinne eine Chomsky-Hierarchie der Sprachen.
Hintergründe.
Formale Sprachen haben den Vorzug, mathematisch exakt analysiert werden zu können. Formalen Sprachen liegt ein vorgegebenes "Alphabet" (ein Zeichenvorrat) zugrunde, das häufig mit formula_1 bezeichnet wird. Beliebig lange, endliche Folgen von Elementen des Alphabets werden als "Wörter" über dem Alphabet bezeichnet. Mengen solcher Wörter sind schließlich "formale Sprachen". Die umfassendste formale Sprache über einem vorgegebenen Alphabet formula_1 ist unendlich groß; sie enthält sämtliche Wörter, die durch beliebiges Zusammenfügen von Zeichen des Alphabets gebildet werden können. Sie lässt sich durch die Kleenesche Hülle des Alphabets beschreiben, also formula_3. Die kleinste formale Sprache enthält gar keine Wörter. Andere formale Sprachen bestehen nur aus wenigen Wörtern und lassen sich somit als endliche Menge notieren; beispielsweise für das Alphabet formula_4 die Sprache aller Wörter der Länge zwei: formula_5.
Unendliche Sprachen lassen sich begreiflicherweise nicht durch Aufzählen notieren. Um sie exakt zu beschreiben, ist ein Konzept nötig, das auch unendliche Mengen definieren kann. Hierzu werden im Rahmen der formalen Sprachen vor allem "Erzeugungsverfahren" benutzt.
Geht man von einem vorhandenen Wort über einem Alphabet aus, lassen sich durch Semi-Thue-Systeme Wortmengen spezifizieren, die sich durch beliebig wiederholtes Anwenden von "Ersetzungsregeln" ergeben. Ersetzungsregeln der Form formula_6 erlauben, dass in einem Wort, das ein Segment formula_7 enthält, dieses Segment durch formula_8 ersetzt wird. Semi-Thue-Systeme geben daher eine "Ableitungsrelation" zwischen Wörtern formaler Sprachen an: Zwei Wörter stehen in Relation, wenn das eine Wort durch eine Ersetzungsregel vom anderen Wort abgeleitet werden kann.
Zur Beschreibung von formalen Sprachen eignen sich "formale Grammatiken", ein gegenüber Semi-Thue-Systemen erweitertes und mächtigeres Konzept. Sie unterscheiden sich von Semi-Thue-Systemen darin, dass sie sogenannte Terminalsymbole und Nichtterminalsymbole kennen. Terminalsymbole einer Grammatik sind gerade alle Zeichen ihres Zeichensatzes formula_1. Die erste anwendbare Regel geht immer von einem nichtterminalen Startsymbol aus, und das Ergebnis eines Ersetzungsvorgangs gilt nur dann als Wort ihrer formalen Sprache, wenn es keine Nichtterminalsymbole enthält.
Das folgende Beispiel beschreibt eine Sprache, mit der sich beliebig lange Summen der Ziffern 1, 2 und 3 ausdrücken lassen. Das dafür angemessene Alphabet ist formula_10. Die entsprechenden Terminalsymbole sind unterstrichen dargestellt, Nicht-Terminale kursiv. Die folgenden Zeilen stellen die Regeln dar.
Das Startsymbol dieser Sprache ist "Summe". Davon ausgehend kann man nun beliebige Regeln nacheinander anwenden, um einen gültigen Ausdruck zu erzeugen:
Nicht alle unendlichen Sprachen lassen sich als formale Sprachen mit diesem Erzeugungsprinzip beschreiben, es ist aber kein tauglicheres Konzept bekannt. Ein anderer gängiger Formalismus zur Beschreibung von Sprachen sind Automatenmodelle, vor allem Turingmaschinen. Uneingeschränkte formale Grammatiken und Turingmaschinen sind bei der Beschreibung von formalen Sprachen gleichmächtig, d. h. zu jeder von einer formalen Grammatik erzeugten Sprache gibt es eine Turingmaschine, die genau diese akzeptiert, und umgekehrt.
Ebenso wie verschiedene Automatenmodelle definiert wurden, definierte Chomsky in seiner Arbeit verschiedene Grammatiktypen. Durch drei fortlaufend schärfere Einschränkungen an die jeweils darin zulässigen Ersetzungsregeln stellte er eine Hierarchie aus vier Klassen von formalen Grammatiken auf, wodurch die weniger eingeschränkten Klassen die stärker regulierten Klassen jeweils echt umfassen. Das Gleiche gilt für die von den jeweiligen Grammatikklassen beschriebenen Sprachklassen: auch sie bilden eine Hierarchie.
Sprachen eingeschränkteren Grammatiktyps sind üblicherweise einfacher algorithmisch zu verarbeiten – um den Preis, weniger ausdrucksmächtig zu sein. Reguläre Ausdrücke, mit denen man etwa Muster für die Suche in Texten definiert, entsprechen zum Beispiel den sehr eingeschränkten Chomsky-Grammatiken des Typs 3 (reguläre Grammatiken) und solche Textsuchen sind effektiv und schnell. Dagegen taugen Grammatiken des Typs 3 wegen ihrer Einfachheit nicht zur Beschreibung von Programmiersprachen, für die man meist weniger eingeschränkte Typ-2-Grammatiken benutzt.
Die Hierarchie.
Die Chomsky-Hierarchie umfasst vier Typen formaler Grammatiken, gezählt von 0 bis 3. Typ 0 umfasst alle formalen Grammatiken überhaupt, also ohne Einschränkung an die Gestalt zulässiger Erzeugungsregeln. Grammatiken des Typs 1 bis Typ 3 sind dann zunehmend stärker eingeschränkt. Allein nach Definition ist eine Grammatik vom Typ 1 auch vom Typ 0, eine Grammatik vom Typ 2 auch vom Typ 1, eine Grammatik vom Typ 3 auch vom Typ 2; die Umkehrungen gelten nicht. Deshalb bilden diese Klassen eine echte Hierarchie. Bei den entsprechenden Sprachklassen zeigen Gegenbeispiele, dass ebenfalls die Umkehrungen nicht gelten, weshalb auch sie eine echte Hierarchie bilden.
Chomsky forderte für Typ-1-, Typ-2- und Typ-3-Grammatiken, dass die rechte Seite von Produktionsregeln nicht kürzer als die linke Seite sein darf, was auch das leere Wort auf jeder rechten Seite einer Produktionsregel ausschließt. Heute ist man oft weniger restriktiv; die Definitionen sind oft so gefasst, dass die Hierarchie der Sprachen nicht gestört wird, sie es aber auch Grammatiken des Typs 1 (kontextsensitive Grammatiken) durch eine Ausnahmeregel erlauben, das leere Wort zu erzeugen, und den Typen 2 (kontextfreien Grammatiken) und 3 (regulären Grammatiken) sogar ohne Einschränkung das leere Wort als rechte Seite von Ersetzungsregeln gestatten.
Typ-0-Grammatik (allgemeine Chomsky-Grammatik oder Phrasenstrukturgrammatik).
Definition.
Typ-0-Grammatiken werden auch "unbeschränkte" Grammatiken genannt. Es handelt sich dabei um die Klasse aller formalen Grammatiken der Form
formula_13 formula_14, wobei formula_15 ein "Vokabular" ist, bestehend aus der disjunkten Vereinigung eines endlichen Alphabets formula_16 (Terminalsymbole) und einer Menge von Nichtterminalen (Variablen) formula_17. Das ausgezeichnete Symbol formula_18 wird als "Startsymbol" bezeichnet und formula_19 ist eine Menge von Produktionsregeln
formula_20 formula_21 formula_22 formula_23 formula_24 formula_25 formula_22 formula_23, d. h. auf der linken Seite jeder Produktionsregel steht wenigstens ein Nicht-Terminalsymbol. Für einzelne Regeln schreibt man anstelle von formula_28 meistens formula_6, für die Menge der Regeln mit formula_7 auf der linken Seite formula_31 auch formula_32.
Um die Zugehörigkeit zur Klasse der Typ-0-Grammatiken auszudrücken, schreibt man formula_33
Von Typ-0-Grammatiken erzeugte Sprachen.
Jede Typ-0-Grammatik erzeugt eine Sprache, die von einer Turingmaschine "akzeptiert" werden kann, und umgekehrt existiert für jede Sprache, die von einer Turingmaschine akzeptiert werden kann, eine Typ-0-Grammatik, die diese Sprache erzeugt. Diese Sprachen sind auch bekannt als die rekursiv aufzählbaren Sprachen (oft auch "semi-entscheidbare Sprachen" genannt), d. h. die zugehörige Turingmaschine akzeptiert jedes Wort, das in der Sprache liegt. Bei einem Wort, das nicht in der Sprache liegt, kann es sein, dass die Turingmaschine nicht terminiert, d. h. keinerlei Auskunft über die Zugehörigkeit des Worts zur Sprache liefert.
Man beachte, dass sich diese Menge von Sprachen von der Menge der rekursiven Sprachen (oft auch "entscheidbare Sprachen" genannt) unterscheidet, welche durch Turingmaschinen "entschieden" werden können.
Typ-1-Grammatik (kontextsensitive Grammatik).
Definition.
Typ-1-Grammatiken werden auch "kontextsensitive Grammatiken" genannt. Es handelt sich dabei um Typ-0-Grammatiken, bei denen alle Produktionsregeln die Form formula_34 oder formula_35 haben, wobei formula_36 ein Nichtterminal und formula_37 Wörter bestehend aus Terminalen (formula_16) und Nichtterminalen (formula_17) sind. formula_40 bezeichnet das leere Wort. Die Wörter formula_7 und formula_8 können leer sein, aber formula_43 muss mindestens ein Symbol (also ein Terminal oder ein Nichtterminal) enthalten. Diese Eigenschaft wird Längenbeschränktheit genannt.
Als einzige Ausnahme von dieser Forderung lässt man formula_35 zu, wenn das Startsymbol nirgends auf der rechten Seite einer Produktion auftritt. Damit erreicht man, dass die kontextsensitiven Sprachen auch das oft erwünschte leere Wort enthalten können, das dann aber immer nur in einer einschrittigen Ableitung aus dem Startsymbol selbst entsteht, und ohne für alle anderen Ableitungen die Eigenschaft zu stören, dass in jedem Teilschritt die Satzform länger wird oder gleich lang bleibt.
Ist eine Grammatik formula_45 kontextsensitiv, so schreibt man formula_46.
Anders als bei kontextfreien Grammatiken können auf der linken Seite der Produktionen kontextsensitiver Grammatiken durchaus statt einzelner Symbole ganze Symbolfolgen stehen, sofern sie mindestens ein Nichtterminalsymbol enthalten.
Von Typ-1-Grammatiken erzeugte Sprachen.
Die kontextsensitiven Grammatiken erzeugen genau die kontextsensitiven Sprachen. Das heißt: Jede Typ-1-Grammatik erzeugt eine kontextsensitive Sprache und zu jeder kontextsensitiven Sprache existiert eine Typ-1-Grammatik, die diese erzeugt.
Die kontextsensitiven Sprachen sind genau die Sprachen, die von einer nichtdeterministischen, linear beschränkten Turingmaschine erkannt werden können; das heißt von einer nichtdeterministischen Turingmaschine, deren Band linear durch die Länge der Eingabe beschränkt ist (das bedeutet, es gibt eine konstante Zahl formula_47, sodass das Band der Turingmaschine höchstens formula_48 Felder besitzt, wobei formula_49 die Länge des Eingabewortes ist).
Monotone Grammatiken.
Einige Autoren bezeichnen eine Grammatik schon dann als kontextsensitiv, wenn bis auf die Ausnahme formula_50 (s. o.) alle Produktionsregeln formula_51 nur die Bedingung formula_52 erfüllen, d. h., dass die rechte Seite einer solchen Produktion nicht kürzer als deren linke Seite ist. Häufiger findet man dafür jedoch den Begriff der monotonen Grammatik oder der nichtverkürzenden Grammatik.
Es erweist sich, dass die monotonen Grammatiken genau wieder die kontextsensitiven Sprachen erzeugen, weshalb die beiden Klassen von Grammatiken als äquivalent betrachtet werden und manche Autoren nur die eine oder die andere Grammatikklasse überhaupt behandeln. Aber nicht jede monotone Ersetzungsregel ist auch eine kontextsensitive, deshalb ist auch nicht jede monotone Grammatik eine kontextsensitive.
Typ-2-Grammatik (kontextfreie Grammatik).
Definition.
Typ-2-Grammatiken werden auch "kontextfreie Grammatiken" genannt. Es sind Grammatiken, für die gelten muss: formula_53 In jeder Regel der Grammatik muss also auf der linken Seite genau ein nicht-terminales Symbol stehen und auf der rechten Seite kann eine beliebige nicht-leere Folge von terminalen und nichtterminalen Symbolen aus dem gesamten Vokabular formula_54 stehen.
Außerdem kann wie bei Typ-1-Grammatiken die Ausnahmeregel formula_50 zugelassen werden, wenn formula_56 auf keiner rechten Seite einer Regel vorkommt.
Man schreibt formula_57
Kontextfreie Grammatiken werden oft so definiert, dass die rechte Seite auch leer sein darf, also formula_58. Solche Grammatiken erfüllen nicht mehr alle Eigenschaften von Typ-2-Grammatiken und stünden nicht mehr in der von Chomsky definierten Hierarchie. Sie erfüllen aber die Bedingungen von monotonen Grammatiken.
Von Typ-2-Grammatiken erzeugte Sprachen.
Kontextfreie Grammatiken (mit formula_40-Ausnahmeregel) erzeugen genau die kontextfreien Sprachen, jede Typ-2-Grammatik erzeugt also eine kontextfreie Sprache und zu jeder kontextfreien Sprache existiert eine Typ-2-Grammatik, die diese erzeugt.
Die kontextfreien Sprachen sind genau die Sprachen, die von einem nichtdeterministischen Kellerautomaten (NPDA) erkannt werden können. Eine Teilmenge dieser Sprachen bildet die theoretische Basis für die Syntax der meisten Programmiersprachen.
Siehe auch: Backus-Naur-Form (BNF) / Erweiterte Backus-Naur-Form (EBNF): ein anderes, äquivalentes Schema der Bezeichnungsweisen.
Typ-3-Grammatik (reguläre Grammatik).
Definition.
Typ-3-Grammatiken werden auch "reguläre Grammatiken" genannt. Es handelt sich um Typ-2-Grammatiken, bei denen auf der rechten Seite von Produktionen genau ein Terminalsymbol auftreten darf und maximal ein weiteres Nichtterminalsymbol. Die erlaubte Stellung solcher Nichtterminalsymbole muss außerdem über alle Produktionen hinweg einheitlich "immer vor" oder "immer hinter" dem Terminalsymbol sein, je nachdem spricht man auch genauer von "linksregulären" und "rechtsregulären Grammatiken". Sie stimmen mit den links- beziehungsweise rechts-linearen Grammatiken überein, wohingegen lineare Grammatiken nicht den regulären Grammatiken entsprechen.
Für "linksreguläre" Typ-3-Grammatiken muss also die Bedingung erfüllt sein, dass
formula_60 formula_61.
Sie dürfen also nur "links"reguläre Produktionen (Nichtterminalsymbol auf der rechten Seite in "Vorder"stellung) enthalten.
Üblicherweise gestattet man für reguläre Grammatiken, wie auch für kontextfreie Grammatiken Regeln mit leerer rechter Seite, also
formula_62.
"Rechtsreguläre Grammatiken" erfüllen dagegen die analoge Bedingung
formula_60 formula_64.
Diese enthalten also nur "rechts"reguläre Produktionen (Nichtterminalsymbol auf der rechten Seite allenfalls in "Hinter"stellung). Diese Bedingung drückt auch schon die Erlaubnis leerer rechter Seiten aus.
Linksreguläre und rechtsreguläre Grammatiken erzeugen genau dieselbe Sprachklasse, es gibt also zu jeder linksregulären Grammatik auch eine rechtsreguläre, die dieselbe Sprache erzeugt, und umgekehrt.
Man beachte, dass beim Auftreten von linksregulären "und" rechtsregulären Produktionen in ein und derselben Chomsky-Grammatik diese "nicht" regulär ist. Die Grammatiken mit sowohl linksregulären als auch rechtsregulären Produktionen erzeugen nämlich eine echt größere Sprachklasse.
Manche Autoren erlauben in den Definitionen für reguläre / linksreguläre / rechtsreguläre Grammatiken überall dort, wo hier in Produktionen nur ein einzelnes Nichtterminalzeichen stehen darf, auch eine beliebige nichtleere terminale Zeichenkette. An der Erzeugungsmächtigkeit der Klassen ändert sich dadurch nichts.
Man schreibt formula_65 für reguläre Grammatiken formula_45.
Von Typ-3-Grammatiken erzeugte Sprachen.
Reguläre Grammatiken erzeugen genau die regulären Sprachen, das heißt, jede Typ-3-Grammatik erzeugt eine reguläre Sprache und zu jeder regulären Sprache existiert eine Typ-3-Grammatik, die diese erzeugt.
Reguläre Sprachen können alternativ auch durch reguläre Ausdrücke beschrieben werden und die regulären Sprachen sind genau die Sprachen, die von endlichen Automaten erkannt werden können. Sie werden häufig genutzt, um Suchmuster oder die lexikalische Struktur von Programmiersprachen zu definieren.
Übersicht.
Die folgende Tabelle führt für die vier Grammatiktypen auf, welche Form ihre Regeln haben, welchen Namen die erzeugten Sprachen haben und welche Automatentypen diese Sprachen erkennen, also das Wortproblem zumindest semi-entscheiden (Wort in Sprache: Maschine hält in akzeptierendem Endzustand, Wort nicht in Sprache: Maschine hält nie oder hält in nicht akzeptierendem Zustand → sicher hält die Maschine also nur, wenn das Wort in der Sprache ist). Da in der Chomsky-Hierarchie für die Sprachmengen aber eine echte Teilmengenbeziehung gilt (siehe nächster Abschnitt) entscheiden z. B. Turingmaschinen selbstverständlich ebenfalls das Wortproblem für Sprachen vom Typ 1 bis 3.
Außerdem wird vermerkt, gegenüber welchen Operationen die erzeugten Sprachen abgeschlossen sind.
In der obigen Tabelle werden somit mit lateinischen Großbuchstaben Nichtterminalsymbole dargestellt
formula_82,
mit lateinischen Kleinbuchstaben Terminalsymbole
formula_83
und griechische Kleinbuchstaben werden verwendet, wenn es sich sowohl um Nichtterminal als auch um Terminalsymbole handeln kann.
Achtung: Bei formula_78 und formula_85 kann ein griechischer Kleinbuchstabe für Wörter aus mehreren Terminal- oder Nichtterminalsymbolen stehen!
Chomsky-Hierarchie für formale Sprachen.
Eine formale Sprache ist vom Typ formula_91 entsprechend der Hierarchie für Grammatiken, wenn es von einer Typ-formula_91-Grammatik erzeugt wird. Formal ausgedrückt heißt das:
formula_93 ist vom Typ formula_94 falls es eine Grammatik formula_95 mit formula_96 gibt. Man schreibt dann formula_97
In der Chomsky-Hierarchie für formale Sprachen besteht zwischen den Sprachmengen benachbarter Ebenen eine echte Teilmengenbeziehung. Jede kontextsensitive Sprache ist rekursiv aufzählbar, aber es gibt rekursiv aufzählbare Sprachen, die nicht kontextsensitiv sind. Ebenso ist jede kontextfreie Sprache auch kontextsensitiv, aber nicht umgekehrt, und jede reguläre Sprache ist kontextfrei, aber nicht jede kontextfreie Sprache ist regulär.
Formal ausgedrückt bedeutet dies für die "Klassen" der durch die obigen Grammatiken erzeugten Sprachen: formula_98 wobei gelegentlich auch folgende Symbole verwendet werden: formula_99
Beispiele für Sprachen in den jeweiligen Differenzmengen sind:
Beweise für die Nichtzugehörigkeit bestimmter Sprachen zu den Sprachklassen formula_102 und formula_103 wie hier werden oft mit dem Schleifensatz geführt.
Natürliche Sprachen.
Obwohl Chomsky seine Forschungen mit dem Ziel verfolgte, eine mathematische Beschreibung der natürlichen Sprachen zu finden, ist bis heute für keine natürliche Sprache der Nachweis einer korrekten und vollständigen formalen Grammatik gelungen. Das Problem besteht u. a. im Zusammenspiel der verschiedenen Grammatikteile, die jeweils einzelne sprachliche Phänomene modellieren. Aber auch beim praktischen Einsatz formaler Grammatiken in der Computerlinguistik kann es zu Mehrdeutigkeiten auf verschiedenen Ebenen der Sprachbetrachtung kommen; diese müssen (z. B. in der maschinellen Übersetzung) anhand des Kontextes aufgelöst werden. |
994 | 2194253 | https://de.wikipedia.org/wiki?curid=994 | Polymerase-Kettenreaktion | Als Polymerase-Kettenreaktion (, PCR) bezeichnet man Methoden zur "in vitro-"Vervielfältigung von Erbsubstanz (DNA). Dazu werden, je nach Methode, verschiedene Formen des Enzyms DNA-Polymerase verwendet. Die Bezeichnung "Kettenreaktion" bedeutet in diesem Zusammenhang, dass die Produkte vorheriger Zyklen als Ausgangsstoffe für den nächsten Zyklus dienen und somit eine exponentielle Vervielfältigung ermöglichen.
Bei der klassischen PCR werden diese Zyklen über ein Temperaturprogramm gesteuert. Bei der Weiterentwicklung isotherme DNA-Amplifikation erfolgt diese Vervielfältigung kontinuierlich bei konstanter Temperatur.
Die PCR wird in biologischen und medizinischen Laboratorien zum Beispiel für die Erkennung von Erbkrankheiten und Virusinfektionen, für das Erstellen und Überprüfen genetischer Fingerabdrücke, für das Klonieren von Genen und für Abstammungsgutachten verwendet. Sie ist die empfindlichste und zuverlässigste Labor-Methode des direkten Erregernachweises.
Entwickelt wurde die Methode durch den Biochemiker Kary Mullis im Jahr 1985. 1993 wurde ihm dafür der Nobelpreis für Chemie verliehen. Die PCR zählt heute zu den wichtigsten Methoden der modernen Molekularbiologie, und viele wissenschaftliche Fortschritte auf diesem Gebiet (z. B. im Rahmen des Humangenomprojekts) wären ohne diese Methode nicht möglich gewesen.
Geschichte.
Anfang der 1970er Jahre kam der norwegische Postdoc Kjell Kleppe im Labor von Nobelpreisträger Har Gobind Khorana auf den Gedanken, DNA durch zwei flankierende Primer zu vervielfältigen, jedoch geriet die Idee in Vergessenheit. Die Polymerase-Kettenreaktion selbst wurde 1983 von Kary Mullis erneut erfunden. Seine Absicht war es, ein neuartiges DNA-Syntheseverfahren zu entwickeln, das DNA durch wiederholte Verdopplung in mehreren Zyklen mittels eines Enzyms namens DNA-Polymerase künstlich vervielfältigt. Sieben Jahre nach der Veröffentlichung seiner Idee wurde Mullis hierfür 1993 der Nobelpreis für Chemie verliehen.
DNA-Polymerase kommt in allen Lebewesen vor und verdoppelt während der Replikation die DNA vor der Zellteilung. Dazu bindet sie sich an einen einzelnen DNA-Strang und synthetisiert mittels eines kurzen komplementären Oligonukleotids (Primer) einen dazu komplementären Strang. Bereits in Mullis’ ursprünglichem PCR-Versuch wurde das Enzym "in vitro" verwendet. Die doppelsträngige DNA wurde zunächst durch Erhitzen auf 96 °C in zwei Einzelstränge getrennt. Bei dieser Temperatur wurde die dabei zunächst verwendete DNA-Polymerase I von "E. coli" zerstört und musste daher nach jedem Erhitzen erneut zugegeben werden. Diese Folge von Arbeitsschritten musste mehrere dutzendmal in Folge wiederholt werden, um eine ausreichende Amplifikation zu erreichen. Mullis’ ursprüngliches Verfahren war daher sehr ineffizient, da es viel Zeit, große Mengen DNA-Polymerase und ständige Aufmerksamkeit erforderte.
Eine entscheidende Verbesserung der PCR-Technologie brachte die Verwendung von thermostabilen DNA-Polymerasen, das heißt von Enzymen, die auch bei Temperaturen von annähernd 100 °C ihre Polymerase-Aktivität behalten und nicht denaturieren. Eine der ersten thermostabilen DNA-Polymerasen wurde aus dem in heißen Quellen lebenden thermophilen Bakterium "Thermus aquaticus" gewonnen und "Taq"-Polymerase genannt. Durch die Verwendung thermostabiler DNA-Polymerasen bestand keine Notwendigkeit mehr, ständig neue Polymerase zuzugeben, und der ganze PCR-Prozess konnte erheblich vereinfacht und automatisiert werden.
Mullis arbeitete zu dieser Zeit für die kalifornische Biotech-Firma "Cetus" und wurde mit einer Prämie von 10.000 US-Dollar abgefunden. Diese meldete die PCR-Methode zum Patent an. Jahre später verkaufte Cetus dann die Rechte an der PCR-Methode mitsamt dem Patent für die von ihm verwendete DNA-Polymerase "Taq" an die Firma Roche für 300 Millionen Dollar. Das Enzym Taq wurde jedoch bereits 1980 von dem russischen Forscher Kaledin beschrieben. Aus diesem Grund wurde nach jahrelangem Rechtsstreit der Firma Roche das Patent für Taq inzwischen entzogen. Die US-Patente für die PCR-Technologie selbst liefen im März 2005 aus.
Die "Taq"-Polymerase erfährt nach wie vor breite Anwendung. Ihr Nachteil liegt darin, dass sie manchmal Fehler beim Kopieren der DNA produziert, was zu Mutationen in der DNA-Sequenz führt. Polymerasen wie "Pwo" und "Pfu", die aus Archaea gewonnen werden, haben einen Korrekturmechanismus, der die Anzahl der Mutationen in der kopierten DNA erheblich senkt.
Prinzip.
PCR wird eingesetzt, um einen kurzen, genau definierten Teil eines DNA-Strangs zu vervielfältigen. Der zu vervielfältigende Bereich der DNA wird auch als "Amplicon" bezeichnet, die bei der PCR entstehenden Produkte als "Amplifikate". Dabei kann es sich um ein Gen oder auch nur um einen Teil eines Gens handeln oder auch um nichtcodierende DNA-Sequenzen. Im Gegensatz zu lebenden Organismen kann der PCR-Prozess nur relativ kurze DNA-Abschnitte kopieren. Bei einer Standard-PCR können dies bis zu etwa dreitausend Basenpaare (3 kbp) lange DNA-Fragmente sein. Mit Hilfe bestimmter Polymerasen-Gemische, weiterer Additive in der PCR und optimalen Bedingungen können sogar Fragmente mit einer Länge von über 20–40 kbp vervielfältigt werden, was immer noch sehr viel kürzer ist als die chromosomale DNA einer eukaryotischen Zelle. Eine menschliche Zelle enthält beispielsweise etwa drei Milliarden Basenpaare pro haploidem Genom.
Komponenten und Reagenzien.
Eine PCR benötigt mehrere grundlegende Komponenten. Diese sind:
Die Reaktion wird üblicherweise in Volumina von 10–200 µl in kleinen Reaktionsgefäßen (200–500 µl) in einem Thermocycler durchgeführt. Diese Maschine erhitzt und kühlt die in ihr befindlichen Reaktionsgefäße präzise auf die Temperatur, die für den jeweiligen Schritt benötigt wird. Etwaige Kondensatbildung im Deckel des Gefäßes wird durch einen beheizbaren Gerätedeckel (über 100 °C) verhindert. Die Thermocycler der ersten Generation besaßen noch keinen beheizten Deckel, weshalb bei diesen Geräten zur Vermeidung einer Verdampfung von Wasser während der PCR die Reaktionsansätze mit Mineralöl überschichtet wurden. Als Reaktionsgefäß können, je nach Probeneinsatz bzw. Heizblock des Thermocyclers, neben einzelnen 200-µl-Reaktionsgefäßen auch acht zusammenhängende 200-µl-Reaktionsgefäße oder PCR-Platten für bis zu 96 Ansätze mit 200 µl oder auch 384 Ansätze zu je 50 µl verwendet werden. Die Platten werden entweder mit einer Gummiabdeckung oder einer selbstklebenden Klarsichtfolie verschlossen.
Beispiel.
Als allgemeines Beispiel sei hier eine typische Zusammensetzung einer PCR-Reaktion wiedergegeben. Viele Beispiele für die verschiedensten Variationen der PCR finden sich in der wissenschaftlichen Literatur in verschiedensten Kombinationen:
Ablauf.
Der PCR-Prozess besteht aus etwa 20–50 Zyklen, die in einem Thermocycler durchgeführt werden. Die folgenden Angaben sind als Richtwerte gedacht. Meist muss eine PCR auf die spezifische Reaktion hin optimiert werden. Jeder Zyklus besteht aus drei Schritten (siehe Abbildung unterhalb):
Dies ist der theoretische Idealfall, in der Praxis fallen aber zudem in geringem Maße auch kürzere Fragmente als die gewünschte Ziel-DNA an. Diese kurzen Fragmente häufen sich vor allem in den späten Zyklen an und können durch Fehlpaarung der Primer auch zu falschen PCR Produkten werden. Daher werden bei PCR Reaktionen meist nur etwa 30 Zyklen durchlaufen, damit vorwiegend DNA der gewünschten Länge und Sequenz produziert wird.
Aufreinigung von PCR-Produkten.
Ein PCR-Produkt kann durch Agarose-Gelelektrophorese anhand seiner Größe identifiziert werden. (Die Agarose-Gelelektrophorese ist ein Verfahren, bei der DNA in ein Agarose-Gel eingebracht wird und anschließend eine Spannung angelegt wird. Dann bewegen sich die kürzeren DNA-Stränge schneller als die längeren auf den Pluspol zu.) Die Länge des PCR-Produkts kann durch einen Vergleich mit einer DNA-Leiter, die DNA-Fragmente bekannter Größe enthält und parallel zur Probe im Gel mitläuft, bestimmt werden. Soll die PCR vor allem als quantitativer Nachweis dienen, empfiehlt sich die Real Time PCR oder die Digital PCR.
PCR-Optimierung.
Verschiedene Methoden können eingesetzt werden, um die Synthesemengen zu steigern oder Inhibitoren der PCR zu beseitigen.
Varianten.
Die klassische PCR ist durch zahlreiche Variationen erweitert und verbessert worden. Dadurch können verschiedene Aufgaben spezifisch angegangen werden. Alternativ zur PCR können auch verschiedene Methoden der isothermalen DNA-Amplifikation oder Ligase-Kettenreaktion verwendet werden.
Anwendungsgebiete.
Die PCR kommt als Methode zur Detektion und Vervielfältigung von DNA-Abschnitten in einer Vielzahl von Anwendungsgebieten zum Einsatz.
Lebensmittelanalytik.
Die steigenden Anforderungen von Handel und behördlicher Lebensmittelüberwachung zur Aufklärung und Verhinderung von unlauterem Wettbewerb führten zum Einzug der Technologie in die Lebensmittelanalytik. So kann die PCR zur Identifizierung von Gewürzen in komplexen Lebensmittelmatrizes herangezogen werden. Sie kann auch zur Unterscheidung von Varietäten bei Edelkakao z. B. Criollo und Forastero eingesetzt werden. |
995 | 779406 | https://de.wikipedia.org/wiki?curid=995 | Deutschland (Begriffsklärung) | Deutschland steht für:
historisch:
Personen:
Wirtschaft:
Medien und Kultur:
Siehe auch: |
998 | 233541766 | https://de.wikipedia.org/wiki?curid=998 | Datenkompression | Die Datenkompression (wohl lehnübersetzt und eingedeutscht aus dem englischen "‚‘") – auch (weiter eingedeutscht) Datenkomprimierung genannt – ist ein Vorgang, bei dem die Menge digitaler Daten verdichtet oder "reduziert" wird. Dadurch sinkt der benötigte Speicherplatz, und die Übertragungszeit der Daten verkürzt sich.
In der Nachrichtentechnik wird die Komprimierung von Nachrichten aus einer Quelle durch einen Sender als Quellenkodierung bezeichnet.
Grundsätzlich wird bei der Datenkompression versucht, redundante Informationen zu entfernen. Dazu werden die Daten in eine Darstellung überführt, mit der sich alle – oder zumindest die meisten – Informationen in kürzerer Form darstellen lassen. Diesen Vorgang übernimmt ein Kodierer und man bezeichnet den Vorgang als "Kompression" oder "Komprimierung". Die Umkehrung bezeichnet man als "Dekompression" oder "Dekomprimierung".
Man spricht von "verlustfreier Kompression", "verlustfreier Kodierung" oder "Redundanzreduktion", wenn aus den komprimierten Daten wieder exakt die Originaldaten gewonnen werden können. Das ist beispielsweise bei der Kompression ausführbarer Programmdateien notwendig.
Bei der "verlustbehafteten Kompression" oder "Irrelevanzreduktion" können die Originaldaten aus den komprimierten Daten meist nicht mehr exakt zurückgewonnen werden, das heißt, ein Teil der Information geht verloren; die Algorithmen versuchen, möglichst nur „unwichtige“ Informationen wegzulassen. Solche Verfahren werden häufig zur Bild- oder Videokompression und Audiodatenkompression eingesetzt.
Allgemein.
Datenkompression findet heutzutage bei den meisten Fernübertragungen digitaler Daten statt. Sie hilft, Ressourcen bei der Übertragung oder Speicherung von Daten einzusparen, indem sie in eine Form verwandelt werden, die – abhängig von der Anwendung – möglichst minimal ist. Dabei können "verlustlos" nur Daten komprimiert werden, die in irgendeiner Form redundant sind. Ist keine Redundanz vorhanden – zum Beispiel bei völlig zufälligen Daten – ist verlustlose Kompression wegen der Kolmogorov-Komplexität prinzipiell unmöglich. Ebenso verbietet das Taubenschlagprinzip, dass jede beliebige Datei verlustlos komprimiert werden kann. Hingegen ist verlustbehaftete Kompression immer möglich: Ein Algorithmus ordnet die Daten danach, wie wichtig sie sind und verwirft die „unwichtigen“ dann. In der Auflistung, wie wichtig welche Bestandteile sind, kann stets mehr verworfen werden, indem die „Behalten-Schwelle“ entsprechend verschoben wird.
Bei der Datenkompression ist sowohl auf Sender- als auch auf Empfängerseite Berechnungsaufwand nötig, um die Daten zu komprimieren oder wiederherzustellen. Der Berechnungsaufwand ist jedoch bei verschiedenen Kompressionsmethoden sehr unterschiedlich. So sind etwa Deflate und LZO sowohl bei Kompression und Dekompression sehr schnell, während etwa LZMA unter großem Aufwand eine besonders weitgehende Kompression – und somit möglichst kleine Datenmengen – erzielt, während komprimierte Daten sehr schnell wieder in die ursprüngliche Form zurückgewandelt werden können. Dies erzwingt je nach Anwendungsgebiet eine unterschiedliche Wahl der Kompressionsmethode. Daher sind Kompressionsmethoden entweder auf Datendurchsatz, Energiebedarf oder die Datenreduktion optimiert, und die Kompression hat somit nicht immer eine möglichst kompakte Darstellung als Ziel. Deutlich wird der Unterschied bei diesen Beispielen:
Mitunter werden die Daten vor der Kompression noch in eine andere Darstellung transformiert. Das ermöglicht einigen Verfahren die Daten anschließend effizienter zu komprimieren. Dieser Vorverarbeitungsschritt wird "Präkodierung" genannt. Ein Beispiel dafür ist die Burrows-Wheeler-Transformation und Move to front bei bzip2.
Das Fachgebiet der Datenkompression überschneidet sich zum Teil mit Informationstheorie und künstlicher Intelligenz, und im Bereich der verlustbehafteten Datenkompression auch mit Wahrnehmungspsychologie (s. weiter unten). Informationstheorie ist insofern betroffen, weil die Dateigröße eines bestmöglich komprimierten Datensatzes direkt den Informationsgehalt dieses Datensatzes angibt.
Kann ein Kompressionsalgorithmus lernen, unter welchen Umständen auf die Zeichenkette "ABC" ein "D" folgt, muss das "D" in der komprimierten Datei gar nicht gespeichert werden – bei der Wiederherstellung der ursprünglichen Datei weiß der Algorithmus, an welchen Stellen ein "D" einzufügen ist. Obwohl noch kein derartiger Kompressionsalgorithmus in der Praxis verwendet wird, sind diverse Kompressionsverfahren, die künstliche neuronale Netzwerke und maschinelles Lernen verwenden, in Entwicklung.
Grenzen der Komprimierbarkeit.
Verlustbehaftete Kompression.
Verlustbehaftete Kompression ist, wie oben beschrieben, stets möglich – die Schwelle, was als „redundant“ gilt, kann so lange heraufgesetzt werden, bis nur noch 1 Bit übrig bleibt. Die Grenzen sind fließend und werden durch den Anwendungsfall bestimmt: Zum Beispiel könnte "Das Haus ist groß" zu "Das Haus ist gr" komprimiert werden; will der Leser wissen "welche Eigenschaft hat das Haus?", so ist nicht mehr unterscheidbar, ob es "grau", "grün" oder "groß" ist. Will der Leser wissen "wurde etwas über ein Haus gesagt?", so kann das noch immer eindeutig bejaht werden.
Bei verlustbehafteter Bildkompression gehen zunehmend Details verloren/werden unscharf, schließlich „verschwimmt alles“ zu einer Fläche mit einheitlicher Farbe; eine Audio-Aufnahme wird meist dumpfer und undeutlicher, sie würde nach größtmöglicher Kompression bei den meisten Algorithmen nur noch einen einfachen Sinuston aufweisen.
Verlustfreie Kompression.
Bei verlustfreier Kompression gelten sehr viel engere Grenzen, da gewährleistet sein muss, dass die komprimierte Datei wieder in die Originaldatei rücktransformiert werden kann.
Die Kolmogorow-Komplexität befasst sich mit der kleinstmöglichen "Anleitung", die notwendig ist, um aus den komprimierten Daten die Originaldaten wiederherzustellen. So zum Beispiel lässt sich die Zahl "100000000000000000000000000000000000" sehr einfach komprimieren: "Schreibe 1 und dann 35 Nullen", was eine Kompression von 36 auf 29 Zeichen darstellt. Ebenfalls lassen sich beliebig viele Nachkommastellen der Kreiszahl Pi mit ihrer Berechnungsvorschrift komprimieren – wobei der Kompressionsalgorithmus dann erkennen müsste, dass es sich um die Zahl Pi handelt. Zu beachten ist, dass bei komprimierten Dateien der Wiederherstellungs-Algorithmus ebenfalls zur Dateigröße hinzugerechnet werden müsste, da jede komprimierte Datei ohne einen solchen Algorithmus wertlos ist. So ließe sich die obige Zahl auch mit "10^35" oder "1e35" komprimieren, wobei dann der Leser von der Wiederherstellungsmethode, nämlich der Potenzschreibweise, Kenntnis haben muss. Weist eine Zeichenkette aber keinerlei erkennbare Struktur/Besonderheiten auf, dann ist eine Kompression nicht möglich – die Anleitung müsste die unveränderten Originaldaten beinhalten.
Ein weiterer Grund für die Unkomprimierbarkeit mancher Daten ist das sogenannte Taubenschlagprinzip: Gibt es weniger Nistplätze für Tauben als es Tauben im Taubenschlag gibt, müssen sich zwangsläufig zwei oder mehr Tauben einen Nistplatz teilen. Auf einem n bit großen Speicherplatz kann man eine von 2n möglichen Informationen abspeichern, und auf einem Speicherplatz, der um ein bit kleiner ist, kann man folglich nur eine von halb so viel möglichen Informationen speichern: 16 bits → 216 = 65536 mögliche Informationen, 15 bits → 215 = 32768 mögliche Informationen. Unter der Annahme, man könne jede mögliche Datei um ein bit verkleinern, würde dies nach dem Taubenschlagprinzip bedeuten, dass jeder Speicherplatz gleichzeitig zwei verschiedene komprimierte Dateien enthalten müsste. Da aber in der verlustfreien Kompression eine umkehrbar eindeutige Zuordnung zwischen komprimierter und unkomprimierter Datei bestehen muss, verbietet sich dies.
Gälte das Taubenschlagprinzip nicht, und gäbe es einen Algorithmus, der jede beliebige Datei um mindestens ein Bit komprimieren kann, könnte dieser rekursiv auf die jeweils komprimierte Datei angewendet werden – jede beliebige Information ließe sich auf 0 bit reduzieren. In der Praxis lassen sich nur dann bereits komprimierte Daten nochmals komprimieren, wenn im vorherigen Durchlauf ein nicht 100%ig effizienter Algorithmus verwendet wurde, welcher die Redundanz noch nicht vollständig entfernt hat (z. B. eine sehr große Datei voller Nullen wird zwei Mal mit gzip komprimiert).
Aus diesen beiden Tatsachen ergibt sich die Schlussfolgerung, dass rein zufällige Daten (höchstwahrscheinlich) unkomprimierbar sind (da sie zumeist keine Struktur aufweisen), und dass zwar viele, aber nicht alle, Daten komprimiert werden können. Zwei Preisgelder, 100 Dollar für die erfolgreiche Kompression von einer Million zufälliger Ziffern und 5000 Dollar für die erfolgreiche Kompression einer Datei beliebiger Länge, die vom Preisstifter, Mike Goldman, erzeugt wird, wurden noch nicht ausbezahlt.
Verlustfreie Kompression.
Bei der verlustfreien Kompression können die Originaldaten exakt aus den komprimierten Daten wiederhergestellt werden. Dabei geht keinerlei Information verloren. Im Wesentlichen nutzen verlustfreie Kompressionsverfahren die Redundanz von Daten aus, man spricht auch von Redundanzreduktion.
Die theoretische Grundlage bildet die Informationstheorie (verwandt mit der algorithmischen Informationstheorie). Sie gibt durch den Informationsgehalt eine minimale Anzahl an Bits vor, die zur Kodierung eines Symbols benötigt werden. Verlustlose Kompressionsverfahren versuchen nun Nachrichten so zu kodieren, dass sie sich ihrer Entropie möglichst gut annähern.
Text.
Texte, sofern sie aus Buchstaben bestehen oder als Zeichenketten abgespeichert sind, und somit nicht als Bild (Rastergrafik, typischerweise eine Bilddatei nach dem Einscannen eines Buches), belegen vergleichsweise wenig Speicherplatz. Dieser lässt sich durch ein Verfahren zur verlustfreien Kompression auf 20 % bis 10 % des ursprünglich von ihr benötigten Platzes reduzieren.
Beispiele:
Ausgangstext: AUCH EIN KLEINER BEITRAG IST EIN BEITRAG
Kodiertext: AUCH EIN KLEINER BEITRAG IST /2 /4
Hier wurde erkannt, dass die Wörter EIN und BEITRAG zweimal auftauchen, und dadurch angegeben, dass diese mit den gerade zurückliegenden übereinstimmen. Bei genauerer Betrachtung könnte dann auch das in KLEINER enthaltene EIN entsprechend kodiert werden.
Wörterbuchmethode.
Verwandt ist die tokenbasierte Kompression. Häufig wiederkehrende Schlüsselwörter werden durch Abkürzungen, "Tokens", ersetzt.
Ausgangstext: Print "Hallo"; Print "Hier"
Kodiertext: 3F "Hallo"; 3F "Hier"
Für die Zuordnung der Tokens zu den eigentlichen Wörtern muss entweder ein externes Wörterbuch vorhanden sein, oder in der komprimierten Datei ersichtlich/mit enthalten sein.
Run length encoding (RLE).
Bei der RLE, deutsch Lauflängenkodierung, werden identische Textbestandteile, die hintereinander stehen, nur einmal abgespeichert – mit der Anzahl ihrer Wiederholungen. Hier wird „ 10 Grad,“ drei Mal wiederholt:
Ausgangstext: In den letzten Tagen betrug die Temperatur 10 Grad, 10 Grad, 10 Grad, und dann 14 Grad.
Kodiertext: In den letzten Tagen betrug die Temperatur/3/ 10 Grad,/ und dann 14 Grad.
Die Burrows-Wheeler-Transformation ist eine umkehrbare Operation, welche einen gegebenen Text so umformt, dass dieselben Buchstaben möglichst oft gleich hintereinander stehen. So können die Daten dann mit RLE komprimiert werden.
Entropiekodierung.
Verfahren der so genannten Entropiekodierung:
Der bekannte Morse-Code funktioniert nach einem ähnlichen Prinzip und dient als gutes Beispiel: Häufige Buchstaben der englischen Sprache (z. B. E = .) werden als kurze Codes abgespeichert, seltene als lange Codes (z. B. Q = _ _ . _).
Als Beispiel ein Ausgangstext von 66 Zeichen Länge (Datenmenge 462 Bit bei 7 Bit pro Zeichen, siehe ASCII):
WENN HINTER FLIEGEN FLIEGEN FLIEGEN, FLIEGEN FLIEGEN FLIEGEN NACH.
Eine sehr einfache, aber nicht sehr effiziente Entropiekodierung besteht darin, alle Teile einer Nachricht (siehe Tabelle; „_“ steht für das Leerzeichen) nach ihrer Häufigkeit zu sortieren, und mittels binären Zahlen zu nummerieren:
Der mit diesem Wörterbuch komprimierte Text lautet
10 100 1 1 1 101 1 1 1 11
und benötigt in binärer Kodierung 50 Bit, denn das Ergebnis enthält drei verschiedene Zeichen (0, 1 und das Trennzeichen „ “), also 2 Bit pro Zeichen. Die Trennzeichen sind hier notwendig, da dieser Code nicht präfixfrei ist. Der präfixfreie Huffman-Code, also folgendes Wörterbuch,
ist effizienter, denn es führt direkt zu einem binären Ergebnis von 18 Bit Länge:
011001111000111010
In beiden Fällen muss aber auch das Wörterbuch in der komprimierten Datei abgespeichert werden – sonst lässt sich der Ausgangstext nicht rekonstruieren.
Programmdateien.
Bei Programmdateien ist es kritisch, dass sie nach erfolgter Dekomprimierung wieder im ursprünglichen Zustand sind. Andernfalls wäre eine fehlerfreie bzw. korrekte Ausführung unwahrscheinlich. Komprimierte Programmdateien sind meist selbst wieder ausführbare Dateien. Sie bestehen aus einer Routine, die den Programmcode wieder dekomprimiert und anschließend ausführt. Dadurch ist die Kompression des Programms für den Benutzer vollkommen ‚transparent‘ (er bemerkt sie nicht).
Anwendungsbeispiele sind UPX und Upack.
Verlustbehaftete Kompression.
Bei der verlustbehafteten Kompression werden irrelevante Informationen entfernt, man spricht auch von Irrelevanzreduktion. Dabei geht ein Teil der Information aus den Originaldaten verloren, sodass aus den komprimierten Daten nicht mehr das Original rekonstruiert werden kann.
Es wird ein Modell benötigt, das entscheidet, welcher Anteil der Information für den Empfänger entbehrlich ist. Verlustbehaftete Kompression findet meist in der Bild-, Video- und Audio-Übertragung Anwendung. Als Modell wird dort die menschliche Wahrnehmung zugrunde gelegt. Ein populäres Beispiel ist das Audio-Format MP3, das Frequenzmuster entfernt, die der Mensch schlecht oder gar nicht hört.
Die theoretische Grundlage bildet die Rate-Distortion-Theorie. Sie beschreibt, welche Datenübertragungsrate mindestens nötig ist, um Informationen mit einer bestimmten Güte zu übertragen.
Bilder, Videos und Tonaufnahmen.
Ton, Bild und Film sind Einsatzgebiete verlustbehafteter Kompression. Anders wären die oftmals enormen Datenmengen sehr schwer zu handhaben. Bereits die Aufnahmegeräte begrenzen das Datenvolumen. Die Reduktion der gespeicherten Daten orientiert sich an den physiologischen Wahrnehmungseigenschaften des Menschen. Die Kompression durch Algorithmen bedient sich dabei typischerweise der Wandlung von Signalverläufen von Abtastsignalen in eine Frequenzdarstellung.
In der akustischen Wahrnehmung des Menschen werden Frequenzen oberhalb von ca. 20 kHz nicht mehr wahrgenommen und können bereits im Aufnahmesystem beschnitten werden. Ebenso werden existierende, leise Nebentöne in einem Klanggemisch nur schwer wahrgenommen, wenn zur exakt gleichen Zeit sehr laute Töne auftreten, so dass die unhörbaren Frequenzanteile vom Daten-Kompressions-System entfernt werden können (siehe Psychoakustik), ohne dass dies als störend vom Hörer wahrgenommen würde. Der Mensch kann bei einer Reduktion digitalisierter, akustischer Ereignisse (Musik, Sprache, Geräusche) auf Werte um etwa 192 kbit/s (wie bei vielen Internet-Downloads) kaum oder gar keine Qualitätsunterschiede zum unkomprimierten Ausgangsmaterial (so bei einer CD) feststellen.
In der optischen Wahrnehmung des Menschen werden Farben weniger stark aufgelöst als Helligkeitsänderungen, daraus leitet sich die schon beim analogen Farbfernsehen bekannte YUV-422 Reduzierung ab. Kanten sind dagegen bedeutsamer, und es existiert eine biologische Kontrastanhebung (Machsche Streifen). Mit moderater Tiefpassfilterung zur Farbreduktion, zum Beispiel durch den auf DCT-Transformation basierenden JPEG-Algorithmus oder den neueren auf Wavelet-Transformation basierenden JPEG2000-Algorithmus, lässt sich die Datenmenge meist auf 10 % oder weniger der ursprünglichen Datenmenge reduzieren, ohne deutliche Qualitätsverringerungen.
Bewegtbilder (Filme) bestehen aus aufeinanderfolgenden Einzelbildern. Erster Ansatz war, jedes Bild einzeln gemäß JPeg-Algorithmus zu komprimieren. Das resultierende Format ist Motion JPEG (entspricht MPEG-1, wenn dieses nur I-Frames enthält). Die heutzutage sehr viel höheren Kompressionsraten sind nur erreichbar, wenn man bei der Kodierung die Ähnlichkeit von benachbarten Bildern (engl. Frames) berücksichtigt. Dazu wird das Bild in kleinere Kästchen (typische Größen liegen zwischen 4×4 und 16×16 Pixel) zerlegt und es werden ähnliche Kästchen in schon übertragenen Bildern gesucht und als Vorlage verwendet. Die Einsparung ergibt sich daraus, dass statt des gesamten Bildinhalts nur noch die Unterschiede der an sich ähnlichen Kästchen übertragen werden müssen. Zusätzlich wird aus den Änderungen vom vorherigen zum aktuellen Bild gefolgert, in welche Richtung sich Bildinhalte wie weit verschoben haben; für den entsprechenden Bereich wird dann nur ein Verschiebungsvektor gespeichert.
Kompressionsartefakte.
Als Kompressionsartefakte bezeichnet man Signalstörungen, die durch die verlustbehaftete Kompression verursacht werden.
Anwendung in der Nachrichtentechnik.
Bei der Datenübertragung wird häufig die zu übertragende Datenmenge durch Kompression reduziert. In so einem Fall spricht man dann auch von "Quellenkodierung". Die Quellenkodierung wird dabei häufig zusammen mit Kanalkodierung und Leitungskodierung verwendet, sollte aber nicht mit diesen verwechselt werden: Während die Quellencodierung überflüssige (redundante) Information einer Datenquelle reduziert, hat die Kanalcodierung die Aufgabe, durch zusätzlich eingebrachte Redundanz Übertragungs- bzw. Speicherfehler im Rahmen der Datenübertragung erkennen und korrigieren zu können. Die Leitungskodierung hingegen nimmt eine spektrale Anpassung des Signals an die Anforderungen des Übertragungskanals vor.
Zeittafel der Kompressions-Algorithmen.
Die jahrhundertealte Stenografie kann als Datenkompression angesehen werden, welche der Handschrift eine möglichst hohe Datenrate verleiht
1833–1865 Entwicklung des Morse-Codes, welcher häufige Buchstaben in kurze Zeichen übersetzt und seltene Buchstaben in längere, was die Idee der Entropiekodierung vorzeichnet
1883 David Forsyth, Schachspieler und Journalist, publiziert eine Methode, mit welcher auf platzsparende Weise die Position von Schach-Figuren mit Lauflängenkodierung festgehalten wird → Forsyth-Edwards-Notation
1949 Informationstheorie, Claude Shannon
1949 Shannon-Fano-Kodierung
1952 Huffman-Kodierung, static
1964 Konzept der Kolmogorow-Komplexität
1975 Integer coding scheme, Elias
1977 Lempel-Ziv-Verfahren LZ77
1978 Lempel-Ziv-Verfahren LZ78
1979 Bereichskodierung (eine Implementierung arithmetischer Kodierung)
1982 Lempel-Ziv-Storer-Szymanski (LZSS)
1984 Lempel-Ziv-Welch-Algorithmus (LZW)
1985 Apostolico, Fraenkel, Fibonacci coding
1986 Move to front, (Bentley et al., Ryabko)
1991 Reduced Offset Lempel Ziv (ROLZ, auch LZRW4, Lempel Ziv Ross Williams)
1994 Burrows-Wheeler-Transformation (bzip2)
1995 zlib, freie Standardbibliothek für Deflate
1996 Lempel-Ziv-Oberhumer-Algorithmus (LZO), sehr schnelle Kompression
1997 Sequitur
1998 Lempel-Ziv-Markow-Algorithmus (LZMA)
2006 Hutter-Preis für beste Datenkompression
2009 PAQ, höchste Kompressionsraten auf Kosten sehr langer Laufzeit; Verwendung eines neuronalen Netzwerks (heute ZPAQ)
2011 Snappy, schneller Kodierer von Google
2011 LZ4, sehr schneller Kodierer
2013 zopfli, verbesserter Deflate-Kodierer
2015 Brotli, starke Kompression
Biologie.
Sinneswahrnehmungen werden gefiltert, was auch eine Art der Kompression darstellt, genauer eine verlustbehaftete Kompression, da nur aktuell relevante Informationen wahrgenommen werden. Fehlendes wird bei Bedarf unbewusst ersetzt. So sehen menschliche Augen beispielsweise nur in einem kleinen Bereich (Fovea centralis) scharf, außerhalb dieses engen Blickfeldes werden fehlende Informationen durch Muster unbewusst ersetzt. Ebenso kann das menschliche Auge Helligkeitsunterschiede wesentlich besser wahrnehmen als Unterschiede im Farbton – diesen Umstand nutzt das in JPEG-Bildern verwendete YCbCr-Farbmodell und speichert den Farbwert mit einer wesentlich geringeren Präzision ab.
Auch beim Hören werden schwache oder fehlende Signale unbewussterweise ersetzt, was sich Algorithmen wie MPEG (MP3) oder Vorbis zunutze machen. |
999 | 71216 | https://de.wikipedia.org/wiki?curid=999 | Deutscher Film | Die deutsche Filmgeschichte ist Teil der internationalen Filmkultur. Sie reicht von technischen Pionierleistungen über die frühen Kinokunstwerke des Stummfilms und neu etablierten Genres bis zu Propagandafilmen, Heimatfilmen, Autorenkino, populären Kassenschlagern und zu europäischen Koproduktionen. Die Herstellung von Fernsehfilmen und Serien, Werbefilmen, Dokumentarfilmen, Trickfilmen und Musikvideos gehört ebenfalls zum Filmschaffen in Deutschland.
Das nationale Filmerbe wird insbesondere im Filmarchiv des Bundesarchivs gesammelt, gesichert und bereitgestellt.
1895–1918: Pionierzeit – Vom Kintopp zur Filmindustrie.
Die Filmgeschichte beginnt in Deutschland bereits im Geburtsjahr des Films überhaupt: Schon vor der ersten Vorführung der Brüder Lumière am 28. Dezember 1895 in Paris zeigten die Brüder Skladanowsky im Wintergartenpalais zu Berlin am 1. November 1895 kurze Filme auf einem Überblendprojektor. Dessen aufwändige Technik konnte allerdings gegenüber dem praktischeren Gerät der Lumières, das sowohl zur Aufnahme als auch Projektion genutzt werden konnte, nicht bestehen. Weitere bekannte deutsche Filmpioniere waren Guido Seeber und Oskar Messter.
Die neuartige Kinematographie war zunächst eine Attraktion für die „höheren Schichten“; die Neuheit nutzte sich allerdings rasch ab – belanglose Kurzfilmchen wurden Jahrmarktsattraktionen für Kleinbürger und Arbeiter. Um das Publikum auch weiterhin fürs Kino zu begeistern, versuchten manche Filmhersteller an die Sensationslust des Publikums zu appellieren. Beispielhaft waren diesbezüglich die Filme von Joseph Delmont, der in Berliner Studios „wilde Raubtiere“ in Szene setzte und damit weltweit Bekanntheit erlangte.
Die Ladenbuden, in denen damals Kino veranstaltet wurde, hießen im Volksmund einigermaßen verächtlich „Kintopp“. Dem versuchten künstlerisch interessierte Filmleute mit längeren Spielhandlungen nach literarischen Vorbildern entgegenzuwirken: Nach 1910 entstanden erste künstlerische Filme, beispielsweise "Der Student von Prag" (1913) des Reinhardt-Schauspielers und Regisseurs Paul Wegener. Ein weiterer Pionier des deutschen Films war der vielseitige Ernst Lubitsch. Ebenfalls beeinflusst von Max Reinhardt, inszenierte er zuerst zwei- und dreiaktige Filme, nach 1918 aber vor allem präzise inszenierte Kammerspiele. Vor 1914 wurden allerdings auch viele ausländische Filme importiert, besonders dänische und italienische Kunstfilme standen in hohem Kurs, Sprachgrenzen gab es im Stummfilm nicht. Der Wunsch des Publikums nach weiteren Filmen mit ganz bestimmten Darstellern schuf auch in Deutschland das Phänomen des Filmstars, die Schauspielerinnen Henny Porten und die aus Dänemark kommende Asta Nielsen gehörten zu den ersten Stars. Der Wunsch der Zuschauer nach Fortsetzungen bestimmter Filme regte die Produktion von Filmserien (Serials) an, beliebt war vor allem der Detektivfilm – hier begann auch der Regisseur Fritz Lang seine glänzende Karriere.
Der Boykott beispielsweise französischer Filme in der Kriegszeit hinterließ eine spürbare Lücke, teilweise mussten Filmvorführungen durch Varieté-Nummern ergänzt oder ersetzt werden. Um 1916 existierten schon 2000 feste Abspielstätten im Deutschen Reich. Bereits 1917 setzte mit der Gründung der Universum Film (UFA) die massive und halbstaatliche Konzentration der deutschen Filmindustrie ein, auch als Reaktion auf die sehr effektive Nutzung des neuen Mediums durch die alliierten Kriegsgegner zu Propagandazwecken. Unter militärischer Ägide entstanden sogenannte „vaterländische Filme“, die in Sachen Propaganda und Verfemung des Kriegsgegners entsprechenden Streifen der Alliierten teilweise gleichkamen. Das Publikum kam aber eher wegen der Unterhaltungsfilme in die Kinos, welche daher ebenfalls gefördert wurden. Auf diese Weise wuchs die deutsche Filmindustrie zur größten Europas heran.
1918–1933: Stummfilmklassiker und früher Tonfilm.
Aus dem Ersten Weltkrieg ging die deutsche Filmwirtschaft gestärkt hervor. Bereits 1919 setzte die deutsche Filmproduktion zu ihrem Höhenflug an. Fünfhundert Filme wurden in diesem Jahr fertig gestellt. Die 3000 deutschen Kinos verzeichneten trotz der herrschenden Inflation und Armut über 350 Millionen Besucher. Aufgrund der schwachen Währung des an Nachkriegsfolgen wie Inflation leidenden Deutschlands florierten auch die Exporte von Filmen. So war auch der größte Teil der deutschen Filmwirtschaft kommerziell ausgerichtet. Unterhaltungs-, Abenteuer- und Kriminalfilme wurden am laufenden Band hergestellt. Filmgeschichtlich relevant ist jedoch nur jener kleine Teil des damaligen Produktionsaufkommens, der auch künstlerischen, ästhetischen und teils auch gesellschaftspolitischen Ansprüchen genügen sollte: Filme, die heute dem Aufklärungsfilm, der Neuen Sachlichkeit, dem Kammerspielfilm und dem expressionistischen Film zugeordnet werden.
Publizisten wie Albert Hellwig warnten nachdrücklich vor „Schundfilmen“. Artikel 118 der Weimarer Verfassung wies deshalb eigens darauf hin, dass für Lichtspiele durch Gesetz von der Zensurfreiheit abweichende Bestimmungen getroffen werden könnten. Das Reichslichtspielgesetz von 1920 führte schließlich eine ordentliche Staatszensur ein. Zu kontrollieren war, ob der Film die öffentliche Ordnung und Sicherheit gefährden, das religiöse Empfinden verletzen, verrohend oder entsittlichend wirken, das deutsche Ansehen oder die Beziehungen Deutschlands zu auswärtigen Staaten gefährden könne. Diese Auflagen waren umso bemerkenswerter, als nicht nur die Presse, sondern auch das Theater unzensiert blieben.
Es gab jedoch auch ansprechende Unterhaltungsfilme. So gelang etwa Ernst Lubitsch mit seiner Großproduktion „Madame Dubarry“ im Jahr 1919 eine präzise Inszenierung mit den aufsteigenden Stars des deutschen Films Pola Negri und Emil Jannings. Auch der phantastische Film verzeichnete in Deutschland mit „Der Golem, wie er in die Welt kam“ (1920) von Paul Wegener einen großen Erfolg. Der international erfolgreiche Film lief monatelang in ausverkauften Häusern von den Vereinigten Staaten bis nach China.
Ab 1919 erlangte der deutsche expressionistische Film Weltruhm. Als Grundstein und Höhepunkt zugleich gilt hier „Das Cabinet des Dr. Caligari“ (1919) von Robert Wiene. In diesem Film fand der expressionistische Kunststil, der seit 1905 durch die Künstlergruppe „Brücke“ propagiert wurde, seinen ersten Niederschlag im Film. Schräge, verbogene und verzerrte Wände, Kulissen und Dekorationsobjekte machten den Film rund um einen wahnsinnigen Mörder zum schauerromantischen Erlebnis. Die expressiven Kulissen erforderten auch von den Schauspielern expressivere Ausdrucksweisen, was zumeist nun in Ansätzen gelang. Überzeugend in dieser Hinsicht war jedoch Fritz Kortner, der sein Können erstmals im österreichischen Beethoven-Porträt "Der Märtyrer seines Herzens" zeigen konnte, und in der Folge etwa in Leopold Jessners „Hintertreppe“ (1921) oder Robert Wienes „Orlac’s Hände“ (1924) expressiv darstellte.
In „Nosferatu, eine Symphonie des Grauens“ erweiterte Friedrich Wilhelm Murnau 1922 den ausgeprägten Licht-Schatten-Gegensatz vom visuellen Effekt zum dramaturgischen Aufbauelement. Der expressionistische Film, geboren aus der Not, eher mit improvisatorischer Phantasie als mit großem Budget arbeiten zu müssen, schien eine vorübergehende Modeerscheinung zu sein. Er beeinflusste jedoch stark die düstere Ästhetik späterer Horror- und Gangsterfilme weltweit. Auch Regisseure wie Jean Cocteau oder Ingmar Bergman ließen sich hier inspirieren. Von der Filmkritik – siehe Lotte Eisner und Siegfried Kracauer – wurden dem frühen deutschen Kunstfilm im Nachhinein allerdings auch apokalyptische und autoritätsfromme Tendenzen attestiert.
Nachfolgestil war der stärker sozialkritisch geprägte neusachliche Film, realisiert beispielsweise von Georg Wilhelm Pabst („Die freudlose Gasse“, 1925; „Die Büchse der Pandora“, 1929). Weitere bedeutende Filme der Neuen Sachlichkeit in Deutschland sind „Die Abenteuer eines Zehnmarkscheines“ (1926), dessen Drehbuch der große ungarische Filmtheoretiker Béla Balázs verfasste, und „Menschen am Sonntag“ (1930), bei dem mit Billy Wilder, Edgar G. Ulmer, Fred Zinnemann und den Gebrüdern Curt und Robert Siodmak gleich mehrere junge Talente des Regie- und Drehbuchfaches mitwirkten.
Ebenfalls vom Expressionismus mit seinen düsteren Elementen, Wahn- und Traumvorstellungen beeinflusst war der Kammerspielfilm. Dieser erzählte Geschichten von der Verelendung des Kleinbürgertums, der vorherrschenden Armut und der Psychologie des Alltags. Bedeutendste Werke waren diesbezüglich „Scherben“ (1921), „Hintertreppe“ (1921), „Sylvester“ (1923) und „Der letzte Mann“ (1924). Letztgenannter Film gilt nicht zuletzt aufgrund seiner „entfesselten Kamera“ – Karl Freund wandte die von ihm entwickelte Technik der Kamerafahrt bzw. des „Kameraflugs“ an, was dem Film eine bisher noch nie da gewesene optische Dynamik verleiht – als Glanzleistung des deutschen Stummfilms.
Zeitweise produzierten über 230 Filmgesellschaften allein in Berlin, neue Studios in Babelsberg ermöglichten noch größere Filmprojekte: im Kinospektakel „Metropolis“ (1927) von Fritz Lang wirkten 36.000 Komparsen mit, der Kameramann und Tricktechniker Eugen Schüfftan brachte hier sein revolutionäres Spiegeltrick-Verfahren erstmals ausführlich zum Einsatz. Fritz Lang schuf gemeinsam mit seiner Frau Thea von Harbou, die häufig die Drehbücher für seine Filme verfasste, einige Meisterwerke des Stummfilms. So etwa der gesellschaftskritische, im Berliner Milieu spielende Verbrecherfilm Dr. Mabuse, der Spieler (1922) oder das monumentale, zweiteilige Heldenepos „Die Nibelungen“ (1924).
Ab Mitte der 1920er Jahre wurden riesige Kinopaläste mit 1600 und mehr Plätzen eröffnet. Der deutsche Stummfilm wurde wichtiges Exportprodukt und Devisenbringer für den verarmten Kriegsverlierer Deutschland. Die Abwertung der einheimischen Währung begünstigte die vorübergehende kreative und ökonomische Blüte des deutschen Kinos. Die deutsche Filmindustrie manövrierte dabei zwischen Glanz und Elend; auch wegen der gesamtwirtschaftlich instabilen Verhältnisse und ruinöser Großproduktionen. Wie in anderen Branchen konnten spektakuläre Pleiten (teilweise sogar mit politischen Hintergründen, vgl. die Phoebus-Affäre), Übernahmen und Konzentrationsprozesse beobachtet werden (vgl. Parufamet). So zog es nicht wenige der fähigsten deutschen Filmschaffenden – wie z. B. 1923 das Komödiengenie Ernst Lubitsch – früh nach Amerika. Außerdem: sogenannte Asphalt- und Sittenfilme nahmen sich „anrüchiger“ Themen (Abtreibung, Prostitution, Homosexualität, Nacktkultur, Drogensucht etc.) an und zogen die Kritik konservativer Kreise sowie die Zensur auf sich. Auch Dokumentar- und Experimentalfilm blühten auf, siehe etwa das Schaffen der Lotte Reiniger, Oskar Fischingers, Robert Siodmaks oder Walter Ruttmanns. Eine neuartige Mischung aus Natur- und Spielfilm stellte das Bergfilm-Genre dar. Der Düsseldorfer Draufgänger Harry Piel realisierte frühe Spielarten des Actionfilms.
Die umstrittenen „Preußenfilme“ erfreuten sich bei der politischen Rechten großer Beliebtheit, das „Dritte Reich“ sollte diese Reihe fortsetzen. Die UFA war 1927 Teil des konservativen Hugenberg-Konzerns geworden. Auf der Linken entwickelte sich die „Volksfilm-Bewegung“ mit der Ende 1925 gegründeten Prometheus Film als größter „linker“ Filmfirma der Weimarer Republik. Diese schuf Klassiker wie den kommunistischen Film „“ (1932) über die gleichnamige Zeltkolonie am Berliner Stadtrand. Zu den nennenswerten Regisseure des linken Spektrums gehört auch Werner Hochbaum, der nach zwei Wahlfilmen für die Sozialdemokraten mit „Brüder“ (1929) seinen ersten Langspielfilm dreht, der eine realistische Schilderung der tristen Wohn- und Arbeitssituation des Hamburger Proletariats ist.
Filme mit sozialistischem Gedankengut hatten es bisher schwer, da Produzenten und Geldgeber in der Regel selbst zu den Bessergestellten gehörten und kein Interesse hatten, sozialrevolutionäre Proteste zu unterstützen. Doch auch die Prometheus hatte Probleme mit der Zensur, zumal die staatliche Filmprüfstelle bereits in deutschnationaler Hand war. Konnten rechtskonservative Filme wie Gustav Ucickys "Das Flötenkonzert von Sans-souci" (1930) große Publikumserfolge feiern, wurden antiautoritäre Filme, wie etwa der pazifistische US-amerikanische Filmklassiker "Im Westen nichts Neues" (1930) von den Nationalsozialisten boykottiert und in der Folge verboten. Die beliebten Reisefilme zeigten exotische Schauplätze, die ein Durchschnittsverdiener damals nur auf der Leinwand besichtigen konnte.
Mit dem Wechsel vom Stumm- zum Tonfilm in den 1920er Jahren bis etwa 1936 erlebte die Filmwelt eine enorme Umstellung. Hatte sich bis dahin der Stummfilm zu einer formal hochstehenden Kunstrichtung entwickelt, musste der Tonfilm zuerst einen enormen künstlerischen Rückschritt erleben. Abgefilmte Sprechszenen ersetzten die erprobte Kombination aus ausdrucksbetonten Darstellern, visuellen Effekten, Dekor, Kameraführung und Montage, die anstelle des Textes den Inhalt und die Botschaft eines Films übermittelten, wodurch kaum noch Zwischentitel in den Filmen nötig waren. Zugleich bedeutete der Tonfilm eine massive Einschränkung des Absatzmarktes für deutsche Produktionen, die sich nun auf den deutschsprachigen Raum beschränken musste. Die Synchronisation war technisch noch nicht möglich und sollten Filme auch im fremdsprachigen Ausland gezeigt werden, mussten sie in der jeweiligen Sprache und mit dementsprechend veränderter Besetzung gleichzeitig mit der deutschen Version gefilmt werden – so genannte Versionenfilme. Dennoch konnte der frühe deutsche Tonfilm (1929 bis 1933) rasch an frühere Erfolge anknüpfen und teils sogar übertrumpfen. Werke wie Josef von Sternbergs „Der blaue Engel“ (1930), wie Phil Jutzis „Berlin – Alexanderplatz“ (1931) oder wie die Filmversion von Brechts „Dreigroschenoper“ von Pabst (1931) entstanden. Fritz Lang drehte weitere Meisterwerke, unter anderem „M“ (1931). Trotz – oder gerade wegen – der Weltwirtschaftskrise waren die Lichtspielhäuser damals gut frequentiert. 1932 existierten bereits 3800 Tonfilmkinos.
1933–1945: Film im Nationalsozialismus.
Mit der Machtübernahme Hitlers und Errichtung der nationalsozialistischen Diktatur veränderte sich die Produktion: Über 1.500 Filmschaffende emigrierten – unter anderem Fritz Lang, Marlene Dietrich, Peter Lorre, Max Ophüls, Elisabeth Bergner, Friedrich Hollaender, Erich Pommer, später auch Detlef Sierck (Siehe dazu auch die Liste bekannter deutschsprachiger Emigranten und Exilanten (1933–1945)). Wegen der antisemitischen „Arisierungs“politik der Nationalsozialisten mussten Filmkünstler jüdischer Herkunft ihre Arbeit im Deutschen Reich aufgeben. Einige Künstler, wie beispielsweise Kurt Gerron, entkamen dem Regime nicht und wurden später in Konzentrationslagern ermordet.
Es wurden nur noch solche Filme genehmigt, die dem Regime ungefährlich erschienen. In den späten 1930er und frühen 1940er Jahren entstanden dementsprechend vor allem Unterhaltungsfilme („Die Feuerzangenbowle“, 1944), Durchhalte- und Propagandafilme („Jud Süß“, 1940; Filme zum Thema Friedrich der Große, regelmäßig mit Otto Gebühr). Offensive NS-Propaganda – vgl. z. B. den Pseudodokumentarfilm „Der ewige Jude“ – wurde dabei zugunsten glamouröser und erstmals auch farbiger UFA-Zerstreuung an die Seite gedrängt: Vom meist tristen Alltag im totalitären Deutschland, später auch vom Schrecken des „totalen Krieges“ konnten sich die Zuschauer so ablenken. Nebenbei propagierten viele Unterhaltungsstreifen auch Werte wie Schicksalsergebenheit und das Führerprinzip. 1942 bis 1944, auf dem Höhepunkt des Bombenkrieges, wurden in den etwa 7000 Kinos des "Großdeutschen Reichs" einschließlich Österreichs und später besetzter Gebiete jährliche Zuschauerzahlen von über einer Milliarde erreicht.
Es gab aber durchaus Werke, welche nicht ganz dem NS-Menschenbild und der Ideologie der Machthaber entsprachen, siehe „Viktor und Viktoria“ (1933), „Der Maulkorb“ (1938) und die Filme von Helmut Käutner und Curt Goetz. Auch die „Soundtracks“ vieler Musikfilme waren beschwingter, als es die Vorstellung der Nationalsozialisten über völkische Folklore eigentlich erlaubte (vgl. Peter Kreuder und andere). Mutige Filmschaffende waren aber immer auch von Repression und Zensur bedroht. Meist war offizielle Zensur jedoch unnötig; so hatte die Filmindustrie sich schon 1933 in quasi vorauseilendem Gehorsam mit der Produktion des Propagandafilms „Hitlerjunge Quex“ der NS-Bewegung angedient. 1934 wurde die Präventivzensur von Filmen bzw. Drehbüchern, eingeführt, 1936 die Filmkritik endgültig verboten.
Mitte 1936 übertrug auch ein Gesetz zur „Vorführung ausländischer Filme im Deutschen Reich“ dem NS-Propagandaministerium die alleinige Entscheidungsbefugnis über die Vorführungszulassung. Deutsche Revue-, Musical- und Spielfilme mussten nach der Einführungsbeschränkung auch den Mangel an ausländischen, vor allem amerikanischen Filmen ausgleichen. Ab 1937 stand die Filmindustrie gänzlich unter staatlicher Kontrolle. Die Produktion von Unterhaltungsware wurde von der NS-Führung zu einem Staatsziel erklärt.
Die dem Kinofilm vom Regime zugemessene Wichtigkeit wurde auch durch die Aufrechterhaltung von aufwändigen Filmprojekten – z. B. Herstellung eines deutschen Langfilms in Farbe noch 1943 – und Großproduktionen praktisch bis zum Kriegsende deutlich (vgl. „Kolberg“). Technisch innovatives und gleichzeitig politisch fatales leistete Leni Riefenstahl mit ihren Reichsparteitags- und Olympia-Dokumentationen sowohl für den Dokumentar-, als auch für den Sportfilm (1936–1938). Die Werke zeichneten sich durch die verführerische Massenästhetik des Totalitarismus aus.
1945–1990: Film in einem geteilten Land.
Nachkriegszeit und Besatzung.
Nach dem Zweiten Weltkrieg änderten sich die ökonomischen Rahmenbedingungen der Filmproduktion, denn die Alliierten beschlagnahmten und kontrollierten das Vermögen der Dachgesellschaft UFA-Film. Sie verfügten im Rahmen der in den ersten Nachkriegsjahren verfolgten Politik der Dekartellierung der deutschen Wirtschaft, dass sie ihre Produktionstätigkeit einstellt. Um eine erneute ökonomische Konzentration in der Filmindustrie zu verhindern, erteilten sie in den folgenden Jahren Produktionslizenzen an eine Vielzahl von mittleren und kleinen Firmen. Im Rahmen des am 21. August 1949 in Kraft getretenen Besatzungsstatuts legten die Alliierten unter anderem fest, dass die Bundesrepublik keine Importbeschränkungen für ausländische Filme festsetzen darf, um ihre eigene Filmwirtschaft gegen Konkurrenz aus dem Ausland zu schützen. Diese Bestimmung geht auf eine intensive Lobbyarbeit der amerikanischen MPAA zurück. Denn die großen Hollywood-Studios gerieten in dieser Zeit durch das aufkommende Fernsehen selbst in Bedrängnis und waren auf Einnahmen aus dem Exportgeschäft dringend angewiesen. Diese besatzungsrechtlichen Regelungen wurde auch in den folgenden Jahren durch bilaterale Verträge zwischen den USA und der Bundesrepublik Deutschland fortgeschrieben.
Als Bestandteil der Reeducation bekamen viele Deutschen erstmals schockierende Filmbilder der NS-Konzentrationslager zu sehen. Andererseits waren jetzt auch ausländische Spielfilme wieder in Deutschland zugänglich. Besonders beliebt bei den Zuschauern waren Filme mit Charlie Chaplin und US-Melodramen. Dennoch war der Anteil amerikanischer Filme in der unmittelbaren Nachkriegszeit und den 50er Jahren noch vergleichsweise gering: Der Marktanteil der deutschen Filme lag in dieser Zeit bei 40 %, während die mit doppelt so viel Filmen in Verleih sich befindenden amerikanischen Filme nur auf einen Marktanteil von 30 % kamen. Dies änderte sich erst in den 1960er Jahren (vgl. Schneider: Film, Fernsehen & Co., S. 35, 42 und 44).
Die meisten deutschen Filme der unmittelbaren Nachkriegszeit werden als Trümmerfilme bezeichnet und beschäftigten sich mit dem Leben im weitgehend zerstörten Nachkriegsdeutschland und mit der Vergangenheitsbewältigung. Sie waren stark vom italienischen Neorealismus beeinflusst und häufig dokumentarisch orientiert. Der erste deutsche Nachkriegsfilm war Wolfgang Staudtes Film „Die Mörder sind unter uns“ aus dem Jahr 1946. Ein weiterer bekannter Trümmerfilm war „Liebe 47“ (1949, Regie: Wolfgang Liebeneiner) nach dem Drama „Draußen vor der Tür“ von Wolfgang Borchert. Der italienische Regisseur Roberto Rossellini drehte im Jahr 1946 im zerbombten Berlin den Film „Deutschland im Jahre Null“ an Originalschauplätzen und mit Laiendarstellern.
Westdeutscher Film in den 1950er-Jahren.
Nach dem kurzen Intermezzo des „Trümmerfilms“ setzte man in den 1950er Jahren in Westdeutschland wieder vorwiegend auf Unterhaltung, besonders auf den Heimatfilm, den Schlagerfilm und auf Kriegsfilme. Weitere typische Genres der Zeit waren Operetten- und Arztfilme sowie Gesellschaftskomödien.
Der Erfolg deutscher "Heimatfilme" begann mit dem ersten deutschen Nachkriegsfarbfilm „Schwarzwaldmädel“ (1950), nach der gleichnamigen Operette von August Neidhart und Leon Jessel. Regie führte Hans Deppe. Sonja Ziemann und Rudolf Prack stellten das Traumpaar dieses Films dar. Weitere erfolgreiche Heimatfilme waren „Grün ist die Heide“ (1951), ebenfalls von Hans Deppe, „Wenn die Abendglocken läuten“ (1951) von Alfred Braun, „Am Brunnen vor dem Tore“ (1952) von Hans Wolff, „Der Förster vom Silberwald“ (1954) von Alfons Stummer, „Das Schweigen im Walde“ (1955) von Helmut Weiss und „Das Mädchen vom Moorhof“ (1958) von Gustav Ucicky. Insgesamt wurden in den 1950er Jahren mehr als 300 Filme dieses Genres gedreht. Für den Erfolg des Heimatfilms steht unter anderem die Filmverleiherin Ilse Kubaschewski, die als Grande Dame des deutschen Nachkriegsfilmes gilt. 1949 gegründete sie den Gloria Filmverleih. Verleihunternehmen waren kapitalstark und in den Nachkriegsjahren essentiell für die Finanzierung von Filmen. Ilse Kubaschewski stieg innerhalb weniger Jahre zu einer der bedeutendsten Persönlichkeiten im deutschen Filmgeschäft auf. „Grün ist die Heide“ war für sie der Durchbruch"." Charakteristisch für Heimatfilme der 1950er Jahre waren eine melodramatische Handlung, die meistens eine Liebesgeschichte beinhaltete, sowie komische oder tragische Verwechslungen. Häufig gab es Musikeinlagen. Die Handlung spielte in abgelegenen, aber spektakulären und durch den Zweiten Weltkrieg unzerstörten Landschaften wie dem Schwarzwald, den Alpen oder der Lüneburger Heide. Es werden insbesondere konservative Werte wie Ehe und Familie betont. Frauen werden meistens nur als Hausfrau und Mutter positiv dargestellt. Die Obrigkeit darf nicht in Frage gestellt werden, und Heiraten waren nur innerhalb derselben sozialen Gruppe möglich.
Viele Heimatfilme dieser Zeit waren Neuverfilmungen alter UFA-Produktionen, die nun allerdings weitgehend von der Blut-und-Boden-Schwere der Vorbilder aus der NS-Zeit befreit waren. Der Heimatfilm, von der seriösen Kritik lange ignoriert, wird seit einigen Jahren auch zwecks Analyse früher westdeutscher Befindlichkeiten ernsthaft untersucht.
Mit der Wiederbewaffnung Westdeutschlands 1955 setzte auch eine populäre Kriegsfilmwelle ein. Beispiele waren "08/15" (1954) von Paul May nach dem gleichnamigen Roman von Hans Hellmut Kirst, "Canaris" (1954) von Alfred Weidenmann und "Der Arzt von Stalingrad" (1958) von Géza von Radványi nach einem Roman von Heinz G. Konsalik. Die problematischen Streifen zeigten den deutschen Soldaten des Zweiten Weltkrieges als tapferen, unpolitischen Kämpfer, der eigentlich immer schon "dagegen" gewesen war. Ansonsten erschöpfte sich die "Vergangenheitsbewältigung" weitgehend in einigen Filmen zum militärischen Widerstand gegen Hitler. Hier wäre besonders der Film "Der 20. Juli" (1955) von Regisseur Falk Harnack zu nennen, der während der Zeit des Nationalsozialismus selbst als Widerstandskämpfer tätig war und der Gruppe der Weißen Rose zuzurechnen ist.
Das dritte wichtige Genre im westdeutschen Kino der 1950er Jahre war der Schlagerfilm, wie etwa „Liebe, Tanz und 1000 Schlager“ (1954) von Paul Martin, „Peter schießt den Vogel ab“ (1959) von Géza von Radványi oder „Wenn die Conny mit dem Peter“ (1958) von Fritz Umgelter, letzterer eine biedere Antwort der deutschen Filmindustrie auf die amerikanische Jugendkultur und die dortigen Rock-’n’-Roll-Filme. In diesen Filmen war die Handlung wenig ausgearbeitet, sie diente nur als Rahmen für Gesangsauftritte. Meistens ging es um Liebe oder Klamauk. Schlagerfilme blieben in Westdeutschland noch bis in die 1970er Jahre erfolgreich.
Fernsehen (ab 1954) und verpasster Anschluss an neue Filmtrends führten zur Krise des westdeutschen Kinos, auch wenn es durchaus einzelne Qualitätsfilme wie etwa Bernhard Wickis „Die Brücke“ (1959) und kontroverse Produktionen wie „Die Sünderin“ (1951, mit Hildegard Knef) gab. Ungewöhnlich für die damalige Zeit war auch der Film „Mädchen in Uniform“ (1958) von Géza von Radványi mit Romy Schneider als Schülerin eines Internats, die sich in ihre Klassenlehrerin verliebt, allerdings ein Remake des gleichnamigen Films von 1931. Aus den Reihen der Heimatfilmdarsteller ging mit Romy Schneider ein späterer Weltstar hervor. Für den Oscar als bester fremdsprachiger Film war unter anderem "Der Hauptmann von Köpenick" (1956) von Helmut Käutner nominiert.
Von der internationalen Bedeutung her konnte sich die westdeutsche Filmindustrie nicht mehr mit der französischen, italienischen oder japanischen messen. Deutsche Filme wurden im Ausland als provinziell wahrgenommen und Verkäufe an andere Länder waren eher selten. Koproduktionen mit ausländischen Partnern, die in dieser Zeit etwa zwischen italienischen und französischen Firmen schon üblich waren, wurden von den deutschen Produzenten meistens abgelehnt.
In den 1950er Jahren erlebte das deutsche Kino trotz allem eine (Schein)blüte, auch als „Kinowunder“ bezeichnet. Sowohl die Zahl der gezeigten Produktionen als auch die Anzahl der Kinobesuche und der Leinwände stieg in der Zeit von 1946 bis 1956 rapide an. In diesem Jahr erreichten die bundesrepublikanischen Zuschauerzahlen mit 817 Millionen Kinobesuchern ihren Zenit.
Im Sommer 2016 unternahm das Deutsche Filminstitut in einer von Olaf Möller kuratierten Retrospektive unter dem Titel "Geliebt und verdrängt" auf dem Internationalen Filmfestival in Locarno eine Neubewertung des westdeutschen Films von 1949 bis 1963. Begleitend zur Retrospektive erschien im Verlag des Filmmuseum ein von dessen Leiterin, Claudia Dillmann, und Olaf Möller herausgegebener Band mit dem Titel: Geliebt und verdrängt. Das Kino der jungen Bundesrepublik Deutschland von 1949 bis 1963.
Ostdeutscher Film.
Der ostdeutsche Film konnte zunächst davon profitieren, dass die Infrastruktur der alten UFA-Filmstudios im nun sowjetisch besetzten Teil Deutschlands (Gebiet der späteren DDR) lag. Die Spielfilmproduktion kam daher schneller in Gang als in den Westsektoren.
Grundsätzlich verband die Filmschaffenden und die Kulturpolitiker der DDR, bei allen sonstigen Differenzen und Reibungspunkten, das antifaschistische Engagement und die Überzeugung, für das „bessere Deutschland“ zu arbeiten. Allerdings war dabei „vielen 'führenden' Antifaschisten zugleich auch der Stalinismus in Fleisch und Blut übergegangen.“ (Ralf Schenk)
In der DDR entstanden unter Regisseuren wie beispielsweise Wolfgang Staudte einige bemerkenswerte Filme (unter anderem „Der Untertan“ nach Heinrich Mann, 1951). Staudte ging später nach Westdeutschland.
Von der Produktion heroischer Personenkultfilme wie denen der „Ernst Thälmann“-Serie (ab 1954) nahm man später Abstand.
Weitere bekannte Filme des halbstaatlichen ostdeutschen DEFA-Monopolbetriebs waren etwa „Der geteilte Himmel“ (1964, nach Christa Wolfs gleichnamigem Roman), „Die Legende von Paul und Paula“ (1973), „Solo Sunny“ (1978), „Jakob der Lügner“ (1975, nach Jurek Becker). Produktionen, die sich kritisch mit dem DDR-Alltag beschäftigten, wurden von der Parteiführung mitunter aus dem Verleih genommen – vergleiche die „Spur der Steine“ von 1966. Dieses Werk gehörte zu jener fast kompletten DEFA-Jahresproduktion von Gegenwartsfilmen, die in einem rabiaten Kahlschlag nach dem 11. Plenum des ZK der SED im Dezember 1965 verboten wurde.
Bekannte ostdeutsche Regisseure waren beispielsweise Frank Beyer, Konrad Wolf und Egon Günther. Nach 1976 verließen auch zahlreiche bekannte Filmschauspieler die DDR, unter anderem Angelica Domröse, Eva-Maria Hagen, Katharina Thalbach, Hilmar Thate, Manfred Krug. Armin Mueller-Stahl konnte seine Karriere gar in Hollywood fortsetzen.
Da die DDR in den 1980er Jahren auch zahlreiche Filme aus dem Westen in ihr Verleihsystem nahm, reduzierte sich die Rolle der DEFA immer stärker.
Während ihres Bestehens produzierte die DEFA neben TV-Filmen und – teils sehr guten – Dokumentarfilmen (Volker Koepp, Barbara und Winfried Junge und andere) insgesamt ungefähr 750 abendfüllende Spielfilme fürs Kino. Ähnlich wie andere Filmnationen Osteuropas – hier ist z. B. die Tschechoslowakei zu nennen – hatte das Kino der DDR auch besondere Stärken beim Kinderfilm. Der Jugendfilm Sieben Sommersprossen (1978), Regie Herrmann Zschoche, war mit 1,2 Millionen Zuschauern eine der erfolgreichsten DEFA-Produktionen überhaupt.
Die Kinokrise und die „Altbranche“.
Am Ende der fünfziger Jahre wuchs die Unzufriedenheit mit der bundesdeutschen Filmproduktion. Bundesinnenminister Gerhard Schröder (CDU) kritisierte 1958 bei der Verleihung des Deutschen Filmpreises die „Misere des deutschen Filmschaffens“ und befand: „Unsere Hoffnungen wurden leider enttäuscht“. Das Feuilleton übte immer heftiger Kritik. 1961 erschienen zwei intensiv diskutierte und folgenreiche Beiträge, die ein vernichtendes Urteil über das deutsche Filmschaffen fällten: "Der deutsche Film kann gar nicht besser sein" von Joe Hembus und "Kunst oder Kasse" von Walther Schmieding. Im Zuge der Verbreitung von Fernsehgeräten in privaten Haushalten stagnierten die jahrelang angestiegenen Filmbesucherzahlen nun und wurden dann rückläufig. Besonders in den 1960er Jahren ging der Kinobesuch rapide zurück. Wurden im Jahr 1959 noch 670,8 Mio. Besucher gezählt, waren es im Jahr 1969 nur noch 172,2 Mio. Zahlreiche Kinos mussten in dieser Zeit schließen, man sprach vom „Kinosterben“. Als Reaktion drosselten die deutschen Hersteller den Ausstoß von Filmen. Wurden im Jahr 1955 noch 123 deutsche Filme produziert, so waren es im Jahr 1965 nur 56.
Als Folge dieses rapiden Besucherrückgangs gingen eine Reihe von Produktions- und Verleihfirmen bankrott, weil deren Produkte nun nicht mehr die Herstellungskosten erwirtschafteten und deshalb die Banken schließlich weitere Kredite und Bürgschaften verweigerten. Der spektakulärste Fall war die Pleite der UFA AG im Jahr 1962. Die damals größte Produktionsgesellschaft Westdeutschlands ging 1964 an den Bertelsmann-Konzern über. Den österreichischen Film, inhaltlich, personell und wirtschaftlich eng mit dem deutschen Film verbunden, ereilte dasselbe Schicksal. Nach dem Untergang der Epoche des Unterhaltungsfilms und mit dem Aufrücken jüngerer Generationen begann der österreichische und deutsche Film ab den 60er Jahren zumindest inhaltlich zunehmend eigene Wege zu beschreiten.
Die Kinokrise hatte aber tiefer gehende Ursachen. Infolge des Wirtschaftswunders kam es zu einer deutlichen Steigerung des Durchschnittseinkommens der Bevölkerung. Damit nahmen auch die Möglichkeiten der Freizeitgestaltung zu und sie fokussierten sich nicht mehr auf den Kinobesuch. Zugleich wurde das Fernsehen zu einem Massenmedium: Während im Jahr 1953 nur 10.000 Fernsehempfänger registriert waren, stieg ihre Anzahl im Jahr 1962 auf 7 Mio. (vgl. Schneider: Film, Fernsehen & Co., S. 49 und Hoffmann: Am Ende Video – Video am Ende?, S. 69f).
Die meisten in den 1960er Jahren gedrehten bundesdeutschen Filme waren Genrewerke (Western-, Agenten-, Sexfilme). Es entstanden auch Filmreihen nach Autoren wie Karl May (Winnetou) und Edgar Wallace, später die sogenannten „Lümmelfilme“ über Schülerstreiche sowie die Reihe der Verfilmungen nach Johannes Mario Simmel. Die zentrale Produzentenpersönlichkeit hinter den Wallace- und Winnetou-Filmen war Horst Wendlandt.
Der erste bundesdeutsche Edgar-Wallace-Film war „Der Frosch mit der Maske“ (1958) von Harald Reinl. Später folgten unter anderem „Die Bande des Schreckens“ (1960) und „Der unheimliche Mönch“ (1965), bei dem Harald Reinl ebenfalls Regie führte, sowie „Der Zinker“ (1963), „Der Hexer“ (1964) und „Der Mönch mit der Peitsche“ (1967). Bei den letzten drei Filmen führte Alfred Vohrer Regie, der als klassischer Wallace-Regisseur gilt. In den insgesamt über 30 Filmen traten immer dieselben Schauspieler auf, die ganz bestimmte, klischeehaft überzeichnete Charaktere darstellten: die verführerische Karin Dor, der zwielichtige Klaus Kinski, die braven Kommissare Heinz Drache und Joachim Fuchsberger, der schrullige Eddi Arent, die undurchsichtige Elisabeth Flickenschildt etc.
Die Figuren entwickeln sich in den Filmen nicht weiter, Gut und Böse stehen sich unverrückbar gegenüber. Spannung wird (im Gegensatz zum Thriller) vor allem durch äußere Settings wie Nebelschwaden, Verliese, unheimliche Gänge, alte Herrenhäuser oder Käuzchenrufe hergestellt. Die Filme enthalten meistens auch eine gute Prise Humor sowie eine Liebesgeschichte.
Während die Wallace-Filme überwiegend heimische Schauspieler zeigten, schmückten sich die Karl-May-Filme mit ausländischen Hauptdarstellern. Beispiele für die Karl-May-Filme sind: „Der Schatz im Silbersee“ (1961), „Winnetou“ (1963), „Winnetou II“ (1964), „Winnetou III“ (1965); bei allen führte Harald Reinl Regie. Karl-May-Filme von Alfred Vohrer sind „Unter Geiern“ (1964) und „Old Surehand“ (1965) jeweils mit dem Engländer Stewart Granger als "Old Surehand". Den edlen Uramerikaner des westdeutschen Kinos gab der Franzose Pierre Brice, Old Shatterhand wurde von dem Amerikaner Lex Barker dargestellt. In den DEFA-Indianerfilmen der DDR spielte vor allem der Jugoslawe Gojko Mitić die Hauptrollen.
Die Filme waren standardisiert und billig zu produzieren. Dennoch dominierten sie nicht mehr die bundesdeutschen Kinos. Denn einheimische Unterhaltungsfilme, die in den 1950er Jahren noch sehr erfolgreich waren, wurden nun von vielen Kinogängern gemieden, die jetzt eher amerikanische Filme bevorzugten. Inzwischen hatte sich das Publikum so sehr an die technisch und inhaltlich aufwendigen Hollywoodproduktionen gewöhnt, dass Filme aus anderen Ländern meistens nur noch eine Chance hatten, wenn sie etwas zeigten, was den Hollywoodfilmen aufgrund der damals noch sehr strikten amerikanischen Zensurbestimmungen unmöglich war. Das heißt, diese Filme mussten entweder gewalttätiger oder sexueller sein als die üblichen Hollywoodfilme (vgl. Ungureit: Das Film-Fernseh-Abkommen, S. 87).
Als Beispiel für Filme, die in der damaligen Zeit als sehr gewalttätig galten, können einige Italowestern genannt werden. Sie waren häufig Koproduktionen, mit einer Beteiligung auch von deutschen Firmen. So wurde beispielsweise der Westernklassiker „Für ein paar Dollar mehr“ (1965) mit Beteiligung der deutschen Constantin Film gedreht und es spielte in ihm auch der Schauspieler Klaus Kinski mit.
In dieser Zeit entstanden auch Aufklärungsfilme von Oswalt Kolle und die zahlreichen Sexfilme der Report-Serien, beispielsweise der „“ (1970). Die Filme waren zwar ökonomisch wieder erfolgreich, wurden jedoch von der Filmkritik eher abgelehnt. Zu dieser Zeit befand sich das Ansehen der traditionellen deutschen Filmproduzenten („Altbranche“) auf seinem Tiefpunkt.
Der Neue Deutsche Film.
Der gesellschaftskritische „Neue Deutsche Film“ versuchte, sich von „Papas Kino“ – also dem Serienkino der 1950er und 1960er Jahre – abzuheben. Als dessen Geburtsstunde gilt das 1962 veröffentlichte "Oberhausener Manifest", in dem eine Gruppe junger Filmemacher den Anspruch erhob, von nun an ein radikal neues Kino zu machen. In dem Manifest heißt es: „Der Zusammenbruch des konventionellen deutschen Films entzieht einer von uns abgelehnten Geisteshaltung endlich den wirtschaftlichen Boden. Dadurch hat der neue Film die Chance, lebendig zu werden. […] Wir erklären unseren Anspruch, den neuen deutschen Spielfilm zu schaffen. Dieser neue Film braucht neue Freiheiten. Freiheit von den branchenüblichen Konventionen. Freiheit von der Beeinflussung durch kommerzielle Partner. Freiheit von der Bevormundung durch kommerzielle Interessengruppen. Wir haben von der Produktion des neuen deutschen Films konkrete geistige, formale und wirtschaftliche Vorstellungen. Wir sind gemeinsam bereit, wirtschaftliche Risiken zu tragen. Der alte Film ist tot. Wir glauben an den neuen.“ Das Manifest wurde unter anderem von Haro Senft, Alexander Kluge, Edgar Reitz, Peter Schamoni und Franz Josef Spieker unterzeichnet. Als zweite Generation stießen später noch Volker Schlöndorff, Werner Herzog, Jean-Marie Straub, Wim Wenders und Rainer Werner Fassbinder zu dieser Gruppe.
Die Mitglieder der Gruppe verstanden sich als Autorenfilmer und hatten den Anspruch, alle künstlerischen Tätigkeiten einer Filmproduktion wie Regie, Kameraarbeit und Schnitt zu kontrollieren. Ein Film wurde vor allem als ein individuelles Kunstwerk des jeweiligen Regisseurs verstanden. Insbesondere kommerziell motivierte Eingriffe der Produzenten oder Produktionsfirmen wurden vehement abgelehnt. Die „ästhetische Linke“ (Enno Patalas) des neuen Films kann sogar als eine Art Vorläufer und Anregerin der Studentenbewegung der 1960er Jahre gelten. Im Jahr 1965 wurde das "Kuratorium Junger Deutscher Film" zur direkten Förderung neuer Talente gegründet. Einflüsse waren der italienische Neorealismus, die französische Neue Welle und das britische Free Cinema. Eklektisch wurden auch Traditionen des Hollywood-Kinos mit seinen wohletablierten Genres aufgegriffen und zitiert.
Die jungen deutschen Regisseure hatten kaum Chancen, in der kommerziellen deutschen Filmproduktion zu arbeiten. Stattdessen bot sich das Fernsehen als Partner an. Insbesondere Sendeplätze wie „Das kleine Fernsehspiel“ oder „Tatort“ boten auch Nachwuchstalenten Möglichkeiten zur Erprobung ihres Könnens. Allerdings verlangten die Sender früher eine Fernsehpremiere des von ihnen vollständig oder zum großen Teil finanzierten Films: So wurde Schlöndorffs Film „Der plötzliche Reichtum der armen Leute von Kombach“ im Jahr 1971 zuerst im Fernsehen ausgestrahlt, bevor er in die Kinos kam.
Diese Situation änderte sich mit dem 1974 zwischen der ARD, dem ZDF und der Filmförderungsanstalt geschlossenen "Film-Fernseh-Abkommen". Es erweiterte insbesondere die materiellen Möglichkeiten für den Neuen Deutschen Film erheblich. Dieses Abkommen, das bis heute immer wieder verlängert wurde, sieht vor, dass die Fernsehanstalten pro Jahr eine bestimmte Geldsumme zur Verfügung stellen, mit der Filme gefördert werden, die sowohl zum Kinoabspiel als auch zur Fernsehausstrahlung geeignet sind. Das Gesamtvolumen der Zahlungen der öffentlich-rechtlichen Rundfunkanstalten schwankt zwischen 4,5 und 12,94 Mio. Euro pro Jahr. Das Film-Fernseh-Abkommen legt fest, dass die Kinoauswertung 24 Monate betragen sollte und die Filme erst danach auch im Fernsehen gezeigt werden dürfen. Die Video- bzw. DVD-Auswertung darf erst 6 Monate nach der Kinopremiere erfolgen. Durch diese Bestimmungen bekamen deutsche Spielfilme insbesondere des Neuen Deutschen Films die Chance, auch an der Kinokasse erfolgreich zu sein, bevor sie im Fernsehen ausgestrahlt wurden (vgl. Blaney: Symbiosis or Confrontation?, S. 204f).
Mit der neuen Bewegung gewann der deutsche Film erstmals seit den 1920er und frühen 1930er Jahren wieder etwas internationale Bedeutung. In erster Linie in Kritikerkreisen und weniger beim Publikumszuspruch. Die folgenden Werke werden besonders häufig als typisch für den Neuen Deutschen Film betrachtet: „Abschied von gestern“ (1966) gilt als der künstlerische Durchbruch der neuen Generation. Er erhielt auf internationalen Festivals zahlreiche Preise und erzählt die Geschichte der Anita G., einer deutschen Jüdin, geboren 1937, die in der Zeit des Nationalsozialismus vom Schulbesuch ausgeschlossen wurde, sich auch in der DDR nicht zurechtfand und 1957 in den Westen kommt. Der Film „Es“ (1966) von Ulrich Schamoni behandelt das Thema Abtreibung und die Beziehungskrise eines jungen Paares. Er griff damalige Tabuthemen auf. „Zur Sache, Schätzchen“ (1968) von May Spils ist eine unterhaltsame Komödie über mehrere Jugendliche aus Schwabing. Er erlangte Kultstatus, weil er sich als einer der ersten Filme mit dem Lebensgefühl junger Menschen zur Zeit der 68er-Bewegung auseinandersetzte.
„Jagdszenen aus Niederbayern“ (1969) von Peter Fleischmann ist ein „progressiver Heimatfilm“. Er beschreibt die Diskriminierung eines Homosexuellen in einem fiktiven bayrischen Dorf. Der Film "Nicht der Homosexuelle ist pervers, sondern die Situation, in der er lebt" (1971) von Rosa von Praunheim war der Auslöser für die moderne Lesben- und Schwulenbewegung in Deutschland und löste viele Kontroversen aus. In dem Film „Die verlorene Ehre der Katharina Blum“ (1975) wird die Terrorismus-Hysterie der 1970er-Jahre und die Rolle der Massenmedien thematisiert. Der Film gewann zahlreiche Preise und war auch kommerziell erfolgreich. Weitere wichtige Filme waren „Die Angst des Tormanns beim Elfmeter“ (1972) und „Paris, Texas“ (1984), beide von Wim Wenders und „Aguirre, der Zorn Gottes“ (1972) von Werner Herzog. Dieser Film beschäftigt sich mit der Suche der Spanier nach dem sagenhaften Eldorado. Klaus Kinski spielte die Hauptrolle, den größenwahnsinnigen Konquistador Don Lope de Aguirre.
Rainer Werner Fassbinder gilt als der wichtigste deutsche Autorenfilmer der 1970er Jahre. Er war stark vom Theater geprägt, für das er selbst einige Stücke geschrieben hat. Fassbinder schilderte häufig unglückliche Liebesbeziehungen, die an den repressiven und vorurteilsbehafteten Verhältnissen scheitern. Er betrieb mit dem Engagement von Stars der deutschen Kinotradition auch eine Versöhnung von neuem und altem deutschen Film. Seine bedeutendsten Filme waren „Händler der vier Jahreszeiten“, 1971 gleichzeitig im Kino und Fernsehen gezeigt, „Angst essen Seele auf“ (1974) und „Die Ehe der Maria Braun“ (1979). Im Jahr 1977 produzierte er zusammen mit anderen Regisseuren die Film-Collage Deutschland im Herbst.
Literarische Vorlagen des neuen deutschen Films lieferten vielfach die Werke Heinrich Bölls und Günter Grass’ (vgl. etwa Die verlorene Ehre der Katharina Blum und Die Blechtrommel aus dem Jahr 1979). In Zusammenhang mit dem neuen deutschen Film entwickelte sich ebenfalls der feministische Film, vertreten beispielsweise von den Regisseurinnen Helma Sanders-Brahms, Helke Sander und Margarethe von Trotta.
Eine künstlerisch, teilweise auch politisch engagierte, jedoch dem Massenpublikum eher unbekannte Underground- oder Avantgardefilmszene entwickelte sich ebenfalls im Lande. Hier seien nur die früh in Deutschland drehenden Straub und Huillet (aus Frankreich), später Werner Nekes, Heinz Emigholz und Harun Farocki genannt.
Großproduktionen.
Nachdem der neue (west-)deutsche Film manche seiner Ziele durchsetzen konnte (Etablierung der staatlichen Filmförderung, Oscar 1980 für Die Blechtrommel und andere) zeigte er gegen Ende der 1970er- bzw. am Anfang der 1980er-Jahre Ermüdungserscheinungen, wenn auch Protagonisten wie Werner Herzog, Werner Schroeter, Volker Schlöndorff, Edgar Reitz oder Wim Wenders weiterhin erfolgreich produzierten.
Insbesondere der Deutsche Herbst im Jahr 1977 bewirkte ein Ende der gesellschaftlichen Aufbruchstimmung, die vorher die 1970er-Jahre prägte. Auch viele Regisseure des neuen deutschen Films hatten den Anspruch, in ihren Filmen die gesellschaftliche Wirklichkeit abzubilden und kritisch zu hinterfragen. Sie gerieten damit wie andere Linksintellektuelle pauschal unter Terrorismusverdacht. Diese gesellschaftliche Entwicklung führte auch dazu, dass die Vergabegremien und Fernsehanstalten kaum noch außergewöhnliche bzw. inhaltlich oder ästhetisch radikale Projekte bewilligten. Als von allen akzeptierbarer Kompromiss dominierten in dieser Zeit Literaturverfilmungen, die etwas abfällig als „Studienratskino“ bezeichnet werden. Beispiele hierfür sind etwa die Filme wie Grete Minde (1980) von Heidi Genée nach Theodor Fontane, "Mädchenkrieg" (1977) von Bernhard Sinkel / Alf Brustellin nach Manfred Bieler, "Heinrich" (1977) von Helma Sanders-Brahms nach Briefen von Heinrich von Kleist und Belcanto (1977) von Robert van Ackeren, nach Thomas Mann.
Eine neue Generation von Produzenten und Regisseuren versuchte in den 1980er-Jahren aus dieser Konstellation auszubrechen und Kinofilme auf eine andere Art und Weise zu produzieren. Insbesondere in den Münchner Bavariastudios entstanden Großproduktionen wie „Das Boot“, „Die unendliche Geschichte“ oder „Der Name der Rose“. Solche Produktionen wurden oft in Englisch gedreht und auf internationale Verkaufbarkeit zugeschnitten. Dies zeigte sich beispielsweise in der Auswahl der Schauspieler und der Regisseure. Diese Filme waren häufig Koproduktionen mit Gesellschaften im europäischen Ausland. Als Produzent dieser Art von Filmen tat sich v. a. Bernd Eichinger hervor.
Beispiele für solche Großprojekte in den 1980er Jahren sind Berlin Alexanderplatz, (1980, Serie, Regie: Rainer Werner Fassbinder), Das Boot, (1981, Kinofilm und Serie, Regie: Wolfgang Petersen), Fitzcarraldo (1982, Regie: Werner Herzog), Die unendliche Geschichte (1984, Regie: Wolfgang Petersen), Momo (1985, Regie: Johannes Schaaf) und Der Name der Rose (1986, Regie: Jean-Jacques Annaud).
Einen Wendepunkt für den deutschen Autorenfilm bewirkte Herbert Achternbuschs Werk "Das Gespenst" aus dem Jahr 1982. Dieser Film war aufgrund einer vom Bundesinnenministerium in Höhe von 300.000 DM zugesagten Prämie produziert worden. Nach Protesten strich der neue Bundesinnenminister Friedrich Zimmermann die noch ausstehende Summe von 75.000 DM. Zimmermann setzte danach wesentliche Änderungen für die Vergabe der Bundesfilmpreise durch. Unter anderem sollte das Preisgeld für das nächste Projekt nur noch 30 % der gesamten Produktionskosten ausmachen. In der Bundestagssitzung vom 24. Oktober 1983 erklärte Zimmermann, er werde keine Filme finanzieren, die außer dem Produzenten niemand sehen wolle. Für den deutschen Autorenfilm hatte diese Maßnahme schwerwiegende Folgen, da künftig kaum ein Filmemacher in der Lage war, die restlichen 70 % einer Produktion vorzufinanzieren oder gar einzuspielen.
Es wurde versucht, andere Finanzierungsquellen für Filme zu finden, um damit vom Einfluss des Fernsehens und der Fördergremien unabhängiger zu werden. Die wichtigsten Finanzierungsquellen waren der (möglichst) weltweite Vorabverkauf der Kino-, Fernseh- und Videorechte. Gremien und Fernsehsender haben auch zu diesen Filmen Gelder beigesteuert, allerdings waren ihr Anteil geringer, als es in den 1970er Jahren üblich war. Ein Beispiel hierfür ist die Finanzierung des Films „Das Boot“. Die Anteile der Gelder von öffentlich-rechtlichen Institutionen macht hier zusammen nur 23 % der Gesamtkosten aus.
Weitere Kassenschlager in den 1980er-Jahren waren die Otto-Filme (ab 1985) und das Roadmovie „Theo gegen den Rest der Welt“ (1980). Der kontrovers diskutierte Film „Christiane F. – Wir Kinder vom Bahnhof Zoo“ (1981) spielt im Milieu der minderjährigen Heroin-Abhängigen, die ihre Sucht durch Prostitution finanzieren.
Der Weg in Richtung auf eine Kommerzialisierung und Internationalisierung des bundesdeutschen Films wurde dadurch geebnet, dass der neue deutsche Film schon in den 1970er Jahren auch international – zumindest künstlerisch – erfolgreich war. Insbesondere der Film „Das Boot“, aber auch einige andere dieser Großfilme waren ökonomisch durchaus erfolgreich. Allerdings konnten sie die bundesdeutsche Kinolandschaft nicht grundsätzlich umgestalten. Die letzten dieser Großfilme „Die Katze“ (1988, Regie Dominik Graf) und „Die Sieger“ (1994, Regie: Dominik Graf), waren kommerzielle Misserfolge.
Die Ursachen für das Scheitern dieser Strategie sind vielfältig und unter anderem darin zu sehen, dass diese Filme letztendlich doch nicht mit den immer aufwendigeren Hollywoodproduktionen mithalten konnten. Deshalb konnten sie die Präferenzen des an amerikanische Großproduktionen gewöhnten Publikums auch nicht dauerhaft verändern.
In den 1980er Jahren gingen die Besucherzahlen abermals deutlich zurück und zahlreiche Kinos mussten schließen. Es kam zu einer Umstrukturierung der Medienlandschaft, die die Stellung des Kinos zunächst weiter schwächte. Denn das Filmangebot wurde für die Bevölkerung durch die jetzt gegründeten privaten Fernsehsender und das damals neue Medium Video erheblich erweitert. In der Folge teilten viele Kinobesitzer ihre großen Säle in mehrere kleine Kinos auf. Diese wurden als Schachtelkinos bezeichnet. Das hatte den Vorteil, dass mehrere Filme auf einmal gezeigt und so auch mehr Zuschauer angelockt werden konnten.
1984 waren im Rahmen des Ludwigshafener Kabelpilotprojektes erstmals private Sender, also damals RTL+ und Sat.1, in der BRD zu empfangen. In den ersten Jahren ihres Bestehens machten Spielfilme einen großen Anteil ihres Programms aus, sie wurden insbesondere zur Hauptsendezeit ausgestrahlt. Um Zuschauerverlusten vorzubeugen, zeigten zu Beginn der 1980er Jahre auch die öffentlich-rechtlichen Fernsehanstalten ARD und ZDF deutlich mehr Spielfilme als vorher. Ab 1985 reduzierten sie ihre Ausstrahlung von Spielfilmen aufgrund des massiven Drucks von Privatsendern, Kinobesitzern und konservativen Politikern wieder (vgl. Karstens / Schütte 1999).
In den 1980er Jahren wurde auch der Videorecorder zu einem Massenkonsumgut. Die Konsumenten waren nicht mehr auf das starre Programmraster von Fernsehen und Kino angewiesen. Zudem standen ihnen als Kauf- oder Leihvideos viel mehr Filme zur Verfügung, als aktuell im Kino bzw. Fernsehen ausgestrahlt wurden. Jetzt waren auf einmal auch Genres verfügbar, wie Splatter- oder Pornofilm, die in der BRD bisher nicht oder nur selten zu sehen waren (vgl. Zielinski 1994). Die darauffolgende politische Debatte über Gewalt in den Medien führte zu verschärftem Jugendschutz in Videotheken und Fernsehen. Dennoch verließ insbesondere der Pornofilm seine Nischenexistenz. Über 20 Prozent aller Deutschen, darunter vor allem Männer bis zum 30. Lebensjahr, konsumieren regelmäßig Werke dieses Genres.
1990–heute: Anfänge des gesamtdeutschen Films.
Aufbruch und Stagnation zugleich.
In den 1990er Jahren nahm erstmals seit langem der Kinobesuch in Deutschland wieder zu. Die Statistik wurde durch das neue Zuschauerpotential auf dem Territorium der ehemaligen DDR begünstigt. Hinzu kam ein Boom durch zahlreiche, neueröffnete Multiplex-Kinos, die im Unterschied zu den Schachtelkinos der 1980er Jahre großen Wert auf breite Leinwände und mittels Raumklangverfahren auf hohe Tonqualität gelegt haben. Während die amerikanischen Filme in den 1990er Jahren immer aufwendiger hergestellt wurden und sie dementsprechende Schauwerte zu bieten hatten, kam es bei den bundesdeutschen Filmen nicht zu einer vergleichbaren Entwicklung. Deshalb blieb der Erfolg der deutschen Filme an der Kinokasse alles in allem begrenzt. Die überwiegende Mehrheit der Zuschauer bevorzugte US-amerikanische Spielfilme. Im Fernsehprogramm wurden deutlich weniger Spielfilme ausgestrahlt, als noch in den 1980er Jahren. Die öffentlich-rechtlichen Sender hatten wegen des faktischen Filmhandelsmonopols von Leo Kirch kaum noch Zugang zu attraktiven amerikanischen Spielfilmen. Die Privatsender investierten im Rahmen des Film-Fernseh-Abkommens für Filmproduktionen mehr in eigenproduzierte Formate. Zahlreiche neue Talente nutzen die „Privaten“ als Sprungbrett zum Film. Die sich neu etablierenden privaten Musiksender verhalfen der Produktion von deutschen Musikvideos zu einem Aufschwung.
Am Beginn der 1990er Jahre kam es zu einem Boom deutscher Beziehungskomödien. Ein Vorläufer dieser Welle war der Film „Männer“ (1985, Regie: Doris Dörrie). Filme wie beispielsweise „Allein unter Frauen“ (1991), „Abgeschminkt!“ (1993, Regie: Katja von Garnier), „Der bewegte Mann“ (1994, Regie: Sönke Wortmann) oder „Stadtgespräch“ (1995, Regie: Rainer Kaufmann) waren sehr erfolgreich. Besonders die Schauspielerin Katja Riemann war in vielen dieser Beziehungskomödien zu sehen. Ein weiterer Filmemacher der neuen Generation ist Detlev Buck. In seiner Komödie „Wir können auch anders…“ (1993) behandelt er auf satirische Weise Probleme der Wiedervereinigung der Bundesrepublik und der DDR. Seine bisher erfolgreichste Komödie war aber „Karniggels“ (1991).
Neben den Komödien entstanden in den 1990er Jahren auch eine Reihe von Filmen, die – in der Tradition des neuen deutschen Films – versuchten, die gesellschaftliche Realität zu reflektieren. Beispiele für solche Filme sind: „Winterschläfer“ (1997, Regie Tom Tykwer), „Das Leben ist eine Baustelle“ (1997, Regie: Wolfgang Becker) und „Der Krieger und die Kaiserin“ (2000). Die meisten dieser Filme waren allerdings kommerziell nicht besonders erfolgreich. Daneben wurden in den 1990er-Jahren in Deutschland auch Genrefilme gedreht, beispielsweise „Lola rennt“ (1998, Regie: Tom Tykwer), „Bandits“ (1997, Regie: Katja von Garnier) oder der Horrorfilm „Anatomie“ (2000, Regie: Stefan Ruzowitzky).
Die morbiden Splatterkunstfilme des Jörg Buttgereit wurden in der einschlägigen Szene international bekannt. Etwas abseits des Mainstreams befinden sich auch die Filme von Helge Schneider. Seine Werke, wie auch der mit dem Europäischen Filmpreis ausgezeichnete Dokumentarfilm Buena Vista Social Club (1999, Regie: Wim Wenders), werden in erster Linie in Programmkinos gezeigt.
Ende der 1990er Jahre veränderten zudem erstmals vermehrt Filmemacher mit Migrationshintergrund die Filmlandschaft. Das Deutsch-türkische Kino entstand. Ihr häufig transnationaler Ansatz leistete einen bedeutenden Beitrag. Als ungewöhnlicher Regisseur zwischen Dokumentar- und Spielfilm erwies sich Romuald Karmakar.
Die deutschen Regisseure Wolfgang Petersen und Roland Emmerich konnten sich nach ihren einheimischen Erfolgen in den USA etablieren. Mit Filmen wie Independence Day (1996) oder In the Line of Fire – Die zweite Chance (1993) erreichten sie ein globales Publikum. Der Filmkomponist Hans Zimmer ist seit den 1990er Jahren ebenfalls einer der erfolgreichsten Künstler in den Vereinigten Staaten. Seine Kompositionen für mehr als 100 weltweit erfolgreicher Filme gelten als stilprägend.
Defizite und Erfolge.
Die Bedingungen für die Filmbranche im 21. Jahrhundert haben sich verändert. Die Digitale Revolution führte zum Aufkommen von Tausch-Netzwerken im Internet in denen aktuelle Filme illegal verbreitet werden konnten. Die für den Kinobesuch relevante junge Zielgruppe ging infolge demographischer Entwicklungen zurück. Computerspiele und Freizeitaktivitäten im Internet wurden eine Konkurrenz. Positiv hingegen verlief der Verkauf und die Vermietung von Videokassetten und später DVDs. Der Kinoumsatz lag im Jahr 2005 bei 745 Mio. Euro, der Videogesamtmarktumsatz bei 1,686 Mrd. Euro. Die Verbreitung großer Flachbildschirme, und verbesserter Tonanlagen für das private Heimkino beschleunigte den Trend. Streaming-Dienste für Filme konnten zurückgegangene Umsätze an der Kinokasse wieder ausgleichen. Die Folgen neuer technischer Möglichkeiten im Bereich der Filmproduktion durch Camcorder und Videoschnittprogramme am Computer ermöglichte es mehr Menschen als zuvor, selbst Filme zu drehen.
Die Präsenz deutscher Filmproduktionen innerhalb Deutschlands blieb seit dem Jahr 2000 trotz verbesserter Marktanteile sehr begrenzt. Außerhalb von Deutschland war der Publikumserfolg deutscher Filme wie in den Jahrzehnten zuvor äußerst gering. 2003 wurde die Deutsche Filmakademie gegründet, 2007 konnte der Deutsche Filmförderfonds und 2015 der German Motion Picture Fund eingerichtet werden.
Caroline Links Literaturverfilmung „Nirgendwo in Afrika“ wurde 2003 mit dem Oscar für den besten fremdsprachigen Film ausgezeichnet. Für Oliver Hirschbiegels „Der Untergang“ wurde 2005 und für „Sophie Scholl – Die letzten Tage“ (Regie: Marc Rothemund), im Jahr 2006 eine Nominierung ausgesprochen. Ein Jahr später konnte Florian Henckel von Donnersmarcks Film „Das Leben der Anderen“ einen Oscar nach Deutschland holen. „Das weiße Band“ (2009) von Regisseur Michael Haneke gewann die Goldene Palme der Filmfestspiele von Cannes.
Ansonsten setzen sich viele Filmtrends aus den 1990er-Jahren fort. Beim deutschsprachigen Kinopublikum erfolgreich waren in den Jahren nach der Jahrtausendwende Komödien mit dem Schauspieler und Regisseur Til Schweiger, von Matthias Schweighöfer, oder Filmparodien wie beispielsweise Michael Herbigs „Der Schuh des Manitu“ (2001) und „(T)Raumschiff Surprise – Periode 1“ (2004), die Zuschauerzahlen im zweistelligen Millionenbereich anziehen konnten. Wolfgang Beckers Komödie „Good Bye, Lenin!“ (2003) war ebenfalls ein großer Erfolg an den Kinokassen und wurde gleichzeitig mit dem Deutschen Filmpreis und Europäischen Filmpreis bedacht. Der Film „Das Wunder von Bern“ (2003), Regie: Sönke Wortmann, über Deutschlands unerwarteten Titelgewinn bei der Fußball-Weltmeisterschaft 1954 war mit über 3 Millionen Zuschauern ein bemerkenswerter kommerzieller Erfolg. Ebenso wie die Genrefilme „Das Experiment“ (2001) oder „Who Am I – Kein System ist sicher“ (2014).
Fatih Akin mit seinen international ausgezeichneten Dramen „Gegen die Wand“ (2004) und „Auf der anderen Seite“ (2007) sowie andere Regisseure thematisierten Verwerfungen und Konflikte der multikulturellen Gesellschaft. Der mit 2,4 Millionen Zuschauern erfolgreiche und in den Medien intensiv diskutierte Film „Der Baader-Meinhof-Komplex“ (2008), Regie Uli Edel, setzt sich mit der Geschichte der RAF bis zum Deutschen Herbst 1977 auseinander. Produzent war Bernd Eichinger.
Bedeutende internationale Koproduktionen mit deutscher Beteiligung waren u. a. „The International“ (2009) und „Das Parfum – Die Geschichte eines Mörders“ (2006). „Cloud Atlas“ (2012) galt zum Zeitpunkt der Veröffentlichung als die teuerste heimische Filmproduktion. Viele dieser Großproduktionen werden seit der Jahrhundertwende in oder durch das Studio Babelsberg realisiert. Babelsberg und das in der Nachbarschaft liegende Berlin konnten sich auch vermehrt als Standort für US-Produktionen wie die „Die Bourne-Filmreihe“, „Cloud Atlas“ (2012), „Bridge of Spies – Der Unterhändler“ (2015) oder Ein verborgenes Leben (2019) etablieren.
In den letzten Jahren wurden verstärkt Fantasie- und Märchenfilme mit hohem Budget und viel Aufwand produziert. Verfilmungen von Märchen und Kinderbüchern wie „Krabat“ (2008), „Hexe Lili“ (2009), „Das kalte Herz“ (2016) und die beiden Realverfilmungen von Michael Endes „Jim Knopf und Lukas der Lokomotivführer“ (2018) und „Jim Knopf und die Wilde 13“ (2020) sind hierfür Beispiele, von denen die letzt genannten auch in Babelsberg entstanden.
Wim Wenders konnte mit der Tanzfilm-Dokumentation „Pina“ (2011) gefilmt in 3D, technisch wie künstlerisch, Neuland betreten.
Durch eine Vielzahl an bedeutenden Auszeichnungen erfolgreiche Filme der letzten Jahre sind u. a. „Gundermann“ (2018) von Andreas Dresen, „Der Junge muss an die frische Luft“ (2018) von Caroline Link, „Werk ohne Autor“ (2018) von Florian Henckel von Donnersmarck, „Systemsprenger“ (2019) von Nora Fingscheidt und „Undine“ (2020) von Christian Petzold.
Als international konkurrenzfähig hat sich zudem die deutsche Werbebranche mit ihren Filmen erwiesen. Bei dem Cannes Lions International Festival of Creativity konnte Deutschland in der Nationenwertung 2011 den dritten Platz belegen. Die Verbreitung besonders populärer Werbefilme geschieht zunehmend über soziale Medien und Internetforen aller Art.
Bedeutung.
Der deutsche Film konnte nach 1933 nicht mehr an seine international ausstrahlende Kinotradition anknüpfen. Die Gründe für den Bedeutungsverlust, der bis zur Gegenwart nicht aufgeholt werden konnte sind zahlreich. Zum einen musste nach 1945 ein starker Verlust an kreativem Talent hingenommen werden. Zum anderen führten die langandauernde geschichtliche Bewältigung des Zweiten Weltkriegs und die Teilung Deutschlands zu einem Abbruch vieler Filmtraditionen. Eine Ablehnung regionaler, nationaler oder gar europäischer Identität ging mit dieser Entwicklung einher. Die staatlich gestützte (westdeutsche) Kulturförderung zog sich weitgehend aus der zum Leitmedium des 20. Jahrhunderts aufgestiegenen Kunstform Film zurück. Man verließ sich in der Nachfolgezeit insbesondere auf Filmimporte aus den Vereinigten Staaten.
Im Jahr 2010 beliefen sich die staatlichen Gesamtausgaben für subventionierte Kultureinrichtungen auf etwa 9,5 Mrd. Euro. Die Filmförderung auf Länderebene und Bundesebene zusammengenommen verzeichnete 2013 Ausgaben von etwa 250 Millionen Euro. Angesichts der finanziellen Ausstattung nimmt der Film demnach als Kunstform in Deutschland bis heute eine sehr untergeordnete Rolle ein. Auf privatwirtschaftlicher Ebene konnte sich, bis auf Ausnahmen, nur eine im nationalen Kontext selbsttragende Filmbranche entwickeln. Eine dem Aufkommen der privaten Fernsehsender während der 1980er Jahre vergleichbare Entwicklung war innerhalb der Filmbranche nur zu einem sehr geringen Maße zu beobachten.
Die unterdurchschnittliche materielle Ausstattung und die jahrzehntelange fehlende Wertschätzung des Films als Kunstform zog u. a. eine geringe Talentdichte nach sich. Ein Starsystem beispielsweise, also die Herausbildung einer Vielzahl international anerkannter Schauspielerpersönlichkeiten, ist bis heute nicht zu beobachten. Populäres, an den Kinokassen erfolgreiches Genrekino, wie etwa im Action-, Abenteuer- oder Sciencefiction Bereich, konnte nach der Blütezeit in den 1920er Jahren nicht wieder aufgebaut werden. Selbst ein nach künstlerischen Maßstäben profiliertes Autorenkino, das zuletzt in den 1970er Jahren für Aufmerksamkeit in Kritikerkreisen sorgte, fand in den Jahrzehnten nach 1990 keine Fortsetzung.
Im medialen Diskurs gehen verschiedene Autoren auf die Ursachen zu weiteren strukturellen Defiziten ein. Im Fokus der Kritik stehen hier u. a. die sowohl personell als auch inhaltlich eher regional ausgerichteten Fernsehsender, die als Fördergeldgeber über Filmprojekte mitentscheiden. Für die geringe Präsenz des deutschen Films auf dem heimischen Markt (20–25 % Marktanteil) und die Erfolglosigkeit beim internationalen Publikum werden auch Schwächen bei der Anwendung technischer Möglichkeiten und unzureichende emotionale Zuschauerbindung genannt. Die fehlende Ausrichtung auf publikumswirksame, identitätsstiftende und zeitgemäße Drehbücher werden als weitere Gründe für den geringen Stellenwert der hiesigen Filmproduktion angeführt. |
1000 | 3495232 | https://de.wikipedia.org/wiki?curid=1000 | David Fincher | David Andrew Leo Fincher (* 28. August 1962 in Denver, Colorado) ist ein US-amerikanischer Filmregisseur, Filmproduzent und Schauspieler. Zu seinen bekanntesten Filmen zählen "Alien 3" (1992), "Sieben" (1995), "Fight Club" (1999), "The Social Network" (2010) und "Gone Girl" (2014).
Biografie.
David Fincher wurde am 28. August 1962 (anderen Angaben zufolge am 10. Mai 1962) als Sohn des Reporters Jack Fincher geboren. Sein Vater arbeitete unter anderem für das Magazin "Life" und seine Mutter Claire war in einer Klinik zur Rehabilitation von Drogenabhängigen beschäftigt. Als Kind zog er mit seiner Familie ins kalifornische Marin County. Früh hegte er den Wunsch, später als Filmregisseur zu arbeiten. Inspiriert durch George Roy Hills Western-Komödie "Zwei Banditen" (1969) begann er bereits als Achtjähriger eigene Filme mit einer 8-mm-Filmkamera im heimischen Garten aufzunehmen. Ebenfalls sollte er durch George Lucas’ Science-Fiction-Film "Das Imperium schlägt zurück" (1980) beeinflusst werden. Er besuchte auch die Dreharbeiten zu Lucas’ "American Graffiti" (1973), der in Marin County gedreht wurde. Als Schüler besuchte er die "Ashland High School" in Ashland (Oregon). Dort arbeitete er nebenbei als Filmvorführer und sah so die gesamte Filmproduktion dieser Jahre bis zu 180-mal. Samstags arbeitete er bei einem lokalen Fernsehsender als Produktionsassistent.
Der Autodidakt Fincher, der nie eine Filmhochschule besuchte, erlernte das Handwerk ab dem achtzehnten Lebensjahr bei der Trickfilm-Firma "Korty Films" in Mill Valley, Kalifornien. Er profitierte davon, dass George Lucas ein direkter Nachbar seines Elternhauses war, so dass er von 1981 bis 1983 bei George Lucas’ Spezialeffekte-Firma Industrial Light & Magic (ILM) arbeiten konnte, wo er als Trickfilmzeichner begann. Nach der Mitarbeit an Projekten wie Lucas’ "Die Rückkehr der Jedi-Ritter" (1983) oder Steven Spielbergs Abenteuerfilm "Indiana Jones und der Tempel des Todes" (1984) gründete Fincher 1986 – zusammen mit späteren Hollywood-Regisseuren wie Mark Romanek, Michel Gondry, Neil LaBute und Michael Bay – die Produktionsfirma "Propaganda Films". Der Amerikaner drehte in dieser Zeit unter anderem Musikvideos für Künstler wie Michael Jackson, Madonna, George Michael, Aerosmith oder die Rolling Stones. Zusätzlich produzierte Fincher beginnend mit seinem „rauchenden Fötus“ (1984, American Cancer Society) Werbefilme. Zu seinen Kunden zählten unter anderem Adidas, AT&T, Budweiser, Chanel, Coca-Cola, Heineken, Levi’s, Nike und Pepsi.
1992 gab Fincher mit "Alien 3" sein Debüt als Spielfilmregisseur. Der Film erhielt jedoch keine guten Kritiken, und er blieb kommerziell etwas unter den hohen Erwartungen (1,5 Mio. Besucher in Deutschland und inflationsbereinigt 86 Mio. US-Dollar in den Vereinigten Staaten). Verständlich wurde dieser Fehlschlag jedoch einige Jahre später, als die katastrophalen Produktionsbedingungen des Films bekannt gemacht wurden: Während Fincher den Film bereits drehte, wurde gleichzeitig noch am Drehbuch gearbeitet.
Sein Thriller "Sieben" (1995) konnte drei Jahre später jedoch die Kritiker überzeugen und wurde zudem ein großer Erfolg an den Kinokassen. Das Werk, in dem Morgan Freeman und Brad Pitt einen Psychopathen (gespielt von Kevin Spacey) jagen, der eine Serie krankhafter Morde nach der Reihenfolge der sieben Todsünden begeht, war prägend für die Definition des modernen Thrillers (Neo-Thriller). An den vorangegangenen Erfolg konnte Fincher mit dem Thriller "The Game" (1997) anknüpfen, in dem ein egoistischer Wirtschaftsboss (Michael Douglas) durch seinen Bruder (Sean Penn) zum unfreiwilligen Teilnehmer in einem lebensbedrohlichen Spiel wird.
Das darauf folgende Werk "Fight Club" (1999) mit Edward Norton und Brad Pitt in den Hauptrollen konnte zwar die Kritiker, aber nicht an den Kinokassen überzeugen und avancierte erst nach seiner Video- und DVD-Auswertung zum Kultfilm. Mit Pitt arbeitete Fincher auch 2008 beim Drama "Der seltsame Fall des Benjamin Button" zusammen, der auf der gleichnamigen Kurzgeschichte von F. Scott Fitzgerald basiert und ihm seine ersten Nominierungen als Regisseur für den Golden Globe Award und Oscar einbrachten. Dazwischen entstanden die Thriller "Panic Room" (2002) und "Zodiac – Die Spur des Killers" (2007), bei denen Fincher mit so bekannten Akteuren wie Robert Downey Jr., Jodie Foster, Jake Gyllenhaal und Forest Whitaker zusammenarbeitete. Letztgenannter Film erzählt die Geschichte des gleichnamigen Serienmörders, der Ende der 1960er Jahre in der San Francisco Bay Area für Angst und Schrecken sorgte.
Mit dem Projekt "The Social Network", das im Februar 2010 abgedreht wurde und im Oktober 2010 in die Kinos kam, nahm sich Fincher der Entstehungsgeschichte des sozialen Netzwerkes Facebook an. Die Hauptrolle des Facebook-Gründers Mark Zuckerberg übernahm Jesse Eisenberg. Das "„komplexe Geflecht aus Rückblenden, Perspektivwechseln, Anekdoten und Abschweifungen, dessen gewagtes Tempo eine sogartige Wirkung entfaltet“" stand trotz Kritik am Wahrheitsgehalt der Geschichte in der Gunst von Publikum und Kritikern. "„Hollywoods Parforce-Kunsthandwerker“" wurden daraufhin zahlreiche Auszeichnungen zuteil, darunter die Regiepreise der Filmkritikervereinigungen von Los Angeles und New York, der National Board of Review Award, der National Society of Film Critics Award, der Golden Globe Award sowie eine Oscar-Nominierung.
Die Veröffentlichung des ersten Teils der Millennium-Trilogie "Verblendung" erfolgte im Dezember 2011. Fincher öffnete sich neuen Medien und schuf als Executive Producer für Netflix die Online-Serie House of Cards von 2013. Neben der Produktion führte er in zwei Episoden Regie und war für das Marketing der Serie verantwortlich. Im Jahr 2014 kam Finchers Verfilmung des Romans "Gone Girl – Das perfekte Opfer" von Gillian Flynn ins Kino. Er thematisiert die Beziehungsebene einer Ehe anhand des plötzlichen Verschwindens einer Frau (gespielt von Rosamund Pike) und des aufkommenden Verdachts gegenüber ihrem Ehemann (Ben Affleck).
2020 ist auf Netflix sein Film "Mank" erschienen. Das Filmdrama handelt von der wahren Geschichte des alkoholkranken Drehbuchautors Herman J. Mankiewicz, welcher zusammen mit Orson Welles das Drehbuch zu "Citizen Kane" geschrieben hat. Das Drehbuch zu "Mank" schrieb Finchers Vater Howard, die Hauptrolle übernimmt der Oscar-Preisträger Gary Oldman. In weiteren Rollen sind u. a. Amanda Seyfried, Lily Collins, Charles Dance und Tom Burke zu sehen. 2021 wurde "Mank" für sechs Golden Globes nominiert, darunter für die "Beste Regie" sowie eine posthume Nominierung seines Vaters für das "Beste Drehbuch". Bei der Oscarverleihung 2021 führte "Mank" das Favoritenfeld mit zehn Nominierungen an, darunter für den "Besten Film" und die "Beste Regie", gewann jedoch nur in den Kategorien "Beste Kamera" und "Bestes Szenenbild".
Im November 2023 soll seine Comicverfilmung "The Killer" mit Michael Fassbender in der Titelrolle vom Streaminganbieter Netflix veröffentlicht werden.
Fincher dreht seit "Zodiac" (2007) seine Filme mit digitalen Kinokameras. In der Filmbranche gilt das „Wunderkind“ als Perfektionist. So ließ Fincher unter anderem den achtminütigen Anfangsdialog zu "The Social Network" mit Jesse Eisenberg und Rooney Mara 99 Mal drehen.
David Fincher war von 1990 bis 1995 mit Donya Fiorentino verheiratet. Er ist Vater einer Tochter.
Auszeichnungen (Auswahl).
Fincher wurde – vor allem für seine Werke als Regisseur – mehrmals mit Preisen ausgezeichnet und über 100-mal nominiert. Er gewann einen Golden Globe, einen BAFTA Award, einen Grammy, einen César und einen Emmy und war dreimal für den Oscar nominiert.
Oscar
Golden Globe Award
BAFTA Award
Emmy
César
Internationale Filmfestspiele von Cannes
MTV Video Music Awards
Saturn Award |
1001 | 234826506 | https://de.wikipedia.org/wiki?curid=1001 | Welt am Draht | Welt am Draht ist ein zweiteiliger Fernsehfilm von Rainer Werner Fassbinder aus dem Jahr 1973. Vorlage ist der 1964 erschienene Science-Fiction-Roman "Simulacron-3" von Daniel F. Galouye.
Handlung.
Teil 1.
Die Handlung spielt in einer alternativen Gegenwart der 1970er Jahre. Am „Institut für Kybernetik und Zukunftsforschung (IKZ)“ wurde ein Supercomputer namens Simulacron-1 entwickelt, der imstande ist, eine Kleinstadt zu simulieren. Diese Simulation läuft rund um die Uhr und wird von „Identitätseinheiten“ bevölkert, die in etwa dasselbe Leben führen wie normal lebende Menschen und ein Bewusstsein besitzen. Außer einer einzigen „Kontakteinheit“ weiß keiner der simulierten Menschen, dass ihre Welt eine Simulation bzw. ein Simulakrum ist.
Fred Stiller wird zum neuen Technischen Direktor des Instituts befördert, nachdem sein Vorgänger, Professor Henry Vollmer, unter ungeklärten Umständen ums Leben kam. Zuvor hatte dieser gegenüber seinem Mitarbeiter, dem Sicherheitschef Günther Lause, noch angedeutet, eine „ungeheure Entdeckung“ gemacht zu haben. Einige Tage später, auf einer Party von Stillers Vorgesetztem Herbert Siskins, verschwindet Lause wie vom Erdboden verschluckt, unmittelbar, bevor er mit Stiller darüber sprechen wollte, was Vollmer vor seinem Tod ihm gegenüber noch gesagt hat. Die Polizei wird eingeschaltet, Lause bleibt jedoch verschwunden. Stiller vermutet, dass mit Vollmers Tod etwas nicht stimmte und Lauses Verschwinden damit zu tun hat. Er muss jedoch feststellen, dass jeder, dem gegenüber er Lause erwähnt, sich nicht an diesen erinnern kann. Auch in den Personaldatenbanken des Instituts ist der Name nicht verzeichnet – offiziell hat Lause nie existiert. Sicherheitschef des Instituts ist zudem seit Jahren ein Mann namens Hans Edelkern.
Während Stiller weitere Nachforschungen anstellt, ereignen sich innerhalb der Computersimulation seltsame Dinge: Eine der Identitätseinheiten mit dem Namen Christopher Nobody wollte Selbstmord begehen und wird daraufhin von Stillers Mitarbeiter Fritz Walfang aus der Simulation gelöscht. Stiller begibt sich selbst mittels einer „Kontaktschaltung“ in die künstliche Welt, um dort mit der Kontakteinheit namens Einstein Kontakt aufzunehmen. Von dieser erfährt er, dass Nobody zur Erkenntnis gelangt war, nicht wirklich zu existieren und seitdem seelisch schwer unter dieser Erkenntnis litt. Als sich später Walfang erneut in die Simulationswelt einklinkt, gelingt es Einstein, sein Bewusstsein mit dem von Walfang auszutauschen und so in die wirkliche Welt zu gelangen. Stiller bemerkt dies jedoch und kann ihn überwältigen. Einstein meint, dass er es geschafft habe, auf die nächste Stufe zu gelangen und noch höher gelangen möchte. Auf Stillers Einwand, dass er bereits in der Realität angelangt sei, meint dieser lachend, dass auch Stillers Welt nichts anderes als eine von vielen virtuellen Welten ist.
Teil 2.
Einstein wird wieder in seine simulierte Welt zurückgeschickt und Walfang zurückgeholt. Während sich am Institut die politischen Auseinandersetzungen über die Nutzung der Forschungsergebnisse zuspitzen – Siskins will das System der Industrie zur Verfügung stellen – geht Stiller langsam dem Wahnsinn entgegen. Er spürt, dass auch er, wie sein Vorgänger Vollmer und dessen Mitarbeiter Lause, ausgeschaltet werden soll. Begleitet von einer zarten Affäre mit Eva Vollmer, der Tochter des ehemaligen Technischen Direktors, glaubt Stiller immer mehr, dass Einstein Recht mit seiner Behauptung hatte und auch seine eigene Welt nicht die wirkliche Welt ist, sondern eine bereits sehr weit fortgeschrittene Simulation, die von einer höheren Ebene aus programmiert wurde. Aufgrund seiner eigenen Erfahrung geht er davon aus, dass es auch in seiner Welt eine Kontakteinheit wie Einstein geben muss und überlegt sich, welche Person aus seinem Umfeld diese Funktion ausfüllen könnte.
Aufgrund seines Verhaltens, das immer mehr dem von Vollmer vor dessen Tod gleicht, wird Stiller von seinen Kollegen für verrückt erklärt und beurlaubt. Stiller versucht weiterhin, Beweise für seine Vermutung zu finden. Mit Hilfe eines Journalisten, der sehr an den Verbindungen des IKZ mit der Stahlindustrie interessiert ist, gelingt es ihm schließlich, einen Beweis zu finden: In der Zeitung war damals ein Artikel über das Verschwinden von Lause abgedruckt, welcher nun durch einen anderen ersetzt worden ist. Ein im Ausland befindliches Exemplar der Zeitung enthält jedoch nach wie vor den ursprünglichen Artikel, der sich mit Stillers Erinnerung deckt. Er findet heraus, dass der Betriebspsychologe des IKZ heimlich vertrauliche Informationen an die Presse weiterleitet. Als dieser den Zeitungsartikel sieht, kann er sich plötzlich wieder an Lause erinnern und weiß, dass Stiller recht hat. Sie wollen gemeinsam der Sache auf den Grund gehen und die Kontakteinheit in dieser Welt ermitteln. Dabei wird Stillers neuer Gefährte jedoch Opfer eines Unfalls, stürzt mit seinem Wagen in das Wasser und ertrinkt.
Stiller wird nun polizeilich wegen möglichen Mords an seinem Kollegen und auch an Professor Vollmer gesucht und muss fliehen. Er sucht eine Blockhütte in einem Wald außerhalb der Stadt auf, wo ihn überraschend Eva, Vollmers Tochter, aufsucht. Diese verrät ihm schließlich, dass sie die Person ist, nach der er gesucht hat: Sie ist jedoch keine Kontakteinheit wie in dieser Welt, sondern die Projektion einer Eva aus der realen Welt und er selbst als Fred Stiller ein Wiedergänger seines Erschaffers, der ihn nach seinem Ebenbild ersonnen hat. Stiller wird von der Polizei erschossen; Eva, die sich in ihn verliebt hat und die Machenschaften des echten Fred Stillers beenden will, gelingt es jedoch, das Bewusstsein der beiden auszutauschen, wodurch Stiller nun in der realen Welt (oder lediglich der nächsthöheren virtuellen Ebene) auftaucht.
Hintergrund.
Der Film wurde zwischen Januar 1973 und März 1973 in 44 Drehtagen gedreht. Drehorte waren dabei Köln, München, Paris und Versailles.
Der Film hält sich vom Ablauf her eng an die Romanvorlage. Die Namen der Darsteller wurden jedoch eingedeutscht, so heißt Fred Stiller im Original etwa Douglas Hall oder Eva Vollmer Joan Fuller. Vollständig entfernt wurden die im Roman auftretenden Test-Interviewer, die durch Siskins Simulator ihren Arbeitsbereich – die Meinungsforschung – bedroht sehen. Auch fehlen im Film die futuristischen Elemente wie etwa fliegende Autos, durch die Stadt laufende Rollbänder oder Laserwaffen.
Die Romanvorlage "Simulacron-3" wurde 1999 erneut als "The 13th Floor – Bist du was du denkst?" verfilmt.
Kritiken.
Zahlreiche Kritiker loben den Film aufgrund seiner Ästhetik und seines Spiels mit der Realität. Die besondere Qualität des Ensembles und der Kameraführung wurden wiederholt hervorgehoben.
Bei der Verleihung des Adolf-Grimme-Preises 1974 erhielt Fassbinder für die Regie eine ehrende Anerkennung.
Veröffentlichung.
Der Zweiteiler wurde am 14. Oktober 1973 (Teil 1) und am 16. Oktober 1973 (Teil 2) im Fernsehen von der ARD ausgestrahlt. Er wurde selten wiederholt und war bis zur Restauration auch nicht auf käuflichen Medien verfügbar.
Im Rahmen der Berlinale 2010 hatte eine restaurierte Fassung in der Reihe "Berlinale Special" am 14. Februar 2010 ihre Welturaufführung. Die künstlerische Leitung der Restaurierung hatte Michael Ballhaus, Kameramann der ursprünglichen Aufnahmen im Auftrag der Rainer Werner Fassbinder Foundation inne. Zu den Förderern zählten u. a. die Kulturstiftung des Bundes als auch das MoMA. Am 18. Februar 2010 wurde diese Fassung als Doppel-DVD innerhalb der „Arthaus Premium“-Reihe von Kinowelt/Arthaus veröffentlicht.
Am 6. Oktober 2010 erschien der Film in Frankreich beim Label Carlotta Films erstmals auf Blu-ray.
Am 8. Juni 2012 erfolgte erstmals seit 2002 eine Ausstrahlung im deutschen Fernsehen auf Arte. Dabei handelt es sich um beide Teile der restaurierten Fassung in nativem HD. |
1002 | 219498267 | https://de.wikipedia.org/wiki?curid=1002 | Differenz (Luhmann) | Differenz im Sinne der Systemtheorie ist ein epistemologischer Grundbegriff der soziologischen Systemtheorie von Niklas Luhmann. Er bezeichnet, dass etwas von etwas anderem unterschieden oder getrennt werden kann. Für Luhmann (1984) war beispielsweise die Unterscheidung eines Systems zu einem anderen bzw. zu seiner Umwelt relevant. Ferner differenziert er dazu zwischen Erwartungen und Entscheidungen – innerhalb eines bestimmten Systems bestehen Erwartungen an seine Systemmitglieder, in unterschiedlichen Systemen wird unterschiedlich an den Einzelnen erwartet und dessen Entscheidungen und Verhalten erfolgen dann in relationaler Abhängigkeit (in Zwischen-, evtl. auch in Gegenabhängigkeit zu jenen oder anderen Systemerwartungen).
Details.
Der Begriff „Differenz“ ist sehr abstrakt gefasst. Ihm liegt die Überzeugung zugrunde, dass die beispielsweise mit der Sprache bezeichneten Dinge nicht aus sich heraus eine Wesenhaftigkeit haben, die ihre Unterscheidbarkeit sicherstellt, sondern jede Unterscheidung muss in die Welt eingeführt werden. Es gibt keine feste Welt, die unabhängig von einem Beobachter ist, wie sie ist – sondern was es 'gibt', ist das, was Beobachter beobachten; das heißt, auf welche Weise Beobachter differenzieren. (Luhmann liest demnach den Beginn des ersten Schöpfungsberichtes der Genesis so, dass darin ausgedrückt wird, dass die Welt erst durch die erste Unterscheidung zwischen Tag und Nacht wird; der Mensch, der zu unterscheiden lernt – das Böse und das Gute –, wird aus dem Paradies vertrieben.) Luhmann beruft sich für diese Grundposition auf George Spencer-Brown und seine "distinction" (Unterscheidung), doch greift er auch gewisse Gesichtspunkte der Betrachtungen auf, die Jacques Derrida zum Ausdruck différance entwickelt.
Luhmanns Zuspitzung und Präzisierung des Konzeptes korrespondiert mit einer konstruktivistischen Beschreibung der Welt. Mit einer Differenz etabliert man gewissermaßen erst die Möglichkeit eines Zugriffs. So ist die Unterscheidbarkeit einer Blume durch nichts Wesenhaftes an ihr vorgegeben; es gibt nicht die Blume, deren Existenz sich als solche einem Beobachter aufdrängen kann; selbst die Tatsache, dass ein Mensch aus den Sinnesdaten letztlich eine Blume zu einem Objekt macht (und nicht etwa nur die Blüten oder die Blume von der Wiese nicht unterscheiden kann), ist keineswegs durch irgendetwas erzwungen. Es ist demnach auch nicht zu begründen und zu erklären, wie eine Differenz in die Welt kommt; sie emergiert.
Auch Differenz ist nur als Differenz, als Unterscheidung zwischen Differenz und Identität zu begreifen. Identität meint dabei im engeren Sinne, dass etwas von etwas anderem nicht unterschieden wird. Damit bezeichnet es auch das (zumindest kurzzeitige) Fixieren von etwas, um es weiteren Operationen zugänglich zu machen.
Differenz ist im Wesentlichen gleichwertig mit dem systemtheoretischen Begriff der Unterscheidung, doch akzentuiert "Unterscheidung" die Operation, während die Differenz die Getrenntheit oder Geschiedenheit selbst bezeichnet. Auf ähnliche Weise ist der Begriff mit der Medium-Form-Unterscheidung verknüpft. Eine Unterscheidung lässt sich auch auffassen als eine Verwendung einer Form im Sinne der Medium-Form-Unterscheidung; die Differenz ließe sich, wenn man sich eine Form wie George Spencer-Brown verbildlicht, als die Trennlinie auffassen.
Wichtige Differenzen für die soziologische Systemtheorie sind System/Umwelt, Erleben/Handeln, Aktualität/Möglichkeit (Sinn). |
1004 | 2318584 | https://de.wikipedia.org/wiki?curid=1004 | Delphi-Methode | Die Delphi-Methode (auch Delphi-Studie, Delphi-Verfahren oder Delphi-Befragung genannt) ist ein systematisches, mehrstufiges Befragungsverfahren mit Rückkopplung und ist eine Schätzmethode, die dazu dient, zukünftige Ereignisse, Trends, technische Entwicklungen und dergleichen möglichst gut einschätzen zu können.
Namensgeber der Methode ist das antike Orakel von Delphi, das seinen Zuhörern Ratschläge für die Zukunft erteilte.
Geschichte.
Die Delphi-Methode wurde – nach Vorarbeiten Ende der 1950er Jahre – von der amerikanischen RAND-Corporation 1963 entwickelt und wird seitdem häufig, wenn auch in variierter Form, für die Ermittlung von Prognosen/Trends sowie für andere Meinungsbildungen im Rahmen von Systemaufgaben angewendet. Mehr und mehr hat sich das Verfahren zu einem Bewertungsverfahren für Themen entwickelt, in dem festgestellt werden kann, ob es einen Konsens über das Thema gibt (bzw. ob dieser erreicht werden kann) oder nicht. In Deutschland war es in den 90er Jahren das damalige Bundesministerium für Forschung und Technologie (BMFT), das die ersten Delphi-Studien zur Entwicklung von Wissenschaft und Technik in Auftrag gab. Die Studien "Deutscher Delphi-Bericht zur Entwicklung von Wissenschaft und Technik" (1993) und "Delphi '98 Umfrage. Zukunft nachgefragt. Studie zur globalen Entwicklung von Wissenschaft und Technik" (1998) wurden vom Fraunhofer-Institut für System- und Innovationsforschung (ISI) durchgeführt.
Vorgehensweise.
Bei einer Delphi-Befragung wird einer Expertengruppe ein Fragen- oder Thesenkatalog des betreffenden Fachgebiets vorgelegt. Die Befragten haben in zwei oder mehr sogenannten "Runden" die Möglichkeit, die Thesen einzuschätzen. Ab der zweiten Runde wird Feedback gegeben, wie andere Experten geantwortet haben, in der Regel anonym. Auf diese Weise wird versucht, der üblichen Gruppendynamik mit sehr dominanten Personen entgegenzuwirken.
Die in der ersten Runde schriftlich erhaltenen Antworten, Schätzungen, Ergebnisse etc. werden daher aufgelistet und beispielsweise mithilfe einer speziellen Mittelwertbildung, Perzentilen oder Durchschnittswertberechnungen zusammengefasst und den Fachleuten anonymisiert erneut für eine weitere Diskussion, Klärung und Verfeinerung der Schätzungen vorgelegt. Dieser kontrollierte Prozess der Meinungsbildung erfolgt gewöhnlich über mehrere Stufen. Das Endergebnis ist eine aufbereitete Gruppenmeinung, die die Aussagen selbst und Angaben über die Bandbreite vorhandener Meinungen enthält.
Der Meinungsbildungsprozess enthält die Elemente: Generation, Korrektur beziehungsweise teilweise Anpassung oder Verfeinerung, Mittelwertbildung beziehungsweise Grenzwertbildung, oft auch offene Felder für Erläuterungen. Störende Einflüsse werden durch die Anonymisierung, den Zwang zur Schriftform und die Individualisierung eliminiert. Die Strategie der Delphi-Methode besteht aus: Konzentration auf das Wesentliche, mehrstufigem, teilweise rückgekoppeltem Editierprozess und sichereren, umfassenderen Aussagen durch Zulassen statistischer fuzzyartiger Ergebnisse. Ein Problem kann darin bestehen, dass die Experten ihre einmal geäußerte Meinung in den folgenden Runden trotz Anonymität nicht ändern. Der Zusatznutzen weiterer Runden wäre in diesem Fall begrenzt.
Als Ergänzung der Delphi-Methode kann zum Beispiel die Wechselwirkungsanalyse verwendet werden. Auch in der D2-Methode finden sich Elemente der Delphi-Methode wieder. Kombinationen mit Szenarien werden inzwischen ebenfalls häufiger durchgeführt. Aus Delphi-Ergebnissen lassen sich einfache Roadmaps ableiten, sodass auch diese Kombination sich zunehmender Beliebtheit erfreut. Man findet diverse Formen der Delphi-Methode, die das Verfahren der Schätzung etwas variieren: Die Standard- und die Breitband-Methode sind einige der Varianten. Inzwischen werden die meisten Verfahren elektronisch durchgeführt. Realtime-Delphi-Verfahren (mit einer sofortigen Rückkopplung der Ergebnisse) sind eine Variante, die nur elektronisch möglich ist.
In der Anwendung der Delphi-Methode sollte besonderes Augenmerk auf der Formulierung der Delphi-Thesen und der Definition und Auswahl der Experten liegen, da hier in der Praxis häufiger methodische Schwächen auffallen und die Ergebnisse in Frage stellen.
Beiderbeck et al. haben ausgehend von einer disziplinübergreifenden Analyse eine Methoden-Toolbox entwickelt, die klassische und innovative Design-Kriterien für Delphi-Studien illustriert. Neben der Analyse der Experten-Bewertungen an sich rücken in jüngster Zeit beispielsweise auch die Persönlichkeitsprofile der Teilnehmer in den Fokus. Mittels ergänzender Cross-Impact-Analysen können einzelne Delphi-Thesen und Ergebnisse in einen gemeinsamen systemischen Kontext und Wechselwirkungen berücksichtigt werden. Darüber hinaus bieten dreidimensionale Abbildungen von Szenarioclustern ein erweitertes Verständnis gesammelter Daten.
Standard-Delphi-Methode.
Bei der Standard-Delphi-Methode werden mehrere Experten zur Schätzung eines Projektes – oder zur Prognostizierung – herangezogen, die sich nicht untereinander abstimmen dürfen. Der Prozess sieht wie folgt aus:
Das Fehlen jeglicher Diskussionen hat zwei Aspekte, die ein Projektleiter bewerten muss: Einerseits wird damit verhindert, dass sich aufgrund einer ungewollten Gruppendynamik Strömungen und Tendenzen in den Meinungen herausbilden, die unter Umständen gute Schätzungen verhindern. Auf der anderen Seite könnten Gruppendiskussionen dazu beitragen, Defizite im Know-how einzelner Experten und die damit verbundenen Fehleinschätzungen zu vermeiden.
Häufig werden Delphi-Umfragen schriftlich und getrennt durchgeführt, die Fragebogen werden also den Experten per Brief oder Mail gesandt. Die einzelnen Experten sehen sich nie und wissen auch erst nach Abschluss aller Umfragerunden die Namen der anderen Befragten. Dieses Vorgehen ist zuverlässiger als das Versammeln aller Experten in einem Raum. Liegt der Schlussbericht einmal vor, werden in der Regel alle Experten und andere Interessierte zu einem Symposium eingeladen.
Breitband-Delphi-Methode.
Bei der Breitband-Delphi-Methode werden mehrere Experten zur Schätzung eines Projektes herangezogen, die sich untereinander abstimmen dürfen. Der Prozess sieht wie folgt aus:
Durch die Wechselwirkungen der Experten untereinander werden unterschiedliche Ansichten vermittelt, was eine Konsens-Bildung beschleunigt. Vorteil dieser Methode ist zum einen die Anonymität der Schätzungen: Die Experten werden nicht mit ihren gravierenden Abweichungen der Schätzungen konfrontiert und können damit die Schätzaufwände in ihrem Sinne beeinflussen. Starke Abweichungen von Mittelwerten werden offengelegt. Nachteil dieser Methode ist die Gefahr einer Meinungsbildung durch die Gruppendynamik, in der eine unter Umständen notwendige gravierende Schätzabweichung dem Gruppenzwang unterliegt. Ein weiterer Nachteil ist, dass aufgrund mehrerer Iterations-Schleifen für die Meinungsbildung der gesamte Schätzaufwand recht umfangreich werden kann. Die Breitband-Delphi-Methode ist eine sinnvolle Technik für das Schätzen von großen Projekten, in denen komplexe Architekturen durch eine große Expertenrunde mit Hilfe der Interaktion der Experten untereinander zu realistischen Werten führen kann.
Kritik.
Die Delphi-Methode versucht, durch das mehrstufige, manchmal auf Konsens angelegte Design, Fehleinschätzungen der Experten zu reduzieren. Dennoch lassen sich nicht alle Probleme der Expertenbefragung vermeiden; durch die Befragung mehrerer Personen entstehen weitere Einschränkungen.
Literatur.
Sekundärliteratur zur Delphi-Methode:
Delphi-Studien: |
1005 | 378558 | https://de.wikipedia.org/wiki?curid=1005 | Differenz | Differenz (von lateinisch "differentia" „Unterschied, Verschiedenheit“) steht für:
Siehe auch: |
1006 | 2234691 | https://de.wikipedia.org/wiki?curid=1006 | Distinktion | Distinktion () steht für:
Distinction (englisch ‚Auszeichnung’) steht für:
Siehe auch: |
1008 | 2131417 | https://de.wikipedia.org/wiki?curid=1008 | David Cronenberg | David Paul Cronenberg (* 15. März 1943 in Toronto, Ontario) ist ein kanadischer Filmregisseur, Drehbuchautor, Filmproduzent, Filmeditor und Schauspieler.
Während sein Frühwerk vor allem dem Body Horror, Experimental-, Horror- und Science-Fiction-Film zuzuordnen ist, liegt das Augenmerk in seinen späteren Arbeiten vornehmlich auf dem Filmdrama und der Literaturverfilmung. Zu seinen bekanntesten Werken zählen "Scanners – Ihre Gedanken können töten", "Videodrome", "Die Fliege", "Naked Lunch" und "A History of Violence".
Leben und Werk.
Privatleben.
Cronenberg wurde als Sohn einer Musikerin und eines Schriftstellers in Toronto geboren. Seine jüdischen Großeltern stammten alle aus Litauen. Er besuchte das North Toronto Collegiate Institute und schrieb sich 1963 zuerst im Bereich Naturwissenschaften an der University of Toronto ein. Später wechselte er in die Fachbereiche englische Sprache und Literatur und erwarb 1967 seinen Abschluss als „Bachelor of Arts“. Beeinflusst von William S. Burroughs und Vladimir Nabokov, versuchte er sich zunächst erfolglos als Autor. Erst die Sichtung eines von Kommilitonen gedrehten Films weckte in ihm den Wunsch, selbst Filmemacher zu werden.
Seine Schwester Denise Cronenberg war als Kostümdesignerin an einem Dutzend seiner Filme beteiligt.
Cronenbergs Sohn Brandon (* 1980) ist als Regisseur und Drehbuchautor tätig. Die Tochter Caitlin Cronenberg (* 1984) ist Fotografin und Artdirector.
Karriere.
Ab den späten 1960er Jahren begann Cronenberg seine ersten, experimentellen Kurz- und Langfilme zu drehen. Obwohl beeindruckt von Regisseuren wie Federico Fellini und Ingmar Bergman, verneinte er filmgeschichtliche Einflüsse auf sein Werk und verwies stattdessen wiederholt auf Burroughs, Nabokov sowie den Existentialismus. In den expliziten, Elemente des Horror- und Science-Fiction-Films einbindenden, Arbeiten "Parasiten-Mörder" (1975) und "Rabid – Der brüllende Tod" (1977) stand der physische Horror im Vordergrund. Mit "Die Brut" (1979), seinem „autobiografischsten“ Film, begann Cronenberg, psychologischen mit physischem Horror zu verbinden. "Die Brut" markierte auch die erste Zusammenarbeit mit dem Komponisten Howard Shore, der seitdem zu Cronenbergs festen Stamm von Mitarbeitern zählt, den der Regisseur im Laufe der Jahre um sich scharte, darunter Filmeditor Ronald Sanders, Produktionsdesignerin Carol Spier und Kameramann Mark Irwin, der 1988 durch Peter Suschitzky ersetzt wurde.
Seinen ersten größeren kommerziellen Erfolg verzeichnete Cronenberg mit "Scanners – Ihre Gedanken können töten" (1981), einen weiteren mit "Die Fliege" (1986), einem Remake des gleichnamigen Films von 1958. Mit "Die Unzertrennlichen" (1988), den er neben "Die Brut" und "Die Fliege" zu seinen persönlicheren Werken zählte, trat die extreme Darstellung körperlicher Deformationen in seinen Filmen zusehends in den Hintergrund. Inhaltlich verschob sich die Gewichtung vom Horror- und Science-Fiction-Genre hin zum Filmdrama, auch entstanden die nachfolgenden Arbeiten mehrheitlich nicht mehr nach seinen Originaldrehbüchern, sondern nach literarischen Vorlagen. "Naked Lunch" (1991) basierte auf einem Buch von Cronenbergs favorisiertem Literaten Burroughs und war die erste Zusammenarbeit mit dem namhaften Produzenten Jeremy Thomas.
2012 stellte er das Drama "Cosmopolis" vor, das auf dem gleichnamigen Roman von Don DeLillo basiert. Der Film brachte ihm seine vierte Einladung in den Wettbewerb der Internationalen Filmfestspiele von Cannes ein. 2014 veröffentlichte er seinen Roman "Verzehrt". 2018 war er Jurypräsident des Neuchâtel International Fantastic Film Festival.
Cronenberg drehte neben Kinofilmen auch Fernseh- und Werbefilme. Zusätzlich zu seiner Regiearbeit trat er schauspielerisch in kleinen Rollen und Cameos in Erscheinung, so 1990 in Clive Barkers "Cabal – Die Brut der Nacht".
Themen.
Cronenberg gilt als Mitbegründer des Body Horror (dt. "Körperhorror"), einer Stilrichtung des Horrorfilms, „dessen Hauptmotiv die deutlich gezeigte Zerstörung oder der Verfall eines menschlichen Körpers oder menschlicher Körper ist bzw. sind.“ Der Regisseur selbst lehnt diese Zuordnung ab.
Rüdiger Suchsland vom film-dienst sieht Cronenberg nach eher klassischen Horrorfilmen 2004 als „Meister des subtilen Horrors“ zwischen den Polen Angst, Gesellschaftskritik und Deformation des Körpers. Cronenberg auf Suchslands Frage nach seiner Weltsicht: „Die Basis ist eine existentialistische Sicht der Realität. Das bedeutet: Es gibt keine absolute Realität. Es gibt nur ein oder zwei Tatsachen über das Leben – die eine ist der Tod, eine weitere das Leben. Dazwischen müssen wir alles selbst erfinden und hervorbringen. Die Verantwortung dafür ist ganz und gar unsere eigene – niemand nimmt uns das ab. Es gibt keine Regeln, außer denen, die wir selbst erfinden. […] Das ist erschreckend und aufregend zugleich.“
David Cronenberg ist leidenschaftlicher Fan von Motorsport und Boxen. Sein Faible für den Motorsport ließ er in seine beiden Filme "The Italian Machine" von 1976 und "10.000 PS – Vollgasrausch im Grenzbereich" von 1979 einfließen. Ferner ist in diesem Zusammenhang der Teleporter als Kulisse in seinem Film "Die Fliege" optisch dem Zylinderkolben eines Motorrads des Modells Ducati 450 Desmo aus dem Besitz von Cronenberg nachempfunden.
Filmografie (Auswahl).
als Darsteller:
Auszeichnungen (Auswahl).
Zu den prämierten Cronenberg-Filmen zählen "Crash" (Cannes 1996) und "eXistenZ" (Berlinale 1999). Am 28. September 2007 erhielt Cronenberg im Rahmen des Filmfests Hamburg bei der Aufführung seines Werkes "Tödliche Versprechen – Eastern Promises" den Douglas Sirk Preis 2007 als Regisseur, „der konsequent grenzüberschreitende, irrationale, verstörende Filme dreht. Vom Publikum und von der Kritik teils bejubelt und teils verrissen, provoziert er eine gesunde Polemik, die dem Kino – wie allen Künsten – immer zugute kommt.“ (Leiter Albert Wiederspiel) |
1009 | 478129 | https://de.wikipedia.org/wiki?curid=1009 | David Lynch | David Keith Lynch (* 20. Januar 1946 in Missoula, Montana) ist ein US-amerikanischer Künstler, der als Filmregisseur, Filmproduzent, Drehbuchautor, Schauspieler, Maler, Fotograf, Lithograf, Bildhauer, Möbeldesigner und Komponist arbeitet.
Bekanntheit erlangte Lynch vor allem durch seine Filme, die sich den Genres surrealistischer Film, Thriller, Horrorfilm und Film noir zuordnen lassen. Lynchs albtraumhafte, surrealistische Bilder und das bedrohliche, minutiöse Sounddesign sind die bestimmenden stilistischen Elemente. Albträume, fremde Welten, Metamorphosen, Voyeurismus und das Unbewusste sind wiederkehrende Themen in filmischen Werken wie "Eraserhead" (1977), "Blue Velvet" (1986), "Twin Peaks" (1990–1991, 2017), "Lost Highway" (1997) oder auch "Mulholland Drive" (2001).
Lynch bekam 1990 die Goldene Palme von Cannes für "Wild at Heart – Die Geschichte von Sailor und Lula" verliehen, 2006 einen Goldenen Löwen für sein Lebenswerk auf den internationalen Filmfestspielen von Venedig. Des Weiteren wurde er viermal für den Oscar nominiert. Er ist Ritter und Offizier der französischen Ehrenlegion. Am 27. Oktober 2019 wurde ihm der Ehrenoscar verliehen.
Leben.
Die Eltern Donald Walton Lynch und Edwina Lynch (geb. Sundholm) hatten sich während ihrer Studienzeit an der "Duke University" in North Carolina kennengelernt. Der Vater arbeitete als Agrarwissenschaftler für das Landwirtschaftsministerium der Vereinigten Staaten. Er war auf einer Farm im Nordwesten der USA aufgewachsen. Die Mutter stammte aus Brooklyn und gab Sprachunterricht. Später war sie Hausfrau und kümmerte sich um die Kinder.
David Keith Lynch wurde am 20. Januar 1946 in Missoula, Montana geboren. Zwei Monate später zog die Familie nach Sandpoint, Idaho. Lynchs Vater war durch seine Arbeit gezwungen, häufig den Wohnsitz zu wechseln, weshalb die Familie ein Wanderleben führte. In dem neuen Zuhause wurde Davids Bruder John geboren. Es folgte ein Umzug nach Spokane, Washington, wo seine Schwester Martha zur Welt kam, und anschließend einer nach Durham, North Carolina. In Boise, Idaho siedelte sich die Familie schließlich für eine längere Zeit an. David, der presbyterianisch erzogen wurde, besuchte dort von der 3. bis zur 8. Klasse die Schule. Zu dieser Zeit sah er auch den ersten Film, an den er sich erinnern kann: "Wait till the sun shines, Nellie" (1952) von Henry King.
Rückblickend betrachtet meint Lynch, er habe eine glückliche Kindheit gehabt und sei wohlbehütet und in einer friedlichen Umgebung aufgewachsen: „Meine Kindheit bestand aus eleganten Einfamilienhäusern, Alleen, dem Milchmann, Burgenbauen im Garten, Flugzeuggebrumm, blauem Himmel, Gartenzäunen, grünem Gras und Kirschbäumen.“
Durch seinen Vater kam er bereits in sehr frühen Jahren mit der Natur in Kontakt. „Mein Vater machte häufig Experimente zu Baumkrankheiten und Insekten. Ihm standen riesige Wälder als Versuchsareal zur Verfügung. Dadurch kam ich mit Insekten, Krankheiten und Wachstum in einer organischen Welt in Berührung, einem Wald etwa oder einem Garten“, so Lynch, der parallel auch einige Tiere wie Mäuse oder Frösche sezierte. Die Berührung mit dieser organischen Welt hat den jungen David tief geprägt, was sich in seinen späteren Arbeiten widerspiegelt.
1960 ließen sich die Eltern endgültig in Alexandria, Virginia nieder. Der 14-jährige Lynch wurde als Schüler der "Francis C. Hammond High School" Pfadfinder ("Eagle Scout") und entwickelte nebenher bleibende Begeisterung für die Malerei. Trotz seines bayerischen Onkels, der als Maler in München tätig war, sah er darin jedoch keine aussichtsreiche Zukunft. Der Vater seines Schulfreunds Toby Bushnell Keeler brachte ihn schließlich auf andere Gedanken: Der professionelle Maler bot Lynch und dessen Freund Jack Fisk einen Raum in seinem Studio in Georgetown zur Untermiete an. Die beiden nahmen an und konnten ihrer Kreativität somit freien Lauf lassen. Während dieser Zeit pendelte Lynch am Wochenende nach Washington D.C., wo er Kurse an der "Corcoran School of Art" besuchte. Es sollte schließlich ein Buch sein, das Lynch den Traum vom Künstlerdasein leben ließ: "The Art Spirit" von Robert Henri. Bushnell Keeler hatte ihn darauf aufmerksam gemacht. Lynch: „[…] es wurde sozusagen zu meiner Bibel, es enthielt die Regeln fürs Künstlerleben“.
Nach dem Examen an der High School 1964 beschloss er, an der privaten Kunsthochschule School of the Museum of Fine Arts in Boston zu studieren. Wegen mangelnder Inspiration und „unseriösen“ Kommilitonen brach er bereits nach einem Jahr ab. Zusammen mit seinem Freund Jack Fisk reiste Lynch daraufhin nach Europa, um in Salzburg Student der Sommerakademie von Oskar Kokoschka zu werden. Da beiden die Stadt zu „sauber“ war, machten sie sich alsbald jedoch auf den Weg nach Paris. Von da aus ging es anschließend per Orientexpress nach Athen. Aber auch diese Stadt gefiel ihnen nicht. „Ich dachte darüber nach, dass ich 7000 Meilen vom nächsten McDonald’s entfernt war – und ich vermißte es, ich vermißte Amerika. Mir wurde klar, dass ich Amerikaner war und in Amerika leben wollte“, erinnert sich Lynch.
Zurück in den USA gab es von Seiten der Eltern keine finanzielle Unterstützung mehr, weshalb Lynch gezwungen war, sich mit diversen Nebenjobs über Wasser zu halten. Er arbeitete zunächst im Architekturbüro des Onkels seines Freundes Toby, später in einem Rahmengeschäft, über dem er auch wohnen konnte. Schließlich wurde er zum Hausmeister des Geschäfts ernannt. Nach mehreren Monaten fasste er den Entschluss, weiter zu studieren: Er bewarb sich an der Pennsylvania Academy of Fine Arts in Philadelphia, an der auch sein Freund Jack Fisk eingeschrieben war.
Nach der erfolgreichen Aufnahmeprüfung zogen Lynch und Fisk Ende 1965 nach Philadelphia in eine Wohnung in einem dortigen Industriegebiet. An der Akademie studierte Lynch zwei Jahre lang, blieb darüber hinaus aber bis 1970 in der Stadt. 1967 heiratete er Margeret Reavey, genannt Peggy. Sie brachte am 7. April 1968 ihre gemeinsame Tochter Jennifer Lynch zur Welt. Aus Platzmangel zog die Familie in ein Haus, das Lynch für 3.500 US-Dollar erworben hatte, das jedoch äußerst heruntergekommen war und in einer sehr armen Wohngegend lag. Es wurde mehrmals eingebrochen und die Familie erlebte sogar einen Mord auf offener Straße, direkt vor der Tür. „Um uns herum gab es Gewalt und Haß und Dreck“, so Lynch.
Lynch wurde mit der Zeit bewusst, dass der Malerei zwei wichtige Elemente fehlten, nach denen er sich insgeheim sehnte: Bewegung und Ton. So entstanden in den Jahren 1967 und 1968 erste Filmversuche. Mit der Filmskulptur "Six Men Getting Sick" gewann Lynch 1967 ex aequo den ersten Preis eines Wettbewerbs der Pennsylvania Academy of Fine Arts. Durch finanzielle Unterstützung des wohlhabenden Kommilitonen H. Barton Wasserman, dem Lynchs erstes Filmwerk gut gefallen hatte, entstand der vierminütige Kurzfilm "The Alphabet" (1968). Bushnell Keeler, der Vater seines High-School-Freundes, machte ihn daraufhin auf ein Stipendium des American Film Institute (AFI) aufmerksam. Lynch schickte dem AFI seinen Kurzfilm und ein fertiges Drehbuch. Er bekam das mit 5.000 US-Dollar dotierte Stipendium, um sein Projekt mit dem Titel "The Grandmother" zu realisieren. Dieser halbstündige Film lief auf diversen Filmfestivals, wurde zu einem großen Erfolg und war de facto Lynchs Eintrittskarte für das neue Center for Advanced Film Studies des AFI in Los Angeles. Zusammen mit seiner Familie und seinen Freunden Alan Splet und Jack Fisk zog er deshalb 1970 nach Los Angeles um, wo seine künstlerische Karriere Fahrt aufnahm. Seitdem lebt und arbeitet Lynch dort:
Im Juli 2005 gründete Lynch die Stiftung David Lynch Foundation for Consciousness Based Education and World Peace (DLF), die sich um die Einrichtung von Meditationsprogrammen in Schulen kümmert, Stipendien zum Erlernen der Transzendentalen Meditation vergibt und ein auf Bewusstseinsbildung gegründetes Bildungs- und Erziehungswesens fördert. Bereits 1992 hatte er die Produktionsfirma Asymmetrical Productions gegründet. Sie hat ihren Sitz in Los Angeles, das Logo stammt von Lynch selbst.
Lynch trennte sich 1974 von seiner ersten Frau Peggy. Drei Jahre später heiratete er Mary Fisk, die Schwester seines Freundes Jack. Gemeinsam haben sie einen Sohn namens Austin. 1987 wurde die Ehe geschieden. 1986 bis 1990 war Lynch mit der Schauspielerin Isabella Rossellini liiert. 2006 nahm er seine langjährige Filmeditorin und Produzentin Mary Sweeney zur Frau, reichte aber bereits einen Monat später die Scheidung ein. Aus dieser bereits 1991 begonnenen Beziehung stammt sein zweiter Sohn Riley. 2009 heiratete er die Schauspielerin Emily Stofle. Am 28. August 2012 kam Lynchs zweite Tochter Lula Boginia zur Welt.
Künstlerische Laufbahn.
Bildende Künste und erste Kurzfilme (1964–1970).
Als Student an der Pennsylvania Academy of Fine Arts entstanden Lynchs erste düstere Zeichnungen und Gemälde. Zuvor hatte er noch bunte, farbenfrohe Bilder produziert. Nun malte er große, breite, dunkle Kunstwerke. Eines der ersten war "The Bride". Es zeigte eine abstrakte Figur einer Braut bei einer Selbstabtreibung. Es folgten diverse Action Paintings. Hierfür klatschte Lynch schwarze Farbe auf eine Leinwand und fügte „kantige Formen“ hinzu.
Als er eines seiner Bilder betrachtete – ein schwarzes mit einer Figur in der Mitte –, fehlten ihm Ton und Bewegung: „Und wie ich so die Figur auf dem Bild betrachte, höre ich plötzlich einen Atemzug und sehe eine kleine Bewegung. Da wünschte ich mir, dass sich das Bild wirklich bewegen könnte, nur ein ganz kleines bißchen.“ Das war für Lynch der Anlass, einige Filmexperimente zu starten. Da er nicht viel Ahnung vom Film hatte, kaufte er sich eine 16-mm-Kamera und folgte diversen Instruktionen. Lynch ließ sich von seinem Freund Jack Fisk Gipsabdrücke machen, die er zusammenfügte, sodass daraus eine Projektionsfläche wurde. Darauf projizierte er einen kurzen Animationsfilm, „der zu einer Schlaufe zusammengeklebt wurde und endlos durch den Projektor laufen konnte, wobei er erst zur Decke und dann zurück in den Vorführapparat geführt wurde“. Dazu waren Polizeisirenen zu hören. Lynch nannte sein animiertes Gemälde "Six Men Getting Sick" (1967) und gewann den ersten Preis der Akademie.
Dem wohlhabenden Kommilitonen H. Barton Wasserman gefiel dieses Kunstwerk so sehr, dass er Lynch mit 1.000 US-Dollar beauftragte, ihm auch so eine Filmskulptur anzufertigen. Lynch kaufte sich eine Bolex-Kamera für 450 Dollar und machte sich zwei Monate lang an die Arbeit. „Den fertigen Film brachte ich ins Labor und holte ihn am nächsten Tag ab. […] Ich sah den ganzen Film durch, er war von vorne bis hinten im Eimer. Die Kamera hatte einen defekten Transportmechanismus, und der Film wurde ohne Führung durchs Bildfenster gezogen, statt Bild für Bild“, erinnert sich Lynch. Wasserman erlaubte daraufhin dem angehenden Künstler, das restliche Geld für einen anderen Film zu verwenden, solange er davon eine Kopie bekomme. Lynch kam die Idee, Animations- und Realfilm zu kombinieren. So entstand der vierminütige Kurzfilm "The Alphabet" (1968), der teils von den Eltern mitfinanziert wurde. Die Hauptrolle spielte seine damalige Frau Peggy. Den Alptraum eines Mädchens vor dem Alphabet und allgemeiner vor dem Lernen unterlegte Lynch mit dem aufgenommenen Geschrei seiner frisch geborenen Tochter Jennifer. Auf Bushnell Keelers Empfehlung beantragte er anschließend ein Stipendium beim American Film Institute (AFI). Dazu schickte er eine Kopie von "The Alphabet" und ein fertiges Drehbuch ein. Der bei einer Druckerei arbeitende Lynch erhielt schließlich eine Antwort: Er bekomme das Stipendium, wenn er das Drehbuch auch mit 5.000 statt mit den angesetzten 7.118 Dollar umsetzen könne. Lynch willigte ein.
Das Drehbuch, für das er das Stipendium bekam, war "The Grandmother" (1970). Er machte sich sogleich an die Arbeit und strich den dritten Stock in seinem Haus komplett schwarz. Während des Drehs merkte Lynch aber, dass das Geld nicht reichen würde. Nach einem Testscreening der bereits gedrehten Szenen für Tony Vellani vom AFI wurden ihm weitere 2.000 Dollar zugesagt. Den Ton gestaltete er erstmals zusammen mit Alan Splet, der bis zu "Blue Velvet" (1986) sein fester Sounddesigner blieb. Nach der Fertigstellung des vierunddreißig Minuten langen "The Grandmother" war die Resonanz überaus positiv. Der Film lief auf Festivals in Atlanta und San Francisco und wurde unter anderem auf den Oberhausener Kurzfilmtagen vorgeführt. Außerdem bekam Lynch den Critics’ Choice Movie Award für den besten Film, der mit einem AFI-Stipendium gedreht wurde.
Filmstudium und erster Spielfilm (1970–1979).
Tony Vellani war von "The Grandmother" begeistert und motivierte Lynch dafür, sich am neuen "Center for Advanced Filmstudies" des AFI in Los Angeles zu bewerben. 1970 bewarb sich der junge David Lynch also für einen Studienplatz. Einreichen musste er dafür eine abgeschlossene Arbeit und eine Idee zu einem Drehbuch. "The Grandmother" war der fertige Film und "Gardenback" das Drehbuchprojekt, das Lynch nach seiner Annahme zu einem 45-seitigen Skript ausarbeitete. Man bot Alan Splet die Leitung der Tonabteilung an. Dieser nahm an und folgte zusammen mit Jack Fisk Lynch nach Los Angeles.
Lynch gefiel das Studium, vor allem die praktische Seite. Eines der wenigen theoretischen Fächer, die er mochte, war Filmanalyse von František Daniel, dem Lehrer von Miloš Forman. Unter seinen Kommilitonen waren unter anderem Terrence Malick, Tim Hunter und Jeremy Kagan.
Lynch wurde von seinem Mitstudenten Caleb Deschanel auf einen Produzenten von 20th Century-Fox aufmerksam gemacht, der sich für das Filmprojekt "Gardenback" interessierte. Er war bereit, Lynchs Projekt mit 50.000 US-Dollar unter der Bedingung zu unterstützen, dass das Skript zu 110 Seiten ausgearbeitet werde, damit ein richtiger Spielfilm zustande kommen könne. Lynch, der sich mit dieser Idee überhaupt nicht anfreunden konnte, lehnte nach einigen Bearbeitungsversuchen frustriert ab. Nach und nach verlor er die Begeisterung für seine Horror-Ehebruchgeschichte und erklärte dem AFI, er wolle stattdessen ein Projekt mit dem Titel "Eraserhead" realisieren. „Unter dem Druck von "Gardenback" schlich ich mich manchmal davon und machte mir Notizen für "Eraserhead". Denn mir kamen Ideen, von denen ich wusste, dass sie für "Gardenback" nicht funktionieren würden, die ich aber trotzdem ziemlich aufregend fand. […] Und auf einmal fand ich "Eraserhead" viel interessanter“, so Lynch. Die Verantwortlichen des AFI bewilligten das neue Projekt.
Das Drehbuch zu "Eraserhead" war 21 Seiten lang. Da man bei der AFI aus Erfahrung pro Drehbuchseite eine Filmminute kalkulierte, ging man davon aus, dass der Film etwa 21 Minuten dauern werde. Einen Langfilm war man nicht bereit zu finanzieren, denn kurz zuvor war ein solches Großprojekt gescheitert. Nun hatte Lynch aber einen äußerst komprimierten Schreibstil und wollte viele Szenen erst beim Dreh entwickeln. Er erwähnte deshalb, dass der Film länger dauern würde. Man einigte sich auf 42 Minuten, Schwarzweiß und 35 mm. Er bekam außerdem 10.000 US-Dollar Budget zur Verfügung gestellt.
Anfang 1972 begannen schließlich die Vorbereitungen zum Dreh. Zum Filmteam gehörten der Sounddesigner Alan Splet, Produktionsleiterin Doreen G. Small und Kameramann Herbert Cardwell. Um Musik, Dekor, Szenenbild und Schnitt wollte sich Lynch selbst kümmern.
Er schätzte die Dauer der Dreharbeiten auf rund sechs Wochen, doch auch nach einem Jahr war noch nicht Schluss. Nach neun Monaten Drehzeit musste Kameramann Cardwell aus finanziellen Gründen die Produktion verlassen. Er wurde durch Frederick Elmes ersetzt.
Die Produktionsbedingungen stellten sich als äußerst schwierig heraus. Als das Geld vom AFI aufgebraucht war, wollte man Lynchs Projekt keine weiteren Zuschüsse gewähren. Man stelle die technischen Mittel weiterhin zur Verfügung, wenn sich der Regisseur selbst um die Finanzierung der Dreharbeiten kümmere, hieß es. Lynch geriet in tiefe Verzweiflung und spielte mit der Idee, die restlichen Szenen mit kleinen Puppen als Animation zu realisieren. Der Gedanke wurde aber schnell wieder verworfen. Nach einjähriger Drehpause konnte die Produktion im Mai 1974 fortgesetzt werden, als es Lynch gelang, sich Geld von Freunden und Familie zu borgen. Außerdem arbeitete er jeden Tag um Mitternacht für zwei Stunden als Zeitungsbote und trug für 48 Dollar die Woche das "Wall Street Journal" aus.
Nachdem man alle Szenen im Kasten hatte, musste noch der Ton kreiert werden. Das AFI setzte Lynch und Splet eine nicht einhaltbare Deadline und dann beide sprichwörtlich vor die Tür. Sie richteten sich daraufhin ein Tonstudio in einer Garage ein, wo von Sommer 1975 bis Frühling 1976 am Ton und Soundtrack zu "Eraserhead" gearbeitet wurde. Endgültig fertiggestellt wurde der Film nach vierjähriger Arbeit dann im Sommer 1976.
Motiviert durch seine neue Frau Mary Fisk, reichte Lynch seinen Film bei dem Los Angeles Film Festival Filmex ein. Dort wurde "Eraserhead" am 19. März 1977 in einer 108-minütigen Fassung uraufgeführt, die Lynch im Nachhinein auf 89 Minuten kürzte. Grund dafür war die Reaktion im Vorführsaal, die ihm deutlich gemacht hatte, dass das letzte Drittel des Films zu langwierig und langsam war. Ben Bahrenholz, unabhängiger Filmverleiher aus New York, der mit sogenannten Mitternachtsvorstellungen in Off-Kinos bekannt geworden ist, wurde auf Lynchs Film aufmerksam und nahm ihn alsbald in sein Programm auf. Noch im selben Jahr im Herbst wurde der Film im "Cinema Village" in New York City aufgeführt. Nach einem beschwerlichen Start wurde "Eraserhead" zu einem Mitternachts-Underground-Geheimtipp und lief bis 1982 in 17 US-amerikanischen Städten mit einer Anzahl von 32 Kopien. Die Rezensionen fielen überwiegend positiv aus und sahen in "Eraserhead" einen „künstlerisch ambitionierte[n] Film“ der in der Tradition des europäischen Autorenkinos stehe und dem Surrealismus und Expressionismus nahe komme. Der Film bedeutete Lynchs künstlerischen Durchbruch und gilt heute als Kultfilm.
Durchbruch und Erfolg (1980–1991).
Nach "Eraserhead" arbeitete Lynch an einem Drehbuch mit dem Titel "Ronnie Rocket", indem es um einen Zwerg, Elektrizität und Industrie gehen sollte. Doch die Filmstudios zeigten kein Interesse. Jack Fisk, der mittlerweile mit Sissy Spacek verheiratet war, veranlasste, dass er eine Nebenrolle in dem Film "Heart Beat" (1980) von John Byrum bekam. Im Schneideraum wurde Lynchs Rolle jedoch komplett aus dem endgültigen Film entfernt. Während der Dreharbeiten machte er die Bekanntschaft mit Patricia Norris, die später seine Kostümbildnerin wurde.
Zur selben Zeit suchte Stuart Cornfeld geeignete Projekte für "Brooksfilms", Mel Brooks neugegründete Produktionsfirma. Cornfeld hatte "Eraserhead" gesehen und er war begeistert. Er nahm deshalb Kontakt zu Lynch auf. Als Cornfeld auf das Drehbuch "The Elephant Man" von Christopher De Vore und Eric Bergren stieß, schlug er Lynch vor, die Geschichte zu verfilmen. Dieser zeigte sich angetan und akzeptierte: „Dieser Stoff schien mir nicht nur als zweiter Film nach "Eraserhead" ideal zu sein, sondern auch als Gelegenheit, im Mainstream Fuß zu fassen, ohne sofort größere Kompromisse machen zu müssen“. Mel Brooks, dem der Name David Lynch kein Begriff war, schaute sich dessen Erstlingswerk an und war positiv überrascht. Er gab dem Projekt grünes Licht. Mitproduziert wurde der Film von NBC, EMI und Paramount Pictures. Von 1979 bis 1980 fanden die Dreharbeiten in den "Lee-International-Studios" in Wembley, London mit einem Budget von 5 Millionen US-Dollar statt. Gefilmt wurde in Schwarzweiß und CinemaScope.
"Der Elefantenmensch" (1980) basiert auf der realen Geschichte von Joseph Merrick, der von Geburt an unter schweren Deformationen seines Körpers litt, die seine Gestalt und sein Gesicht völlig entstellten. Der Film feierte am 3. Oktober 1980 in New York City seine Weltpremiere. Ab dem 10. Oktober 1980 war er in den Vereinigten Staaten für die Öffentlichkeit zugänglich. In Europa startete der Film erst im folgenden Jahr. In den USA konnte man mit 26 Millionen US-Dollar mehr als das Fünffache der Produktionskosten wieder einspielen, in Großbritannien waren es 3,75 Millionen Pfund. 1981 wurde "Der Elefantenmensch" für acht Oscars nominiert. Lynch galt folglich als eines der „vielversprechendsten neuen Talente des Hollywood-Establishments“.
In der Folge bot sich Francis Ford Coppola an, Lynchs Drehbuch "Ronnie Rocket" zu produzieren. Doch Coppolas "Zoetrope-Studios" machten Konkurs und das Projekt kam nicht zustande. Es folgten zwei andere Angebote: George Lucas wollte Lynch für "Die Rückkehr der Jedi-Ritter" gewinnen und Dino De Laurentiis kontaktierte ihn für eine Adaption des Science-Fiction Romans "Dune" von Frank Herbert. Alejandro Jodorowsky und Ridley Scott hatten sich bereits an der Literaturverfilmung versucht, waren aber an der Finanzierung gescheitert. Scott gab "Dune" deshalb für "Blade Runner" auf. Lynch hatte nach dem erneuten Nicht-Zustandekommen von "Ronnie Rocket" mit der Idee gespielt, den Thomas Harris Roman "Roter Drache" mit Richard Roth zu verfilmen. Nach De Laurentiis Vorschlag, bei einer "Dune"-Adaption Regie zu führen, entschied er sich jedoch dafür. Lynch verfasste zusammen mit Christopher De Vore und Eric Bergren das "Dune"-Drehbuch. Bei der dritten Fassung stiegen letztere auf Druck von De Laurentiis aus. Lynch schrieb alleine weiter, Drehbuchversion Nummer 7 wurde schließlich akzeptiert. Parallel dazu schlossen De Laurentiis und Lynch einen Vertrag über vier weitere Filme: "Blue Velvet", "Ronnie Rocket", "Dune II" und "Dune III".
Die Dreharbeiten begannen am 30. März 1983 und endeten Anfang Januar 1984. Für Lynch wurde "Der Wüstenplanet" der erste Spielfilm in Farbe. Die Kosten für den Science-Fiction-Film beliefen sich auf 52 Millionen US-Dollar – der bis heute teuerste Lynch-Film. Lynchs Fassung dauerte über dreieinhalb Stunden, die Produzenten forderten ihn auf, den Film auf etwa zwei Stunden zusammen zu schneiden: „Ich hatte ‚Dune‘ nicht im Griff. Ich machte den Film für die Produzenten, nicht für mich selbst. Deshalb ist das Recht auf den Final Cut so wichtig. Nur eine Person kann der Filter für das Ganze sein.“ Die Rezeption der Literaturverfilmung bestand überwiegend aus Verrissen: „die Kritiker reagierten höhnisch bis bösartig […], Lynch habe Frank Herberts Wüsten-Epos in den Sand gesetzt“. Seinen Ruf als Ausnahmeregisseur hatte Lynch so gut wie verloren.
Nach dem Misserfolg von "Dune" stand die für Januar 1985 geplante Vorproduktion von "Blue Velvet" in der Schwebe. Raffaela De Laurentiis, die Tochter von Dino De Laurentiis, wünschte sich zur selben Zeit eine Adaption des Romans "Tai Pan" von James Clavell. Lynch zeigte sich interessiert, die Regie wurde dann aber Daryl Duke zugewiesen.
Dino De Laurentiis ermöglichte ihm schließlich doch die Realisierung von "Blue Velvet", nicht zuletzt, weil er in dem Drehbuch, das Lynch bereits drei Jahre zuvor geschrieben hatte, die Gelegenheit witterte, an dem Publikumserfolg von ebenso existentiell tiefsinnigen Filmen wie "The Outsider" (1983) oder "Rumble Fish " (1983) von Francis Ford Coppola anzuknüpfen.
Er schlug Lynch vor, dessen Gehalt und Budget zu kürzen. Im Gegenzug überließe er ihm die künstlerische Kontrolle. Lynch akzeptierte und bekam so die ihm wichtige künstlerische Freiheit, das Recht auf den Endschnitt und die Zusage, dass sich die Produzenten nicht mehr einmischen würden.
Die Dreharbeiten begannen schließlich am 10. Februar 1986 und dauerten bis zum 22. April 1986. Gedreht wurde in dem Studiokomplex von Dino de Laurentiis Produktionsfirma in Wilmington, North Carolina. Die Produktionskosten beliefen sich auf fünf Millionen US-Dollar. Lynch arbeitete hier zum ersten Mal mit dem Komponisten Angelo Badalamenti zusammen, der seitdem zu allen Lynch-Filmen die Musik geschrieben hat. "Blue Velvet" stieß nach seiner Veröffentlichung auf positive Resonanz, löste aber auch Kontroversen und Diskussionen über die Darstellung der Frau im Film aus. Die Zuschauermassen blieben trotz wohlwollender Kritiken aus, was Lynchs Werk aber nicht daran hinderte, zu einem Kultfilm zu avancieren.
Mit "Blue Velvet" hatte Lynch seinen Ruf als Regiekünstler wiederherstellen können. Dino De Laurentiis zeigte sich bereit, "Ronnie Rocket" zu produzieren. Es sollten sieben Millionen US-Dollar Budget zur Verfügung stehen und der Drehbeginn war für den Herbst 1987 angesetzt. Doch Ende des Jahres 1987 bedrohte ein Konkurs die "De Laurentiis Entertainment Group" und alle vertraglich an die Produktionsgesellschaft gebundenen Lynch-Projekte wurden stillgelegt. Dieser herbe Rückschlag trieb Lynch in andere Gewässer. Neben seinen Arbeiten am Film hatte er viel gemalt und gezeichnet. Bei den Dreharbeiten zu "Blue Velvet" hatte er Isabella Rossellini kennengelernt, mit der er bis 1990 zusammen blieb. Sie mochte seine Bilder und gab den Anstoß für einige Ausstellungen zu Lynchs Werken: Zwischen 1987 und 1989 wurden dessen Gemälde in den "Roger La Pelle Galleries" in Philadelphia, in der "James Corcoran Gallery" in Los Angeles und in der "Leo Castelli Gallery" in New York zur Schau gestellt. Außerdem gestaltete Lynch 1987 die Statuette für den "Rossellini Award" und gab seit 1983 jede Woche einmal den Comic-Strip "The Angriest Dog in the World" im "Los Angeles Reader" und anderen Zeitungen heraus. Darüber hinaus übernahm Lynch eine Nebenrolle in "Zelly and Me" (1988) von Tina Rathborne. Rossellini spielte die Hauptrolle und er verkörperte ihren Liebhaber im Film. Im selben Jahr wurde Lynch von einem Filmproduzenten aus Frankreich gefragt, ob er nicht Lust habe, zum 10-jährigen Jubiläum des "Le Figaro Magazine" einen Kurzfilm zu dem Thema „Frankreich aus der Sicht von …“ zu drehen. So entstand 1988 der 23 Minuten lange "The Cowboy and the Frenchman".
David Lynch traf 1986 den Drehbuchautor Mark Frost auf Initiative von Tony Krantz, der beide Autoren mit seiner "Creative Artists Agency" (CAA) vertrat. Sie verstanden sich gut miteinander und erste gemeinsame Projekte entstanden: Drehbücher wie "The Goddess" (1987) oder "One Saliva Bubble" (1987) fanden jedoch keinen Abnehmer. Krantz schlug beiden daraufhin vor, sich gemeinsam an einer Fernsehserie zu versuchen. Er sah darin die Chance, Frosts Erfahrung von "Polizeirevier Hill Street" mit Lynchs visionärem Querdenken zu verbinden. Nach anfänglicher Skepsis setzten sich beide zusammen und entwickelten ein Drehbuch mit dem Titel "The Lemurians" für den Pilotfilm einer Serie um ein paar Detektive, die gegen Außerirdische kämpfen müssen, die sich unter die Erdbevölkerung geschlichen haben. Der Sender NBC, Frosts Arbeitgeber, lehnte das Skript ab.
Daraufhin machten sich beide an die Arbeit, ein neues Drehbuch zu verfassen: "Northwest Passage". Dem Projekt lag die Idee zugrunde, in einer Soap Opera einen Mord passieren zu lassen, auf den anschließend der gesamte Inhalt aufbaut. Handlungsort sollte eine Kleinstadt im Norden der USA sein. Um sich besser zurechtzufinden, entwarf Frost eine Karte der Stadt und ihrer Umgebung. Dabei lag die Stadt zwischen zwei Bergen und die Autoren benannten ihr Projekt in "Twin Peaks" um. Nach drei Monaten fruchtbarer Diskussion schrieben Lynch und Frost das Drehbuch für den Pilotfilm innerhalb von 10 Tagen. Der Fernsehsender ABC zeigte sich bereit, den Pilotfilm zu finanzieren, und ließ dabei den Schöpfern den nötigen Freiraum. Für dreieinhalb Millionen US-Dollar entstand der Pilotfilm, der im Mai 1989 auf einer Vorführung für internationale Programmeinkäufer großen Erfolg hatte: "Twin Peaks" wurde später in 55 Länder verkauft. ABC gab eine provisorische Reihe von sieben Folgen in Auftrag.
Im September 1989 wurde der Pilotfilm auf dem Filmfestival in Telluride in Colorado offiziell uraufgeführt. Die Kritiken fielen positiv bis lobend aus, trotzdem befürchtete der Sender, eine Serie für bloße Filmliebhaber produziert zu haben. Als am 8. April 1990 der Film schließlich im US-amerikanischen Fernsehen ausgestrahlt wurde, wurde klar, dass man einen Hit gelandet hatte: 35 Millionen Zuschauer verfolgten den Pilotfilm, was einem Anteil von 33 Prozent entsprach. Nach diesem anfänglichen Hoch wurden Mark Frost und David Lynch vom Sender ABC im Mai 1990 mit der Produktion einer weiteren Staffel bestehend aus einem zweiten Pilotfilm und zwölf Folgen beauftragt. Doch nach der Enthüllung des Mörders in Episode 16 sanken die Zuschauerzahlen drastisch und die Serie wurde nach Ende der zweiten Staffel 1991 eingestellt.
Am 6. Oktober 2014 kündigten der Sender "Showtime", Mark Frost und David Lynch per YouTube-Video an, dass es Anfang 2016 eine Fortsetzung der Serie geben werde. Die dritte Staffel sollte zunächst aus neun Episoden bestehen, bei denen allesamt Lynch die Regie übernimmt. Im April 2015 gab Lynch jedoch bekannt, dass er am Reboot der Serie nicht mitwirken werde. Nach einer Verdoppelung der Episodenzahl auf 18 Folgen begann die Ausstrahlung der Staffel schließlich am 22. Mai 2017 mit einer Doppelfolge.
Nach dem vorläufigen Ende von "Twin Peaks" blieb Lynch jedoch beim Fernsehen und entwickelte zwei weitere Serien: "On the Air – Voll auf Sendung" (1992) zusammen mit Mark Frost und "Hotel Room" (1993) gemeinsam mit dem Schriftsteller Barry Gifford. Erstere war eine Slapstick-Komödie in Form von 7 Episoden. Das Drehbuch zur ersten Folge hatten Lynch und Frost schon Ende 1990 geschrieben. Beide verfassten mit Robert Engels abwechselnd die restlichen Skripte. Am 20. Juni 1992 konnte die erste Folge im US-amerikanischen Fernsehen auf ABC ausgestrahlt werden. Regie führte David Lynch selbst.
Schlechte Einschaltquoten und Kritiken zwangen ABC dazu, die Serie bereits nach der dritten Episode abzusetzen. Frost gab die Schuld hierfür der undurchdachten Sendezeit und dem „mangelnden Sinn des amerikanischen Publikums für bizarren Humor“. "Hotel Room" besteht aus drei Folgen: "Tricks", "Getting Rid of Robert" und "Blackout". Sie spielen jeweils in ein und demselben Hotelzimmer, aber zu jeweils verschiedenen Zeiten. Lynch produzierte die Mini-Serie mit seiner eigens gegründeten Produktionsfirma "Asymmetrical Pictures" und führte bei Folge 1 und 3 Regie. Die Drehbücher dazu stammten jeweils von Barry Gifford. Der Kabelsender HBO strahlte die drei Geschichten am 8. Januar 1993 aus.
Parallel zu "Twin Peaks" hatte Lynch bereits 1989 mit Barry Gifford zusammengearbeitet: Er hatte dessen Roman "Wild at Heart" mit Nicolas Cage und Laura Dern in den Hauptrollen verfilmt. Das Roadmovie "Wild at Heart – Die Geschichte von Sailor und Lula" wurde im Mai 1990 auf den internationalen Filmfestspielen unter der Leitung von Bernardo Bertolucci mit der Goldenen Palme ausgezeichnet. Die Kritiker waren zutiefst gespalten. 1989 wirkten Cage und Dern auch bei der musikalischen Live-Performance "Industrial Symphony No. 1: Dream of the Broken Heart" von David Lynch und Angelo Badalamenti mit. Aufgeführt wurde sie am 10. November an der "Brooklyn Academy of Music" anlässlich des "New Music America"-Festivals.
Rückschlag und Krise (1992–1995).
In der amerikanischen Fachpresse konnte man Ende Mai 1991 kurz vor der Ausstrahlung der letzten Folge von "Twin Peaks" lesen, dass der Koproduzent Aaron Spelling zusammen mit David Lynch einen Kinofilm plane. Die Idee kam ihnen, als ABC ankündigt hatte, die Serie nach Folge 30 abzusetzen.
Lynch hatte zwischenzeitlich mit der Filmproduktionsgesellschaft "Ciby2000" des Franzosen Francis Bouygues einen Vertrag über drei Filme mit einem Gesamtbudget von 58 Millionen US-Dollar unterschrieben. Die erste gemeinsame Arbeit sollte "Ronnie Rocket" werden. Das Projekt musste aber stetig verschoben werden, so dass der "Twin Peaks"-Kinofilm den Vorzug bekam.
Lynch und sein Koautor Robert Engels, der schon einige Folgen von "Twin Peaks" geschrieben hatte, entschieden sich dafür, ein Prequel zur Serie zu verfassen. Der Kinofilm sollte sich mit den letzten Tagen im Leben der siebzehnjährigen Laura Palmer befassen.
Zwischenzeitlich herrschte ein Streit zwischen "Ciby2000" und Aaron Spelling um die Vertriebsrechte des zukünftigen Films, was dessen Realisierung blockierte. Außerdem hatte sich Lynch während der zweiten Staffel von "Twin Peaks" mit Koproduzent und -autor Mark Frost überworfen, der nun lieber seinen eigenen Film "Storyville" drehte.
Als dann endlich der Konflikt zwischen "Ciby2000" und Spelling beigelegt wurde, stand einem Drehbeginn nichts mehr im Weg. Die Dreharbeiten mit einem Budget von rund 10 Millionen US-Dollar begannen am 5. September 1991 in der Nähe von Seattle im Bundesstaat Washington. Am 1. November 1991 fiel schließlich die letzte Klappe. Nach der Uraufführung auf den Filmfestspielen von Cannes 1992 am 16. Mai wurde "Twin Peaks – Fire Walk With Me" vom Publikum ausgebuht und stieß bei den anwesenden Kritikern auf eine Mauer der Ablehnung: Für die Kenner der Fernsehserie hob sich der Film zu sehr von deren Inhalt und Form ab, für die Unvorbelasteten war er eine einzige Überforderung. Auch finanziell wurde der Film zu einem Misserfolg. Lynch zu der Pressekonferenz in Cannes: „Ich musste erkennen, dass ich "Twin Peaks" mit diesem Film endgültig den Todesstoß versetzt hatte. Es herrschte eine ausgesprochen feindselige Atmosphäre. Wenn man einen Raum betritt, in dem eine wütende Menge wartet, spürt man das, ohne dass jemand den Mund aufzumachen braucht.“
Die negative, teilweise feindselige Rezeption und der finanzielle Flop von "Twin Peaks – Fire Walk With Me" führten dazu, dass Lynch nun als „Risikofaktor“ in der Filmbranche galt: Großprojekte traute man ihm nicht mehr zu. Lynch trieb es daraufhin in eine Schaffenskrise, vor allem was filmische Projekte anbelangte. Neben seiner Arbeit als Maler drehte er aus finanziellen Gründen notgedrungen zahlreiche Werbespots. 1992 drehte er einen für "Giò" von Armani, 1993 vier Spots für Georgia Coffee, zwei für Alka-Seltzer Plus und jeweils einen für Barilla Nudeln, Adidas und Jil Sander. 1994 entstand ein weiterer Werbespot für Karl Lagerfeld. 1990 waren bereits Werbefilme für die Parfüme "Obsession" von Calvin Klein und "Opium" von Yves Saint Laurent produziert worden. Des Weiteren drehte Lynch 1993 einen Film für die "American Cancer Society" zur Vorbeugung gegen Brustkrebs.
1993 produzierte Lynch zusammen mit Angelo Badalamenti das Album "The Voice of Love" von Julee Cruise. Bereits vier Jahre zuvor war das Album "Floating Into the Night" von Julee Cruise mit Texten von Lynch veröffentlicht worden. Letzterer fungierte gemeinsam mit seiner Frau Mary Sweeney des Weiteren als Produzent bei dem Vampirfilm "Nadja" (1994) von Michael Almereyda.
1995 wirkte Lynch bei dem internationalen Filmprojekt "Lumière et compagnie" mit. Anlässlich des 100-jährigen Jubiläums der Erfindung des Cinématographen durch die Brüder Lumière drehten 41 Regisseure Kurzfilme, die sie mit der originalen Kamera aus dem 19. Jahrhundert umsetzten. Die Idee für diese Hommage stammte von Philippe Poulet, einem Forscher im Kinomuseum von Lyon.
Die Filme durften nicht länger als 52 Sekunden sein. Zudem mussten sie ohne Schnitte, ohne künstliches Licht und ohne nachsynchronisierten Ton realisiert werden. Lynchs Beitrag trägt den Titel "Premonitions Following An Evil Dead". Zwischen 1994 und 1995 suchte Lynch ohne Erfolg nach Geldgebern für sein Projekt "Dream of the Bovine", einer Komödie, die er zusammen mit Robert Engels geschrieben hatte.
Rückkehr ins Kino (1996–2001).
Lynchs weiter oben angesprochener Filmvertrag mit der französischen Produktionsfirma "Ciby2000" galt weiterhin. Nach dem Tod des Vorsitzenden Francis Bouygues wurde es für ihn jedoch schwieriger, Projekte finanziert zu bekommen. "Dream of the Bovine" hatte auch bei "Ciby2000" keine Chance. Bei seiner Lektüre des Romans "Night People" von Barry Gifford erweckte die vom Autor verwendete Wortkombination „lost highway“ Lynchs Interesse: „Ich erwähnte Barry gegenüber, daß ‚Lost Highway‘ ein toller Titel wäre und wir was schreiben sollten. Das war etwa ein Jahr, bevor wir tatsächlich mit dem Drehbuch begannen. Dieser Ausdruck war der zündende Funke.“
Im März 1995 war das Drehbuch fertig, "Ciby2000" akzeptierte es, sodass die Dreharbeiten im Herbst 1995 beginnen konnten. Das Produktionsbudget betrug dabei 15 Millionen US-Dollar. Premiere feierte der Film im Januar 1997 in Paris und stieß dabei auf überwiegend positive Kritikerstimmen. Olga Neuwirth und Literaturnobelpreisträgerin Elfriede Jelinek bereiteten später "Lost Highway" als Oper auf. Die Uraufführung fand am 31. Oktober 2003 in Graz statt.
Zwei Jahre später erzählte Lynch in "Eine wahre Geschichte – The Straight Story" (1999), linear und filmisch eher einfach dargestellt, die Geschichte eines alten Mannes, der mit seinem Aufsitz-Rasenmäher die USA durchquert, um seinen kranken Bruder wiederzufinden. Das Drehbuch stammte erstmals nicht von ihm, sondern von seiner damaligen Lebensgefährtin Mary Sweeney. Produziert wurden die Dreharbeiten von der "The Picture Factory". Lynch hatte diese Produktionsfirma 1997 zusammen mit Sweeney und Neal Edelstein gegründet. Der Film lief auf den Internationalen Filmfestspielen von Cannes 1999 und wurde von der Kritik überwiegend positiv aufgenommen. Diese zeigte sich über den Kurswechsel des Regisseurs irritiert, denn es war der erste Film, der keine Gewaltszenen oder Szenen enthielt, die das Publikum vor unlösbare Rätsel stellten. Das ist auch der Grund, weshalb einige Besprechungen das Werk als Lynchs erste „erwachsene“ Arbeit bezeichneten.
Anfang 1999 begann Lynch mit den Arbeiten an einer neuen Fernsehserie mit dem Titel "Mulholland Drive" für ABC. Das Projekt wurde zunächst ad acta gelegt, aber mit Hilfe von Freunden und des französischen Senders Canal+ um acht neue Szenen erweitert und zu einem Kinofilm ausgebaut: "Mulholland Drive – Straße der Finsternis". Für die Leistung, aus der „Ruine der TV-Serie einen Kinofilm gebaut zu haben“ (Zitat der Jury), wurde er 2001 bei den Filmfestspielen von Cannes mit dem Regiepreis ausgezeichnet.
1998 war zudem das Album "Lux Vivens (Living Light)" erschienen, an dem er zusammen mit der Sängerin Jocelyn Montgomery gearbeitet hatte und welches auf Liedern der Heiligen Hildegard von Bingen basiert. Zusammen mit John Neff brachte er 2001 außerdem das Album "Blue Bob" heraus. Dabei handelt es sich um experimentellen Rock. Aufgenommen wurde es von April 1998 bis März 2000 in dem "Asymmetrical Studio" in Kalifornien.
Internetarbeit, Experimentalfilm und Musik (2002–2013).
Ende 2001 hatte Lynch seine eigene Website "davidlynch.com" ins Leben gerufen. Fortan veröffentlichte er mehrere Arbeiten über das Internet. So entstanden 2002 die animierte Online-Kurzserie "DumbLand" und acht Kurzfilme im Stil einer surrealistischen Sitcom mit dem Titel "Rabbits". Teile dieser Serie finden sich in dem Film "Inland Empire" (2006) wieder. Im selben Jahr wurde Lynch zum Präsidenten der 55. Internationalen Filmfestspiele von Cannes berufen.
2005 gründete Lynch die "David Lynch Foundation for Consciousness Based Education and World Peace", die sich für die Nutzung der Transzendentalen Meditation einsetzt. Lynch praktiziert diese von Maharishi Mahesh Yogi begründete Meditationstechnik seit 1973 und nahm im Sommer 2002 an einem einmonatigen Erleuchtungskurs bei Maharishi im niederländischen Vlodrop teil. 2007 ging Lynch auf Welttournee und warb, zum Teil zusammen mit dem schottischen Folksänger Donovan, für den Bau von „Unbesiegbarkeits-Universitäten“. Diese von Maharishi angeregten Einrichtungen sollen neben herkömmlichen Studiengängen das Studium des Bewusstseins mit Hilfe Transzendentaler Meditation als Basis-Disziplin anbieten. Am 25. März 2009 ging "David Lynch Foundation Television" mit einer Beta-Version online, ein Internet-gestützter Fernsehkanal, der „Bewusstsein, Kreativität und Glück“ feiern will. Neben Video-Beiträgen der "David Lynch Foundation" will der Sender Dokumentationen und Exklusivbeiträge von Lynch online stellen. Offizieller Start war der 4. April 2009.
Lynchs letzter Kinofilm "Inland Empire" hatte Anfang September 2006 in Venedig Premiere. Bei diesen Filmfestspielen wurde Lynch zudem der Goldene Löwe für sein Lebenswerk verliehen. "Inland Empire" wurde komplett mit einer digitalen Handkamera gedreht und zum Teil improvisierend ohne Drehbuch gefilmt. Einige Szenen waren in Polen entstanden. Bei dieser Gelegenheit machte Lynch eine Fotoserie alter Industriegebiete.
Die "Fondation Cartier pour l'Art Contemporain" zeigte von März bis Mai 2007 in Paris die bis dato größte Ausstellung von Lynchs Werken. Insgesamt waren 800 Arbeiten zu sehen, überwiegend Gemälde, Zeichnungen, Fotografien, Grafiken, Collagen, Installationen und Kurzfilme. Lynch realisierte im Jahr der Ausstellung eine Fotoserie französischer Schauspielerinnen für die Zeitschrift "Elle" und wurde von dem damaligen Präsident Nicolas Sarkozy zum Offizier der Ehrenlegion ernannt.
Vom 27. September bis zum 23. November 2008 fand im "Epson Kunstbetrieb" unter dem Titel "New Photographs" in Düsseldorf und damit zum ersten Mal in Deutschland eine Ausstellung von Fotografien von David Lynch statt. Eine weitere Werksausstellung konnte vom November 2009 bis zum März 2010 in dem Max-Ernst-Museum Brühl besucht werden. Sie umfasste 150 Exponate und lief unter dem Titel "Dark Splendor". Schließlich zeigte das Goslarer Mönchehaus-Museum für moderne Kunst von Oktober 2010 bis Januar 2011 90 verschiedene Gemälde, Lithografien und Fotografien. Parallel dazu wurde Lynch der Kaiserring der Stadt Goslar verliehen.
Im April 2009 veröffentlichte der US-amerikanische Musiker Moby seine Single "Shot in the Back of the Head"; das dazugehörige Musikvideo stammte von David Lynch. Im Juni desselben Jahres erschien das Album "Dark Night of the Soul" von DJ Danger Mouse und Sparklehorse. Das Album enthält ein Booklet mit visuellen Inhalten von David Lynch. Außerdem hat Lynch zu zwei der auf dem Album enthaltenen Lieder den Text geschrieben und diese gesungen. Im selben Jahr war auf Lynchs Website die Dokumentarserie "Interview Project" zu sehen, die er zusammen mit seinem Sohn Austin produziert hatte. Letzterer war durch die USA gereist und hatte dabei alle möglichen Menschen interviewt. Es existieren insgesamt 121 Interviews, von denen Lynch alle drei Tage eines veröffentlichte. Dieses Konzept wurde dann nochmals im Interview Project Germany aufgegriffen. 2009 produzierte er außerdem Werner Herzogs Film "Ein fürsorglicher Sohn" und 2010 entstand ein 16-minütiger Online-Werbefilm für Dior: "Lady Blue Shanghai" mit Marion Cotillard.
Darüber hinaus gestaltete Lynch 2011 den privaten Nachtclub "Silencio" im zweiten Pariser Arrondissement. Er ist auch dessen Inhaber. Von Oktober 2011 bis März 2012 stellte Lynch die Ideen des Mathematikers Misha Gromov im Rahmen der Ausstellung "Mathématiques, un dépaysement soudain" in der Fondation Cartier künstlerisch dar. Nachdem Lynch sich bereits für eigene Film-Soundtracks und das Album "Dark Night of the Soul" musikalisch betätigt hatte, erschien im Januar 2011 seine erste Solo-Single mit dem Titel "Good Day Today/I Know". Das dazugehörige Album trägt den Titel "Crazy Clown Time" und wurde in Deutschland am 4. November 2011 veröffentlicht. Das Album entstand in Zusammenarbeit mit dem Tontechniker Dean Hurley. Es enthält auch einen Gastauftritt von Karen O von den "Yeah Yeah Yeahs". Im Februar 2013 stellte Lynch den von ihm gedrehten Dokumentarfilm "Idem Paris" über den Prozess der Lithografie ins Internet. Am 15. Juli 2013 erschien schließlich Lynchs zweites Solo-Album "The Big Dream" bei dem Musiklabel Sunday Best.
Werk.
Überblick.
Lynchs Werk ist ungewöhnlich breit und umfasst ebenso gut wie den Film die Malerei, die Musik, die Fotografie, die Lithografie sowie die Gestaltung von Räumen, Möbeln oder auch Champagnerflaschen. Dabei vermag es Lynch in jedem künstlerischen Bereich seine persönliche Vision umzusetzen, eine rätselhafte, suggestive Atmosphäre: „Als Regisseur hält er damit die Interpreten bis heute in Atem. Als Musiker übersetzt er seine Bilderwelten geschickt ins akustische Medium. Als Designer schließlich lädt er […] dazu ein, zu Akteuren in einer lynchschen Originalkulisse zu werden.“ Der Kunsthistoriker Thomas W. Gaehtgens sieht ebenfalls eine Kontinuität und Gemeinsamkeit in Lynchs filmischen, malerischen und musikalischen Werk: „Alle diese Tätigkeiten sind Lynch gleich wichtig und in gewisser Weise kongruent. Sie alle beruhen auf dem von ihm verfolgten Thema, den menschlichen Verhaltensweisen als Spiegelung seelischer Vorgänge nachzuspüren.“
Im Folgenden wird Lynchs Werk in Bezug auf dessen Form und Inhalt betrachtet, der Schwerpunkt liegt dabei auf seiner filmischen Arbeit. Der Filmwissenschaftler Georg Seeßlen definiert Lynchs eigen erschaffene Filmwelt als „Lynchville“, in der Popkultur wird Lynchs Filmsprache auch als „lynchean“ oder „lynchesk“ umschrieben.
Einflüsse.
David Lynchs Werk ist vor allem durch Maler beeinflusst worden. Er selbst nennt Edward Hopper, Francis Bacon und Henri Rousseau als die wichtigsten Vorbilder. Hopper hat ihn durch sein Thema der Einsamkeit geprägt, Bacon durch seine Bilder, die Deformationen des Fleisches zeigen, und Henri Rousseau durch sein Motiv des Geheimnisses. Des Weiteren nennt Lynch Ed Kienholz, Lucian Freud und David Hockney als verehrte und inspirierende Künstler.
Aus der Filmgeschichte haben ihn vor allem Jacques Tati und Federico Fellini beeinflusst. Lynch erwähnt darüber hinaus Ingmar Bergman, Werner Herzog, Stanley Kubrick, Alfred Hitchcock und Billy Wilder als Vorbilder. Zu seinen Lieblingsfilmen zählen "Der Zauberer von Oz" (1939), "Sunset Boulevard" (1950) und "Lolita" (1962).
Des Weiteren hat die Lektüre von Franz Kafka Lynch tief geprägt. Lange Zeit wollte er auch dessen Novelle "Die Verwandlung" (1915) verfilmen. „Der eine Künstler, bei dem ich wirklich das Gefühl habe, er könnte mein Bruder sein […] ist Franz Kafka. Auf den stehe ich wirklich sehr. Einige Sachen zählen zum absolut Aufregendsten, was ich überhaupt gelesen habe“, so Lynch.
Lynchs Filmkunst.
Die surrealistischen Filme werden durch thematische und motivische Stilmittel zu einem großen Ganzen zusammengebunden, wobei er sich sehr stark am Film noir orientiert.
Thematisch greift Lynch auf die Gegebenheiten seiner Kindheit in den fünfziger Jahren und die großen Erfahrungen in der Mitte der US-amerikanischen Gesellschaft zurück. Wiederkehrende Themen sind der Mittelstand, die Geborgenheit der Kleinstadt, die Musik, die Familie, Liebe und Romantik – und deren dunkle Kehrseite: unterdrückte Gewalt und Libido, das Unbewusste, das Irrationale, das Verschwiegene. Das Werk formt aus Banalem den Horror, es lässt Gewalt in Komik umschlagen, macht aus Mystischem Alltägliches, es ergänzt Pathos mit überlangen Ausführungen, mischt Improvisiertes mit Zufälligem. Das Paradoxe und die absolute Metapher sind in Lynchs Werk charakteristisch.
Kritiker Andreas Kilb sprach 1997 in der Zeit auch von dem „ewige[n] Drama des ‚nicht zu Ende geborenen Mannes‘ (Georg Seeßlen)“ und von einem Glauben an die Beseeltheit von Objekten im Gegensatz zur „Maskenhaftigkeit“ menschlicher Gesichter. Dabei sei er als (amerikanischer) Autorenfilmer doch immer vergleichsweise marktgängig geblieben. In seinem späteren Werk gewinnen zum einen die Frauen, zum anderen die Bezugnahme auf Hollywood an Gewicht.
Auf der Motivebene tauchen greifbar auf (mustergültig in "Lost Highway"): das Feuer, Hütte, Heim oder Flure, die Straße als Weg des Schicksals, die Farbe Rot oder das Schwarz, die verborgene Kammer, seltsame Mittler aus einer anderen Welt, entstellte Gestalten und organischer Verfall, der Sternenhimmel, Doppelgänger, Elektrizität und vieles mehr.
Daher besteht eine von verschiedenen möglichen Vorgehensweisen in der Interpretation darin, Motive eines einzelnen Films im Zusammenspiel mit den anderen Filmen zu untersuchen, als Teil einer übergeordneten Struktur. Nach logischen Erklärungen und rationalen Auflösungen einer Narration zu suchen, hat sich für viele Rezipienten als weniger fruchtbar erwiesen. Mittlerweile ist man in der Lynch-Rezeption so weit, dass man die Filme vorwiegend auf ihre intensive Atmosphäre hin untersucht und akzeptiert, dass sich Lynch wenig bis gar nicht für rationale, übergeordnete Strukturen oder übliche Formen des filmischen Erzählens interessiert. Zumindest formuliert Lynch es selber so. Wenn man sich mit weniger bekannten und seltener genutzten Dramaturgien resp. Erzählstrukturen beschäftigt, wird klar, dass es sich bei Lynchs Filmen um Filme der „offenen Form“ handelt und er sowohl das Modell der „seltsamen Schleife“ – auch als Möbiusband bekannt – verwendet und sich der Mittel der Postmoderne und vor allem der Dekonstruktion bedient. Lynch selbst verweist immer darauf, dass er auf die Intuition und das Traumhafte zurückgreife, er vergleicht den Prozess des Filmemachens mit dem des Malens, womit er den Blick von der Konstruktion auf den Eindruck der Intuition lenkt.
Der Soundtrack ist ein bewusst gewählter Rückgriff auf die Popkultur, in der sich der Sound der Nachkriegsjahre mit den Songs der Gegenwart abwechselt.
Rezeption.
Öffentliche Resonanz und Kritik.
Die Rezeption der Lynchschen Kunst beschränkt sich meistens auf die Filme, die seinen Ruf als Kultfigur durch internationale Aufführungen und Besprechungen gefestigt haben. Oft wird dabei der „Universalkünstler“ David Lynch vergessen, der auch Gemälde, Zeichnungen, Musik und Möbel produziert. Erst seit der Jahrtausendwende werden auch Lynchs andere Arbeiten verstärkt rezipiert, was unter anderem an den vielen Ausstellungen liegt.
Allgemein gibt es zwei Haltungen gegenüber Lynchs Werk: Entweder wird es als „merkwürdig, abwegig, unverständlich [und] provozierend“ abgelehnt oder als innovativ und künstlerisch gefeiert. Vor allem seine Filme werden wegen der exzessiven Darstellung von Gewalt und Sex kritisiert. Lynch dazu: „Das Leben ist nun mal sehr kontrastreich und voller Gewalt und man muss in der Lage sein dürfen, die Geschichten zu erzählen, die da sind. Wichtig ist, wie Gewalt verankert wird. Wenn sie im Kontext der Geschichte steht und nicht als Selbstzweck benutzt wird, dann finde ich es in Ordnung, aber man sollte sich seiner Verantwortung stets bewusst sein.“ Auch Seeßlen ist der Meinung, dass Lynch es schaffe, zu zeigen, wieso die Darstellung von Gewalt wichtig und notwendig sei. Für ihn sei sie „der Übergang vom Äußeren zum Inneren, das Eindringen in den Körper der Welt, die fundamentale Lebenserfahrung“.
Einnahmen.
Abgesehen von "Dune" hat keine Produktion eines David Lynch-Films mehr als 15 Millionen US-Dollar gekostet. Als finanzielle Erfolge können "Der Elefantenmensch", "Blue Velvet", "Wild at Heart" und "Mulholland Drive" gesehen werden.
Folgende Tabelle illustriert die Einspielergebnisse und – soweit dies möglich ist – auch die Besucherzahlen der verschiedenen Filme von David Lynch in der Bundesrepublik Deutschland. DVD- und Blu-ray-Disc-Verkäufe werden dabei nicht berücksichtigt.
Auszeichnungen (Auswahl).
David Lynch wurde insgesamt mit 42 Filmpreisen ausgezeichnet und für 38 weitere nominiert, unter anderem für vier "Oscars". 1989 bekam er die Goldene Palme der internationalen Filmfestspiele von Cannes, bei denen er 2001 auch mit dem Regie-Preis ausgezeichnet wurde. Darüber hinaus wurde ihm auf den Filmfestspielen von Venedig 2006 ein Goldener Löwe für sein Lebenswerk verliehen. 2002 wurde er durch Kulturminister Jean-Jacques Aillagon zum Ritter und 2007 durch Nicolas Sarkozy zum Offizier der französischen Ehrenlegion ernannt. Den Kaiserring der Stadt Goslar bekam er 2010 überreicht. Auf der Cologne Conference wurde er im selben Jahr mit dem "Filmpreis Köln" ausgezeichnet. In der Liste der 40 besten zeitgenössischen Regisseure der britischen Zeitung "The Guardian" rangiert David Lynch auf Platz eins.
Die folgende Liste gibt einen Überblick der wichtigsten Auszeichnungen und Nominierungen.
Engagement für Transzendentale Meditation.
Lynch tritt öffentlich für die umstrittene Bewegung Transzendentale Meditation ein. Mit seiner Stiftung "David Lynch Foundation for Consciousness Based Education and World Peace" will er unter Schülern und Studenten die Techniken der „Transzendentalen Meditation“ und des „Yogischen Fliegens“ verbreiten. Er war dafür auch in Deutschland unterwegs, wo er 200 Berliner Jugendliche eingeladen hat, auf diese Weise Berlin „unbesiegbar“ zu machen. Laut Lynch sei es wissenschaftlich erwiesen, dass „durch eine solche Kohärenz erzeugende Gruppe von 200 Yogischen Fliegern die negativen Tendenzen in einer Stadt abnehmen und die positiven Tendenzen ansteigen“. Für sein Engagement in der Organisation des indischen Gurus Maharishi Mahesh Yogi wird Lynch häufig kritisiert.
2007 war Lynch in Berlin, um den Kauf des Plateaus auf dem Berliner Teufelsberg und die dortige Errichtung der TM-Universität „Unbesiegbares Deutschland“ auf einer Veranstaltung in der Berliner Urania zusammen mit Roja Emanuel Schiffgens und Gottfried Vollmer zu verkünden. Die Veranstaltung geriet zu einem Desaster. Im Berliner Tagesspiegel hieß es dazu: „Ab Februar 2008 wird Hollywood-Regisseur David Lynch Besitzer des Teufelsbergs sein. Dort will er die ‚Universität des unbesiegbaren Deutschland‘ errichten. Vor der Grundsteinlegung kam es in der Urania zum Eklat.“
Die Szenen aus der Urania sind auch in David Sievekings Dokumentation "David wants to fly" (2010) zu sehen, in der Lynch eine zentrale Rolle einnimmt. Sieveking ist langjähriger Fan seiner Filme. Nach einem Interview mit dem Regisseur über das von Lynch favorisierte Thema der Transzendentalen Meditation bekam Sieveking einen zunehmend zwielichtigen Eindruck von der Organisation und wich mehr und mehr von einer anfangs positiven Haltung gegenüber dem Künstler ab. Diese Abkehr wurde dadurch verstärkt, dass Lynch während eines weiteren Interviews jede kritische Frage verbot. Kritisiert werden bei dem Erlernen von TM vor allem die großen finanziellen Hürden. Der TM-Grundkurs kostet in Deutschland 1.190 Euro (Ermäßigung möglich).
Diskografie.
Alben
Literatur.
Bücher.
Primärliteratur
Sekundärliteratur |
1010 | 3854618 | https://de.wikipedia.org/wiki?curid=1010 | Die Familie mit dem umgekehrten Düsenantrieb | Die Familie mit dem umgekehrten Düsenantrieb (jap. , "Gyakufunsha Kazoku") ist ein japanischer Film von Gakuryū Ishii aus dem Jahr 1984, der innerhalb weniger Wochen mit einem Budget von nur 300.000 Euro produziert wurde.
Handlung.
Die Familie des Büroangestellten Katsuhiko Kobayashi zieht in ihr neues Haus in einer Vorstadt von Tokyo ein. Die Familienharmonie wird dadurch gestört, dass sich Sohn Masaki zum Hikikomori entwickelt, Tochter Erika sich auf eine Karriere als Sängerin versteift und die Ehefrau Saeko sexuell unbefriedigt ist. Katsuhiko bekommt sehr schnell Wahnvorstellungen, er möchte sich und seine Familie vergiften. Als er im Haus eine Termite entdeckt, beginnt er mit einem Presslufthammer ein Loch unter das Haus zu graben, was schließlich zum Einsturz des Hauses führt. Als das Haus eingestürzt ist, sieht man die Kobayashis der Schlusseinstellung in ihrem Wohnzimmer unter einer Autobahnbrücke wohnen. Sie scheinen glücklich mit dieser Situation zu sein.
Erläuterung zum Titel.
Seit ein Pilot in einem Anfall von Wahn im Flug den Umkehrschub einschaltete und einen Absturz verursachte, ist der „umgekehrte Düsenantrieb“ in Japan ein geflügeltes Wort für plötzlich auftretenden Irrsinn mit katastrophalen Folgen.
Im Abspann wird der Titel, entgegen den unten angegebenen Links, mit "Die Familie mit umgekehrtem Düsenantrieb" bezeichnet.
Kritiken.
Volker Hummel bezeichnete den Film in der taz als „Klassiker des modernen japanischen Kinos und eine der besten Eskalationskomödien überhaupt.“ Den „Punk-Spirit seines Regisseurs“ merke man ihm noch heute an.
Laut Lexikon des internationalen Films bringt sich die „zu Beginn […] furiose Satire auf sinnentleerte und ritualisierte Lebensformen und die Unwirtlichkeit der Großstadt“ jedoch „durch zunehmende Hektik und Gewalttätigkeit um ihre Aussage“. |
1011 | 142526 | https://de.wikipedia.org/wiki?curid=1011 | Deutscher Schlager | |
1015 | 4017973 | https://de.wikipedia.org/wiki?curid=1015 | David Wark Griffith | David Llewelyn Wark Griffith, häufig nur "D. W. Griffith" (* 22. Januar 1875 bei La Grange, Oldham County, Kentucky; † 23. Juli 1948 in Hollywood, Kalifornien) war ein US-amerikanischer Regisseur, Drehbuchautor, Filmproduzent und Schauspieler. Er drehte zwischen 1908 und den frühen 1930er Jahren insgesamt 535 Filme, von denen mehr als 400 noch erhalten sind, und gilt als einer der einflussreichsten Regisseure der Filmgeschichte.
Griffith wird häufig als Begründer des Erzählkinos und als Schöpfer der „filmischen Grammatik“ bezeichnet. Tatsächlich hat er weniger selbst erfunden als vielmehr systematisiert. Als einer der ersten hat er während seiner Zeit bei der Filmgesellschaft Biograph (1908 bis 1913) Elemente wie Großaufnahme, Parallelmontage und viele andere konsequent eingesetzt und später in seinen richtungsweisenden Langfilmen perfektioniert. Insbesondere seine Filmepen "Die Geburt einer Nation" (1915) und "Intoleranz" (1916) wurden zu Meilensteinen der Filmgeschichte. Er zählte zu den Mitbegründern des Filmstudios United Artists sowie der Filmindustrie in Hollywood allgemein.
Leben.
Jugend, erste Berufserfahrungen.
David Wark Griffith wurde am 22. Januar 1875 auf einer Farm im ländlichen Oldham County in Kentucky als Sohn von Jacob Griffith und seiner Ehefrau Mary Perkins geboren. Der Vater hatte als Offizier (Oberst) im Sezessionskrieg in der Armee der Konföderierten gedient und starb, als sein Sohn erst zehn Jahre alt war. Seine Schulbildung erhielt der Halbwaise in einer Einzimmerschule von seiner älteren Schwester Mattie Griffith; die Kinder wuchsen methodistisch auf. Als Griffith 14 Jahre alt war, gab die Mutter ihre Landwirtschaft auf und zog mit ihm nach Louisville. Dort eröffnete die Mutter ein Boardinghouse, das sie jedoch schon nach kurzer Zeit wegen Misserfolges schließen musste. Um seine Familie zu unterstützen, verließ Griffith die Highschool und arbeitete in der Folge in einem Trockenwarenhandel und später in einem Bücherladen.
Schließlich stieg Griffith als Theaterschauspieler in das Showgeschäft ein. Er spielte mit durchwachsenem Erfolg in verschiedenen Theatergruppen, die quer durch die USA reisten und in der Regel die weniger prestigeträchtigen Bühnen des Landes bespielten. Seine 13 Jahre als Bühnenschauspieler waren zugleich aber auch ein prägender Einfluss; so weisen viele seiner Filme eine ökonomische, klare Erzählweise auf und beruhen häufiger auf Bühnenstoffen. Nebenbei versuchte Griffith sich als Bühnenautor, doch nur eines von seinen vielen Stücken wurde angenommen und gespielt, es hatte jedoch auch nur mittelmäßigen Erfolg. 1907 versuchte Griffith eines seiner Stücke an den Filmproduzenten Edwin S. Porter zu verkaufen. Der lehnte das Stück ab, gab Griffith allerdings eine kleine Rolle als Schauspieler in "Rescued from an Eagle’s Nest" von James Searle Dawley, was sein Filmdebüt bedeutete.
Filmkarriere.
Nach seiner positiven Erfahrung bei "Rescued from an Eagle’s Nest" fühlte Griffith sich vom Filmgeschäft angezogen und akzeptierte einen Vertrag als Schauspieler beim Filmstudio American Biograph. Als Biographs Hauptregisseur Wallace McCutcheon sr. erkrankte und sein Sohn McCutcheon jr. als Ersatz nur eine schwache Leistung brachte, wurde der mitspielende Griffith als Regisseur eingesetzt. Der Film unter dem Titel "The Adventures of Dollie" erschien noch 1908. Die Produzenten waren mit dem Ergebnis so zufrieden, dass sie Griffith auch bei weiteren Filmen Regie führen ließen.
1910 führte Griffith Regie bei "In Old California", dem wahrscheinlich ersten Film, der vollständig in Hollywood gedreht wurde. Griffith war damit einer der Entdecker des Ortes Hollywood für die Filmindustrie und drehte dort wegen des sonnigen Wetters, der Landschaft und des vielen Platzes. Bereits seine zahlreichen Kurzfilme bei Biograph zeugten von filmischen Innovationen und Griffith baute sich schnell einen guten Ruf in der jungen Filmindustrie auf. Bis heute werden viele von Griffiths Kurzfilmen dieser Zeit filmwissenschaftlich untersucht und besprochen. Sein Biograph-Film "Judith von Bethulien" (1914) mit Blanche Sweet, eine Verfilmung des Buchs Judit, war einer der ersten Langfilme der Vereinigten Staaten von Amerika und erhielt gute Kritiken. Allerdings wurde er auch wegen der Einbindung einer Orgienszene kritisiert.
Für seinen 1915 fertiggestellten, dreistündigen Film "Die Geburt einer Nation" über den Amerikanischen Bürgerkrieg, in dem er deutlich Partei für die Südstaaten ergreift und den Ku Klux Klan glorifiziert, wurde Griffith schon bei der Veröffentlichung wegen des offenen Rassismus gegen Afroamerikaner im Film und einer Verzerrung historischer Fakten über den Amerikanischen Bürgerkrieg kritisiert. Der Film beruht auf der ebenfalls vom zeitgenössischen Rassismus beeinflussten Romanvorlage "The Clansman" (1905) von Thomas Dixon (1864–1946): "Die Geburt einer Nation" war das bis dahin teuerste, aber auch erfolgreichste Werk in der noch kurzen Filmgeschichte. Mit einer Rekordlänge von drei Stunden, zahlreichen Massenszenen und vielen filmischen Neuerungen gilt "The Birth of a Nation" laut Filmhistorikern als „das wichtigste Einzelwerk der amerikanischen Filmgeschichte und ein Schlüsselwerk der gesamten Filmgeschichte. Es enthält viele filmtechnische Neuerungen und Verbesserungen, technische Effekte und künstlerische Errungenschaften, darunter eine Farbsequenz am Schluss. Er hatte einen formgebenden Einfluss auf zukünftige Filme und erzielte eine erkennbare Wirkung auf die Filmgeschichte und die Entwicklung des Films als Kunstform.“ Vor allem wegen "Die Geburt einer Nation", dessen positive Darstellung des Klans die Herausbildung eines neuen Ku Klux Klans inspirierte, wird Griffith heute kontrovers gesehen.
Das im folgenden Jahr herausgebrachte Werk "Intoleranz" wurde hingegen ein finanzielles Desaster. Mit diesem noch ambitionierteren und noch teureren Film wollte Griffith aufzeigen, wie Intoleranz seit jeher das menschliche Schicksal bestimmt. Mittels Parallel- und Kontrastmontagen schilderte Griffith vier Episoden – den Fall Babylons, die Passion Christi, die Bartholomäusnacht und die zeitgenössische Geschichte „Die Mutter und das Gesetz“. Der Film, in dem Griffith auch pazifistische und humanistische Ansichten teilt, gilt heute als Meisterwerk der Filmgeschichte. Nachdem bereits am Ende von "Intoleranz" der Erste Weltkrieg aufgegriffen wurde, widmete sich Griffith diesem in seinem fast zweistündigen Film "Hearts of the World" ausführlich. Das in England und Frankreich gedrehte Filmprojekt wurde von der britischen Regierung unterstützt, um die USA zum Aufgeben ihrer lange neutralen Haltung im Ersten Weltkrieg zu bewegen.
Nach "Hearts of the World" wandte Griffith sich zeitweise wieder Filmen kleineren und persönlicheren Ausmaßes zu, seine Schauspielerführung bei den Melodramen "Gebrochene Blüten" und "True Heart Susie" (beide 1919) wurde wieder hoch gelobt. Hauptdarstellerin beider Filme war Lillian Gish, die auch in vielen anderen Filmen Griffiths spielte. Auch weil sie sich bis zu ihrem Tod 1993 intensiv um das filmische Erbe Griffiths kümmerte, werden ihre Namen in der amerikanischen Öffentlichkeit häufig miteinander assoziiert. Neben Lillian Gish setzte Griffith auch viele andere Darsteller über Jahre immer wieder ein und förderte die Karrieren von jungen Schauspielerinnen und Schauspielern wie Mary Pickford, Mae Marsh, Dorothy Gish, Richard Barthelmess, Robert Harron und Carol Dempster entscheidend. Ebenfalls 1919 gründete Griffith gemeinsam mit Mary Pickford, Douglas Fairbanks senior und Charlie Chaplin die Filmfirma United Artists.
Zu seinen letzten großen Erfolgen zählen das zweieinhalbstündige Werk "Weit im Osten" (1920), in dem Lillian Gish in einer berühmten Szene auf einem eisigen Fluss um ihr Überleben kämpft, und "Zwei Waisen im Sturm" (1921), der mit den Gish-Schwestern in den Hauptrollen die Französische Revolution abhandelt. Im Verlaufe der 1920er Jahre bekamen Griffiths Filme zunehmend Probleme an den Kinokassen, denn die oftmals aufwändigen Produktionen mussten fast automatisch zu großen Kinoerfolgen werden, um überhaupt einen Gewinn zu erzielen. Zudem wirkten Griffiths Filme, die oft auf älteren Theatervorlagen basierten und melodramatische Themen behandelten, mit ihrer teilweise viktorianischen Weltsicht auf die jüngeren oder fortschrittlicheren Zuschauer in den Roaring Twenties antiquiert. Nach mehreren Misserfolgen musste er 1924 die United Artists verlassen, so waren zuvor sein großangelegtes Unabhängigkeitskriegs-Epos "America" und das in Deutschland spielende und gedrehte Sozialdrama "Ist das Leben nicht wunderbar?" an den Kinokassen enttäuschend rezipiert worden.
David Wark Griffith drehte in den späten 1920er Jahren noch weitere Filme von unterschiedlicher Qualität, die aber nicht mehr die Resonanz seiner früheren Werke erreichten. 1930 drehte er mit der aufwändigen Filmbiografie "Abraham Lincoln", in der Walter Huston die Titelrolle spielte, seinen ersten kompletten Tonfilm (sein "Lady of the Pavements" von 1929 hatte einige Tonfilm-Sequenzen). Doch trotz guter Kritiken blieb "Abraham Lincoln" an den Kinokassen hinter den Erwartungen zurück, wie auch sein nächster Film "Der Kampf" (1931) über einen alkoholsüchtigen Ehemann. Daraufhin zog sich Griffith mit Mitte Fünfzig aus dem Filmgeschäft zurück.
Späteres Leben und Privates.
1936 wurde Griffith mit dem Ehrenoscar für sein Lebenswerk ausgezeichnet. 1940 versuchte er ein Comeback mit der Regie zum Abenteuerfilm "Tumak, der Herr des Urwalds (One Million B.C.)", doch nach einem Streit mit dem Produzenten Hal Roach verließ er den Regiestuhl. Der Film wurde von Roach selber zu Ende geführt, wenngleich einige Kritiker meinen, in dem finalen Film noch Griffiths Einfluss erkennen zu können.
Griffith war zweimal verheiratet: Von 1906 bis 1936 mit der Schauspielerin Linda Arvidson (1884–1949), dann von 1936 bis 1947 mit der Schauspielerin Evelyn Baldwin (1910–2004). Beide Ehen wurden geschieden. Den letzten Abschnitt seines Lebens verbrachte er im Knickerbocker Hotel in Los Angeles. Er starb 1948 im Alter von 73 Jahren an einer Hirnblutung und wurde auf dem Friedhof in Centerfield, Kentucky begraben.
Auszeichnungen und Ehrungen.
Zudem verneigten sich zahlreiche Regiekollegen wie John Ford, Alfred Hitchcock, Orson Welles, Lev Kuleshov, Jean Renoir, Cecil B. DeMille, King Vidor, Victor Fleming, Raoul Walsh, Carl Theodor Dreyer, Sergei Eisenstein und Stanley Kubrick vor Griffith oder bestimmten seiner Werke. Charlie Chaplin nannte ihn „den Lehrer von uns allen“ ("The Teacher of us All") und bemerkte, dass die gesamte Filmindustrie Griffith ihre Existenz verdanke. Orson Welles äußerte: „Ich habe nie wirklich Hollywood gehasst, außer für die Behandlung von D. W. Griffith. Keine Stadt, keine Industrie, kein Beruf, keine Kunst verdankt soviel einem einzigen Mann.“
Von seiner Erstverleihung 1953 bis 1999 war der Ehrenpreis für das Lebenswerk ("Lifetime Achievement Award") der Directors Guild of America nach Griffith benannt. Im Jahr 1999 fiel Griffiths Name aus dem Preis, da man laut DGA-Präsident Jack Shea zwar um Griffiths Verdienste und Einflüsse wisse, aber mit dem neuen Jahrtausend die von Griffith-Filmen bestärkten rassistischen Stereotypen kritisch sehen müsse. |
1018 | 34480 | https://de.wikipedia.org/wiki?curid=1018 | Dysprosium | Dysprosium (von „schwer zugänglich“) ist ein chemisches Element mit dem Elementsymbol Dy und der Ordnungszahl 66. Im Periodensystem steht es in der Gruppe der Lanthanoide und zählt damit auch zu den Metallen der Seltenen Erden.
Geschichte.
1886 gelang dem Franzosen Paul Émile Lecoq de Boisbaudran die Isolierung von Dysprosium(III)-oxid aus einer Probe Holmiumoxid, das man bis zu diesem Zeitpunkt noch für eine einheitliche Substanz gehalten hatte.
Da die chemischen Eigenschaften der Lanthanoide sehr ähnlich sind und sie in der Natur stets vergesellschaftet vorkommen, war auch hier eine Unterscheidung nur mit sehr aufwendigen Analysemethoden möglich.
Sein Anteil am Aufbau der Erdkruste wird mit 0,00042 Gewichtsprozent (4,2 ppm) angegeben.
Die Ausgangsmineralien sind Monazit und Bastnäsit.
Gewinnung und Darstellung.
Nach einer aufwändigen Abtrennung der anderen Dysprosiumbegleiter wird das Oxid mit Fluorwasserstoff zum Dysprosiumfluorid umgesetzt. Anschließend wird dies mit Calcium unter Bildung von Calciumfluorid zum metallischen Dysprosium reduziert.
Die Abtrennung verbliebener Calciumreste und anderer Verunreinigungen erfolgt in einer zusätzlichen Umschmelzung im Vakuum. Nach einer Destillation im Hochvakuum gelangt man zum hochreinen Dysprosium.
Eigenschaften.
Dysprosium ist ein silbergraues bieg- und dehnbares Metall, das zu den Seltenen Erden gerechnet wird. Es existiert in zwei Modifikationen: Bei 1384 °C wandelt sich α-Dysprosium (hexagonal-dichtest) in β-Dysprosium (kubisch-raumzentriert) um.
Dysprosium ist sehr unedel, also sehr reaktionsfreudig. An der Luft überzieht es sich mit einer Oxidschicht, in Wasser wird es langsam unter Hydroxidbildung angegriffen, in verdünnten Säuren wird es unter Wasserstoffbildung zu Salzen gelöst.
Dysprosium besitzt zusammen mit Holmium das höchste magnetische Moment (10,6 μB) aller natürlich vorkommenden chemischen Elemente.
Bedeutung.
Als wirtschaftlich wichtiger Rohstoff mit hohem Versorgungsrisiko ist Dysprosium von der EU als kritischer Rohstoff eingestuft.
Verwendung.
Die Fördermenge von Dysprosium wird auf weniger als 100 Tonnen pro Jahr geschätzt. Es findet Verwendung in verschiedenen Legierungen, in Spezialmagneten und mit Blei legiert als Abschirmmaterial in Kernreaktoren. Jedoch gerade die Verwendung in Permanentmagneten, wie sie u. a. in den Generatoren mancher Windkraftanlagentypen verwendet werden, hat diese Metalle der seltenen Erden zum raren Rohstoff gemacht.
Weitere Anwendungen:
Verbindungen.
Eine Übersicht über weitere Dysprosiumverbindungen bietet die . |
1021 | 234013579 | https://de.wikipedia.org/wiki?curid=1021 | Deutsche Bundesbank | Die Deutsche Bundesbank ("kurz:" BBk, "international auch:" DBB) ist die Zentralbank Deutschlands mit Hauptsitz in Frankfurt am Main und Teil des Europäischen Systems der Zentralbanken. Sie ist eine bundesunmittelbare juristische Person des öffentlichen Rechts und gehört zur mittelbaren öffentlichen Verwaltung.
Die Zentrale der Bank am Standort Frankfurt am Main hat die Stellung einer Obersten Bundesbehörde (vgl. Bundesbankgesetz).
Geschichte.
Vorgänger „Bank deutscher Länder“ (1948–1957).
Die Geschichte der Deutschen Bundesbank ist eng mit der Währungsgeschichte Deutschlands nach Ende des Zweiten Weltkriegs verbunden. Angesichts der völligen Zerrüttung der deutschen Währung nach dem Krieg wurde eine Währungsreform erforderlich. Dabei trat in den westlichen Besatzungszonen einschließlich West-Berlins am 21. Juni 1948 die Deutsche Mark an die Stelle der praktisch wertlosen Reichsmark. Die Währungsreform basierte auf Gesetzen der alliierten Militärregierung. Zur Vorbereitung errichteten die Westmächte in ihren Besatzungszonen ein neues, zweistufiges Zentralbanksystem, das in seinem streng föderativen Aufbau das Federal Reserve System der Vereinigten Staaten von Amerika (USA) zum Vorbild hatte. Es bestand aus den rechtlich selbständigen Landeszentralbanken in den einzelnen Ländern der westlichen Besatzungszonen und der am 1. März 1948 gegründeten Bank deutscher Länder in Frankfurt am Main. Die Landeszentralbanken fungierten in ihren Bereichen als Zentralbanken. Die Bank deutscher Länder, deren Grundkapital bei den Landeszentralbanken lag, war für die Notenausgabe, die Koordinierung der Politik und für bestimmte zentrale Aufgaben – darunter auch die Devisenbewirtschaftung – zuständig. Oberstes Organ des zweistufigen Zentralbanksystems war der bei der Bank deutscher Länder eingerichtete Zentralbankrat. Er bestand aus seinem Präsidenten, den Präsidenten der Landeszentralbanken und dem Präsidenten des Direktoriums der Bank deutscher Länder. Der Zentralbankrat bestimmte insbesondere die Diskontpolitik und die neu eingeführte Mindestreservepolitik. Er stellte ferner Richtlinien für die Offenmarktpolitik und die Kreditvergabe auf.
Nach den schlechten Erfahrungen mit einer an Weisungen der Regierung gebundenen Notenbank setzte sich in Deutschland nach dem Zweiten Weltkrieg das Prinzip einer unabhängigen Zentralbank durch. Die Bank deutscher Länder war von Anfang an unabhängig von deutschen Staatsorganen, auch von der ab September 1949 tätig werdenden Bundesregierung (Kabinett Adenauer I). Ihre Autonomie gegenüber den Alliierten erlangte sie 1951.
Vor dem Vertrag von Maastricht (1958–1993).
Durch des am 24. Mai 1949 in Kraft getretenen Grundgesetzes wurde der Bund verpflichtet, eine Währungs- und Notenbank als Bundesbank zu errichten und damit das bis dahin geltende Besatzungsrecht durch deutsches Recht abzulösen. Diesem Auftrag kam der Gesetzgeber allerdings erst 1957 nach. Mit dem Gesetz über die Deutsche Bundesbank (BBankG) vom 26. Juli 1957 wurde der zweistufige Aufbau des Zentralbanksystems beseitigt. Die Zuständigkeiten wurden der neu gegründeten Deutschen Bundesbank übertragen. Dafür wurden die Landeszentralbanken einschließlich der Berliner Zentralbank mit der Bank deutscher Länder verschmolzen. Die Landeszentralbanken waren nun rechtlich nicht mehr selbstständige Notenbanken, sondern wurden als Hauptverwaltungen Teil der Bundesbank. Sie behielten den Namen „Landeszentralbank“ bei und blieben teilweise in ihren Entscheidungen unabhängig, so in Bezug auf die Mitwirkung an den geldpolitischen Entscheidungen im Zentralbankrat (sog. Vorbehaltszuständigkeit).
Das in Frankfurt am Main ansässige Direktorium bestand aus dem Präsidenten und dem Vizepräsidenten der Deutschen Bundesbank sowie bis zu sechs weiteren Mitgliedern. Als geschäftsführendes Organ war es für die Durchführung der Beschlüsse des Zentralbankrats verantwortlich. Das Direktorium leitete und verwaltete die Bank und war insbesondere für Geschäfte mit dem Bund und seinen Sondervermögen, für Geschäfte mit im gesamten Bundesgebiet operierenden Kreditinstituten, für Devisengeschäfte und Geschäfte im Verkehr mit dem Ausland sowie für Geschäfte am offenen Markt zuständig.
Als oberstes Entscheidungsorgan der Deutschen Bundesbank fungierte weiterhin der Zentralbankrat, der über die Währungs- und Kreditpolitik der Bundesbank entschied und Richtlinien für die Geschäftsführung und Verwaltung aufstellte. Ihm gehörten neben den Mitgliedern des Direktoriums auch die elf Präsidenten der Landeszentralbanken an.
Die Landeszentralbanken führten die in ihren Bereich fallenden Geschäfte und Verwaltungsangelegenheiten in eigener Verantwortung durch. Das Bundesbankgesetz wies ihnen ausdrücklich Geschäfte mit öffentlichen Stellen und Verwaltungen sowie mit Kreditinstituten ihres Bereiches zu. Den Landeszentralbanken waren darüber hinaus die Zweiganstalten (heute Filialen) unterstellt. Die Leitung oblag einem Vorstand, der in der Regel aus dem Präsidenten und dem Vizepräsidenten der Landeszentralbank bestand.
Im Kalten Krieg wurde von 1962 bis 1964 zur Aufbewahrung einer Notstandswährung der Bundesbankbunker Cochem im Moseltal errichtet. In der bis 1988 betriebenen und streng geheimen Anlage wurden bis zu 15 Mrd. DM gelagert.
Am 5. Dezember 1974 kündigte die Deutsche Bundesbank nach der Übernahme monetaristischer Grundsätze als erste Zentralbank überhaupt ein Geldmengenziel für das darauffolgende Jahr an.
Mit dem am 1. Juli 1990 in Kraft getretenen Staatsvertrag über die Schaffung einer Währungs-, Wirtschafts- und Sozialunion zwischen der Bundesrepublik Deutschland und der damaligen Deutschen Demokratischen Republik (DDR) wurde die D-Mark alleiniges gesetzliches Zahlungsmittel in beiden deutschen Staaten. Gleichzeitig ging die Zuständigkeit für die Geld- und Währungspolitik im erweiterten Geltungsbereich der D-Mark auf die Deutsche Bundesbank über. Dazu wurde am 3. Mai 1990 in vorgezogener Umsetzung des Staatsvertrages vom 18. Mai 1990 die Vorläufige Verwaltungsstelle in Berlin errichtet, die über die staatliche Vereinigung am 3. Oktober 1990 hinaus noch bis zum 31. Oktober 1992 tätig war.
Die Organisationsstruktur der Deutschen Bundesbank wurde über eine Novellierung des Bundesbankgesetzes an die veränderten Gegebenheiten aufgrund des Beitritts des DDR-Gebiets am 3. Oktober angepasst und zugleich gestrafft. Aus den ehemals elf Landeszentralbanken und der Vorläufigen Verwaltungsstelle in Berlin wurden neun Landeszentralbanken mit wirtschaftlich annähernd gleich großen Hauptverwaltungsbereichen geschaffen.
Nach dem Vertrag von Maastricht (1993).
Mit dem am 1. November 1993 in Kraft getretenen Vertrag von Maastricht wurden die Grundlagen für die Europäische Wirtschafts- und Währungsunion gelegt. Die nationalen Verantwortlichkeiten für die Geldpolitik wurden auf die Gemeinschaftsebene an das Europäische System der Zentralbanken (ESZB), bestehend aus der Europäischen Zentralbank (EZB) und den nationalen Zentralbanken (NZBen) der EU-Staaten, übertragen. Das Bundesbankgesetz wurde im Hinblick auf die Europäische Wirtschafts- und Währungsunion letztmals im Jahre 2002 mit dem 7. Gesetz zur Änderung des Gesetzes über die Deutsche Bundesbank vom 30. April 2002 grundlegend novelliert und gab der Bank ihre heutige organisatorische Verfassung.
Finanzkrise.
Im Verlauf der Finanzkrise ab 2007 und der Eurokrise erhöhten sich Bilanzsumme, TARGET2-Saldo und Einlagefazilität der Deutschen Bundesbank deutlich. Im März 2012 stieg die Bilanzsumme erstmals über eine Billion Euro. Im Durchschnitt des Jahres 2002 betrug die Bilanzsumme 222,4 Mrd. Euro. Im August 2012 waren es mit 1.135,4 Mrd. Euro fünfmal so viel wie im Jahr 2002. Die Notenbanken der Eurozone, darunter die Deutsche Bundesbank, betreiben das europäische Großbetragszahlungssystem TARGET2. Beim Start der Plattform im November 2007 betrug der Saldo der Bundesbank 72,6 Mrd. Euro. Im August 2012 stieg die Forderung der Bundesbank gegenüber den übrigen nationalen Zentralbanken der Eurozone (positiver TARGET2-Saldo) auf ein Allzeithoch von 751,4 Mrd. Euro. Seit November 2007 entspricht das einem Anstieg um 935 Prozent. Zwischen 1999 und 2006 lag der Durchschnitt der Auslandsposition bei 1,6 Mrd. Euro.
Die Inanspruchnahme der Einlagefazilität der Bundesbank durch die Geschäftsbanken betrug im April 2012 die Rekordsumme von 276,9 Mrd. Euro. Der Mittelwert für den Zeitraum Januar 2002 bis August 2008 liegt bei 200 Mio. Euro.
Umstrittene Geldtransfers mit dem Iran (2011).
Im Zusammenhang mit ihrer Funktion als Clearingstelle (vgl. Abschnitt Zentralbank) kam die Bundesbank zusammen mit dem Auswärtigen Amt und Wirtschaftsministerium Ende März 2011 in die Kritik, als bekannt wurde, dass die Deutsche Bundesbank seit Anfang Februar 2011 durch die Ausführung von Überweisungen in einem Volumen von 9 Milliarden Euro dem Iran ermöglicht haben soll, Sanktionen der USA zu umgehen. Ölkäufer überweisen wegen der Sanktionen kein Geld direkt an den iranischen Staat, sondern über die Bundesbank an die Europäisch-Iranische Handelsbank (EIHB) in Hamburg. Die EIHB befindet sich im Eigentum der iranischen Banken Bank of Industry and Mine, Bank Mellat, "Bank Tejarat" und "Bank Refah", welche alle unter Kontrolle – und zum Teil selbst von internationalen Sanktionen betroffen – der Islamischen Republik Iran wirtschaften. Die Sanktionen, in Form von Handelsbeschränkungen und Einfrierungen von Vermögenswerten, sollen die Verbreitung von konventionellen und atomaren Waffen beschränken.
Aufgaben.
Die Deutsche Bundesbank besteht auch nach dem Maastricht-Vertrag weiter. Ihre neuen Aufgaben wurden mit dem 7. Gesetz zur Änderung des „Gesetzes über die Deutsche Bundesbank“ vom 30. April 2002 neu festgelegt. Sie sind im § 3 des Bundesbankgesetzes definiert. Dort heißt es: „Die Deutsche Bundesbank ist als Zentralbank der Bundesrepublik Deutschland integraler Bestandteil des Europäischen Systems der Zentralbanken. Sie wirkt an der Erfüllung seiner Aufgaben mit dem vorrangigen Ziel mit, die Preisstabilität zu gewährleisten, hält und verwaltet die Währungsreserven der Bundesrepublik Deutschland, sorgt für die bankmäßige Abwicklung des Zahlungsverkehrs im Inland und mit dem Ausland und trägt zur Stabilität der Zahlungs- und Verrechnungssysteme bei.“
Aus dem Bundesbankgesetz und der EZB-Satzung leiten sich vier Tätigkeitsfelder der Bundesbank ab, die sie meist zusammen mit der EZB bearbeitet.
Die Deutsche Bundesbank unterstützt im Finanzplanungsrat die Koordination zwischen Haushaltsplanung und mehrjähriger Finanzplanung der Gebietskörperschaften.
Notenbank.
Die Bundesbank versorgt als Notenbank die Wirtschaft mit Bargeld und sichert die physische Umlauffähigkeit des Bargeldes. Mittels Banknotenbearbeitung überprüft sie das von den Banken und Wertdienstleistern eingezahlte Bargeld, stellt Falschgeld sicher und übergibt es an die Polizei.
Sie tauscht noch im Verkehr befindliche DM-Bestände ohne Frist um und ersetzt zerstörte Banknoten (NAC – Nationales Analysezentrum).
Darüber hinaus informiert sie über die Bargeldsicherheitsmerkmale und wöchentlich über die umlaufende Bargeldmenge.
Zentralbank.
Hierbei werden zwei Hauptfunktionen unterschieden:
Zunächst ist die Bundesbank "Refinanzierungsquelle" und "Clearingstelle" für Kreditinstitute.
Die Kreditinstitute können ihren Bedarf an Zentralbankgeld über die Bundesbank / EZB durch sogenannte Refinanzierungsinstrumente decken.
Die damit zusammenhängende Steuerung der Geldmenge war bis Ende 1998 wesentliche Aufgabe der Bundesbank. Seit dem 1. Januar 1999 ist es das vorrangige Ziel der EZB, mit Hilfe ihrer geldpolitischen Strategie Preisniveaustabilität zu gewährleisten.
Kreditinstitute können nicht benötigte Gelder kurzfristig bei der Bundesbank / EZB anlegen (sogenannte Einlagefazilität).
Die Bundesbank unterstützt den netzübergreifenden Zahlungsverkehr zwischen inländischen und ausländischen Geschäftsbanken, beispielsweise den Großbetragszahlungsverkehr über TARGET2. Damit sollen sekundengenau Beträge in Milliardenhöhe zwischen Banken in der ganzen EU übertragen werden.
Die Bankleitzahl (BLZ) einer Bank fungiert bei der Bundesbank als Kontonummer der Bank.
Bankenaufsicht.
Andererseits wirkt die Bundesbank an der Bankenaufsicht mit. Hierbei arbeitet sie eng mit der BaFin zusammen. Dabei geht es vor allem um die Sicherung der Stabilität des Finanzsystems. Die Bundesbank übernimmt dabei die laufende Überwachung der Banken, wertet also die Jahresabschlussberichte der Institute aus und führt Prüfungen nach § 44 KWG (siehe Kreditwesengesetz) durch. Sie liefert die statistischen Daten zur wirtschaftlichen Lage der Kreditinstitute. Die BaFin erlässt Verfügungen, Prüfungsanordnungen und Rundschreiben, meist in Abstimmung mit der Bundesbank.
Bankgeschäft.
Als Bank des Staates führt die Bundesbank kostenlos Konten für Bundes-, Landes- und Kommunalbehörden (einschließlich Universitäten) sowie für die Sozialversicherungsträger und wickelt für diese normale Bankdienstleistungen ab; diese Funktion wird als Fiskalagent bezeichnet. Allerdings machen nicht alle Träger öffentlicher Gewalt von dieser Möglichkeit, ihre Bankgeschäfte über die Bundesbank abzuwickeln, Gebrauch; der Freistaat Bayern beispielsweise nutzt die Bayerische Landesbank als Hausbank.
Sämtliche Konten werden auf Guthabensbasis geführt, d. h. der Bundesbank ist es aufgrund des in Art 101 des EU-Vertrages (jetzt: Art 123 Abs. 1 AEUV) verankerten Verbots der monetären Staatsfinanzierung durch die Zentralbanken grundsätzlich nicht gestattet, Kredite an die öffentliche Hand zu geben.
Die Bundesbank führt Girokonten und Depots außerdem auch für karitative Einrichtungen sowie für ihre eigenen Mitarbeiter. Der Service für Letztere geriet 2013 wegen seiner Kosten in die Kritik. Weiterhin unterliegen die Konten bei der Deutschen Bundesbank nicht der Überwachung laut Kreditwesengeschäft. Bis Ende 2012 war noch die Depoteröffnung für alle Privatpersonen und der Kauf von Bundeswertpapieren möglich (ab 2003 über die Bundeswertpapierverwaltung, heute Deutsche Finanzagentur, für die die Bundesbank allerdings weiterhin das Wertpapiergeschäft ausführte). Daneben ermöglichte sie in ihren Filialen Privatpersonen ohne Girokonto gegen eine Gebühr von einem Euro pro Transaktion die Bargeld-Einzahlung auf Girokonten in Deutschland. Seit 1. März 2012 ist dies aus wirtschaftlichen Gründen nur noch für Zahlungen an Behörden oder Institutionen möglich, die eine Kontoverbindung bei der Bundesbank unterhalten.
Die Bundesbank unterhält in den Bundesländern neun Hauptverwaltungen (die ehemaligen Landeszentralbanken) und 31 Filialen. Die Filialen stehen Banken, den öffentlichen Verwaltungen, den Wertdienstleistern (WDL) sowie den Mitarbeitern der Bundesbank für die Bargeldversorgung und die Abwicklung des bargeldlosen Zahlungsverkehrs zur Verfügung. Ebenso ist der Tausch von DM-Bargeld gegen Euro möglich.
Die Bundesbank erhebt außerdem statistische Daten zum Währungs- und Finanzsystem wie auch zur Außenwirtschaft. Diese sind teilweise in der makroökonomischen Zeitreihendatenbank verfügbar. In ihrem Forschungsdatenzentrum stellt die Bundesbank ferner qualitativ hochwertige Mikrodaten für Forschungszwecke bereit.
Währungsreserven.
Die Bundesbank ist zuständig für die Verwaltung der Währungsreserven. Dies sind sämtliche Vermögen der Bundesbank, die nicht auf Euro lauten, beispielsweise Goldreserven, Sorten, Wertpapiere in ausländischer Währung und Guthaben in ausländischer Währung bei Banken. Die Währungsreserven bilden dabei einen Gegenwert zur eigenen Währung. Sie werden möglichst rentabel angelegt und bilden zudem eine Möglichkeit zur Intervention bei starken Schwankungen des Wechselkurses. Die Goldreserven der Bundesbank sind die zweitgrößten nach den Goldreserven der US-Notenbank. Derzeit verwaltet die Bundesbank von Frankfurt aus, laut eigenen Angaben, 3384 Tonnen Gold (Stand: 31. Dezember 2014) zu einem Marktwert von rund 140 Milliarden Euro (Stand 4. November 2011). Der größte Teil dieser Goldreserven lagert "historisch und marktbedingt" bei der Bundesbank in Frankfurt, der Federal Reserve Bank of New York, der Bank of England in London und zu einem kleinen Anteil in Paris bei der Banque de France.
Die Bundesbank entschloss sich Anfang 2013 das Goldlagerkonzept zu überarbeiten. Künftig soll die Hälfte der Goldreserven im Inland lagern. Der Lagerstandort Paris soll bis 2020 komplett aufgegeben werden.
Forderungen nach einem Verkauf der Goldreserven, unter anderem mit dem Hinweis auf die fehlenden Zinserträge, lehnte die Bundesbank immer wieder ab. Sie schreibt dazu: "Nationale Goldreserven haben auch in einer Währungsunion eine vertrauens- und stabilitätssichernde Funktion für die gemeinsame Währung. […] Gold stellt für die Bundesbank auch vor diesem Hintergrund einen Vermögenswert dar, der ihren Ansprüchen nach Werthaltigkeit und Diversifikation ihres Portfolios – bestehend aus Devisen und Gold als Währungsreserven – gerecht wird." Diese These ist unter Wirtschaftswissenschaftlern umstritten.
Organisationsstruktur.
Vorstand.
Der Vorstand ist das oberste Organ der Bundesbank. Es setzt sich zusammen aus:
Für drei Vorstandsmitglieder (Präsident, Vizepräsident und ein weiteres Mitglied) liegt das Vorschlagsrecht bei der Bundesregierung. Die anderen drei Mitglieder werden vom Bundesrat im Einvernehmen mit der Bundesregierung vorgeschlagen. Bestellt werden alle Mitglieder des Vorstands nach § 7 Abs. 3 des Bundesbankgesetzes vom Bundespräsidenten, in der Regel für acht Jahre, mindestens aber für fünf Jahre.
Die Bezüge des Präsidenten betrugen 2015 436.355,56 Euro, die des Vizepräsidenten 348.061,83 Euro.
Stand 19. Januar 2023 setzt sich der Vorstand aus folgenden Mitgliedern zusammen:
Personal.
Die Deutsche Bundesbank beschäftigt Beamte, Angestellte und Arbeiter ( Abs. 1 BBankG). Die Deutsche Bundesbank hatte 12.022 Mitarbeiter (10.407,3 Vollzeitäquivalente) zum Stichtag am 31. Dezember 2020, davon 6170 Beamte und 5852 Tarifbeschäftigte. Hinzu kommen 85 im Fremddienst tätige Mitarbeiter, 243 ohne Bezüge beurlaubte Mitarbeiter und 56 Mitarbeiter in der Freistellungsphase der Altersteilzeit. In der Zentrale waren insgesamt 6249 Personen beschäftigt, in den Hauptverwaltungen 3087 und in den Filialen 2686. 736 Personen befanden sich in Ausbildung. 3122 Mitarbeiter waren in Teilzeit beschäftigt, 329 befristet. Der Personalbestand in Vollzeitäquivalenten ist seit Ende 2001 um 29,7 Prozent zurückgegangen.
Bankzulage.
Beamte und Angestellte erhalten bei einer Verwendung in der Zentrale eine Bankzulage in Höhe von neun Prozent, bei einer Verwendung in einer Hauptverwaltung von fünf Prozent des maßgeblichen Grundgehaltes. Für die Besoldungsgruppen A 3 bis A 12 sowie die Entgeltgruppe E 1 bis E 12 ist das Grundgehalt zum Stichtag 1. März 2015 maßgeblich, für die Besoldungsgruppen A 13 bis A 16 das Grundgehalt zum 1. März 2012 und für die Besoldungsgruppen der Bundesbesoldungsordnung B das Grundgehalt zum 1. Januar 2011. Das heißt, dass die Bankzulage bei Besoldungs- oder Tariferhöhungen nicht steigt. ( BBankPersV) Beispielsweise beträgt für einen Bundesbankdirektor in Besoldungsgruppe A 15 und Erfahrungsstufe 8 die Bankzulage bei Verwendung in der Zentrale 524,57 Euro brutto.
Beamte.
Der Präsident der Deutschen Bundesbank ernennt die Beamten der Bank. Er ist oberste Dienstbehörde. ( Abs. 2 BBankG). Die Beamten der Deutschen Bundesbank sind Bundesbeamte. Für sie gelten grundsätzlich für die Bundesbeamten allgemein geltenden Vorschriften, sofern das Gesetz über die Deutsche Bundesbank nichts anderes bestimmt ( Abs. 3 BBankG). Die Aufgaben des Bundespersonalausschusses nimmt für Bundesbankbeamte ein vom Vorstand der Bundesbank berufener Ausschuss wahr ( BBankPersV).
Bei der Deutschen Bundesbank können zusätzlich zu den Laufbahnen gemäß der Bundeslaufbahnverordnung die Laufbahnen des mittleren Bankdienstes, des gehobenen Bankdienstes und des höheren Bankdienstes eingerichtet werden ( BBankLV). Für die drei Laufbahnen sind Vorbereitungsdienste eingerichtet. (; ; ) Der Vorbereitungsdienst für die Anwärter für den gehobenen Bankdienst wird in einem Studiengang an der Hochschule der Deutschen Bundesbank in Hachenburg durchgeführt ( BBankLV). Die Befähigung für die Laufbahn des höheren Bankdienstes hat auch, wer die Befähigung zum Richteramt hat ( BBankLV). Beamte mit der Befähigung für die auslaufende Laufbahn des Geldbearbeitungsdienstes können durch eine einjährige berufspraktische Einführung die Befähigung für die Laufbahn des mittleren Bankdienstes erlangen ( BBankLV).
Die Zuordnung von Laufbahnen, Ämtern und Amtsbezeichnungen ergibt sich aus folgender Tabelle:
Eine mit "Bundesbank-" beginnende Amtsbezeichnung wird grundsätzlich von allen Beamten in der Bundesbank geführt, nicht nur von Beamten in einer Bankdienst-Laufbahn.
Gewinn.
Die Bundesbank erzielte bis einschließlich 2010 Gewinne in Höhe von über einer Milliarde Euro (siehe Grafik) vor allem aus der Refinanzierung der Kreditinstitute und aus einer zinsbringenden Anlage der Währungsreserven. Das Ergebnis aus der Anlage der Währungsreserven wird auch durch Währungsschwankungen beeinflusst: Steigende Wechselkurse ausländischer Währungen beeinflussen das Ergebnis tendenziell positiv, fallende dagegen negativ. Die Höhe der Gewinne aus der Refinanzierung der Kreditinstitute verläuft parallel zum Zinsniveau.
Da sie keine privatrechtlichen Eigentümer hat, führt die Deutsche Bundesbank entsprechend der Regelung in § 27 des Bundesbankgesetzes ihre Gewinne an den Bund als Eigentümer ab. Bis zur Höhe von 3,5 Mrd. Euro stehen diese dem laufenden Bundeshaushalt zur Verfügung, der darüber hinausgehende Betrag wird seit 1995 zur Tilgung der Schulden des Erblastentilgungsfonds verwendet. In den Jahren 1976–1979 erzielte die Bundesbank Verluste aus der Neubewertung ihrer Währungsreserven (Grund war die Schwäche von US-Dollar und Pfund Sterling (Großbritannien)). 1997 erzielte sie einen Gewinn von umgerechnet 12,4 Mrd. Euro, den höchsten Gewinn ihrer Geschichte.
Durch das "Gesetz zur Sicherung von Beschäftigung und Stabilität in Deutschland" (Konjunkturpaket II) änderte sich ab 1. Januar 2010 die Verteilung des Bundesbankgewinns. Nicht zuletzt, da auch der Erblastentilgungsfonds demnächst vollständig getilgt ist, fließt der über den Anteil für den Bundeshaushalt hinausgehende Gewinn ab 2010 in die Tilgung des Sondervermögens für das Konjunkturpaket II. Zugleich sinkt der Anteil des Gewinns, der an den Bund abgeführt wird, ab 2012 schrittweise auf 2,5 Mrd. Euro.
Im März 2012 veröffentlichte die Bundesbank einen Gewinneinbruch für 2011 von 70 %. Lediglich 643 Mio. Euro, statt der erwarteten 2,5 Mrd. Euro konnten an das Bundesfinanzministerium überwiesen werden. Der Grund liegt in der Erhöhung der Risikovorsorge von 4,1 Mrd. Euro auf 7,7 Mrd. Euro. Die Gefahr von Ausfällen bei Staatsanleihen, beispielsweise von Griechenland, welche die Europäische Zentralbank (EZB) während der Finanzkrise kauft, machte diese Entscheidung laut Aussage von Bundesbankpräsident Jens Weidmann notwendig.
2012 machte die Bundesbank nur einen Gewinn in Höhe von 664 Mio. Euro. Der Bundesfinanzminister hatte 1,5 Mrd. Euro einkalkuliert. Auch 2012 bildete die Bundesbank neue Milliardenrückstellungen für riskante Geschäfte im Auftrag der Europäischen Zentralbank (EZB).
2013 stieg der Gewinn auf 4,6 Mrd. Euro. Die Bundesregierung hatte in ihrem Haushalt mit mindestens 2,5 Mrd. Euro gerechnet. Das deutliche Plus erklärte der Bundesbankpräsident vor allem damit, dass es keinen Bedarf für weitere Risikovorsorge gegeben habe. Hintergrund war die Entspannung der Euro-Schuldenkrise.
2014 belief sich der Gewinn auf 2,95 Mrd. Euro; ein Rückgang von 35 % gegenüber 2013. Da Zinserträge aus Refinanzierungsoperationen noch immer die größte Einnahmequelle für die Bundesbank darstellen, hatte die Senkung des Leitzinses auf 0,05 % im Jahr 2014 einen verringerten Erlös zur Folge. Auf die Auflösung der Wagnisrückstellung (Stand: 14,4 Mrd. Euro) zur Profitaufstockung wurde verzichtet, da das Niedrigzinsniveau laut Aussage von Joachim Nagel, Vorstandsmitglied der Bundesbank, einen erhöhten Risikofaktor im Rahmen der Kreditvergabe, wie auch eine verschlechterte Jahresprognose für 2015, mit sich bringt.
Für 2015 wies die Bundesbank einen Gewinn von 3,2 Mrd. Euro aus. Gegenüber dem Vorjahr stieg der Überschuss vor allem wegen einer Zunahme beim Nettoergebnis aus Finanzoperationen, Abschreibungen und Risikovorsorge. Der Nettozinsertrag ging dagegen zurück.
2020 hat die Bundesbank, erstmals seit 1979, wegen der erhöhten Risikovorsorge keinen Gewinn an den Bund ausgeschüttet.
Sonstiges.
Die Bundesbank hat eine auch öffentlich nutzbare Fachbibliothek und im gleichen Hause in Frankfurt/Main das Geldmuseum.
In Eltville am Rhein unterhält die Deutsche Bundesbank ein Tagungszentrum.
Am 9. August 2007 gab die Bundesrepublik Deutschland anlässlich des Jubiläums „50 Jahre Deutsche Bundesbank“ eine 10-Euro-Silbergedenkmünze und eine Sondermarke heraus.
Seit 2011 führt die Bundesbank für die Bundeskasse Halle (Saale) ein Sonderkonto (IBAN DE17860000000086001030, BIC MARKDEF1860), auf welches Bürger ohne die Möglichkeit der steuerlichen Absetzbarkeit Gelder unter dem Betreff „Schuldentilgung“ zur Tilgung der Staatsverschuldung Deutschlands überweisen können.
Im Januar 2016 informierte die Deutsche Bundesbank über eine grundlegende Sanierung des Hauptgebäudes ihrer Zentrale. Zu diesem Zweck ist der Umzug des dortigen Personals in noch anzumietende Büros vorgesehen. Nach der ca. zweijährigen Planungsphase werden die Bauarbeiten frühestens 2018 beginnen können.
Das Institut für Zeitgeschichte erhielt 2017 von der Bundesbank den Auftrag für ein umfangreiches Forschungsprojekt. Der Zeitraum von 1923 bis 1969 soll unter wirtschafts-, sozial- und kulturgeschichtlichen Aspekten untersucht werden.
Das Projekt ist auf vier Jahre angelegt und hat zwei Blöcke mit je vier Teilprojekten. Im ersten Block stehen die Biografien des ersten Bundesbankpräsidenten Wilhelm Vocke und seines Nachfolgers Karl Blessing sowie eine Gruppenbiografie des Führungspersonals der jungen Bundesbank im Mittelpunkt. Eine Länderstudie zum besetzten Polen soll die Rolle der Reichsbank als Akteur im Eroberungskrieg untersuchen.
Im zweiten Block stehen das institutionelle Selbstverständnis und politische Handlungsfelder der Zentralbank in Deutschland im Zeitraum von 1924 bis 1969 im Vordergrund.
Untersucht werden auch |
1022 | 197042 | https://de.wikipedia.org/wiki?curid=1022 | Der Gefangene von Zenda | Der Gefangene von Zenda, englischer Originaltitel The Prisoner of Zenda, ist ein 1894 erschienener Abenteuerroman des britischen Autors Anthony Hope. Der Roman war ein Bestseller, nicht nur in Großbritannien, sondern auch im restlichen Europa und den USA, und begründete das später sehr populäre Genre der „ruritanischen Romanze“. 1898 veröffentlichte Hope eine Fortsetzung unter dem Titel "Rupert von Hentzau".
Handlung.
Die Erzählung handelt Ende des neunzehnten Jahrhunderts in dem fiktiven Land Ruritanien, das irgendwo zwischen Sachsen und Böhmen liegt. Rudolf Rassendyll, der jüngere Bruder eines Lords, ist ein Gentleman vom Scheitel bis zur Sohle. Intelligent, mit Umgangsformen und ausgezeichneter Bildung und Ausbildung. Er hat, wenn überhaupt, nur einen Makel: er hat weder Beruf noch Aufgabe – womit seine Schwägerin ihn gerne aufzieht. Und noch eine Besonderheit zeichnet ihn aus: Rote Haare und eine lange Nase. Beides taucht immer wieder in der Geschichte der Rassendylls auf. Es handelt sich dabei um eine genetische Hinterlassenschaft eines Jahrzehnte zurückliegenden Fehltritts eines Elphbergs, der Herrscher von Ruritanien. Der jüngste Spross dieser Familie sieht gerade seiner Krönung als Rudolf V. entgegen. Rassendyll beschließt, ohne seiner Familie etwas davon zu erzählen, der Krönung beizuwohnen.
Bei einem Zwischenstopp in Paris erfährt er von Bekannten weitere Einzelheiten über Ruritanien: Prinz Rudolf hat einen jüngeren Halbbruder, Michael, der für fähiger gehalten wird und seinem Bruder den Thron neidet. Die Pariserin Antoinette de Mauban ist seine Geliebte. Rassendyll entdeckt sie in Dresden im gleichen Zug. In Ruritanien verlässt er den Zug bereits in Zenda und fährt nicht bis zur Hauptstadt Strelsau weiter. In einer kleinen Pension bemerkt man sofort seine Ähnlichkeit mit dem König. Auf einem Streifzug durch die Wälder von Zenda, vorbei an Michaels Burg, trifft er zufällig auf den Kronprinzen. Der war auf einem Jagdausflug mit seinen Adjutanten Oberst Sapt und Leutnant Fritz von Tarlenheim. Der Prinz, dem die Geschichte der Rassendylls bekannt ist, lädt den Engländer zum Abendessen in seine Jagdhütte ein.
Zum Abschluss des Abends präsentiert der trinkfreudige Prinz eine Flasche seines Bruders, von der er selbst das meiste trinkt. Sehr zu seinem Nachteil, wie sich am Morgen zeigt. Der Wein war offenbar mit einem Betäubungsmittel versetzt. Der Prinz ist nicht wachzukriegen. Sapt begreift sofort: Michael will die Krönung verhindern, den ungeliebten Kronprinzen bloßstellen und selber König werden. Er hat eine kühne Idee: Rassendyll soll an Rudolfs Stelle treten. Dieser lehnt zunächst ab, lässt sich dann aber aus Angst um das Wohlergehen seines Vetters überreden. Nachdem Rassendyll Frisur und Bart dem Aussehen des Prinzen angepasst hat, sind sie kaum noch zu unterscheiden. Die Täuschung gelingt. Niemand in der Kathedrale von Strelsau argwöhnt, Rudolf V. wird gekrönt. Bei der Zeremonie trifft Rassendyll erstmals Michael, der gute Miene zum bösen Spiel macht, und die zukünftige Königin, Prinzessin Flavia. Er findet „seine“ Verlobte auf Anhieb bezaubernd.
Mit Hilfe von Sapt und Fritz steht Rassendyll den Tag durch. Als er jedoch nachts mit Sapt heimlich zur Jagdhütte reitet, ist der echte König weg und sein Diener ermordet. Gerade noch entkommen Sapt und Rassendyll Michaels Häschern. Rassendyll bleibt nichts anderes übrig, als das Spiel weiter mitzuspielen. Nach einigen Tagen nimmt er auf Druck der Öffentlichkeit Kontakt zu Flavia auf. Bislang hatte er ein Treffen vermieden. Mit gutem Grund wie sich zeigt: Sie verlieben sich ineinander. Sapt findet das – an den echten König denkend – sehr praktisch. Der Engländer verwirft derweil den Gedanken, selbst an die Stelle des Königs zu treten, sofort wieder.
Als Antoinette de Mauban den neuen König zu einem Treffen bittet, hält Rassendyll das sofort für eine Falle. Er geht trotzdem hin. Antoinette war von Michael geschickt worden. Sie bittet Rassendyll, was immer auch geschehen möge, das Leben Michaels zu verschonen und warnt ihn vor Michaels Vertrauten und Handlangern, die auf ihn warten. Mit rustikaler Hilfe eines schmiedeeisernen Tisches kann sich Rassendyll seiner Angreifer erwehren und entkommen. Ihm wird klar, dass er handeln muss. Nicht nur, dass Michael ihn beseitigen will. Um den Thron zu besteigen, müsste dieser auch Flavia heiraten. Das will Rassendyll auf jeden Fall verhindern. Mit Sapt, Fritz und einigen getreuen Soldaten quartiert er sich auf dem Stammsitz der Tarlenheims ein, in der Nähe Zendas gelegen. Vorher gibt er dem Oberbefehlshaber der Truppen den Befehl, für den Fall, dass ihm etwas zustoße, Zenda anzugreifen und Michael gefangen zu nehmen oder zu töten und Prinzessin Flavia zu inthronisieren.
Von einem Diener Michaels erfahren sie, dass der König in Michaels Schloss in einem Verlies gefangen gehalten wird. Michaels Gewährsmänner haben Order, ihn bei einem Angriff auf das Schloss sofort zu töten. Während Sapt über einen Plan nachsinnt, bekommt Rassendyll Besuch von Michaels engsten Vertrauten Rupert von Hentzau: Michael biete ihm ein kleines Vermögen und freies Geleit an. Und auch von Hentzau hat einen Vorschlag zu machen: Rassendyll solle doch das Schloss angreifen. Dann würde der König getötet und er selbst werde sich um Michael kümmern, Rassendyll könne dann weiterregieren und ihn – Hentzau – anständig entlohnen. Nachdem Rassendyll ablehnt, entgeht er einem Messerattentat von Hentzaus nur knapp, er wird dabei verletzt.
Während Flavia zu Rassendyll geeilt ist, der sich im Krankenbett von seinem „Jagdunfall“ erholt, herrscht gespannte Ruhe in Zenda, da keine Partei etwas unternehmen kann. Als Michaels Diener berichtet, dem echten König gehe es immer schlechter, beschließen Rassendyll und Sapt einen Befreiungsversuch, zumal der britische Botschafter gehörig Staub aufwirbelt auf der Suche nach einem vermissten Landsmann namens Rudolf Rassendyll.
Durch ein geöffnetes Fenster dringt Rassendyll in das Schloss ein. Er will den König befreien während Sapt mit seinen Soldaten das Haupttor angreift. Dabei wird er Zeuge, wie sich Hentzau an Antoinette heranmacht. Michael überrascht die beiden. Es kommt zum Kampf, bei dem Michael getötet wird. Rassendyll dringt bis zum König vor, tötet seine Wächter und schließt ihn sicher ein. Während Sapt das Schloss einnimmt, verfolgt Rassendyll den fliehenden Hentzau, kann ihn aber nicht erreichen. Durch einen Zufall erfährt Flavia Rassendylls wahre Identität. Schweren Herzens nehmen die beiden Abschied.
In der folgenden Nacht verlässt Rassendyll heimlich das Land. In Tirol lässt er sich den Bart nachwachsen, bevor er nach London zurückkehrt. Er erfindet eine abenteuerliche Liebesaffäre, um seine zweimonatige Abwesenheit zu erklären. Den Vorschlag seiner Schwägerin, als Attaché des neuen Botschafters nach Strelsau zu gehen, lehnt er dankend ab. Einmal im Jahr trifft er sich fortan mit seinem Freund Tarlenheim in Dresden, um Neues zu erfahren von Strelsau, Sapt, dem König und natürlich von Flavia, die ihm jedes Jahr eine rote Rose schickt, so wie er auch ihr.
Verfilmungen.
Der Film "Royal Flash" (1975) weist eine ähnliche Handlung auf, und der Film "Das große Rennen rund um die Welt" (1965) parodiert in der Episode in Karpanien die Geschichte Hopes. |
1023 | 1765216 | https://de.wikipedia.org/wiki?curid=1023 | Dyn (Einheit) | Das Dyn ist die CGS-Einheit der Kraft ().
Ein Dyn entspricht der Kraft, die notwendig ist, um eine Masse von 1 g mit 1 cm/s2 zu beschleunigen:
Das Dyn wurde in der Mitte des 19. Jahrhunderts von der British Association for the Advancement of Science definiert und 1873 als Krafteinheit vereinbart. Es war die erste international verbindliche Einheit der Kraft überhaupt. Da es eine sehr kleine Kraft ist, war auch das Megadyn in Gebrauch, das ziemlich genau der Gewichtskraft einer Masse von 1 kg entspricht (1 Megadyn ≈ 1,02 kp).
Seit dem 1. Januar 1978 ist das Dyn in Deutschland keine gesetzliche Einheit mehr; es wurde durch die SI-Einheit Newton ersetzt. |
1024 | 3670678 | https://de.wikipedia.org/wiki?curid=1024 | Dram | Dram bezeichnet:
DRAM ist die Abkürzung für: |
1025 | 568 | https://de.wikipedia.org/wiki?curid=1025 | Drachm | Drachm steht für:
Siehe auch: |
1026 | 284660 | https://de.wikipedia.org/wiki?curid=1026 | Dominikaner | Der katholische Orden der Dominikaner, auch Predigerorden, lat. "Ordo (fratrum) Praedicatorum" (Ordenskürzel OP), wurde im frühen 13. Jahrhundert vom heiligen Dominikus gegründet. Der Sitz der Generalkurie des Predigerordens ist Santa Sabina in Rom.
Geschichte.
Gründung und erste Jahre.
Dominikus wurde im Jahr 1170 in der kastilischen Ortschaft Caleruega geboren. Schule und Studium absolvierte er in Palencia. Im Jahr 1196 trat er in das Domkapitel von Osma in Kastilien ein, wurde dort zum Priester geweiht und wurde 1201 Subprior des Kapitels. Auf Reisen im Gefolge seines Bischofs Diego de Acevedo wurde er in Südfrankreich mit den dortigen Erfolgen der Katharer konfrontiert. Der Katharismus fand aufgrund der asketischen Lebensweise und rhetorischen Überzeugungskraft seiner Prediger großen Anklang in der Bevölkerung. Von den örtlichen Feudalherren wurde er toleriert oder auch gefördert, während die theologisch und seelsorgerisch wenig ambitionierte katholische Geistlichkeit hauptsächlich um die Sicherung ihrer Pfründen und weltlichen Privilegien bemüht war. Auch die von Papst Innozenz III. als Legaten beauftragten Zisterzienser, die den Schwerpunkt ihrer Tätigkeit nicht in der Missionierung, sondern in der politischen Diplomatie und der Herbeiführung repressiver Maßnahmen sahen, hatten sich vor allem den Hass der Bevölkerung zugezogen, aber dem Katharismus keine wirksamen Maßnahmen entgegensetzen können.
Bischof Diego hatte zunächst das Projekt einer Missionierung der Türken verfolgt und ersuchte den Papst Innozenz III. in Rom dafür um Befreiung von seinem Bischofsamt. Dem Papst war jedoch die Missionierung in Südfrankreich das vordringliche Anliegen. Ende des Jahres 1204 kehrten die beiden über Cîteaux nach Südfrankreich zurück und stimmten ihre Missionstätigkeit mit den päpstlichen Legaten (u. a. Pierre de Castelnau) ab. Mit Unterstützung des neuen Bischofs von Toulouse, des Zisterziensers und ehemaligen Trobadors Folquet de Marseille, gründeten sie 1206/1207 in Prouille (okzitanisch: "Prolha") in der Nähe von Fanjeaux einen Konvent für bekehrte Katharerinnen, die in den ersten Jahren nach der Regel der Zisterzienser lebten. Während Diego nach Osma zurückkehrte und dort Ende 1207 verstarb, blieb Dominikus in Südfrankreich und widmete sich von Prouille aus weiter seiner inneren Berufung, durch ein Wanderleben zu Fuß, statt herrschaftlich zu Pferde, in apostolischer Armut und durch rastlosen Einsatz als Prediger die Bevölkerung wieder zum katholischen Glauben zu bekehren. Diesem Programm, welches das Betteln als Form des Lebensunterhalts einschloss und dadurch im Widerspruch zu den noch gültigen kirchlichen Vorschriften stand, erteilte am 17. November 1206 auch der Papst eine erste offizielle Genehmigung. Als es im Jahr 1208 zu dem vom Papst seit längerem vorbereiteten, militärischen Kreuzzug gegen die Katharer kam (siehe: Albigenserkreuzzug), war Dominikus anscheinend nicht maßgeblich an der Organisation und Propaganda des Kreuzzuges beteiligt, sondern ihm fiel vor allem die Aufgabe zu, die Überlebenden in der militärisch unterworfenen Region nunmehr auch geistlich zu bekehren, wobei seine Missionstätigkeit unter anderem dadurch gefördert wurde, dass der militärische Anführer des Kreuzzuges, Simon IV. de Montfort, und die neuen katholischen Herren den Konvent von Prouille mit Schenkungen und Privilegien bedachten.
Im Jahr 1215 wurden Dominikus und sechs seiner Gefährten durch Bischof Folquet von Toulouse in rechtsverbindlicher Form als Predigergemeinschaft approbiert. Grundlage des Ordens war von Anfang an die Augustinusregel, weshalb die Dominikaner zu den augustinischen Orden gezählt werden. Diesen Regeln fügte die Gemeinschaft Konstitutionen bei, die sich auf die Durchführung des Predigtauftrags bezogen. Die Brüder waren beauftragt, die Häresie zu bekämpfen und den Glauben zu predigen, und erhielten dazu die Erlaubnis, als Wanderprediger ein Leben in religiöser Armut zu führen. Die dafür erforderlichen Mittel wurden ihnen durch Almosen der Diözese zugeteilt; was davon nicht gemäß der Zweckbestimmung verbraucht wurde, war am Ende des Jahres zurückzuerstatten. Diese neue Institution wurde noch im selben Jahr durch ein päpstliches Schreiben approbiert und 1215 dann durch den 10. Kanon des IV. Laterankonzils, dort allerdings ohne Festlegung des Prinzips apostolischer Armut, allen Bischöfen vorgeschrieben.
Zurückgekehrt nach Toulouse entsandte Dominikus am Fest Mariä Himmelfahrt des Jahres 1217 (15. August) seine Mitbrüder in die Welt – zunächst nach Paris und nach Spanien – zur Gründung neuer Konvente, hierin dem biblischen Vorbild Christi bei der Entsendung der Jünger folgend. Zum Jahreswechsel hielt er sich erneut in Rom auf und erwirkte am 11. Februar 1218 eine päpstliche Enzyklika, in der das Armutsprinzip der Prediger bekräftigt und die Amtsträger der Kirche zu deren Unterstützung aufgefordert wurden. Im selben Jahr folgten Gründungen der ersten italienischen Konvente, in Bologna und durch Dominikus selber in Rom. Von Rom begab er sich über Toulouse nach Spanien, Nordfrankreich (Paris) und erneut nach Italien, um die Gründung und Organisation neuer Konvente persönlich zu unterstützen. Als besonders folgenreich erwiesen sich hiervon die frühen Gründungen in Paris und Bologna, die wesentlich dazu beitrugen, dass der Orden durch Lehrstühle an den entstehenden Universitäten und durch Einrichtung eigener Generalstudien bald eine führende Rolle in der mittelalterlichen Wissenschaft einnehmen konnte.
Im Jahr 1220, als bereits annähernd 60 Niederlassungen bestanden, hielt Dominikus zu Pfingsten in Bologna die erste Generalversammlung des Ordens ab. Das Generalkapitel ergänzte die erste Fassung ("prima distinctio") der Satzungen von 1216 durch eine "secunda distinctio" und gab dem Orden seine in den Grundzügen bis heute gültige Organisationsform. Es besiegelte zugleich die Entwicklung von einem Kanonikerorden zu einem Bettelorden "sui generis" durch die Verschärfung des Armutsprinzips, indem außer dem persönlichen auch der gemeinschaftliche Besitz und feste Einkünfte ausgeschlossen wurden. Nach neuerlichen Predigten in Oberitalien, wo Honorius III. zum Vorgehen gegen die aus Südfrankreich zugelaufenen Katharer aufgerufen hatte, verstarb Dominikus am 6. August 1221 in Bologna.
Hochmittelalter und Spätmittelalter (13. bis 15. Jahrhundert).
Die von dem zweiten Ordensmeister Jordan von Sachsen als "Constitutiones" zusammengestellten Satzungen und Regelwerke des Ordens wurden von dessen Nachfolger Raimund von Peñafort, einem der größten Kanonisten seiner Zeit, in eine systematische Ordnung gebracht und seither durch die Generalkapitel immer wieder geändert oder ergänzt. Seit der frühen Zeit herrschte allerdings ein gewisser Pragmatismus in der Anwendung der Vorschriften, indem in Einzelfällen Dispensationen möglich waren und tatsächlich auch häufig erteilt wurden, um Hindernisse bei der Ausübung des Studiums oder der Predigt auszuräumen. Seit dem Generalkapitel von 1236 wurden Verstöße gegen die Constitutiones außerdem nicht mehr als Sünde, sondern als durch Buße abzugeltendes Vergehen bewertet.
Das strenge Armutsprinzip wurde im Lauf des 14. Jahrhunderts vielfach dadurch gelockert, dass einzelne Ordensmitglieder Benefizien annahmen und dadurch die "vita privata" als Usus einführten. Durch das große abendländische Schisma wurde der Orden zeitweise in drei „Observanzen“ zerrissen. Raimund von Capua als Generalmeister der römisch-urbanianischen Observanz initiierte 1390 eine Reformbewegung, die die "vita privata" zurückdrängen und die "vita apostolica" erneuern sollte. Dies führte zur Gründung von Reformkonventen, die sich ihrerseits zu Reformkongregationen und Reformprovinzen zusammenschlossen. Als bindende Vorschrift wurde das ursprüngliche Armutsprinzip "de jure" aufgehoben, als Martin V. im Jahr 1425 zunächst einzelnen Konventen und Sixtus IV. 1475 dem gesamten Orden Besitz und feste Einkünfte erlaubte.
Wie andere Bettelorden entwickelten die Dominikaner im späten Mittelalter durch ihren missionarischen Eifer eine judenfeindliche Haltung. Die am meisten verbreitete antijüdische Schrift des Mittelalters stammte von einem Dominikaner, dem Spanier Alfonso de Buenhombre. Sein fingierter "Brief des Rabbis Samuel", der sich als Werk eines bekehrten Juden ausgab, behandelte die Zerstreuung der Juden unter den Völkern und ihre Ursache. Der 1339 in lateinischer Sprache abgefasste Brief wurde in beinahe alle Sprachen des Abendlandes übersetzt und hat sich in mehr als dreihundert Handschriften erhalten.
Inquisition.
Der Dominikanerorden stellte seit dem Beginn der Inquisition zu Beginn des 13. Jahrhunderts im päpstlichen Auftrag Inquisitoren zur Aufspürung und Verfolgung von Häretikern. Aufgrund der Erfahrungen, die der Orden bereits früh in Auseinandersetzung mit Häretikern gesammelt hatte, sowie seiner intellektuellen Ausrichtung bot er dafür besonders gute Voraussetzungen. Bereits 1231–33 erteilte Papst Gregor IX. in seinem mehrfach ausgestellten Sendschreiben "Ille humani generis" mehreren Dominikanerkonventen den Auftrag zur Verfolgung von Häresien. Besonders aktiv wurden die Dominikaner, die man deshalb mit einem Wortspiel auch als "domini canes (Hunde des Herrn)" bezeichnete, daraufhin in Südfrankreich bei der inquisitorischen Bekämpfung der Katharer. Neben Inquisitoren aus den Reihen anderer Orden, etwa der Franziskaner, wirkten Dominikaner als Inquisitoren während des gesamten Mittelalters vor allem in Frankreich, Italien und im Heiligen Römischen Reich. Bedeutende Dominikanerinquisitoren waren u. a. Bernard Gui († 1331), Walter Kerlinger († 1373), Tomás de Torquemada († 1498), der erste Generalinquisitor der Spanischen Inquisition, oder Jakob van Hoogstraten († 1527). Umgekehrt fielen auch Mitglieder des Dominikanerordens der Inquisition zum Opfer, wie Giordano Bruno.
Dominikaner beteiligten sich auch an den Anfängen der Hexenverfolgung, darunter Nicolas Jacquier († 1472) oder Heinrich Kramer († 1505), der Autor des Hexenhammers.
Im Jahr 2000 nahm das Provinzkapitel der Dominikanerprovinz Teutonia zur historischen Beteiligung der Dominikaner an der Inquisition und Hexenverfolgung kritisch Stellung (siehe hier).
Kirchenbau.
Bedeutende historische Dominikanerkirchen, auch Predigerkirchen genannt, sind die Französische Kirche in Bern sowie weitere Beispiele in Basel, Eisenach, Erfurt, Regensburg, Rottweil oder Zürich. Viele davon befinden sich heute nicht mehr im Besitz des Dominikanerordens.
In der ostwestfälischen Hansestadt Warburg (Land Nordrhein-Westfalen) kann das Kuriosum von gleich zwei ehemaligen Dominikanerklöstern und -kirchengebäuden im Stadtgebiet besichtigt werden, die nicht mehr im Besitz des Ordens sind. Es handelt sich hierbei um die erste Dominikanerkirche St. Maria in vinea (Klosterkirche von 1281 bis 1803) mit seinem seit 1826 als Gymnasium Marianum genutztem Klostergebäude sowie um die zweite Dominikanerkirche mit -kloster "St. Mariä Himmelfahrt" (Klosterkirche von 1903 bis 1993). Im letztgenannten Konvent befand sich bis zur Auflösung das Noviziat als Ausbildungsstätte der Provinz Teutonia.
1953 baute der bekannte schweizerisch-französische Architekt Le Corbusier Kirche und Kloster der Dominikaner Sainte-Marie de la Tourette bei Lyon.
20. Jahrhundert.
In den 1950er- und 1960er-Jahren erlebte der Orden im deutschsprachigen Raum „eine erneute Blüte“. Neue Konvente wurden gegründet bzw. wiederbegründet: in Braunschweig (1952), in Münster (1961), in Hamburg (1962) und in Bremen (1968).
Der Orden in der Gegenwart.
Verfassung des Ordens.
Was den Orden der Predigerbrüder von seiner Gründung her auszeichnet, ist seine demokratische Verfassung. Alle Brüder tragen gemeinsam die Verantwortung für die Verwirklichung der Ziele der Ordensgemeinschaft. Es gibt ein Mitspracherecht auf allen Ebenen. Alle Oberen werden auf Zeit gewählt. Wichtige Entscheidungen werden von der Gemeinschaft der Brüder oder ihrer jeweiligen Delegierten im Konvents-, Provinz- oder Generalkapitel getroffen. Der Generalobere der Dominikaner wird Ordensmeister (Magister Ordinis) genannt. Der derzeitige Ordensmeister (seit Juli 2019) ist Gerard Francisco Timoner.
Der kleinste Baustein des Ordens ist ein Kloster, der sogenannte Konvent, der traditionell aus mindestens sechs Mitgliedern besteht. Ist die Zahl der Mitglieder geringer, handelt es sich um ein "Domus" (Haus). Hier leben die Brüder in Gemeinschaft zusammen, halten gemeinsam das Chorgebet und erfüllen ihre Aufgaben im Studium, in der Predigt innerhalb und außerhalb des Konvents und zum Teil auch in Übernahme von Aufgaben der pfarrlichen oder kategorialen Seelsorge (Krankenhaus, Gefängnis, Beratungsdienste etc.). Der Obere eines Konventes wird Prior genannt, und auf drei Jahre gewählt. Er wird vom nächsthöheren Oberen, dem Provinzial, bestätigt. Der Obere eines Domus wird als Superior bezeichnet. Er wird vom Provinzial nach Anhörung der Gemeinschaft für drei Jahre ernannt. Die Konvente und Häuser sind zu Provinzen zusammengeschlossen, heute insgesamt 42, denen jeweils ein Provinzial vorsteht. Er wird für vier Jahre auf dem alle vier Jahre tagenden Provinzkapitel gewählt, das sich aus den gewählten Prioren und zusätzlich gewählten Delegierten zusammensetzt. Der Provinzial wird vom Ordensmeister, dem höchsten Oberen des Ordens bestätigt. Der Ordensmeister wiederum wird vom Generalkapitel, der obersten gesetzgebenden Versammlung, auf neun Jahre gewählt. Wähler sind hier jeweils die gewählten Provinziale sowie von den Provinzen gewählte Delegierte.
Spiritualität.
Die Spiritualität des Ordens wird vom Ziel her bestimmt: (Papst Honorius III.). Die Predigt fließt aus der Fülle der Beschauung, so dass Thomas von Aquin formulieren konnte: („sich der Kontemplation widmen und die Frucht der Kontemplation weitergeben“). Die spezifische Lebensform der Dominikaner, für die das Gemeinschaftsleben, das feierliche, gemeinsame Chorgebet und das ständige Studium charakteristisch sind, führt zur Verkündigung in Wort und anderen apostolischen Aktivitäten.
Apostolat.
In der heutigen Zeit sind für die Dominikaner vor allem folgende Prioritäten für ihr Tun leitend:
Statistik.
Heute gibt es weltweit ca. 6.000 Brüder, ferner 3.000 Nonnen und über 30.000 tätige Schwestern in Kongregationen des dritten Ordens (siehe Dominikanerinnen). Die Dominikanischen Laiengemeinschaften beiderlei Geschlechts führen ein spirituelles Leben im Geiste der dominikanischen Tradition, leben aber in der Welt, gehen einem Beruf nach und können auch verheiratet sein.
Zur Provinz "Teutonia" (gegründet 1221) gehören 9 Konvente: Köln (Provinzialat), Düsseldorf, Vechta, Hamburg, Berlin, Braunschweig, Leipzig, Worms, Mainz (Studienhaus). Das Noviziat befindet sich seit 1993 in Worms, wo die Dominikaner schon zehn Jahre nach der Ordensgründung im Jahr 1216 ansässig wurden. Darüber hinaus gibt es eine kleinere Niederlassung (Domus) im Wallfahrtsort Klausen bei Trier sowie in Berlin (Institut M.-Dominique Chenu). Zur Provinz Teutonia gehörte bis 2013 ein Vikariat in Bolivien mit 6 Niederlassungen (Santa Cruz de la Sierra, Cochabamba, Pampagrande, Comarapa, Samaipata, Mairana, Potosi). Das Vikariat wurde 2013 als Vizeprovinz von Bolivien selbstständig. Seit 2020 ist Ungarn Provinzvikariat der Teutonia mit Häusern in Sopron, Debreczen und Sentendre.
Die Süddeutsch-Österreichische Provinz umfasst vier Konvente: einen Konvent in Baden-Württemberg (Freiburg), zwei in Bayern (Augsburg, München) und einen in Österreich (Wien).
"Siehe auch:" Liste der Dominikanerklöster.
Das Wappen der Dominikaner.
Als Wappen des Dominikanerordens sind zwei unterschiedliche Motive zu finden, das "Lilienkreuz" und das "Mantelwappen".
Das gegenwärtige Wappen der Dominikaner zeigt im von schwarz und silber achtfach geständerten Schild ein schwarz und silber geständertes Lilienkreuz. Das Lilienkreuz tritt seit dem 15. Jahrhundert auf und ist damit älter als das schwarz-silberne ekklesische Mantelwappen. Es ist ein ursprünglich der Inquisition zugeordnetes Emblem und findet erst seit dem 17. Jahrhundert allgemeine Verbreitung als Symbol für den Predigerorden.
Das Mantelwappen (heraldisch: Mantelzug) ist eine "silberne Spitze auf schwarzem Feld". Es erscheint erstmals 1494 in einem venezianischen Processionarium, wird dann in Europa zum üblichen Zeichen für die Dominikaner und trug ihnen in England die Bezeichnung als Blackfriars, schwarze Brüder, ein. Gedeutet wird es als .
Das eigentlich ältere Lilienkreuz verdrängte das Mantelwappen erst an der Wende zum 20. Jahrhundert, beim Generalkapitel in Bologna 1961 wurde das Mantelwappen wieder zum verbindlichen Abzeichen des Dominikanerordens erklärt, was aber bereits das Generalkapitel von 1965 in Bogotá wieder aufhob. Seitdem ist die Verwendung beider Wappenbilder freigestellt. |
1028 | 4130873 | https://de.wikipedia.org/wiki?curid=1028 | Zeit des Nationalsozialismus | Die Zeit des Nationalsozialismus (auch NS-Zeit und NS-Diktatur genannt) umfasst die Zeitspanne von 1933 bis 1945, in der Adolf Hitler im Deutschen Reich eine von der Nationalsozialistischen Deutschen Arbeiterpartei (NSDAP) gestützte Führerdiktatur, den NS-Staat, etablierte. Die NS-Zeit begann am 30. Januar 1933 mit der Ernennung Hitlers zum Reichskanzler und endete am 8. Mai 1945 mit der bedingungslosen Kapitulation der Wehrmacht vor den Alliierten und ihren Verbündeten.
Mit seiner expansiven und rassistischen Ideologie und Politik entfesselte Hitler den Zweiten Weltkrieg, in welchem die Nationalsozialisten und ihre Helfershelfer Massenverbrechen und Völkermorde verübten.
Leitbild nationalsozialistischer Gesellschaftspolitik war eine in sich geschlossene, rassisch und ideologisch gleichförmige Volksgemeinschaft von „Ariern“. Politisch Andersdenkende und Regimegegner wurden von Anbeginn der NS-Diktatur mit Mitteln des Staatsterrors verfolgt und unter anderem in Konzentrationslager gesperrt. Juden wurden diskriminiert und etwa durch die Nürnberger Gesetze systematisch entrechtet. Die radikalantisemitische Politik der Nationalsozialisten mündete in den Holocaust.
Die Außenpolitik des NS-Staats war darauf gerichtet, Deutschlands Niederlage im Ersten Weltkrieg vergessen zu machen und die vorherige Großmachtstellung zu erneuern und zu erweitern. Bereits 1933 trat Deutschland aus dem Völkerbund aus; mit der Aufrüstung der Wehrmacht, der Wiedereinführung der allgemeinen Wehrpflicht 1935 sowie der Besetzung des entmilitarisierten Rheinlands 1936 wurde gegen wichtige Teile des Versailler Vertrags verstoßen. 1938 folgte der „Anschluss“ Österreichs an das Deutsche Reich. Im selben Jahr erlaubte das Münchner Abkommen Deutschland die Eingliederung des Sudetenlandes.
In der Expansionsphase ab 1938 verübten Nationalsozialisten und ihre Anhänger in ganz Europa zahlreiche Verbrechen gegen die Menschlichkeit an ethnischen, religiösen und anderen gesellschaftlichen Minderheiten. Etwa sechs Millionen europäische Juden wurden im historisch beispiellosen Holocaust, bis zu 500.000 Sinti und Roma im Porajmos und etwa 100.000 Menschen mit geistigen und körperlichen Behinderungen im Rahmen der „NS-Krankenmorde“ umgebracht.
Nach der Strategie des Hungerplans ließen die deutschen Besatzer in der Sowjetunion zwischen 1941 und 1944 geschätzt 4,2 Millionen Menschen bewusst verhungern, darunter etwa eine Million Menschen während der Leningrader Blockade. Rund 3,1 Millionen sowjetische Soldaten starben in deutscher Kriegsgefangenschaft.
Die Ära der nationalsozialistischen Diktatur in Deutschland und über weite Teile Europas wird in einem ethisch-moralischen Sinn als Zivilisationsbruch und als Tiefpunkt der deutschen, aber auch der europäischen Geschichte insgesamt angesehen.
Entstehung und Aufstieg des Nationalsozialismus.
Die ideologischen Vorstellungen und gesellschaftlichen Entwicklungen, die sich im Nationalsozialismus bündelten, sind als tief verwurzelt im 19. Jahrhundert anzusehen. Extrem nationalistische, rassistische, antisemitische und chauvinistische Ansichten ließen sich im 19. und 20. Jahrhundert in den meisten europäischen Staaten finden, ohne dass sie aber als repräsentativ für eine ganze Gesellschaft anzusehen seien, heißt es bei Kurt Bauer.
Es habe viele Gründe, dass der Nationalsozialismus „in einem unheilvollen Moment der Geschichte“ zur Macht gelangen konnte: „Monokausale Erklärungsansätze versagen kläglich, wenn es um komplexe Ursachen und Zusammenhänge geht, die den Nationalsozialismus geschichtsmächtig werden ließen.“
Faschismus und Nationalsozialismus gingen in der Sicht Hans-Ulrich Thamers aus der Krise der europäischen bürgerlich-liberalen Ordnung und aus dem Zeitalter der Revolutionen hervor. Beide Bewegungen setzten die Ausbildung und Verfestigung der großen politischen Denkströmungen des 19. Jahrhunderts voraus: Liberalismus, Demokratie, Sozialismus und Konservatismus – und deren Verformung durch Massenmobilisierung und Massenideologie. Ihr Verhältnis zur überkommenen Staats- und Gesellschaftsordnung sei ein doppeltes: sowohl reaktionär als auch revolutionär. Thamer schreibt:
Folgenreicher Erster Weltkrieg.
Als „Urkatastrophe des 20. Jahrhunderts“ hat George F. Kennan den Ersten Weltkrieg bezeichnet und als Auslöser sowohl der Hyperinflation als auch der Weltwirtschaftskrise, des Zweiten Weltkriegs und des Kalten Kriegs gesehen. Die politischen, sozialen und ökonomischen Bedingungen für den Aufstieg des Nationalsozialismus wurden im und durch den Ersten Weltkrieg geschaffen. Für Ian Kershaw ist „ohne den Ersten Weltkrieg und dessen Hinterlassenschaft […] das Dritte Reich nicht denkbar.“ Die Nationalsozialisten hätten das kollektive Trauma instrumentalisiert, indem sie Deutschlands Niederlage 1918 als Katastrophe deuteten, die immer weiter fortgewirkt habe.
Dabei bedienten sie sich verschwörungstheoretischer Deutungsmuster wie dem von den „Novemberverbrechern“ und der Dolchstoßlegende: Juden und Sozialdemokraten seien dem angeblich siegreichen deutschen Heer mit der Novemberrevolution hochverräterisch in den Rücken gefallen. Diese These wurde von weiten Teilen der deutschen Bevölkerung geteilt und war geeignet, die Weimarer Republik nachhaltig zu delegitimieren.
Zum verbreiteten Objekt nationalsozialistischer Empörung und Propaganda wurde zudem der von Siegermächten Deutschland aufgezwungene Versailler Vertrag, der von den meisten Deutschen als ungerecht empfunden wurde. Er lud Deutschland und seinen Verbündeten in Artikel 231 die Kriegsschuld auf, was als Grundlage für Reparationsforderungen diente und für klare Fronten in der Kriegsschulddebatte sorgte.
Der Versailler Vertrag brachte den Verlust sämtlicher Kolonien und erheblicher Gebiete im Osten, Norden und Westen Deutschlands mit sich; das Rheinland wurde von Truppen der Siegermächte besetzt, und Deutschland unterlag strengen Rüstungsbeschränkungen. Die Höhe der zu leistenden Reparationszahlungen blieb vorerst unbestimmt; diesbezügliche Leistungen wurden 1920 bis 1923 mittels Ultimaten durchgesetzt. Die dagegen grundsätzlich aufbegehrenden Nationalsozialisten bezeichneten denn auch alle Versuche der Weimarer Regierungen, durch eine Verständigungspolitik mit Frankreich und Großbritannien den Vertrag abzumildern, als „nationalen Verrat“. Für sie war der „Kampf gegen Versailles“ das zentrale Anliegen.
Auch innenpolitisch hatte der Weltkrieg verheerende Folgen, die von den Nationalsozialisten ausgenutzt werden konnten: Er war nämlich über Staatsanleihen finanziert worden, deren Käufern man eine erhebliche Rendite versprochen hatte. Stattdessen entledigte sich das Deutsche Reich durch eine Hyperinflation bis 1923 all seiner Staatsverschuldung, wodurch aber nicht nur die Anleihebesitzer, sondern auch alle Inhaber von Sparguthaben de facto enteignet wurden. Dieser Vertrauensbruch begünstigte den Aufstieg des Nationalsozialismus.
Kurt Bauer hält ohne den Ersten Weltkrieg auch die bolschewistische Oktoberrevolution für kaum möglich, die in Europa eine Verschärfung und Radikalisierung der politischen Auseinandersetzung bewirkt habe: „Der gewaltige und extrem gewaltsame Umsturz der gesellschaftlichen und sozialen Verhältnisse in Russland führte zu Kriegsende und in der Nachkriegszeit zu nicht einfach als irrational abzutuenden Ängsten vor einer ähnlichen Revolution – und damit letztlich zur Neigung, in rechtsextremen, faschistischen Gruppierungen Garanten vor dem Bolschewismus zu sehen.“ Zudem wird mitunter darauf hingewiesen, dass die im Krieg erfahrenen klaren Befehlsstrukturen die Frontgeneration für die angeblichen Vorzüge eines autoritären Systems und für das Führerprinzip empfänglich gemacht hätten.
Ein weiterer Faktor, der die Weimarer Republik stark belastete und der NS-Bewegung Vorschub leistete, war das Überdauern undemokratischer Traditionen in Staat und Gesellschaft: Die Novemberrevolution hatte die meisten der kaiserlichen Beamten, Richter, Universitätsprofessoren usw. in ihren Ämtern belassen. In der zu Anfang der 1930er Jahre von schweren Krisen erfassten Weimarer Demokratie aber standen diese monarchistisch und nationalistisch sozialisierten Eliten nicht entschieden auf Seiten der Demokratie, sondern zeigten sich zu einem Bündnis mit der NSDAP bereit. Der Historiker Martin Broszat urteilt, dass die NSDAP seit ihrem Aufstieg zur Massenpartei 1929/30 lediglich zusammenfasste, „was – zersplittert, aber in großer Breite – als ideologisch-politisches und als interessenpolitisches Potential längst vorgeformt war“. Zwar erweist sich Ernst Troeltschs viel zitiertes Schlagwort von der „Republik ohne Republikaner“ angesichts der Wahlergebnisse bis 1930 als falsch, doch bestand ein Manko in der Demokratiefestigkeit der Bevölkerung. Indiz dafür war bereits 1925 die Wahl des erklärten Republikgegners Paul von Hindenburg zum Reichspräsidenten. Nach seiner Wiederwahl 1932 ernannte er den dabei unterlegenen Konkurrenten Adolf Hitler am 30. Januar 1933 zum Reichskanzler.
Zu den das Emporkommen der Nationalsozialisten begünstigenden Rahmenbedingungen zählte nicht zuletzt die latente und oft krisenhaft zugespitzte politische Instabilität der Weimarer Republik, die bereits in ihren Anfangsjahren mehreren Putsch- und Revolutionsversuchen ausgesetzt war. In den frühen 1930er Jahren erschütterten wiederum bürgerkriegsartige Auseinandersetzungen zwischen Angehörigen der SA und des (seit 1929 verbotenen) Roten Frontkämpferbund die öffentliche Ordnung.
Die Regierung und mit ihr die demokratische Ordnung der Weimarer Republik verloren wegen des Versagens vor den Herausforderungen der Weltwirtschaftskrise massiv an Vertrauen in der Bevölkerung: Die prozyklische Deflationspolitik und die Deutsche Bankenkrise vom Sommer 1931 verschärften die Depression, bis schließlich mit fünf Millionen Arbeitslosen jede dritte deutsche Familie betroffen war. Der britische Wirtschaftshistoriker Harold James sieht den Nationalsozialismus als „Deutschlands Antwort auf die Weltwirtschaftskrise“.
Gründung und Emporkommen der NSDAP bis 1933.
In ihrem Gründungsjahr 1920 war die durch Umbenennung aus der Deutschen Arbeiterpartei (DAP) hervorgegangene NSDAP nur „eine von mehreren Dutzend Grüppchen im nationalistisch-völkischen Spektrum, die seit Kriegsende in München entstanden waren.“ Adolf Hitler vertrat mit dem am 24. Februar 1920 im Münchner Hofbräuhaus präsentierten 25-Punkte-Programm entschieden antidemokratische, völkisch-nationalistische und rassistische, vor allem antisemitische Positionen. Ende des Jahres erwarb die NSDAP den "Münchner Beobachter" und machte ihn zum Völkischen Beobachter (VB) als Parteizeitung, dem „"Kampfblatt der nationalsozialistischen Bewegung Großdeutschlands"“. Hitler, seit September 1919 DAP-Mitglied, erwarb sich den Ruf eines „Trommlers“ und „Einpeitschers“ der Partei und wurde 1921 auf eigenes ultimatives Verlangen hin zum „Ersten Vorsitzenden mit diktatorischer Machtbefugnis“ gewählt.
Im Oktober 1921 kam es unter Einbeziehung von Mitgliedern der beim Kapp-Putsch gescheiterten Marine-Brigade Ehrhardt zur Gründung der Sturmabteilung (SA), die zunächst vor allem bei Saalschlachten zum Einsatz kam. Bei der Gründung von NSDAP-Ortsgruppen über München hinaus halfen lokale Anhänger des mitgliederstarken Deutschvölkischen Schutz- und Trutzbundes.
Als nach der Ermordung Walther Rathenaus durch Mitglieder der rechtsextremistischen Organisation Consul auf Grundlage des neu geschaffenen Republikschutzgesetz zwar der Deutschvölkische Schutz- und Trutzbund im Freistaat Preußen verboten wurde (die Regierung des Freistaats Bayern sah keinen Handlungsbedarf), nicht aber die NSDAP, kam es 1922 zu einer Wanderungsbewegung innerhalb des rechtsradikalen Milieus und zur Verdoppelung der NSDAP-Mitgliedschaften.
Auf dem Höhepunkt des Krisenjahres 1923 der Weimarer Republik entschloss sich Hitler, auch unter dem Eindruck zunehmender Ungeduld des eigenen Parteivolks, mit Unterstützung des vormaligen Weltkriegsstrategen Erich Ludendorff zu einem Putsch nach dem Vorbild von Mussolinis Marsch auf Rom mit dem Ziel, die Regierungen in Bayern und Berlin abzusetzen. Der von der nationalsozialistischen Propaganda so bezeichnete „Marsch auf die Feldherrnhalle“ in München wurde jedoch von der bayerischen Landespolizei niedergeschlagen, die NSDAP nun auch in Bayern verboten.
Im Hitler-Prozess vor dem bayerischen Volksgericht ergingen gegen die Putschbeteiligten durchweg milde Urteile, wenn nicht Freisprüche. Hitler selbst, dem der Prozessverlauf die weithin wahrgenommene Bühne für Propaganda in eigener Sache bot, erhielt lediglich die gesetzliche Mindeststrafe von fünf Jahren Festungshaft in der Festung Landsberg. Dabei wurde ihm die Haftentlassung auf Bewährung schon nach Verbüßung von sechs Monaten in Aussicht gestellt, und die nach dem Republikschutzgesetz anzusetzende Ausweisung als Ausländer wurde erlassen.
Während der Haft unter ungewöhnlich komfortablen Bedingungen diktierte Hitler seinem damaligen Sekretär und späteren Stellvertreter Rudolf Heß seine programmatische Autobiografie "„Mein Kampf“".
Das Verbot der NSDAP vom 23. November 1923 wurde durch die Gründung von Tarnorganisationen unterlaufen: in Bayern durch die Großdeutsche Volksgemeinschaft unter Alfred Rosenberg, der im Juli 1924 von Julius Streicher und Hermann Esser abgelöst wurde; in Norddeutschland durch die von Gregor Strasser und Erich Ludendorff geführte Nationalsozialistischen Freiheitsbewegung Großdeutschlands.
Nach seiner Haftentlassung am 20. Dezember 1924 fand Hitler ein gespaltenes und geschwächtes völkisches Lager vor, das zu vereinen und nunmehr auf legalen Wegen an die Macht zu bringen, er sich allein vorbehielt. Diese Legalitätstaktik führte zu einem systemischen Konflikt mit der SA, die ein revolutionäres Vorgehen forderte.
Tatsächlich gelang es Hitler aber stets, bei innerparteilichen Richtungskämpfen und Rivalitäten die Oberhand zu behalten. Der Historiker Hans-Ulrich Wehler vermutet, ohne die Person Hitler „wäre der Nationalsozialismus aller Wahrscheinlichkeit nach eine ordinäre autoritär-nationalistische Partei mit diffusen Zielen geblieben, wie es sie mancherorts gab“.
Nach der Aufhebung des Verbots in Preußen am 12. Dezember 1924 – die von den Nationalsozialisten ausgehende Gefahr schien für diese schärfste Sanktion nicht mehr groß genug – wurde die NSDAP am 27. Februar 1925 im Münchner Bürgerbräukeller mit Hitler als einzigem Redner neu gegründet.
In der zweistündigen Rede, die er mit den bekannten ideologischen Versatzstücken begann, erklärte Hitler schließlich, sich in seinem Führungsanspruch von Fraktionen oder Flügeln keinerlei Bedingungen vorschreiben zu lassen „und inszenierte anschließend geschickt die Versöhnung der in seiner Abwesenheit heillos Zerstrittenen auf offener Szene“. Die Rede hatte allerdings auch zur Folge, dass die bayrische Regierung ein Redeverbot gegen Hitler erließ, dem sich zahlreiche andere Länderregierungen anschlossen und das bis März 1927 galt, in Preußen bis September 1928. In dieser Phase der relativen Stabilisierung der Weimarer Republik blieb die NSDAP eine randständige Splitterpartei.
Der 1929 im Ergebnis gescheiterte Volksentscheid gegen den Young-Plan, der der nationalsozialistischen Agitation breite Entfaltung bot, und die mit wachsender Massenarbeitslosigkeit nach Deutschland übergreifende Weltwirtschaftskrise waren wichtige Bedingungsfaktoren des enormen Mandatszuwachses der NSDAP bei der Reichstagswahl 1930. Hinsichtlich des Spektrums potenzieller Wähler, das unter anderen Arbeiter, Mittelstand und Landwirte umfasste, war die NSDAP ungewöhnlich breit aufgestellt; sie war in einer Formulierung des Parteienforschers Jürgen W. Falter eine „Volkspartei des Protests“.
Im Ulmer Reichswehrprozess gegen Offiziere der Reichswehr, denen die Verbreitung von nationalsozialistischer Propaganda vorgeworfen wurde, bezeugte Hitler im Herbst 1930 in seinem öffentlichkeitswirksamen sogenannten Legalitätseid, dass er die Macht „nicht mit illegalen Mitteln“ anstrebe, und trat damit Gerüchten über einen neuerlichen Putsch entgegen.
Doch verlagerte sich die politische Auseinandersetzung auch wegen der rückläufigen Handlungsfähigkeit des Reichstags in der nach der Reichstagswahl 1930 beginnenden mehr und mehr in den außerparlamentarischen Raum. Die Wehrverbände der Parteien – die SA der NSDAP, der der DNVP nahestehende Stahlhelm, der an die KPD angelehnte, seit 1929 verbotene Rotfrontkämpferbund, das sozialdemokratisch dominierte Reichsbanner Schwarz-Rot-Gold – begegneten sich in militant ausgetragenen Konflikten auf den Straßen und in den Versammlungssälen.
Im Oktober 1931 gingen die Nationalsozialisten in der Harzburger Front ein Bündnis mit dem Stahlhelm und der Deutschnationalen Volkspartei (DNVP) ein, das im Streit um die Reichspräsidentenwahl 1932 aber rasch wieder zerfiel. Der bis dahin staatenlose Hitler bekam mit der Einbürgerung die Möglichkeit, zu kandidieren, während die DNVP den Stahlhelm-Führer Theodor Duesterberg unterstützte. Hindenburg setzte sich erneut durch.
In den beiden Reichstagswahlen im Juli und im November des Jahres 1932 ging die NSDAP als mit Abstand stärkste Fraktion hervor. Nationalsozialisten und Kommunisten hatten als extreme Flügelparteien nun eine negative Mehrheit im Reichstag, die jede parlamentarische Arbeit unmöglich machte. Hitler beanspruchte in Gesprächen mit Hindenburg über eine mögliche Regierungsbeteiligung der Nationalsozialisten für sich unnachgiebig die Kanzlerschaft; die angebotene Vizekanzlerschaft lehnte er ab.
Hindenburg weigerte sich lange, Hitler als Kanzler einzusetzen und gab auch nach Papens zweifachem Scheitern noch Kurt von Schleicher für eine Verständigung mit dem Reichstag den Vorzug vor Hitler. Als auch von Schleicher im Reichstag keinen Rückhalt fand, empfahl dieser selbst im Zusammenwirken mit anderen Vertrauenspersonen des nun 86-jährigen Paul von Hindenburg die Ernennung Hitlers zum Reichskanzler. Anders als in der marxistischen Geschichtswissenschaft in der Agententheorie lange angenommen, trugen die Spenden der Großindustrie wenig zum Aufstieg der NSDAP bei. Die Partei finanzierte sich vor 1933 weitgehend selbst. Erst nach der Machtergreifung spendeten die Industriellen großzügig, z. B. die Adolf-Hitler-Spende der deutschen Wirtschaft.
Etablierung des Regimes 1933/34.
Bei der Bildung des Kabinetts Hitler waren unter den zwölf Mitgliedern außer ihm selbst nur zwei weitere Nationalsozialisten vertreten: Wilhelm Frick und Hermann Göring. Der DNVP-Vorsitzende Alfred Hugenberg und Vizekanzler Franz von Papen meinten, sich Hitler für ihre eigenen Zwecke „engagiert“ zu haben. Papen bügelte Zweifler ab: „Was wollen Sie denn! Ich habe das Vertrauen Hindenburgs. In zwei Monaten haben wir Hitler in die Ecke gedrückt, dass er quietscht.“
Der französische Botschafter André François-Poncet, der von vornherein anderer Meinung war, stellte ein halbes Jahr nach dem Beginn von Hitlers Kanzlerschaft fest, dass der Nationalsozialismus bei der Machtergreifung binnen fünf Monaten eine Wegstrecke zurückgelegt hatte, für die der italienische Faschismus unter Mussolini zuvor fünf Jahre gebraucht habe.
Hindenburg löste nach ergebnislosen Scheinverhandlungen Hitlers mit dem Zentrum zur Bildung einer Mehrheitsregierung den Reichstag am 1. Februar 1933 erneut auf und setzte Neuwahlen an. In der Verordnung des Reichspräsidenten zum Schutze des Deutschen Volkes vom 4. Februar wurden erste Notverordnungen erlassen, die vor allem gegen Kommunisten und Sozialisten gerichtet waren und die Presse-, Meinungs- sowie Versammlungsfreiheit einschränkten. Unmittelbar nach dem Reichstagsbrand vom 27. Februar 1933 erließ Hindenburg die Reichstagsbrandverordnung, die diese Grundrechte der Verfassung noch stärker beschnitt.
Viele Mitglieder der KPD, der SPD und der kleineren kommunistischen und sozialistischen Parteien sowie der freien Gewerkschaften wurden misshandelt und in „Schutzhaft“ genommen. Überall im Reich entstanden in Turnhallen, Scheunen oder Kellern provisorische Haftorte der SA, in denen politische Gegner festgehalten und gefoltert wurden. Ein erstes Konzentrationslager des später dann planmäßig und zentralstaatlich eingerichteten Lagersystems der SS wurde in Dachau errichtet. Zahlreiche Inhaftierte überlebten die Haftbedingungen nicht, zu denen auch Folter und Mord gehörten.
Bei der von SA-Terror begleiteten Reichstagswahl am 5. März 1933 verfehlte die NSDAP die absolute Mehrheit. Daran änderte sich auch nichts, als man die von der KPD gewonnenen Sitze vor der ersten Sitzung des neuen Reichstags annullierte. Hitler musste weiter in einer Koalition mit der DNVP regieren. Das Ermächtigungsgesetz vom 24. März 1933, dem auch die Abgeordneten der anderen Parteien außer der SPD zustimmten, gab seiner Regierung zunächst für vier Jahre fast uneingeschränkte Gesetzgebungsbefugnisse.
Mit dem Gesetz gegen die Neubildung von Parteien vom 14. Juli 1933 wurde die NSDAP die einzige zugelassene Partei in Deutschland. Die DNVP löste sich selbst auf, ihre Abgeordneten traten der NSDAP bei. Zur Reichstagswahl am 12. November 1933 wurde lediglich eine Einheitsliste aus NSDAP-Mitgliedern und ausgesuchten Gästen vorgelegt.
Der deutsche Reichstag blieb erhalten, war aber bis 1945 ein Scheinparlament. Siehe dazu auch Wahlrecht in der Zeit des Nationalsozialismus. Mit dem Gleichschaltungsgesetz verloren die Länder alle hoheitlichen Aufgaben sowie ihre von der Weimarer Verfassung garantierte Eigenständigkeit an die bald danach allein im „Führerwillen“ zum Ausdruck kommende nationalsozialistische Zentralgewalt. Ähnliche Maßnahmen betrafen bis Ende 1934 die meisten Vereine, Verbände und Gewerkschaften, die Handwerkerschaft, Studentenverbindungen, Medien, Kultureinrichtungen und die Justiz. Parteiorganisationen der NSDAP übernahmen in vielen Bereichen die vormaligen Aufgaben staatlicher Stellen und nichtstaatlicher Interessenverbände.
Als zur Jahresmitte 1934 die von fortgesetzter revolutionärer Ungeduld und eigenem Geltungsbedürfnis getriebene SA-Führung unter Ernst Röhm dem auf Konsolidierung seiner Machtposition und Interessenausgleich mit der Reichswehrführung bedachten Hitler lästig wurde, beendete dieser im Einvernehmen mit Himmler, Goebbels und Göring den sogenannten Röhm-Putsch mit Hilfe von SS-Getreuen und ließ sowohl Röhm und seine Entourage als auch weitere persönliche Gegner ermorden – sich selbst dabei als oberster Gerichtsherr und Wiederhersteller geordneter Verhältnisse inszenierend.
Damit sicherte er sich die Unterstützung der Reichswehrführung, sodass nach dem bevorstehenden Tod Hindenburgs auch Hitlers schon vorbereiteter Zusammenlegung von Kanzlerschaft und Reichspräsidentschaft nichts mehr im Wege stand. Indem Hitler zugestand, die Reichswehr werde künftig als einziger Waffenträger im Reich verbleiben, konnte er sich nun problemlos zu ihrem Oberbefehlshaber machen.
Nach Hindenburgs Tod am 2. August 1934 übernahm Hitler aufgrund eines von seiner Regierung beschlossenen Gesetzes das Amt des Reichspräsidenten und gab sich den Titel "Führer und Reichskanzler". Durch ein Plebiszit (Volksabstimmung) ließ er sich sein Vorgehen nachträglich bestätigen.
Der Kriegsminister Werner von Blomberg, den Hindenburg noch vor Hitler ernannt hatte und der mit anderen dessen Macht nach den Vorstellungen der Konservativen hatte „einrahmen“ bzw. „zähmen“ sollen, ließ die Reichswehr nun auf Hitlers Person vereidigen. Auch die Beamten mussten einen „Führereid“ ablegen. Mit dem Gesetz zur Wiederherstellung des Berufsbeamtentums als Grundlage wurden regimekritische Mitarbeiter aus den öffentlichen Verwaltungen entfernt. Damit hatte Hitler seine Herrschaft innenpolitisch durchgesetzt, stabilisiert und dauerhaft abgesichert.
Vorkriegsjahre 1934 bis 1939.
Attribute und Ausrichtung der NS-„Volksgemeinschaft“.
Dem propagierten Anspruch nach sollten in der NS-Volksgemeinschaft alle gesellschaftlichen Unterschiede aufgehoben sein. Man versprach, alte soziale Gegensätze aufzulösen und eine nationale Massengesellschaft zu schaffen.
Dabei standen soziale Beziehungen auch im nichtöffentlichen Bereich unter fortwährender Anspannung. „Das Private konnte Rückzugsraum sein, gleichzeitig unterstand es dem dauernden Anspruch, das eigene Verhalten neu auszurichten und bisherige Grenzen zwischen privatem und öffentlichem Leben einzureißen. Der Nationalsozialismus forderte eine permanente Entscheidung, sich angemessen im Sinne der Volksgemeinschaft zu verhalten.“
Ein wesentliches Instrument zur Herbeiführung der Volksgemeinschaft nationalsozialistischer Denkart war Gewalt. Sie war ein wichtiger Bestandteil des nationalsozialistischen Selbstverständnisses und des Aufstiegs der Bewegung. Sie bildete „eine zentrale Säule“ der politischen Ordnung seit 1933, und laut Dietmar Süß gehörte es „zu den Wesensmerkmalen der NS-Herrschaft, staatliche und parteiamtliche Gewalt immer weiter zu entgrenzen.“
Schon während der ersten Monate der Regierung Hitler, so auch Riccardo Bavaj, vollzog sich mittels Gewalt die Ausweitung der nationalsozialistischen Macht in einer „wechselseitigen Dynamik von oben und unten“. Gewalt blieb auch das stets verfügbare Mittel der Wahl all denen gegenüber, die den politischen und ethnisch-rassistischen Feindbildern der Nationalsozialisten entsprachen und demzufolge der NS-Volksgemeinschaft nicht angehören sollten. Schon vor 1933 publizierte die NSDAP beispielsweise Listen, Verzeichnisse und teils Stadtpläne, die entweder den Weg zu „deutschen“ Geschäften oder die Lage „jüdischer“ Geschäfte markierten. Das sollte die deutsche Hausfrau dazu anhalten, die richtige Kaufentscheidung zu treffen.
Das besondere Augenmerk der Nationalsozialisten galt der Jugend, ihrer umfassenden sozialen Kontrolle, indoktrinierenden Erfassung und Mobilisierung, während die erzieherische Rolle der Eltern zurückgedrängt wurde, soweit das eben möglich war. „Macht und Konsens in Hitlers Staat“, so Thamer, „beruhten zu einem großen Teil darauf, daß das Regime immer wieder jugendliche Begeisterungsfähigkeit und Aggressivität freizusetzen und diese gleichzeitige zu disziplinieren und zu manipulieren verstand.“
Propaganda und Personenkult.
Die Bedeutung der NS-Propaganda für die Erreichung der selbstgesetzten Ziele hatte Hitler bereits in der Neugründungsphase der NSDAP 1925 hervorgehoben:
Die Partei sei kein Selbstzweck, sondern solle nur „den politisch-agitatorischen Kampf der Bewegung ermöglichen, der Aufklärungstätigkeit diejenigen organisatorischen Voraussetzungen schaffen, die unbedingt nötig sind.“ In "Mein Kampf" forderte er mittels Propaganda die Gewinnung von Menschen für die Parteiorganisation, die wiederum andere Menschen für die Fortführung der Propaganda mobilisieren sollten. Es gehe darum, den „bestehenden Zustand“ zu zersetzen und die neue Lehre zu verbreiten. Der Sieg sei möglich, „wenn die neue Weltanschauung möglichst allen Menschen gelehrt und, wenn nötig, später aufgezwungen wird.“
Das im März 1933 geschaffene Reichsministerium für Volksaufklärung und Propaganda unter Joseph Goebbels bekam die Zuständigkeit „für alle Aufgaben der geistigen Einwirkung auf die Nation, der Werbung für Staat, Kultur und Wirtschaft, der Unterrichtung der in- und ausländischen Öffentlichkeit über sie und der Verwaltung aller diesen Zwecken dienenden Einrichtungen.“
Mehrere hundert Beamte waren laut Thamer allein damit beschäftigt, die täglichen Presseanweisungen für das in seiner numerischen Vielfalt weitgehend fortbestehende deutsche Zeitungswesen zu formulieren und ihre Einhaltung zu überwachen. Tag für Tag erhielten die Vertreter der Zeitungen die vorgefilterten Informationen nebst Anweisungen, wie davon Gebrauch zu machen war.
Als weiteres wichtiges Verbreitungsmedium der politischen Propaganda des Regimes dienten der Hörfunk und der eigens dafür entwickelte Volksempfänger, der massenhafte Verbreitung fand und mit dem das Radiohören – dem propagierten Anspruch nach – nicht mehr Privatangelegenheit jedes einzelnen sein, sondern zur „staatspolitischen Pflicht“ werden sollte. Von 25 Prozent aller Haushalte 1933 stieg die Abdeckungsquote mit Radiogeräten auf 65 Prozent 1941, wobei ländliche Regionen und einkommensschwache städtische Haushalte teils weiterhin keinen Rundfunkempfang hatten.
Kernbestandteil der NS-Propaganda war der Personenkult um Hitler. Im öffentlichen Alltagsleben besonders sichtbar wurde dies, nachdem seit Juli 1933 für alle Reichsbehörden, Reichsstatthalter und die Landesregierungen der Hitlergruß verpflichtend geworden war, den man so als „deutschen Gruß“ von der Partei auf das gesamte öffentliche Leben übertrug, so auch auf die Schulen, wo Lehrer zu Beginn jeder Unterrichtsstunde die Klasse mit „Heil Hitler“ begrüßen sollten.
In Städten brachte man teilweise an Strommasten, Laternenpfählen, Geschäften und Haustüren kleine Emailleschilder an mit Aufschriften wie zum Beispiel: „Der Deutsche grüßt: Heil Hitler!“, oder auch: „Volksgenosse, trittst Du ein, soll Dein Gruß ,Heil Hitler‘ sein!“ Ein weiteres Element des Hitlerkults war das jährliche Begängnis des Führergeburtstags am 20. April.
Am Vorabend fand reichsweit der Eintritt der neuen Jahrgänge in die Hitlerjugend statt; am Tag selbst wurden allerorts Vereidigungen, Mitgliederaufnahmen und die Verleihung von Auszeichnungen vorgenommen.
Damit fügte sich der 20. April in den NS-spezifischen Kalender von Feiern, Festen und Gedenktagen ein, deren Auftakt an jedem 30. Januar der „Tag der Machtergreifung“ war.
Am 24. Februar fand jeweils die „Parteigründungsfeier“ statt, zur Märzmitte der Heldengedenktag; am 1. Mai wurde der „Tag der nationalen Arbeit“ begangen, bald danach der Muttertag mit Ehrungen für die Heldinnen der „Gebärschlacht“. Am 21. Juni feierte man die Sommersonnenwende mit Feuerrädern und Feuerreden und Anfang September gab es alljährlich den Reichsparteitag in Nürnberg, das höchste Fest der NSDAP, 1933 ein fünftägiges, 1938 ein achttägiges Begängnis, das an Pracht- und Machtentfaltung alle anderen Veranstaltungen des NS-Kalendariums noch überbot. „Die Magie der Fahnen und Fackeln, der Massenrituale und des Führerkults, der Todesverklärung und Treueschwüre betäubte alle Sinne und befriedigte älteste Schauergelüste.“ Ende September oder Anfang Oktober wurde das dem „Nährstand“ gewidmete Reichserntedankfest auf dem Bückeberg bei Hameln ebenfalls als Massenveranstaltung gefeiert, 1933 mit 500.000 Menschen, 1937 mit mehr als 1,3 Millionen.
Am 9. November beging Hitler mit seinem Gefolge in München den Tag zum Gedenken an die „Gefallenen der Bewegung“: Gemeinsam mit den „Alten Kämpfern“ marschierte Hitler hinter der „Blutfahne“ zwischen anderen Fahnen und brennenden Opferschalen, um auf diese Weise das Scheitern des Putsches von 1923 in einen Triumph zu verwandeln und die Gefallenen der Bewegung „zu Religionsstiftern eines neuen Staatskults“ zu erheben: „Das Blut, das sie vergossen haben, ist Taufwasser geworden für das Reich.“
Am Ende des NS-Festkalenders lagen im Dezember die Feier der Wintersonnenwende und die „Volksweihnacht“, durch deren NS-spezifische Abwandlungen die christliche Weihnacht zurückgedrängt werden sollte, was allerdings nur in parteinahen Kreisen einigen Erfolg hatte.
Sozialpolitik.
Während die kommunistisch und sozialdemokratisch orientierten Teile der Arbeiterschaft durch Gewalt und Repression einerseits binnen weniger Monate der NS-Herrschaft ihre politische und gewerkschaftliche Vertretung einbüßten – ersatzweise wurde die Deutsche Arbeitsfront (DAF) unter Robert Ley gegründet und das Arbeitsleben in den Betrieben nach dem Führerprinzip organisiert –, ging es andererseits für die Nationalsozialisten darum, die Masse der Lohnabhängigen für ihre Vorstellungen von einer neuen, rassenexklusiven Volksgemeinschaft zu gewinnen.
Neben dem 1. Mai wurden noch weitere bezahlte Feiertage geschaffen und wurde der bezahlte Urlaub ausgeweitet. Man sorgte für die steuerliche Entlastung niedriger und mittlerer zulasten höherer Einkommen, stellte Schuldner gegenüber Gläubigern besser und legte beim Mieterschutz nach.
Nachhaltige Popularität gewannen die freizeitpolitischen Maßnahmen des Regimes unter dem Dach der NS-Gemeinschaft „Kraft durch Freude“ (KdF), die an das Beispiel der faschistischen Opera Nazionale Dopolavoro in Italien anknüpfte. In Hitlers Gründungsaufruf hieß es: „Ich will, daß dem deutschen Arbeiter ein ausreichender Urlaub gewährt wird. Ich wünsche dies, weil ich ein nervenstarkes Volk will, denn nur mit einem Volk, das seine Nerven behält, kann man wahrhaft große Politik machen.“
Mit der Verlängerung der tariflich geregelten jährlichen Urlaubszeit von drei Tagen im Jahr 1933 auf sechs bis zwölf Tage wurde eine Reisemöglichkeit für alle geschaffen.
Da die Mitgliedschaft in der DAF die in der KdF einschloss, war die gesellschaftliche Breitenwirkung gegeben. Die Preise waren laut Thamer konkurrenzlos billig, sowohl für eine Wochenendfahrt in den Bayerischen Wald als auch für eine Kreuzfahrt nach Italien. Dies war möglich durch eine strenge Rationalisierung, durch Zuschüsse aus DAF-Mitteln und durch Preisdiktate gegenüber dem Beherbergungsgewerbe.
Die Teilnehmerzahl an KdF-Urlaubsfahrten stieg von 2,3 Millionen 1934 auf 10,3 Millionen im Jahr 1938. Gleichwohl gehörte nur jeder dritte bis vierte Teilnehmer einer KdF-Reise zur Arbeiterschaft; Hauptnutznießer waren die Mittelschichten.
Mit dem Schlagwort „Kultur für alle“ wurden im KdF-Rahmen einerseits Konzerte und Theaterstücke in die Fabriken gebracht und andererseits finanzielle und gesellschaftliche Hürden etwa hinsichtlich der Kleiderordnung aufgehoben, die Arbeiter am Betreten von Konzertsälen und Schauspielhäusern gehindert hatten. So wurden schließlich auch größere Kontingente an Eintrittskarten für die Bayreuther Festspiele zu günstigen Preisen einem Arbeiterpublikum angeboten.
Als wesentliches Instrument zur Mobilisierung des NS-Gemeinschaftsgefühls sieht Burleigh die Nationalsozialistische Volkswohlfahrt (NSV) an, der Hitler im Mai 1933 die Zuständigkeit für „alle Fragen der Volkswohlfahrt und der Fürsorge“ unter der Leitung von Erich Hilgenfeldt zusprach.
Die daneben noch weiter bestehenden kirchlichen Wohlfahrtsverbände und das Deutsche Rote Kreuz wurden Zug um Zug der NSV unterstellt, die bis 1939 zur größten NS-Massenorganisation nach der DAF aufstieg – mit über achtzigtausend Angestellten und einer Million ehrenamtlicher Helfer. Durch Mitgliederbeiträge und massenhafte Sammelaktionen verfügte sie über enorme Finanzmittel.
Dabei ging es den Nationalsozialisten speziell um Pflicht und Opfer für das Wohlergehen der Gemeinschaft und um ein aktivistisches Klima in ihrem Dienst. Dies galt ebenso für das der NSV beigeordnete Winterhilfswerk des Deutschen Volkes (WHW) als soziales Nothilfeprogramm für die härtesten Monate des Jahres. Hierbei wurde die Solidarität der Bessergestellten demonstrativ eingefordert, speziell durch den Eintopfsonntag an jedem ersten Sonntag des Monats in der Winterzeit, wobei die für eine üppigere Mahlzeit eingesparten Mittel an das WHW abgeführt werden sollten.
Die von NSV, KdF, WHW und anderen NS-Organisationen ausgehenden Aktivitäten, wie zum Beispiel Massentourismus und Eintopfessen, wirkten laut Thamer hin „auf eine psychologische Egalisierung und eine Veränderung der sozialen Gefühlswelt. Die Beschwörung der Volksgemeinschaft und die egalisierende Wirkung von Massenkonsum und industrieller Massenkultur verstärkten einander. Zwar blieb die nationalsozialistische Volksgemeinschaft ein Mythos, aber auch Mythen haben eine verändernde Kraft, vor allem, wenn sie sich der Suggestion des technischen und zivilisatorischen Fortschritts bedienen.“
Frauenrolle und Familienfunktion.
Frauen waren in der NS-Volksgemeinschaft ideologisch vor allem dazu bestimmt, im Rahmen einer „Kameradschaft der Geschlechter“ ihren Part in Ehe, Familie und Haushalt auszufüllen.
So betonte Hitler in einer Rede vor der NS-Frauenschaft, das Gelingen der NS-Volksgemeinschaft werde nur durch den Einsatz von Millionen „fanatischer Mitkämpferinnen“ ermöglicht, die sich dem Dienst der gemeinsamen Lebenserhaltung widmeten. Damit wurde die Ehe zu einem „Ort leistungsorientierter Arterhaltung“ gemacht. Sie wurde durch ein Ehestandsdarlehen gefördert unter der Voraussetzung, dass ein „Eheeignungszeugnis“ die „Eheeignung“ und „Ehetauglichkeit“ feststellte.
Prüfkriterien waren Fortpflanzungsfähigkeit, Erbgesundheit sowie Sozial- und Erziehungskompetenz jeweils im Sinne der NS-Volksgemeinschaft. „In einem Umfang wie nie zuvor verschaffte sich der Staat auf dem Wege amtsärztlicher Untersuchungen Zugang zur Körperlichkeit eheschließender und jungvermählter Männer und Frauen.“
Vier Kinder pro Familie, so die NS-Programmatik, sollten das Überleben des Volkes sichern. „Am intimen Ort der Ehe patrouillierten nun auch die Bevölkerungsplaner und Familienrichter des Dritten Reiches.“ Das zinslos gewährte Ehestandsdarlehen in Höhe von 500 bis 1.000 Reichsmark war bei der Einführung auch an die Erwerbslosigkeit der Frau geknüpft. Mit jedem Kind, das die Frau gebar, wurde ein Viertel des Darlehensbetrags erlassen, sodass das Darlehen nach der vierten Geburt „abgekindert“ war.
Mit der Aufwertung des Muttertags und der Einführung des Ehrenkreuzes der Deutschen Mutter sollten weitere Anreize die Gebärfreudigkeit fördern. Das am 28. Februar 1934 geschaffene Hilfswerk Mutter und Kind – Goebbels erklärte im Geleitwort zur Gründung: „Mutter und Kind sind das Unterpfand für die Unsterblichkeit eines Volkes“ – sah unmittelbare Hilfen zur Beseitigung materieller Notstände vor, so die Beschaffung von Wäsche und Ernährungsbeihilfen. Auch die Betreuung vorschulpflichtiger Kinder und die Verschickung von Müttern in Erholungsheime gehörten zu den möglichen Leistungen, wobei die Auswahl wiederum unter „erbbiologischen“ Gesichtspunkten erfolgte.
Zwar nahmen Eheschließungen und Geburten in den ersten Jahren der NS-Herrschaft tatsächlich zu; doch den Trend zu kleineren Familien konnten die Nationalsozialisten gleichwohl nicht brechen: Durchschnittlich 2,3 Kinder waren in den 1920 geschlossenen Ehen noch geboren worden; in den 1930 geschlossenen 2,2 Kinder; in denen des Kriegsjahres 1940 aber im Schnitt nur noch 1,8 Kinder. 1941 wurde die Produktion von Verhütungsmitteln verboten. Auf Schwangerschaftsabbrüche stand ab 1943 die Todesstrafe.
Ebenfalls entgegen den ideologischen Vorgaben kam es in der NS-Zeit nicht zu einem Rückgang der Frauenerwerbstätigkeit. Zwischen 1933 und 1939 stieg die Anzahl weiblicher Erwerbspersonen um 1,3 Millionen. Vermindert wurde der Frauenanteil allerdings im Bereich der akademischen Berufe und bei den Verwaltungsbeamtinnen. An Universitäten begrenzte ein Numerus clausus ab 1933 den Anteil der weiblichen Studienanfänger auf 10 Prozent.
Hitler verfügte 1936 persönlich, dass Frauen weder Richterinnen noch Anwältinnen werden durften. Als sich unter den Bedingungen der auf Krieg zusteuernden NS-Wirtschaft die Ausschöpfung des Arbeitskräftepotenzials als vordringlich darstellte, wurde 1937 das Beschäftigungsverbot für Ehefrauen als Bedingung für ein Ehestandsdarlehen aufgehoben.
Erziehungswesen.
Eine der nationalsozialistischen Leitvorstellungen besagte, dass die Zukunft denen gehöre, die die Jugend hinter sich hätten. Mittels Einbettung in das NS-Organisations- und Indoktrinationsgefüge – vom Jungvolk über die Hitlerjugend (HJ) bis zu den diversen NS-Erwachsenenverbänden und -Massenorganisationen sollten die Heranwachsenden Hitler zufolge lückenlos zu „ganzen Nationalsozialisten“ geformt werden.
Eventuelle Überreste „an Klassenbewußtsein oder Standesdünkel“ übernehme schließlich die Wehrmacht zur weiteren Behandlung, „und wenn sie dann nach zwei, drei oder vier Jahren zurückkehren, dann nehmen wir sie, damit sie auf keinen Fall rückfällig werden, sofort wieder in die SA, SS und so weiter, und sie werden nicht mehr frei ihr ganzes Leben.“
Bereits die frühkindliche Erziehung zielte zeitgenössischen Ratgebern zufolge auf starke Reglementierung in zeitlicher und emotionaler Hinsicht: streng getakteter Nahrungsaufnahme- und Schlafrhythmus, Sauberkeitserziehung mit Prügelstrafe und Abhärtung in rauer Umwelt. Schon für die Kleinkinder gab es nationalsozialistische Kindergärten mit ausgebildeten Erziehern; für uneheliche oder überzählige Kinder gab es die Einrichtung Lebensborn, wo sie in staatlichen Heimen erzogen wurden.
Die Zielvorstellungen der NS-Erziehung in den weiteren Entwicklungsstadien der Heranwachsenden waren auf Gefolgschaftstreue statt auf Denkfähigkeit gerichtet, auf Glauben und Hingabe anstelle von Aufklärung und Einsicht. Als zentrale Werte wurden Ehre, Deutschtum, Blut und Boden, dazu das Herrentum der arischen Rasse vermittelt sowie Verachtung und Hass gegen angebliche „Volksschädlinge“ aller Art geschürt. Elternhäuser und Schulen wurden diesbezüglich unter Anpassungsdruck gesetzt.
Hitlers Parole von der „Heranzüchtung kerngesunder Körper“ wurde durch eine Ausweitung des Sportunterrichts aufgenommen. Speziell die Lehrpläne der Schulfächer Biologie, Erdkunde, Geschichte und Deutsch wurden mit antisemitischen und rassenideologischen Akzenten versehen.
Die Dienstpflicht der Jugendlichen in der HJ, der NS-Grundsatz, dass Jugend durch Jugend geführt und erzogen werden sollte, sowie die Einführung des Staatsjugendtags, der HJ-Mitglieder samstags vom Schulbesuch zugunsten des HJ-Dienstes freistellte, bedeuteten eine Schwächung der schulischen Erziehungsfunktion, zumal das jugendliche Führungspersonal mitunter noch weitergehende dienst- und schulungsbedingte Sonderbefreiungen vom Schulbesuch geltend machte.
Teils im Widerspruch zum NS-Frauenbild wurden solche Sonderrechte aber auch von BDM-Aktivistinnen in Anspruch genommen.
Auch sie verbrachten ihre Freizeit politisch organisiert außer Haus. „Der Totalitätsanspruch“, heißt es bei Thamer, „mit dem die Erziehung zur ‚rassenbewußten‘ und ‚erbgesunden‘ deutschen Frau und Mutter bis in den letzten Winkel des Reiches getragen wurde“, habe die Mädchen aus der traditionellen Enge von Haushalt, Familie, Kirche und Schule herausgeführt. „In der Provinz kamen schon der Mädchensport und das Tragen von Sportkleidung einem revolutionären Einbruch der Moderne gleich.“
Gleichwohl gelangte das NS-Erziehungswesen im Schulbereich hinsichtlich einer vollständigen ideologischen Durchdringung auch an Grenzen des Einflusses. Dabei spielten Beharrungskräfte des Bildungsföderalismus ebenso eine Rolle wie eine weitgehende Kontinuität des deutschen Lehrerpersonals zwischen 1933 und 1939.
Deshalb blieb es an manchen Schulen bei einem den weltanschaulichen Vorgaben des NS-Apparats eher gleichgültig bis vorsichtig distanziert begegnenden Binnenklima. Andererseits stellten die der Ausbildung von NS-Führungskadern dienenden Nationalpolitischen Erziehungsanstalten (Napolas) und Adolf-Hitler-Schulen insgesamt nicht mehr als ein bis zwei Prozent eines Abiturjahrgangs.
Sport.
In der Weimarer Zeit gab es zwar separate Sportorganisationen der Kommunisten, der Sozialdemokraten, der Katholiken, der Protestanten, aber keine nationalsozialistischen. Bei Gregor Strasser als dem Organisationsleiter der NSDAP wurde daher im Herbst 1932 angefragt, ob man eine solche gründen solle. Er schrieb, es sei hierfür zu spät so etwas vernünftig zu machen, die Zeit bis zur Machtübernahme sei zu kurz, man würde den faschistischen Weg des Staatssports wie in Italien gehen.
Da sich keine Persönlichkeit der NSDAP als potenzieller Reichssportführer hervorgetan hatte, wurde daher Hans von Tschammer und Osten ausgewählt, der als gewaltbereiter Kommissar in Mitteldeutschland für die Aufgabe seiner marodierenden SA-Leute entschädigt werden musste. Die Sportpolitik verlief in mehreren Schritten: Im Frühjahr 1933 wurden Juden und Demokraten aus den Vereinen und Verbänden herausgedrängt, Arbeitersportorganisationen wurde geschlossen, eine Einheitssportorganisation mit Gleichschaltung wurde gegründet.
Im Sommer folgte die Aufnahme des Betriebssports in „Kraft durch Freude“, im Herbst wurde der Fokus auf die Olympischen Spiele 1936 gelegt. Im Sommer 1936 folgte die Schließung der kirchlichen Sportorganisationen sowie die Durchführung der Olympischen Spiele. Die gesamte sportliche Jugendarbeit wurde fortan von der Hitlerjugend (HJ) übernommen. 1938 erfolgte die Übernahme der Sportorganisationen durch die NSDAP (NSRL). Jüdische Vereine wurden verboten.
Der Sport erlebte während der nationalsozialistischen Diktatur eine „Aufwertung wie nie zuvor in der Geschichte. Vor allem die junge Generation wurde in der Schule und in der HJ in einem Ausmaß sportlich gedrillt, das beispiellos war.“
Körperliche Fitness galt als Grundlage militärischer Leistungsfähigkeit. Zudem sahen die Nationalsozialisten im Sport ein Instrument, um militärische Tugenden wie Härte, Mut und Disziplin zu fördern. Und schließlich war Sport auch ein Mittel, um die Volksgesundheit zu stärken. Daher erfuhr auch der Frauensport im NS-Staat einen kräftigen Aufschwung.
Kulturpolitik.
Das kulturelle Leben war geprägt von der Politik und diente propagandistischen Zwecken. Die meisten Werke entstanden von regimekonformen Künstlern und dienten der NS-Propaganda oder vermittelten zumindest die Auffassungen der Nationalsozialisten. So wurden häufig eine von der modernen Technik unberührte landwirtschaftliche Idylle oder auch germanische Götter dargestellt.
Die bildende Kunst war antimodernistisch und folgte einem Konzept des Realismus des 19. Jahrhunderts, in dem beispielsweise heroisch überzeichnete Motive oder solche von kleinbürgerlicher Idylle im Vordergrund standen.
Pathetische Darstellungen im Sinne der nationalsozialistischen Ideologie verklärten die landwirtschaftliche Arbeit (Blut-und-Boden-Ideologie), Mutterschaft oder den Krieg. In der Bildhauerei und der Architektur standen monumentale Darstellungen, die sich wesentlich am Klassizismus orientierten, oft im Vordergrund.
Moderne Kunst wie beispielsweise Bilder aus den Bereichen "Neue Sachlichkeit" oder aus dem Expressionismus wurden als „entartet“ verurteilt und verbrannt, die Schöpfer der Werke zunächst deklassiert, dann verfolgt.
"Siehe auch: Entartete Kunst, Architektur im Nationalsozialismus, Nationalsozialistische Filmpolitik, Bücherverbrennung 1933 in Deutschland, Reichsmusikkammer, Literatur in der Zeit des Nationalsozialismus, Liste verbotener Autoren während der Zeit des Nationalsozialismus"
Judenausgrenzung und Judenverfolgung.
Die Entrechtung und Verfolgung der deutschen Juden begann direkt nach Hitlers Machtübernahme, zunächst mit gezieltem Straßenterror der SA. Ab März 1933 wurden jüdische Ärzte, Rechtsanwälte, Apotheker, Bademeister usw. aus ihren Freiberufen gedrängt, von ihren Berufsverbänden ausgegrenzt und erhielten Berufsverbote.
Am 1. April 1933 organisierte die SA den ersten Boykott jüdischer Geschäfte. Mit dem Gesetz zur Wiederherstellung des Berufsbeamtentums vom 7. April 1933 wurden missliebige Beamte aus dem Staatsdienst entfernt. Der darin erstmals enthaltene Arierparagraph war das erste rassistische Gesetz für „Nicht-Arier“ und betraf Anhänger des jüdischen Glaubens oder vermuteter jüdischer Herkunft.
Sie wurden zuerst aus dem öffentlichen Dienst, dann auch aus Vereinen, Berufsverbänden und evangelischen Landeskirchen entfernt, die ähnliche Regelungen einführten. Sie wurden auch gesetzlich aus allgemeinen Schulen und allmählich aus dem öffentlichen Leben ausgeschlossen.
Nur ehemaligen jüdischen Soldaten des Ersten Weltkriegs bot das Frontkämpferprivileg bis 1935 einen geringen Schutz. Das Gesetz über die Zulassung zur Rechtsanwaltschaft zielte auf die Ausschaltung jüdischer Rechtsanwälte und wurde ebenfalls am 7. April 1933 erlassen.
Infolgedessen wählten etwa 200.000 politisch oder rassisch Verfolgte den Weg der Emigration. Das NS-Regime begrüßte dies als „Flucht von Systemgegnern“. Gleichzeitig ließ es Konzentrationslager – zuerst das KZ Dachau – einrichten, in denen vor allem politische Gegner, aber auch religiöse Minderheiten massenhaft interniert wurden. Damit wurde der diktatorische Charakter des Regimes im In- und Ausland offensichtlich.
Auf dem Reichsparteitag der NSDAP im September 1935 wurden die Nürnberger Rassengesetze beschlossen, die die schon 1933 begonnene Ausgrenzung und Isolierung der deutschen Juden als Staatsgesetze verankerten und ihnen mit rassistischer Begründung einen Großteil ihrer staatsbürgerlichen Rechte raubten.
Himmler hielt vor SS-Mitgliedern 1935 seine Rede "Der Untermensch", in der er den angeblichen Gräueltaten der Juden die guten und großen Kulturtaten der "Menschen" gegenüberstellte. Zu einer deutlichen Zunahme der Emigration von Juden kam es danach nicht. Die meisten hatten sich auf die Diskriminierungen eingestellt und hofften vergeblich auf Ablösung des Regimes.
1938 setzte sich die systematische Entrechtung der deutschen Juden mit den Arisierungen fort, die durch zahlreiche Verordnungen juristisch untermauert wurden, z. B. der Verordnung zur Ausschaltung der Juden aus dem deutschen Wirtschaftsleben und der Verordnung über den Einsatz des jüdischen Vermögens. Mit der Namensänderungsverordnung zur Führung eines zusätzlichen Vornamens, der Verordnung über Reisepässe von Juden, mit Kennkarten und Meldelisten wurden alle Juden erfasst.
Ende Oktober 1938 wurden im Zuge der sogenannten Polenaktion Tausende aus Polen eingewanderte Juden verhaftet, ausgewiesen und an die polnische Grenze gebracht. Mit den reichsweiten Novemberpogromen 1938 stieg der nationalsozialistische Terror gegen jüdisches Leben mit der Ermordung mehrerer hundert Juden, der Inhaftierung der „Aktionsjuden“ in Konzentrationslagern und der Zerstörung von jüdischem Eigentum (darunter 1400 Synagogen, Betstuben und sonstige Versammlungsräume sowie tausende Geschäfte, Wohnungen) weiter an.
Unmittelbar danach wurde den übriggebliebenen Juden durch die Verordnung gegen den Waffenbesitz der Juden vom 11. November 1938 (RGBl. I, 1573) jeder Waffenbesitz verboten. Die Misshandlungen und Ermordungen setzten sich in den folgenden Tagen und Wochen fort.
"Siehe auch: Geschichte der Juden in Deutschland zur Zeit des Nationalsozialismus – Liste antijüdischer Rechtsvorschriften im Deutschen Reich 1933–1945"
Terrorapparat.
Ein Unterdrückungsapparat aus Gestapo, SS, SD und Sicherheitspolizei wurde aufgebaut. Zum Wesen der gewaltsamen Unterdrückung gehörten die Inhaftierungen und die Einrichtung ungesetzlicher Konzentrationslager als einer Polizeimaßnahme im Jahr 1933 direkt nach der Parlamentswahl im März (als „Schutzhaft“ deklarierte Vorbeugehaft).
Der Stahlhelm und die Sturmabteilungen der NSDAP wurden zur „Hilfspolizei“ gemacht, die ihre bisherigen Gegner willkürlich erniedrigte und misshandelte. In Bremerhaven wurden Gefangene auf dem „Gespensterschiff“ gefoltert.
Die Gestapo war in den folgenden Jahren vor allem für die Bekämpfung „staatsfeindlicher Bestrebungen“ zuständig und hatte 32.000 Mitarbeiter; dies war verhältnismäßig wenig, jedoch konnte das Regime auf die vielen NS-Sympathisanten und Denunzianten setzen.
Rechtsetzung und Justiz.
Von Beginn an, also bereits ab Februar 1933, wurden im NS-Staat das demokratische Rechtsetzungsverfahren außer Kraft gesetzt, die Trennung von Legislative und Exekutive aufgehoben. An Aufbau, Aufgaben und grundsätzlicher Struktur der Gerichte änderte sich zwar im Übergang von der Weimarer Republik zum Nationalsozialismus anfangs nur wenig. Aber bereits bis Mitte 1933 erfuhr die Rolle der Staatsanwaltschaft und damit ihr Einfluss auf die Rechtsprechung und die Gerichte eine deutliche nationalsozialistische Ausrichtung. Ein Großteil der Gesetze, wie das Bürgerliche Gesetzbuch (BGB) oder das Strafgesetzbuch (StGB), wurde allenfalls in Teilen verändert.
Die Weimarer Verfassung wurde offiziell nicht aufgehoben, aber faktisch war sie jedoch durch eine Vielzahl von Gesetzen ausgehebelt (vgl. das Gesetz zur Behebung der Not von Volk und Reich (Ermächtigungsgesetz) vom 24. März 1933 und „VO zum Schutz von Volk und Staat“ vom 28. Februar 1933, die sog. Reichstagsbrandverordnung). Die NS-Rechtslehre erkannte die Weimarer Verfassung nicht an: Carl Schmitt erklärte 1933 „in Wahrheit ist [das] Ermächtigungsgesetz ein vorläufiges Verfassungsgesetz des neuen Deutschland“. Dies betraf insbesondere die Grundrechte, die Gewaltenteilung und die Gesetzgebung. Viele Gesetze und Verordnungen standen im direkten Widerspruch zur WRV. Geänderte Strafgesetze galten rückwirkend.
Als neue Rechtsquelle trat neben Parlamentsgesetze und Ministerialverordnungen der sog. Führererlass, von NS-Juristen als Rechtsquelle sui generis angesehen, die über allen anderen Rechtsquellen stand. Zur Umsetzung wurden Sondergerichte eingeführt.
Das BGB wurde kaum geändert, aber durch die „Einfallstore“ der Generalklauseln der §§ 138, 242, 826 BGB wurde die nationalsozialistische Ideologie auch im Zivilrecht umgesetzt. Beispielsweise war jeder Vertrag i. S. d. BGB, der mit einem Homosexuellen oder Juden geschlossen wurde, gemäß § 138 BGB sittenwidrig und damit nichtig.
Die durch die „Einheit von Partei und Staat“ sehr häufigen Überlagerungen von NSDAP-Richtlinien und Verwaltungsrecht führten zur Marginalisierung des Letzteren. Als neuer Verwaltungszweck galt die Erfüllung eines Gemeinschaftszwecks. In diesem Zusammenhang kam es zu einer Ausschaltung der subjektiv-öffentlichen Rechte (Abwehrrechte des Bürgers gegen das Staatshandeln) und zu einem Kompetenzverlust der Verwaltungsgerichtsbarkeit.
Durch die Schutzhaft (Inhaftierung durch SA und SS vollkommen ohne Verfahren) wurden im Vorfeld von Strafprozessen Zeugen und Angeklagte gezielt unter Druck gesetzt oder ausgeschaltet. Folter galt als legitimes Mittel der Beweiserhebung u. a. durch die Gestapo.
Ein Schuldeingeständnis zu Beginn des Prozesses (ähnlich dem "guilty plea" im anglophonen Rechtskreis) zur Verkürzung des Verfahrens wurde eingeführt und auch angewendet. Strafgesetze wurden mittels der analogen Gesetzesanwendung (§ 2a StGB a.F.) auf eine Vielzahl von Tatbeständen erstreckt. Als erweitertes Gewohnheitsrecht galt das „gesunde Volksempfinden“.
Spezielle Straftatbestände für Minderheiten oder Personengruppen (Juden, Zwangsarbeiter, Ausländer) wurden ins Strafrecht aufgenommen. Auch die Verfolgung der Homosexuellen verschärfte sich in der Zeit des Nationalsozialismus. 1935 wurde § 175 RStGB in Tatbestandsfassung wie Strafmaß massiv verschärft und somit die Totalkriminalisierung von männlicher Homosexualität verordnet.
1936 wurde eine „Reichzentrale zur Bekämpfung der Homosexualität und der Abtreibung“ eingerichtet. Mit der schrittweisen Ausdehnung des Deutschen Reiches wurden für die unterworfenen Völker (besonders in Ost- und Südosteuropa) besondere „Rechtsgrundsätze“ angewandt. Die nationalsozialistische Hierarchie von „"Über-"“ und „"Untermenschen"“ fand während des Zweiten Weltkriegs ihren Ausdruck in zahlreichen Erlassen, "Führerbefehlen" und Vorschriften, am konsequentesten durchgesetzt in den Ostgebieten (u. a. dem Generalgouvernement, "siehe auch unter:" Polen-Erlasse, Polenstrafrechtsverordnung).
Das Strafrecht des Dritten Reiches war größtenteils nicht tatbezogen, sondern auf den Täter fokussiert (vgl. das Gewohnheitsverbrechergesetz von 1933 und die Verordnung gegen Volksschädlinge von 1939). Dies bedeutete, dass die Strafe nicht vorrangig nach der Schwere der Tat bestimmt wurde, sondern danach, welche Gefahr vom Täter für das Volk vermeintlich ausging.
Im Vordergrund des Strafvollzuges im nationalsozialistischen Deutschland stand die „Sühne“ der Schuld sowie die Abschreckung im Sinne der Generalprävention. Spezialprävention spielte nur eine untergeordnete Rolle.
Ab 1944 wurden im ganzen Reichsgebiet verstärkt Standgerichte eingesetzt, um „Wehrkraftzersetzer“ und Deserteure abzuurteilen. Diese waren im Allgemeinen durch Laienrichter besetzt (z. B. durch den Bürgermeister eines Ortes).
1934 wurde der Volksgerichtshof (VGH) geschaffen. Er diente vor allem dazu, politische Schauprozesse abzuwickeln. Von 1934 bis Juni 1944 wurden vom VGH 5375 Todesurteile verhängt.
Für die Zeit von Juli 1944 bis April 1945 gehen Schätzungen von etwa 2000 weiteren Todesurteilen aus. Auch die Mitglieder der Weißen Rose und die Attentäter vom 20. Juli 1944 wurden vom VGH zum Tode verurteilt.
Die Rechtswissenschaft wandelte ihre grundsätzliche Ausrichtung von der Interessenjurisprudenz hin zur Weltanschauungsjurisprudenz. Damit einher ging eine strikte Ablehnung eines Naturrechts. In der nationalsozialistischen Rechtswissenschaft galt Rechtsetzung durch Interpretation (Umgehung der Gesetzgebung, „Führerwort“) als allgemein anerkannt.
Wirtschaftspolitik.
Das Wirtschaftsleben im NS-Staat gründete auf Anreiz und Verpflichtung. Dabei blieb die privatwirtschaftliche Verfügung über die Unternehmen grundsätzlich unangetastet. Zugleich investierte das Regime in die Aufrüstung der Wehrmacht sowie in die militärisch-zivile Infrastruktur (Autobahn-, Kasernenbau) und profitierte von der bereits vor der Machtübergabe eingetretenen Erholung der Weltkonjunktur mit der allseits begrüßten Folge einer Verminderung, dann Beendigung der allgemeinen Arbeitslosigkeit.
Während die Arbeiterbewegung mit allen Mitteln unterdrückt und verfolgt wurde, wurde zugleich beschränkt auf „deutschblütige“ Arbeitskräfte eine Reihe sozialpolitischer Verbesserungen eingeführt. So wurde symbolisch-demagogisch bereits 1933 der 1. Mai als traditioneller „Kampftag“ der Arbeiterbewegung zum arbeitsfreien Feiertag umgewidmet und die Freizeitorganisation „Kraft durch Freude“ bot Urlaubsmöglichkeiten und Kulturveranstaltungen an.
Für den Erfolg der Nationalsozialisten war die allgemeine Zustimmung in weiten und wachsenden Teilen der „deutschen Volksgemeinschaft“ wichtig, zunächst aufgrund politischer und weltanschaulicher Übereinstimmung und im weiteren Verlauf aufgrund ökonomischer Erfolge und sozialpolitischer Verbesserungen, die als Privilegierung gegenüber Minderheiten zu verstehen waren.
Einen wesentlichen Beitrag zur allgemeinen Zufriedenheit und zu deren wirtschaftlicher Absicherung bewirkten seit Kriegsbeginn die anfänglichen militärischen Erfolge, vor allem der Sieg über Frankreich.
Eine der dringendsten Aufgaben Hitlers nach der Machtübernahme war die Überwindung der Wirtschaftskrise, die ihm zur Erringung der Macht verholfen hatte, ihn bei einem Misserfolg aber auch gefährdet hätte.
Dies erreichte er vor allem durch getarntes deficit spending, also mit Krediten (den Mefo-Wechseln) finanzierte Konjunkturprogramme und Arbeitsbeschaffungsmaßnahmen. Der dadurch entstandene Kaufkraftüberschuss wurde abgeschöpft, indem die Deutschen zu vermehrtem Sparen motiviert wurden. Dadurch blieben Inflationseffekte aus.
Kriegsvorbereitungen spielten zunächst für die Öffentlichkeit keine große Rolle bei der Belebung der Konjunktur. Augenscheinlicher waren beispielsweise eher bevölkerungspolitisch gedachte Maßnahmen wie Ehestandsdarlehen: Dabei wurde einem Paar bei der Heirat ein Darlehen von tausend Reichsmark angeboten, wenn die Frau dann dauerhaft aus dem Berufsleben ausschied.
Eine Rolle spielten auch diktatorische Schritte, wie die Abschaffung der Gewerkschaften oder die Ermordung des antikapitalistisch gesinnten SA-Stabschefs Ernst Röhm, der eine soziale Revolution nach dem 25-Punkte-Programm forderte.
Eine wichtige Maßnahme war die Erzeugungsschlacht in der Landwirtschaft. Im September 1933 wurden alle landwirtschaftlichen Betriebe, Genossenschaften und Landwirtschaftskammern im Reichsnährstand zwangsvereinigt. Der Nährstand wurde verherrlicht und als Quelle der rassischen Erneuerung popularisiert, in der Realität verlor er aber an Bedeutung. Der durchschnittliche Lohn in der Landwirtschaft fiel stetig, und der Anteil der in der Landwirtschaft Beschäftigten fiel ebenfalls ab.
Auch die Industrie sollte unabhängiger vom Ausland werden, sodass die Gewinnung einheimischer Rohstoffe verstärkt wurde. Die Einrichtung des Reichsarbeitsdienstes verband hierbei den propagandistischen Zweck, kurzfristig augenscheinlich die jugendlichen Arbeitslosen „von der Straße zu holen“ mit dem Autarkiebestreben, neue landwirtschaftliche Flächen durch z. B. Trockenlegung von Mooren und Sümpfen zu gewinnen.
Mit dem "Gesetz zur Ordnung der nationalen Arbeit" wurde am 20. April 1934 auch in den Unternehmen das Führerprinzip eingeführt. In der Betriebsgemeinschaft war der Betriebsführer für seine „Gefolgschaft“ verantwortlich; diese war ihm zu Treue verpflichtet. Um wichtige Industrielle an die Wehrmacht zu binden, wurden sie zu Wehrwirtschaftsführern ernannt. Treuhänder der Arbeit kontrollierten schon seit Mai 1933 die Betriebe und sorgten für die Gleichschaltung der Wirtschaft, sie regelten auch den Erlass der Tarifordnungen.
Zu einer Erhöhung des Lebensstandards kam es für die meisten Berufstätigen nicht, da bald die Rüstung Priorität erhielt. So mussten z. B. eine verdeckte Inflation, Einschränkungen bei der Berufswahl, bei der freien Wahl des Arbeitsplatzes und eine Verlängerung der Arbeitszeiten akzeptiert werden.
Das Wachstum basierte auf Planwirtschaft und diente der systematischen Aufrüstung und Kriegsvorbereitung. In einer Denkschrift zum Vierjahresplan machte Hitler 1936 unter anderem folgende Vorgaben: „I. Die deutsche Armee muss in vier Jahren einsatzfähig sein. II. Die deutsche Wirtschaft muss in vier Jahren kriegsfähig sein.“
Drei Tage vor dem auf den 1. September 1939 festgelegten Angriff auf Polen, dem Beginn des Zweiten Weltkrieges, wurde mit der Verteilung von Lebensmittelkarten begonnen. Bald wurden Kriegsgefangene und immer mehr verschleppte Zivilisten teilweise unter unmenschlichen Bedingungen als Zwangsarbeiter eingesetzt; bei Kriegsende waren es ca. neun Millionen ("siehe auch unter:" Polen-Erlasse, Polenstrafrechtsverordnung, Ostarbeiter, "Generalbevollmächtigter für den Arbeitseinsatz" Fritz Sauckel). Da die Männer im Krieg gebraucht wurden, arbeiteten in den Fabriken, im Widerspruch zu den Aussagen von "Mein Kampf", immer mehr Frauen.
Erst nach den ersten Niederlagen gegen die Sowjetunion und dem Kriegseintritt der USA Ende 1941 kam es zu einer deutlichen Umstellung hin zur Kriegswirtschaft; der totale Krieg mit dem Ziel der vollen Ausnützung des wirtschaftlichen und personellen Potenzials für die Kriegsführung wurde erst am 18. Februar 1943 von Joseph Goebbels ausgerufen.
Am Ende des Krieges brach die Industrie durch die Bombardierung der Infrastruktur (Eisenbahn) und Industrieanlagen und die fehlende Rohstoffversorgung zusammen, die Versorgung mit Lebensmitteln wurde problematisch, der Schwarzmarkt blühte auf. Zu einer allmählichen Erholung kam es erst mit den Darlehen des Marshallplans und der Währungsreform.
Forschung und Medizin.
Hauptanliegen vieler nationalsozialistisch gesinnter Ärzte und Professoren im Deutschen Reich war die „"Heranzüchtung kerngesunder Körper"“ (Zitat Hitlers) und die „"Ausmerzung des Schwachen und Kranken"“ bzw. der Juden. Diesen Zwecken dienten z. B. die "Lebensborn-Heime", in denen "arische" Kinder geboren und aufgezogen wurden, die Rassenhygiene sowie als eugenische Maßnahmen die Krankenmorde im Nationalsozialismus: "siehe" „Aktion T4“, „Aktion Brandt“ und „Kinder-Euthanasie“.
Auch andere Bereiche der Wissenschaft und Forschung wurden instrumentalisiert und im Sinne des Nationalsozialismus organisiert.
Religionspolitik.
Die Kirchen- und Religionspolitik des Nationalsozialismus war uneinheitlich und voller Widersprüche. Während die ältere Forschung noch von einem einheitlichen Willen zur Vernichtung von Kirchen und Christentum ausging, standen sich sowohl in Partei als auch in Regierungsstellen Gegner, Sympathisanten und Neutralisten von Kirchen und Christentum gegenüber.
Abgesehen vom Verbot des Schächtens im April 1933 wurden die Gesetze der jüdischen Religion zwar im Wesentlichen nicht beeinträchtigt.
Doch wurden die jüdischen Gemeinden im Zuge der allgemeinen, rassisch begründeten Judenverfolgung sukzessive ihres Schutzes und Rechtsstatus beraubt.
Den beiden Großkirchen hatte Hitler in seiner Regierungserklärung vom März 1933 eine staatstragende Rolle zugesprochen. Er setzte dann zunächst auf die Deutschen Christen, die bei den Kirchenwahlen im Juni 1933 einen Erdrutschsieg erreichten und dann einen Teil der Landeskirchen beherrschten. Daraufhin wählten auch die unterlegenen Gruppen Ludwig Müller zum Reichsbischof. Gegen den Ausschluss von getauften Juden entstand der Pfarrernotbund, aus dem 1934 die Bekennende Kirche hervorging.
Diese kämpfte auf der Basis der Barmer Theologischen Erklärung gegen staatliche Übergriffe auf kirchliche Angelegenheiten und gegen den totalen Staat ohne Rechtsbindung. Praktisch wurden daraus nur ansatzweise Konsequenzen gezogen, z. B. die Bildung einer eigenen Organisationsstruktur mit der "Vereinigten Kirchenleitung", eine Denkschrift an Hitler gegen Entrechtung von Minderheiten und gegen KZs, später die Einrichtung des Büros Grüber als Hilfe für verfolgte Judenchristen und Juden.
Ab 1937 wurden die Tätigkeiten der BK immer stärker staatlicher Kontrolle unterworfen und viele ihrer Vertreter inhaftiert, ab 1939 wurden die meisten BK-Pastoren zum Wehrdienst eingezogen. In der Regel zeigten sich aber die evangelischen Kirchen und ihre Hierarchien als willfährige Unterstützer und Sympathisanten des Regimes.
Die katholische Kirche distanzierte sich bis 1933 vom Rassismus der NSDAP. Am 22. Juli 1933 aber schloss der Vatikan überraschend das Reichskonkordat mit der neuen Reichsregierung, um so die deutschen katholischen Bischöfe, ihre Bistümer und Strukturen vor Zugriffen des Regimes zu schützen.
Im Gegenzug wurden Priester und Bischöfe verpflichtet, sich nicht in Politik einzumischen. Damit gab die bis dahin recht starke Zentrumspartei ihre Oppositionshaltung auf und verlor dann ihre Existenzberechtigung. Hitler gewann durch das Konkordat auf diplomatischer Bühne internationales Ansehen.
Trotzdem kam es zu Angriffen auf katholische Orden, die Kolpingjugend und andere katholische Gruppen. In den Jahren 1936 und 1937 organisierte der NS-Staat eine Serie von rund 250 Strafprozessen gegen katholische Priester und Ordensleute, die verschiedener Sexualdelikte wie homosexueller Handlungen unter Männern oder Kindesmissbrauch angeklagt wurden.
Die Prozesse, die zum Teil sehr nachlässig vorbereitet worden waren – ein Zeuge wollte im Sommer 1937 beispielsweise in dem Vorsitzenden Richter statt in dem Angeklagten seinen angeblichen Belästiger erkennen – wurden auf Anweisung von Propagandaminister Goebbels in der Presse mit hämischen Kommentaren begleitet. Ziel war eine Diskreditierung der Kirche und eine Aufweichung ihrer im Reichskonkordat zugesagten Rechte.
Papst Pius XI. wandte sich 1937 mit seiner Enzyklika "Mit brennender Sorge" scharf gegen die deutsche Kirchenpolitik und wies auf den von den Nationalsozialisten nicht erfüllten Teil der Konkordatsvereinbarungen, aber auch auf Gegensätze zwischen christlichem Glauben und NS-Ideologie hin. Die Enzyklika prangerte die systematische Entrechtung der Juden oder anderer Religions- und Bevölkerungsgruppen nicht direkt an, verurteilte aber eine Unterscheidung nach Rassen.
Der Nationalsozialismus hatte auch eigene religiöse Elemente, vor allem den Führerkult und rituelle Massenaufmärsche mit gottesdienstartigen Formen, Führergruß, Fackeln, feierlichen Proklamationen und Hymnen.
Der „Parteiphilosoph“ Alfred Rosenberg wollte nach dem „Endsieg“ durch „Gegenpäpste“ die katholische und die evangelische Kirche in einander bekämpfende Gruppen spalten und versuchte, die altgermanische, persische und indische Religion wiederzubeleben, um „der vergehenden biblischen Tradition eine noch ältere und bessere unterzuschieben“. Der Privatsekretär Hitlers, Martin Bormann, arbeitete einen nationalsozialistischen Katechismus aus, dessen Lehren allmählich die Zehn Gebote der Bibel ersetzen sollten.
Reichsführer SS Heinrich Himmler hatte weitreichende Vorstellungen über die Einführung eines altgermanisch-heidnischen Götterglaubens und über die „Befriedung“ der slawischen Völker durch die „Lehre der Ernsten Bibelforscher“.
Gegenüber den meisten kleineren Religionsgemeinschaften hegten die offiziellen Stellen Vorbehalte. Verbindungen ins Ausland, insbesondere in die USA, Verweigerung von Eidesleistung und grundsätzliche Distanz zur nationalsozialistischen „Volksgemeinschaft“ machten solche Gruppierungen suspekt; Pazifismus und Ablehnung der nationalsozialistischen Rassenlehre ließen sie als Gegner des Regimes erscheinen. Der Sicherheitsdienst forderte deshalb die Vernichtung des weit überwiegenden Teils des „Sektenwesens“, während „harmlose“ Gruppen bestehen bleiben sollten, um die „Zersplitterung im kirchlich-religiösen Gebiet“ zu fördern.
Manche Stellen wie das Auswärtige Amt warnten jedoch mit Rücksicht auf deren internationale Verbindungen vor der Auflösung einiger Religionsgemeinschaften wie der Mormonen oder der Christlichen Wissenschaft.
Der nationalsozialistische Staat verfuhr deshalb auf Grund politischer Rücksichten und abhängig vom Grad der Anpassung unterschiedlich mit den einzelnen kleinen Religionsgemeinschaften. Besonders scharf verfolgt wurden von Anfang an die Zeugen Jehovas ("siehe auch:" Zeugen Jehovas in der Zeit des Nationalsozialismus). Als angeblich dem Judentum nahestehend, aus den USA fremdbestimmt und pazifistisch wurden die "Zeugen Jehovas" 1933 verboten. Etwa 10.000 von ihnen wurden in der Zeit des Nationalsozialismus inhaftiert, 2.000 davon in Konzentrationslagern; 1.200 Zeugen Jehovas wurden hingerichtet oder ermordet.
Die "Christliche Wissenschaft" wurde in ihrer Betätigung zwar schrittweise eingeschränkt, aber erst 1941 verboten. Die Siebenten-Tags-Adventisten wurden zwar 1933 verboten, vielleicht auch, weil sie mit den pazifistischen Reformadventisten verwechselt wurden. Das Verbot wurde aber nach zehn Tagen wieder aufgehoben, woraufhin die Kirchenführung versuchte, sich dem Staat anzupassen, um die Kirchenauflösung zu vermeiden.
Die Reformadventisten wurden dagegen im Jahre 1936 verboten. Ganze Gemeinden standen vor Gericht und viele ihrer Glieder wurden verurteilt. Junge Männer wie Anton Brugger wurden wegen Kriegsdienstverweigerung zum Tode verurteilt. Bis zum Ende der NS-Herrschaft blieben die Reformadventisten im Untergrund. Andere Gemeinschaften wie die Mormonen konnten hingegen unbeschränkt fortbestehen.
Naturschutz.
Der Naturschutz im Nationalsozialismus begann 1933 mit der Gleichschaltung der Naturschutzverbände und dem Ausschluss der Mitglieder jüdischen Glaubens aus den Vereinen. Umfassende gesetzliche Neuregelungen in den Jahren 1933 bis 1935 des NS-Regimes im Bereich des Natur- und Umweltschutzes, allen voran das Reichsnaturschutzgesetz (RNG), regelten erstmals den Ausgleich nach privaten Eingriffen und führten den schwächer geschützten „Landschaftsschutz“ als neue Kategorie ein. In der Praxis hielt das NS-Regime sich nicht an den anfangs gesetzlich vorgezeichneten Weg eines umfassenden Naturschutzes.
Organisation des Militärs.
Mit der Reichswehr übernahmen die Nationalsozialisten die Streitkräfte der Weimarer Republik. Die Reichswehr war staatstreu und unterstützte die NSDAP bis zur Machtübernahme nicht aktiv, viele Soldaten waren aber selbst keine Anhänger der Republik, sodass sie diese auch nicht verteidigten.
Die Reichswehr hoffte unter Hitler auch auf einen Fortschritt bei der Revision des Versailler Vertrages, die Führung der Reichswehr war schon am 3. Februar über die Pläne Hitlers informiert worden, Befürchtungen hatte sie gegenüber der SA. Bestrebungen innerhalb der SA, die Reichswehr zu übernehmen, beendete Hitler durch die Niederschlagung des Röhm-Putsches, bei dem er die SA ausschaltete, da er die Reichswehr als für den Krieg besser geeignet ansah.
An dieser Aktion war auch die Reichswehr beteiligt, sie tolerierte sogar die Ermordung zweier ihrer Generäle.
Am 3. August wurde die Reichswehr nach dem Tod des bisherigen Oberbefehlshabers, Reichspräsident von Hindenburg, auf die Person Hitlers vereidigt und damit zu einem Instrument Hitlers.
Mit der Wiedereinführung der Wehrpflicht am 16. März 1935 wurde die Reichswehr in Wehrmacht umbenannt. Die Wehrmacht wurde ausgebaut und modernisiert, 1939 hatte sie eine Stärke von 2,75 Millionen Mann.
Den Widerstand innerhalb der Wehrmachtführung gegen seine Kriegspläne, mehr aus Zweifel an der Machbarkeit der Pläne als aus ideologischen Gründen, schaltete er durch die Blomberg-Fritsch-Krise aus und schuf das Oberkommando der Wehrmacht. Der weiter vorhandene Widerstand konnte sich, insbesondere nach den ersten Kriegserfolgen, nicht durchsetzen.
Die Wehrmacht tolerierte den Vernichtungskrieg gegen die Sowjetunion, Teile der Wehrmacht waren auch an Exekutionen beteiligt. Erst als Deutschland Niederlagen wie in der bei Stalingrad hinnehmen musste, versuchten Mitglieder der Wehrmacht im Attentat vom 20. Juli 1944 durch eine Beseitigung Hitlers ein Ende des Krieges zu erreichen.
Außen- und Rüstungspolitik.
Der Vertrag von Versailles wurde schrittweise gebrochen und aufgehoben. Zugleich beteuerte Hitler seinen Friedenswillen. Dies wurde im Ausland, vor allem in der Appeasement-Ära Großbritanniens, zunächst geglaubt; man versuchte, Hitler durch Entgegenkommen zu „zähmen“ und einen neuen Weltkrieg zu vermeiden.
1935 wurde das Saarland wieder ins Deutsche Reich integriert, nachdem eine unter internationaler Kontrolle durchgeführte Volksabstimmung eine überwältigende Zustimmung dafür (90,8 %) ergeben hatte. Die Reichswehr wurde mit Einführung der Wehrpflicht in die Wehrmacht umgewandelt; zudem wurde die Existenz der bis dahin geheim gehaltenen Luftwaffe publik gemacht.
Beide Schritte verletzten den Versailler Vertrag. Auch der Einmarsch in das entmilitarisierte Rheinland am 7. März 1936 stellte einen Bruch des friedensnobelpreisgekrönten Locarno-Paktes dar, was Hitler mit der Ratifizierung des französisch-sowjetischen Beistandspakts durch Frankreich begründete, welcher einen Bruch des Locarno-Paktes seitens Frankreichs dargestellt habe.
Wirtschaft und Gesellschaft in Deutschland wurden in der nationalsozialistischen Diktatur bereits während der Jahre vor dem Zweiten Weltkrieg an dem Ziel eines Eroberungskrieges ausgerichtet. Bezeichnend dafür war eine massive Aufrüstung, die in Bezug auf Größenordnung und Geschwindigkeit laut Ulrich Herbert „historisch vorbildlos“ war.
Von 1933 1,9 Milliarden Reichsmark stiegen die staatlichen Rüstungsausgaben auf 10,3 Milliarden 1936 und auf 17,2 Milliarden 1938 und damit auf 74 Prozent aller Staatsausgaben. „In keinem anderen kapitalistischen Staat hatte es außerhalb von Kriegszeiten jemals eine derartige Umschichtung von Staatsausgaben zugunsten der Rüstung gegeben.“ Die mit dieser Rüstungspolitik verbundene enorme Verschuldung sollte durch einen gewonnenen Krieg auf Kosten Europas beglichen werden.
Im Zusammenhang mit der „sozialen Militarisierung“ und Kriegsvorbereitung stand auch der mit Arbeitsbeschaffungsmaßnahmen einhergehende Rückgang der Arbeitslosigkeit. Mit milliardenschweren Rüstungsprogrammen wurde die Produktion von Waffensystemen, Munition und militärischen Großgeräten für Heer, Marine und Luftwaffe vorangetrieben.
Bei der Flugzeugproduktion stieg die Anzahl der Beschäftigten von annähernd 4000 im Januar 1933 über 54.000 im Jahr 1935 auf fast 240.000 im Frühjahr 1938. Vollbeschäftigung war ein Nebeneffekt der Kriegsvorbereitung. Im Sinne des militärischen Jargons der NS-Propaganda sollte die „Volksgemeinschaft“ sich ständig vorkommen wie in einer gemeinsamen „Arbeitsschlacht“.
Nach der Rheinlandbesetzung zu Frühjahrsbeginn 1936 benutzte Hitler die Olympischen Spiele 1936 in Berlin, denen zeitweise ein Boykott gedroht hatte, als Propagandabühne für die Weltöffentlichkeit, der ein friedliebendes und weltoffenes Land vermittelt werden sollte. Der im Anschluss daran aufgelegte Vierjahresplan hingegen sollte das Deutsche Reich bis spätestens 1940 kriegsbereit machen. Das Regime unterstützte nun zusammen mit Mussolinis Italien den faschistischen General Franco im Spanischen Bürgerkrieg gegen die dortige Republik auch militärisch.
Dies bot Hitler die Gelegenheit, die Einsatzfähigkeit seines Militärs im Kriegsfall zu testen. Die Legion Condor der deutschen Luftwaffe zerstörte 1937 bei einem ersten Flächenbombardement die baskische Stadt Guernica. In einer in der Hoßbach-Niederschrift festgehaltenen Besprechung stellte Hitler am 5. November 1937 den wichtigsten Vertretern der Wehrmacht und dem Außenminister seine Pläne zur deutschen Kriegs- und Außenpolitik vor.
Am 20. Februar 1938 verkündete Hitler in einer Rede sein Ziel, alle Deutschen Mitteleuropas in einem Staat zu vereinen. Am 12. März 1938 kam er einer beabsichtigten Volksabstimmung in Österreich zuvor und verkündete nach dem Einmarsch der Wehrmacht (Unternehmen Otto), unter dem Jubel der auf dem Heldenplatz versammelten Wiener, den „Eintritt meiner Heimat in das Deutsche Reich“.
Ein weiteres vor allem von Deutschen bewohntes Gebiet außerhalb des Reiches war das tschechische Sudetenland. Durch das praktisch unerfüllbare Karlsbader Programm provozierte Hitler die Sudetenkrise, die am 29. September 1938 im Münchner Abkommen zur Angliederung des Sudetenlandes an das Deutsche Reich führte. Hitler hatte beabsichtigt, die Krise für den Beginn eines Krieges zu nutzen, und war von Mussolini und Göring zum Abkommen gedrängt worden, das er als politische Niederlage empfand.
Der öffentlich propagierten NS-Außenpolitik stimmten die meisten Deutschen zu. Volksabstimmungen ergaben 1933, 1934, 1935, 1936 und 1938 große Mehrheiten für damalige Entscheidungen Hitlers.
Die Bevölkerungsmehrheit erlebte die außenpolitischen Maßnahmen der Nationalsozialisten als Erfolge und Wiedergutmachung vergangener nationaler Demütigungen.
Nachdem Herschel Grynszpan am 7. November 1938 in Paris einen Anschlag auf den Botschaftssekretär Ernst Eduard vom Rath verübt hatte, inszenierten die Nationalsozialisten die Novemberpogrome.
Zum Teil als Zivilpersonen auftretende ortsbekannte SA- und SS-Angehörige legten in zahlreichen Synagogen Feuer, misshandelten und ermordeten viele deutsche Juden vor den Augen der Polizei, die befehlsgemäß nicht einschritt, und deportierten ab dem 10. November Zehntausende Juden in die KZs. Die den Opfern auferlegte „Judenbuße“ von über einer Milliarde Reichsmark wurde zur Finanzierung der Aufrüstung als unmittelbare Kriegsvorbereitung genutzt.
Mitte März 1939 wurde die Slowakei als selbständiger Staat ausgerufen. Das danach von der ehemaligen Tschechoslowakischen Republik verbliebene Gebiet wurde als Protektorat Böhmen und Mähren vom Deutschen Reich abhängig. Eine Woche später wurde auch das Memelland dem Deutschen Reich angegliedert.
Um sich den Rücken für seine Expansionsziele im Osten freizuhalten, schloss Hitler mit der Sowjetunion im August 1939 den deutsch-sowjetischen Nichtangriffspakt. In dessen geheimem Zusatzprotokoll wurde Polen für den Fall eines Krieges zwischen den beiden Staaten aufgeteilt. Dagegen versprach Hitler, nicht gegen Stalin zu agieren, falls dieser sich Finnlands bemächtige, was er daraufhin auch tat.
Zweiter Weltkrieg 1939 bis 1945.
Mit dem Überfall auf Polen begann das NS-Regime, seine jahrelang vorbereitete Eroberungs- und Germanisierungspolitik mit Krieg durchzusetzen. Im Laufe des Zweiten Weltkriegs beging das nationalsozialistische Deutschland millionenfachen Völkermord.
Am 27. September 1940 schlossen Deutschland, das faschistisch regierte Italien und das Kaiserreich Japan – die Achsenmächte – den Dreimächtepakt als politische und militärische Koalition. Nach raschen Siegen über die Niederlande, Belgien, Frankreich und Norwegen 1940 brach das NS-Regime den deutsch-sowjetischen Nichtangriffspakt von 1939 und griff am 22. Juni 1941 die Sowjetunion an („Unternehmen Barbarossa“). Am 11. Dezember 1941 erfolgte die Kriegserklärung Deutschlands und Italiens an die Vereinigten Staaten.
Die Kriegswende begann im Herbst und Winter 1942/1943 mit den deutschen Niederlagen in den Schlachten von El Alamein und Stalingrad. Mitte 1943 war der Wendepunkt des deutschen U-Boot-Kriegs im Atlantik.
Die britischen und US-amerikanischen Luftstreitkräfte erreichten ab Frühjahr/Sommer 1944 fast die völlige Luftherrschaft über Deutschland und zerstörten im Bombenkrieg ganze Städte. Anfang Juni 1944 landeten westalliierte Truppen in der Normandie (Operation Overlord) und eröffneten damit die zweite Front im Westen mit dem Ziel, die Truppen der Wehrmacht auf deutsches Gebiet zurückzudrängen und das NS-Regime schließlich zu stürzen.
Die alliierten Truppen erreichten die Grenzen des „Altreichs“ im Oktober 1944. US-amerikanische und sowjetische Truppen trafen sich in Mitteldeutschland am 25. April 1945 („Elbe Day“). Nach Hitlers Selbstmord am 30. April 1945 endete zwei Tage später die Schlacht um Berlin. Daraufhin kapitulierte die Wehrmacht am 8. Mai 1945 bedingungslos vor den Alliierten und ihren Verbündeten.
Der Zweite Weltkrieg kostete weltweit über 62 Millionen Menschen das Leben. In seinem Verlauf ermordeten Nationalsozialisten und ihre Helfer etwa ein Drittel aller europäischen Juden (Shoah), etwa 3,5 Millionen nichtjüdische Sowjetbürger und Polen (siehe dazu Verbrechen der Wehrmacht), mindestens 100.000, eventuell über 500.000 Sinti und Roma (Porajmos), etwa 200.000 Behinderte (u. a. „Aktion T4“), eine unbekannte Zahl deutscher „Asozialer“ und etwa 5.000 Homosexuelle (→ Rosa Winkel).
In der nationalsozialistischen Rassenhygiene galten diese Gruppen als „minderwertige“ bzw. „lebensunwerte“ „Rassenschädlinge“. Vor dem Krieg waren bereits etwa 20.000 als gefährlich eingestufte politische Regimegegner, meist Angehörige der Linksparteien, und etwa 1.200 Zeugen Jehovas ermordet worden. Deserteure, Plünderer und Saboteure erhielten als „Volksschädlinge“ in der Regel die Todesstrafe.
Eroberungen (1939–1942).
Der Überfall auf Polen ohne Kriegserklärung am 1. September 1939 löste den Zweiten Weltkrieg aus.
Am 3. September erklärten zunächst Großbritannien und Frankreich dem Deutschen Reich den Krieg. Nach dem Sieg der Wehrmacht über Polen wurde dessen Westteil (Großpolen, Westpreußen, Oberschlesien) von Deutschland annektiert und die Mitte zum Generalgouvernement erklärt. Am 17. September besetzte die Rote Armee fast kampflos Ostpolen; Polen wurde, wie im Hitler-Stalin-Pakt vereinbart, aufgeteilt.
1940 besetzte die Wehrmacht Dänemark und Norwegen und besiegte dann im so genannten „Blitzkrieg“, der nur sechs Wochen dauerte, die Staaten Luxemburg, Niederlande, Belgien und Frankreich. Frankreich wurde nach dem Westfeldzug in zwei Zonen geteilt. Nur der Norden und Westen Frankreichs blieb unter deutscher Besatzung. Marschall Pétain verlegte den Regierungssitz nach Vichy im unbesetzten Teil Frankreichs.
Hitlers Popularität erreichte durch die „Auslöschung der Schande von Versailles“ ihren Höhepunkt. Die geplante Invasion Großbritanniens – das „Unternehmen Seelöwe“ – wurde von Hitler abgesagt, da die deutsche Luftwaffe in der Luftschlacht um England trotz zahlenmäßiger Überlegenheit bei den Piloten (6:1) nicht die Lufthoheit über England erringen konnte.
1940/1941 besetzte Deutschland zusammen mit dem faschistischen Italien die Länder Jugoslawien und Griechenland. Beide Länder wurden unter den verbündeten Diktaturen aufgeteilt. Ihrer Eroberung folgte jedoch ein zermürbender Partisanenkrieg.
Ungarn, Rumänien und Bulgarien wurden als Verbündete des "Großdeutschen Reiches" gewonnen. Auf Bitten Mussolinis wurden die italienischen Truppen in Nordafrika ab Januar 1941 durch deutsche Verbände unterstützt, das Deutsche Afrikakorps, bekannt geworden durch Generalfeldmarschall Erwin Rommel, den „Wüstenfuchs“.
Am 22. Juni 1941 marschierte die Wehrmacht in den sowjetisch besetzten Teil Polens ein und überfiel unmittelbar danach unter Bruch des deutsch-sowjetischen Nichtangriffspakts die Sowjetunion selbst. In dem als Vernichtungskrieg geplanten „Unternehmen Barbarossa“ gelangten die deutschen Streitkräfte bis vor Moskau, Leningrad und Stalingrad. Die Schlacht von Stalingrad markierte einen Wendepunkt im Krieg gegen die Sowjetunion.
Die besetzten Gebiete im Osten wurden auf Weisung der Nationalsozialisten systematisch ausgeplündert. Das besetzte sowjetische Gebiet wurde in verschiedene "Reichskommissariate" aufgeteilt, die jeweils einem "Reichskommissar" unterstellt waren. Der Gesamtplan sah die Aufteilung der UdSSR und ihre Zerstörung als selbständigen Staat vor. Dieses Endziel wurde nur durch den weiteren Kriegsverlauf verhindert, aber mit der systematischen Ausplünderung, Unterdrückung und Ermordung der Zivilbevölkerung wurde begonnen.
Der von Reichsführer SS Heinrich Himmler ausgearbeitete „Generalplan Ost“ sah die Dezimierung der slawischen Völker um insgesamt 30 Millionen und die Unterdrückung der Übrigen vor, die als Bauarbeiter, Hilfsarbeiter, Fabrikarbeiter, Hauspersonal, als Landarbeiter, in der Rüstungsindustrie, beim Straßenbau etc. arbeiten sollten. Gewissermaßen als „ein Vorspiel zum ‚Generalplan Ost‘“ wurden nach dem deutschen Hungerplan vom Mai 1941 landwirtschaftliche Erzeugnisse aus der Ukraine und aus Südrussland in großem Umfang nach Deutschland geschafft.
Während dabei bis zu 30 Millionen Hungertote einkalkuliert wurden, verhungerten auf Grund des fehlgeschlagenen Blitzkriegs mindestens vier Millionen Menschen in den besetzten Gebieten der Sowjetunion.
Zu den Opfern des „Hungerplans“ werden auch die 2,6 Millionen sowjetischen Soldaten gerechnet, die in deutscher Kriegsgefangenschaft verhungerten.
Die jüdische Bevölkerung in den besetzten Gebieten wurde erfasst und in Konzentrationslager deportiert, unzureichend ernährt, zur Zwangsarbeit herangezogen und in dafür eigens eingerichteten Gaswagen und Gaskammern in Vernichtungslagern ermordet.
Besonders in den besetzten Ostgebieten wurden auch viele Tausende Juden von den Einsatzgruppen der Sicherheitspolizei und des SD sowie von SS-Einheiten erschossen und anschließend in Massengräbern verscharrt.
Die Zahl der im Holocaust insgesamt durch Erschießungen, Vergasungen, Hunger, Misshandlung, Zwangsarbeit und Krankheiten umgekommenen Juden wird auf ungefähr 6 Millionen geschätzt. Ihr Besitz wurde enteignet und zu Reichseigentum erklärt. Auf diese Weise standen den Besatzungstruppen finanzielle Mittel in Landeswährung zur Verfügung.
Von Stalingrad bis zur Kapitulation (1942–1945).
Im Winter 1941/1942 geriet die Offensive der Wehrmacht in der Sowjetunion ins Stocken. Am 11. Dezember 1941 erklärte Hitler, nach dem Angriff des deutschen Verbündeten Japan auf den amerikanischen Stützpunkt Pearl Harbor, den USA den Krieg, die Großbritannien mit Gütern versorgten.
In der Schlacht von Stalingrad musste die Wehrmacht durch Fehlentscheidungen Hitlers ihre erste – und letztlich kriegsentscheidende – Niederlage hinnehmen. Bis Ende 1943 konnte die Rote Armee der Sowjetunion, die auch von den USA mit Waffenlieferungen unterstützt wurde, weite Gebiete zurückerobern. Am 13. Mai 1943 mussten die Achsenmächte in Nordafrika kapitulieren.
Inzwischen war der seit 1924 ideologisch angekündigte und seit 1933 politisch angebahnte Holocaust an den Juden im Gang. 1943 begann der Bombenkrieg der Alliierten auf deutsche Städte, bei dem etwa 300.000 Zivilisten ums Leben kamen. Am 18. Februar 1943 verkündete Goebbels in der Sportpalastrede den „totalen Krieg“.
Ab Ende 1944 flohen viele Deutsche aus ihrer angestammten Heimat im Osten vor der anrückenden Roten Armee. 1944 eroberte diese weite Teile von Südosteuropa.
Am 6. Juni begann die Invasion der westlichen Alliierten in der Normandie, nachdem sie schon zuvor nach der Landung auf Sizilien von Süden her Italien eroberten und gegen Deutschland im Vormarsch waren. Am 20. Juli scheiterten ein Attentat und ein Putschversuch von Wehrmachtangehörigen und Mitgliedern der Widerstandsgruppe des „Kreisauer Kreises“ gegen Hitler.
Anfang 1945 beschlossen die Alliierten auf der Konferenz von Jalta die Aufteilung des Reiches nach dem Krieg. Um den Alliierten keine brauchbare Infrastruktur zu hinterlassen, erteilte Hitler am 19. März 1945 den Nerobefehl, der aber nur teilweise ausgeführt wurde.
Im April erreichten die sowjetischen Truppen die Reichshauptstadt und es kam zur Schlacht um Berlin. Hitler tötete sich am 30. April im Bunker der Reichskanzlei, nachdem er testamentarisch Admiral Karl Dönitz zu seinem Nachfolger als Reichspräsident und Oberbefehlshaber der Wehrmacht bestimmt hatte.
Neben Hitler töteten sich in der Folge auch andere führende Funktionäre, so Joseph Goebbels und Heinrich Himmler – dieser jedoch erst später in Gefangenschaft, nachdem er mit gefälschten Ausweisen gestellt wurde. In den frühen Morgenstunden des 7. Mai 1945 schließlich unterzeichnete Generaloberst Jodl – von Dönitz hierzu autorisiert – die bedingungslose Kapitulation der deutschen Streitkräfte, die durch Unterzeichnung einer weiteren Kapitulationsurkunde ratifiziert am nächsten Tag in Kraft treten sollte.
Kurz nach der bedingungslosen Kapitulation wurde außerdem die geschäftsführende Reichsregierung mit Karl Dönitz in Flensburg-Mürwik verhaftet.
Der Zweite Weltkrieg dauerte in Südostasien noch bis zum 2. September an. Er forderte insgesamt über 62 Millionen Tote. In den letzten Kriegsmonaten und im Anschluss an die Besetzung des Reichs wurden die meisten noch verbliebenen Deutschen aus Osteuropa vertrieben.
Völkermord und andere Verbrechen gegen die Menschlichkeit.
Anhänger der Linksparteien, Zeugen Jehovas und oppositionell eingestellte Jugendliche waren schon vor Kriegsbeginn als politisch unerwünschte Gruppen verfolgt und zu Tausenden ermordet worden.
Die Ermordung von Bevölkerungsgruppen aus Gründen der „Rassenhygiene“ begann noch vor dem Krieg mit dem Massenmord an deutschen Behinderten. Die „Aktion T4“ wurde ab Kriegsbeginn auch mit Mangel an Lazarettplätzen begründet und als „Euthanasie“ verschleiert.
Die Ermordung wurde mit der Arbeitsunfähigkeit der Behinderten begründet. Dazu wurden Fachabteilungen psychiatrischer Anstalten an etwa 30 Orten für die Tötungen umgebaut. Die Ermordung geschah auch auf dem Transport in abgedichteten LKWs („Gaswagen“) mit deren Abgasen oder mit Kohlenstoffmonoxid. Die Leichen wurden verbrannt, ihre Angehörigen erhielten falsche Todesbescheinigungen. Die Täter wurden danach als Spezialisten in den Todesfabriken in Osteuropa eingesetzt.
Der Holocaust, der systematische Völkermord an etwa sechs Millionen Juden und „Judenmischlingen“, darunter über drei Millionen Polen und 1,8 Millionen Kindern, war das größte Verbrechen der Nationalsozialisten.
Er begann mit Massenerschießungen von Juden und polnischen Führungskräften durch besondere „Einsatzgruppen“ im besetzten Polen. Es folgten großangelegte Deportationen (unter der Tarnbezeichnung „Umsiedlung“) und Internierungen in Ghettos und Arbeitslager, wo bereits Hunderttausende als Zwangsarbeiter umkamen.
Dorthin wurden auch deutsche und österreichische Juden deportiert; mit Massakern wie dem in Babyn Jar (29./30. September 1941) und Riga (29. November bis 1. Dezember 1941) wurden überfüllte Ghettos für nachrückende Judentransporte geleert.
Mit dem Krieg gegen die Sowjetunion 1941–1945 weiteten sich die Judenmorde zum flächendeckenden Völkermord aus. Zur Durchführung der Aktion Reinhardt ab Juni 1941 wurden drei Vernichtungslager eingerichtet; ab Dezember 1941 begannen die ersten Morde in Gaswagen nach dem Vorbild der Aktion T4.
Damit sollte die Wirkung von Giftgas getestet werden, um effektiver töten zu können und moralische Skrupel der Mörder bei Massenerschießungen zu vermeiden. Auf der geheimen Wannseekonferenz am 20. Januar 1942 organisierten Vertreter aller wichtigen NS-Behörden die begonnene „Endlösung der Judenfrage“ im Detail und verabredeten europaweite Deportationen von bis zu 11 Millionen Juden in die osteuropäischen Ghettos und Lager.
Bis Sommer 1942 waren die Krematorien im KZ Auschwitz-Birkenau fertiggestellt; nun wurden die Massenmorde auf industrielle Vergasung konzentriert. Die Verwertung des Eigentums der etwa drei Millionen Vergasten wurde bis ins Detail geregelt.
Außer den Juden betrachtete die nationalsozialistische Rassenpolitik auch „Zigeuner“, Slawen oder Homosexuelle als „lebensunwert“ bzw. als „rassisch minderwertig“. Diese Gruppen – die größte unter ihnen etwa 2,5 bis 4 Millionen sowjetische Kriegsgefangene – wurden ebenfalls massenhaft ermordet, teilweise ebenfalls in den Vernichtungslagern.
Diese Menschen, so Timothy Snyder, wurden „gezielt umgebracht, oder es lag die bewusste Absicht vor, sie den Hungertod sterben zu lassen. Wäre der Holocaust nicht gewesen, man würde dies als das schlimmste Kriegsverbrechen der Neuzeit erinnern.“ Hauptgrund für diese Verbrechen war die Rassen- und Lebensraum-Ideologie, die Hitler 1924 in "Mein Kampf" dargelegt hatte und die seit 1939 in einem Weltkrieg verwirklicht wurde.
Die NS-Täter versuchten, ihre Verbrechen möglichst geheim zu halten und mit Euphemismen wie "Umsiedlung" oder "Sonderbehandlung" zu tarnen. Die Deutschen erfuhren durch private Berichte und teils recht unverstellte Andeutungen in Medien dennoch genug Details, um auf den organisierten Judenmord schließen zu können. Das spurlose Verschwinden jüdischer Nachbarn, das Ziel ihrer öffentlichen Abtransporte wurde wahrgenommen, aber nicht weiter hinterfragt.
Der Satz „du kommst sonst ins KZ“ war ab 1933 ein Drohwort für fast jeden. Gerüchte über die Lager „im Osten“ kamen mit den Fronturlaubern praktisch in jedes Dorf; alliierte Rundfunksender (die gehört wurden, obwohl das Hören von Feindsendern verboten war und teils drakonisch bestraft wurde) meldeten die Massenmorde.
Der Holocaust war in Deutschland ein „offenes Geheimnis“: Wer es wissen wollte, konnte es wissen, doch hielt ein verbreiteter Mangel an Neugier viele Deutsche von genauerer Kenntnis ab. Der polnische Geheimdienst lieferte den Briten bereits 1942 den Beweis für den Massenmord in Auschwitz.
Auch der damalige Papst Pius XII. wusste früh davon.
Die ständigen Angriffe gegen jüdische Bevölkerungsteile ab April 1933 wurden zum Teil passiv akzeptiert und von Nutznießern begrüßt. Enteignungsartige „Arisierungen“ selbst kleinster Geschäfte oder Betriebe hatten immer Nutznießer und geschahen vor den Augen der örtlichen Bevölkerung.
Rettungsaktionen für Juden waren eine seltene Ausnahme; Mittäterschaft oder Gleichgültigkeit waren die Regel.
Oskar Schindler bewahrte rund 1200 jüdische Zwangsarbeiter aus Krakau vor der Ermordung. Das von der Bekennenden Kirche 1938 eingerichtete Büro Grüber verhalf vor allem Judenchristen bis zu seiner Schließung 1940 heimlich zur Ausreise.
In den Nürnberger Prozessen wurden nur führende Personen unter anderem wegen Verbrechen gegen die Menschheit und Kriegsverbrecher verurteilt. Eine wirkliche Aufarbeitung der NS-Verbrechen und ihrer Ermöglichung begann in Westdeutschland erst um 1960. Seit 1945 hat die Holocaustleugnung eine dauerhafte und internationale Tradition.
Am United States Holocaust Memorial Museum wird seit dem Jahr 2000 an einer "Encyclopedia of Camps and Ghettos" geschrieben (Leitung: Geoffrey Megargee und Martin Dean). 2013 nannten sie über 42.500 Orte der Gewalt, die es im Dritten Reich im besetzten Europa gab (darunter Konzentrationslager, Arbeitslager, Gettos, Judenhäuser und Orte, an denen Frauen zur Prostitution gezwungen wurden).
Bis dahin war diese Zahl weit geringer geschätzt worden.
Zwangsarbeiter und Beutekinder.
Millionen Menschen aus den besetzten Gebieten, insbesondere aus Polen, den Balkanländern und der Sowjetunion, wurden ins Reichsgebiet entführt oder auch in den besetzten Gebieten als Zwangsarbeiter ausgebeutet. Viele von ihnen überlebten den Zweiten Weltkrieg nicht. Die Kinder der Zwangsarbeiterinnen wurden in auf Himmlers Befehl eingerichtete „Ausländerkinderpflegestätten“ gebracht, die kein anderes Ziel hatten, als diese „unerwünschten“ Kinder unbemerkt von der Öffentlichkeit verkümmern zu lassen.
Daneben wurden zehntausende polnische Kinder, die die „rassischen Merkmale“ erfüllten, ihren Familien weggenommen und nach Deutschland deportiert, von denen die wenigsten nach dem Krieg zu ihren Eltern zurückkehren konnten. Andere, die die rassischen Merkmale nicht erfüllten, wurden massenhaft in Konzentrationslagern ermordet. Der bekannteste Fall dürfte die Deportation zehntausender Kinder aus der Gegend um Zamość – in der Deutsche aus dem Baltikum und Bessarabien angesiedelt wurden – nach Auschwitz gewesen sein.
Widerstand gegen den Nationalsozialismus.
Schon vor der Machtübernahme begann der Widerstand verschiedenster Gruppen gegen die Nationalsozialisten. In der Zeit des Nationalsozialismus selbst beschränkte sich der Widerstand, der immer mit Lebensgefahr verbunden war, auf eine verschwindend kleine Minderheit der deutschen Bevölkerung, wohingegen dieser Widerstand in den im Zweiten Weltkrieg besetzten Gebieten, beispielsweise im Partisanenkrieg, größere Ausmaße annahm.
Kurz nach der Machtübernahme der NSDAP waren vor allem kommunistische, sozialdemokratische und andere linke Gruppen aktiv. Diese wurden jedoch innerhalb weniger Jahre durch die Gestapo und die SS stark geschwächt.
Im Reich konnte beispielsweise der katholische Bischof von Münster und Kardinal Clemens August Graf von Galen durch seine öffentliche Verurteilung der Morde an den Behinderten dazu beitragen, dass die Aktion T4 von den Nationalsozialisten eingestellt wurde.
Einzelpersonen der evangelischen Bekennenden Kirche wie etwa Pastor Martin Niemöller oder Dietrich Bonhoeffer schlossen sich nach Ausbruch des Zweiten Weltkrieges Widerstandskreisen an.
Bonhoeffer musste wie viele andere NS-Gegner seinen Mut im KZ mit dem Leben bezahlen. Der kommunistische Einzelkämpfer Georg Elser verübte am 8. November 1939 im Münchner Bürgerbräukeller ein Bombenattentat auf Hitler, das dieser aber überlebte, weil er den Saal unerwartet kurz vor der mit einem Zeitzünder eingestellten Detonation der Bombe verließ.
Elser wurde bald gefasst und im April 1945 im KZ Dachau ermordet. Die Münchner studentische Widerstandsgruppe "Weiße Rose" um die Geschwister Hans und Sophie Scholl rief in mehreren Flugblättern zum Widerstand gegen das NS-Regime auf. Außerdem suchte diese Gruppe Kontakt zu Widerstandskreisen in der Wehrmacht.
Die bedeutendsten Mitglieder der Gruppe wurden im Februar 1943 gefasst und vom Volksgerichtshof unter dem Vorsitz des berüchtigten Richters Roland Freisler zum Tode verurteilt und kurze Zeit später hingerichtet. Im Kölner Raum traten die Edelweißpiraten auf, einige Gruppen von aus der bündischen und kommunistischen Tradition kommenden Jugendlichen, die sich zunächst gegen die Uniformität der Hitler-Jugend gewandt hatten, im Lauf des Krieges aber auch zu konkreten Widerstandsaktionen übergingen, die bis hin zu Sabotageakten reichten.
Von Wien aus leitete die Widerstandsgruppe rund um Kaplan Heinrich Maier Informationen über Standorte, Beschäftigte und Produktionen der NS-Rüstungsbetriebe an die Alliierten, um damit deren Bombern gezielte Luftschläge zu ermöglichen, womit der Krieg verkürzt und die Zivilbevölkerung geschont werden sollte. Die Widerstandsgruppe "Rote Kapelle" bestand aus verschiedenen unabhängigen Gruppen, die auf mehreren Ebenen gegen das Regime arbeitete.
Der vereinzelt und vergleichsweise selten vorkommende Widerstand von Privatpersonen, der sich eher im Stillen abspielte, entsprang oft einer moralischen Abscheu gegenüber den Taten des Regimes oder dem Mitleid mit den Opfern. Er reichte von der Verweigerung des Hitlergrußes bis hin zur verbotenen Versorgung mit Lebensmitteln für Zwangsarbeiter oder dem Verstecken von Verfolgten, meist Juden.
Hitler überlebte mehrere Anschläge, darunter das bis heute bekannteste Attentat vom 20. Juli 1944, das vom militärischen Widerstand, der auch Kontakt zur Widerstandsgruppe Kreisauer Kreis hatte, organisiert worden war. Im Anschluss an das Sprengstoffattentat, das von Oberst Claus Schenk Graf von Stauffenberg durchgeführt wurde, kam es in Berlin in der „Operation Walküre“ zu einem Putschversuch, der aber nach dem Bekanntwerden von Hitlers Überleben schnell in sich zusammenfiel und niedergeschlagen wurde.
Die unmittelbaren Akteure des Putschversuchs, Mitglieder der Wehrmacht, unter ihnen auch Stauffenberg selbst, wurden noch in der Nacht vom 20. auf den 21. Juli 1944 erschossen. Im Zuge der folgenden Ermittlungen kam es zur Entdeckung weiterer Umsturzpläne aus den Jahren 1938 bis 1944. Bis zum Kriegsende wurden in Prozessen vor dem Volksgerichtshof, die anfangs in Ausschnitten in der Wochenschau gezeigt wurden, über 200 Personen im Zusammenhang mit dem Attentat vom 20. Juli zum Tode verurteilt. Mehreren populären Generälen (u. a. Erwin Rommel, Günther von Kluge), die in den Verdacht der Mitwisserschaft gerieten, wurde der Ehrensuizid nahegelegt.
Wichtige exekutive Instanzen der Verfolgung vor allem des innerdeutschen Widerstands waren die Geheime Staatspolizei ("Gestapo") und der Volksgerichtshof.
Widerstand leisteten auch in Deutschland oder im Exil lebende Künstler wie der kritische Schriftsteller und Dramatiker Bertolt Brecht und andere, die sich mit ihren Mitteln – meist publizistisch – gegen das NS-Regime wandten.
Neben dem Widerstand in Deutschland entstanden nach Kriegsbeginn auch in den besetzten Gebieten Widerstandsgruppen wie zum Beispiel die Polnische Heimatarmee oder die Résistance in Frankreich. Sie lieferten den Deutschen unter deren Besatzung erbitterten Widerstand im Partisanenkrieg, der vor allem in den Balkanstaaten Jugoslawien, Albanien und Griechenland sowie in Polen (Warschauer Aufstand) besonders effektiv war, allerdings auch äußerst grausame Vergeltungsaktionen der deutschen Besatzer nach sich zog – wie etwa massenhafte Geiselerschießungen von Zivilisten. Insbesondere im besetzten Polen wurde sehr häufig wahllos die Bevölkerung ganzer Dörfer und Städte in Vergeltungsakten für geleisteten Widerstand ermordet.
Von den Alliierten wurde der Widerstand in Deutschland selbst, anders als der in den besetzten Gebieten, so gut wie nicht unterstützt. Vielmehr bewirkte das alliierte Kriegsziel einer bedingungslosen Kapitulation eine fortdauernde Solidarisierung der deutschen Bevölkerung mit der NS-Führung, da es auch nach einem Staatsstreich kaum günstigere Friedensbedingungen erwarten ließ.
Reflexionen zum Stand der NS-Forschung.
Einen Überblick über die Kontroversen zur NS-Forschung bis zur Jahrtausendwende findet man bei Ian Kershaw, der in einem Kapitel seines einschlägigen Werks Betrachtungen zum „Wesen des Nationalsozialismus“ diskutiert und im Schlusskapitel „historiographische Entwicklungstendenzen seit der deutschen Vereinigung“.
Zum bereits in den 1920er Jahren auf Faschismus und Nationalsozialismus bezogenen Totalitarismus-Begriff stellt er fest, dass die Totalitarismustheorie in den 1990er Jahren wieder aufgelegt worden und nach wie vor weit verbreitet sei. Die hitzigen ideologischen Debatten, die die Zeiten des Kalten Krieges beherrschten, hätten sich jedoch in Luft aufgelöst.
Michael Burleigh bekundet in seiner Gesamtdarstellung "Zeit des Nationalsozialismus" zwar Verständnis dafür, dass deutschsprachige Historiker sich bei ihrer Aufarbeitung der NS-Zeit auf die deutsche Geschichte zwischen 1933 und 1945 konzentrierten, hält aber entgegen, dass die Welt die Auswirkungen des Nazismus auch bereits vor Kriegsausbruch zu spüren bekommen habe, etwa durch die zahlreichen Flüchtlinge, die sich aus Deutschland und Österreich absetzten, aber auch in Gestalt von willkürlichen und gewaltsamen Störungen der internationalen Ordnung.
Bei der Darstellung der im Zweiten Weltkrieg begangenen Verbrechen ist Burleigh auch die Darstellung europäischer Erscheinungsformen der Kollaboration mit den Nationalsozialisten wichtig sowie die Beteiligung nichtdeutscher und nichtösterreichischer Täter am Holocaust.
Als politische Religion und totalitäre Herrschaftsform deutet und behandelt Burleigh den Nationalsozialismus in seinem Werk und merkt wie Kershaw dazu an, dass dieser Ansatz erst in den 1990er Jahren wieder „in Mode gekommen“ sei.
„Totalitären Gestaltungswillen“ erkennt Riccardo Bavaj bei den Nationalsozialisten in seiner 2016 publizierten Synthese und erläutert: „Von totalitärem Gestaltungswillen ist die Rede, nicht weil an einer Totalitarismustheorie klassischer Prägung festgehalten werden soll, sondern weil der Begriff des Totalitären den politischen Anspruch der Nationalsozialisten, der auf eine vollständige Entgrenzung des Politischen zielte, typologisch am besten fasst.“
Die NS-Volksgemeinschaft stand demnach für ein „totalitäres Sozialexperiment“, bei dem es darum ging, Gesellschaft in homogene Gemeinschaft umzuformen, „organisiert in Form einer Führerschaft, die sich als Ausdruck eines vermeintlich einheitlichen Volkswillens inszenierte.“ Krieg, Expansion und Vernichtung waren für Bavaj „integrale Bestandteile“ dieses Experiments.
Im Fazit seiner 2017 erschienenen Studie "«Ein Volk, ein Reich ein Führer». Die deutsche Gesellschaft im Dritten Reich" konstatiert Dietmar Süß, der Nationalsozialismus habe nicht nur die bestehenden Formen pluraler Öffentlichkeit zerschlagen, sondern habe auch in die Lebensführung jedes Einzelnen, jeder Familie eingegriffen. „Aber dieses private Leben war nicht einfach fremdgesteuert durch die NS-Führer, denn viele Volksgenossinnen und Volksgenossen konnten individuelles Glück durchaus mit veränderten politischen Bestimmungen in Übereinstimmung bringen. Sie trugen mit dazu bei, dass der Nationalsozialismus in beinahe alle Ritzen der Gesellschaft eindringen konnte, ja sie verkörperten häufig genug selbst die totalitären Ansprüche des Regimes.“
Der Historiker Wolfgang Wippermann dagegen lehnt in diversen Publikationen, zuletzt im Jahr 2002, eine Anwendung des Totalitarismusbegrffs auf die NS-Zeit strikt ab: Die darin inhärente Gleichsetzung des Nationalsozialismus mit dem Stalinismus oder anderen Diktaturen von links diene der Relativierung und Verharmlosung der nationalsozialistischen Verbrechen: Sie stelle „die Singularität des Holocaust in Frage“.
Für Magnus Brechtken nahm das Dritte Reich trotz aller Kompetenzkämpfe von NS-Größen untereinander und trotz konkurrierender Institutionen – die sogenannte Polykratie in der nationalsozialistischen Herrschaft also inbegriffen – keine beliebige Entwicklung. Es zeige sich eine zielgerichtete, „ideologiegetriebene Abfolge von radikalisierenden Schritten“: Rassensegregation, völkische Militarisierung, territoriale Expansion und völkerverschiebender Lebensraumkrieg unter Einschluss millionenfacher Menschenvernichtung. „Dieser Impetus ging von Hitler aus, setzte sich in seinen Gläubigen fort und zwang schließlich mit dem Krieg das gesamte Volk in seinen Dienst.“
Ausschlaggebend für die rasche Entfaltung und breite Anerkennung der NS-Herrschaft in der Bevölkerung war aus der Sicht von Norbert Frei, dass es dem Regime gelang, „die Bedürfnisse und Sehnsüchte breiter Schichten überzeugend anzusprechen, zu seiner Sache zu erklären und wenigstens zum Teil auch zu befriedigen.“
Darin habe die Modernität des Hitler-Staats gelegen, und dies erkläre auch die langanhaltende Fähigkeit, die Massen zu mobilisieren und sich ihre Loyalität zu erhalten. „Der verbreitete Hunger nach sozialer Integration wurde beantwortet mit permanenter klassenübergreifender Mobilisierung und dem expliziten Verzicht auf politische Normalität.“ Eine nicht aufzulösende „Verknüpfung von technischer Modernität und reaktionärer Vision“ sei für die Wirklichkeit des Dritten Reiches grundlegend gewesen.
In seinem Aufriss neuerer Forschungstendenzen sieht Jörg Echternkamp auf internationaler Ebene unterschiedliche Schwerpunktsetzungen: Während im Zentrum der amerikanischen Forschung demnach mit den Holocaust-Studien der Genozid an den europäischen Juden steht, gilt das Interesse in Großbritannien vor allem den Terror-Instrumenten der NS-Herrschaft.
Jüngere deutsche Studien legten einen Akzent auf das Bedingungsgefüge, das die Identifikationsbereitschaft der großen Bevölkerungsmehrheit mit der von den Nationalsozialisten propagierten „Volksgemeinschaft“ bis weit in den Zweiten Weltkrieg zu erklären hilft.
Die Frage nach der Attraktivität des Nationalsozialismus sei unbequem, so Echternkamp, und gehe über die in den 1990er Jahren diskutierte Frage nach der Modernität des Nationalsozialismus hinaus, die „die Wogen hochschlagen ließ.“
Es gehe es um die Kernfrage, warum sich so viele Deutsche für ein System begeistert haben, das wie kein anderes für Verfolgung, Terror und Massenmord stehe. Zudem mache „dieses Freilegen von Kontinuitätslinien“ die NS-Forschung anschlussfähig „gegenüber der Geschichte der Nachkriegszeit und der beiden deutschen Staaten.“
Demgegenüber betont Ian Kershaw u. a. wegen begrifflicher Unschärfe einen nur begrenzten Erklärungswert des Volksgemeinschaftskonzepts.
Zum Leitbild der „Volksgemeinschaft“ in der NS-Zeit stellt Michael Wildt resümierend fest, dass die soziale Wirklichkeit nach einhelliger Forschungsauffassung dem propagierten Anspruch nicht entsprochen hat: „Entgegen dem von Hitler und Goebbels immer wieder beschworenen Ende des Klassenkampfes und der Einheit aller Arbeiter der Stirn und der Faust sowie der Unternehmer blieben die strukturellen Unterschiede und sozialen Asymmetrien zwischen Arbeitgebern und Arbeitnehmern, Kleingewerbetreibenden und Großbetrieben, selbstständigen Kleinbauern und Großgrundbesitzern auch im Nationalsozialismus erhalten.“
Statt einem nationalsozialistischen Propagandabegriff aufzusitzen, gelte es, von der gesellschaftlichen Wirklichkeit auszugehen „und Dimensionen von Zustimmung und Abwehr, Mitmachen und Verweigern, Anteil nehmen und Wegschauen zu erkunden.“
Ein wissenschaftlich produktiver Umgang mit dem Begriff setzt für Wildt „Volksgemeinschaft“ nicht als gegeben voraus, sondern untersucht die Praktiken ihrer Herstellung, also der Vergemeinschaftung. Dabei erscheint es ihm lohnend, die die „Aneignungsweisen“ nach Generation und Geschlecht zu untersuchen, „gerade weil sich das NS-Regime intensiv bemühte, sowohl die Jugend als auch die Frauen an sich zu binden.“
Dabei sei etwa die „maskuline Vergemeinschaftung“ durch „Kameradschaft“ von den Gemeinschaftserlebnissen junger BDM-Führerinnen zu unterscheiden.
Deren Gemeinschaftsgefühl habe sich auch aus einem Zuwachs an Verantwortung und aus dem Zugang zu Leitungspositionen gespeist, die ihnen als jungen Frauen vordem nicht offengestanden hätten.
In der jüngeren NS-Forschung beobachtet Echternkamp eine Verschiebung des zeitlichen Fokus von 1933 auf 1939/41. Während es in der älteren Forschung vor allem um die Frage gegangen sei, wie es zum Aufstieg des Nationalsozialismus habe kommen können und wie sich der „deutsche Sonderweg“ erklären lasse, sei unterdessen der Beginn des Krieges und des Völkermords stärker in den Fokus des Interesses gerückt. Ulrich Herbert signalisiert in seiner Darstellung des Dritten Reiches ebenfalls eine Fokusverschiebung.
Für 1933 bis 1939 gehe es nur um spezifisch deutsche Geschichte; die Jahre von 1939 bis 1945 hingegen seien Teil der europäischen und Weltgeschichte „und für nahezu alle europäischen Staaten die bis heute schrecklichste Phase ihrer Vergangenheit.“ Dieses Ungleichgewicht müsse sich, so Herbert, in den Proportionen seiner Überblicksdarstellung niederschlagen. |
1029 | 3729235 | https://de.wikipedia.org/wiki?curid=1029 | Diät | Die Bezeichnung Diät kommt von und wurde ursprünglich im Sinne von „Lebensführung“/„Lebensweise“ verwendet. Die Diätetik beschäftigt sich auch heute noch wissenschaftlich mit der „richtigen“ Ernährungs- und Lebensweise. Im deutschsprachigen Raum bezeichnet der Begriff bestimmte Ernährungsweisen und Kostformen, die entweder zur Gewichtsab- oder -zunahme oder als Heilverfahren zur Behandlung von Krankheiten dienen sollen. Umgangssprachlich wird der Begriff in Deutschland häufig mit einer Reduktionsdiät (Reduktionskost) zur Gewichtsabnahme gleichgesetzt. Er bildet somit ein Synonym zur Schlankheitskur.
Diätformen.
Seit Hippokrates wird als Diät eine spezielle Ernährung des Menschen bezeichnet, bei der längerfristig oder dauerhaft eine spezielle Auswahl von Lebensmitteln verzehrt wird. Wobei unter „Diät“ nicht nur die Ernährung, sondern die (gesunde) Lebensweise verstanden wurde.
Auf dem antiken System der Humoralpathologie beruhend sollte bei Diokles von Karystos die Beschaffenheit der Nahrung der Qualität der Jahreszeiten entgegengesetzt sein; im Sommer etwa sollte die Ernährung nicht erwärmend und trocknend, im Winter weder kühlend noch feucht machend, sein.
Im deutschsprachigen Raum wird heute als Diät entweder eine "kurzfristige" Veränderung der Ernährungsform zur Gewichtsreduktion (z. B. bei Adipositas), in einigen Fällen auch zur Gewichtszunahme (z. B. bei Anorexie) oder eine "längerfristige" bis dauerhafte Ernährungsumstellung zur unterstützenden Behandlung einer Krankheit (z. B. bei Zöliakie, Lactoseunverträglichkeit, Fruchtzuckerunverträglichkeit) bezeichnet.
Fasten bedeutet dagegen den vorübergehenden Verzicht auf Lebensmittel aus religiöser (im Islam der Ramadan, in der christlichen Kirche die vorösterliche Fastenzeit) oder gesundheitlicher Motivation (das Heilfasten).
Jede Diätform, ob sie zur Gewichtsreduktion oder zur unterstützenden Krankheitsbehandlung dient, basiert auf einer Verminderung oder Vermehrung des relativen Anteils eines Nahrungsbestandteils (Kohlenhydrate, Fette, Eiweiße, Vitamine, Mineral- und Konservierungsstoffe) gegenüber den anderen und/oder einer Erniedrigung oder Erhöhung der zugeführten Gesamtenergiemenge (siehe: Physiologischer Brennwert) sowie ggf. einer bilanzierten Veränderung der Flüssigkeitszufuhr.
Einen ganzheitlicheren Ansatz verfolgt die kognitive Verhaltenstherapie, die von Psychologen in Kliniken zur Behandlung von Adipositas eingesetzt wird. Bei dieser Methode werden dysfunktionale Verhaltenroutinen und Essgewohnheiten identifiziert und umtrainiert. Bei starkem Übergewicht und Essstörungen gilt sie als die langfristig sinnvollste Methode zur Gewichtsreduktion.
Reduktionsdiäten.
Eine Reduktionsdiät zielt auf die Reduktion des Körpergewichts. Es gibt zahlreiche Reduktionsdiäten, die sich in ihren Methoden teilweise erheblich voneinander unterscheiden. Nur wenige Diätformen sind wissenschaftlich überprüft. Die Entwicklung und Propagierung der Reduktionsdiäten ist nicht nur den Veränderungen wissenschaftlicher Erkenntnisse, sondern auch Moden und Weltanschauungen unterworfen. Einige Diätformen gelten in der Medizin sogar als gesundheitsgefährdend.
Gemäß den Empfehlungen der Deutschen Gesellschaft für Ernährung und der Deutschen Gesellschaft für Ernährungsmedizin sollten Reduktionsdiäten nur kurzzeitig erfolgen (und bei Extremformen nur unter ärztlicher Aufsicht). Allgemeiner Konsens ist, dass eine Reduktionsdiät nur dann dauerhaften Erfolg haben kann, wenn ihr eine dauerhafte Umstellung der Ernährung folgt, in der die Energiebilanz des Körpers ausgeglichen ist, d. h. in der nicht mehr Energie über Lebensmittel zugeführt wird als der Körper braucht. Eine Lebensumstellung hin zu vollwertiger Ernährung und vermehrter körperlicher Aktivität gilt als empfehlenswert. Beim Rückfall in alte Ess- und Lebensgewohnheiten kommt es meist zu einem Wiederanstieg des Körpergewichts, dem sogenannten Jo-Jo-Effekt, weil man in alte Essgewohnheiten verfällt, die nicht dem neuen geringeren Körpergewicht angepasst sind.
Es gibt zahlreiche Diäten mit unterschiedlichen Konzeptionen. Diese heißen zum Beispiel Low-Carb, Low-Fat, Trennkost oder Glyx-Diät. Bei einer Diät zur Gewichtsabnahme ist eine Minderung der Zufuhr an Kohlenhydraten genauso effektiv wie eine Minderung der Zufuhr an Fetten. Dabei ist es gelegentlich üblich, Mahlzeiten auszulassen und mit Nahrungsergänzungsmitteln zu ersetzen, die dem Körper die benötigten Nährstoffe, Vitamine und Mineralien liefern sollen.
Nach einer im Jahr 2005 an Mäusen durchgeführten Studie des Deutschen Instituts für Ernährungsforschung besteht ein Zusammenhang zwischen dem Konsum von Fruchtzucker (Fructose) und Übergewicht, der nicht auf der vermehrten Energieaufnahme beruht, sondern darauf, dass Fructose die Stoffwechseltätigkeit beeinflusst und auf diese Weise die Anreicherung von Körperfett begünstigt.
Diäten zur Krankheitsbehandlung.
Diäten werden als Einzelmaßnahme oder zusätzlich zur medikamentösen und evtl. operativen Therapie zur Behandlung von Krankheiten eingesetzt. Mit der Entwicklung wirksamer Ernährungsstrategien beschäftigt sich die Ernährungsmedizin.
Bis in die 1980er Jahre gab es fast für jede Krankheit eine eigene Diät. Heutzutage wird für die meisten Erkrankungen, wie auch für die Allgemeinbevölkerung, eine, evtl. modifizierte, lactovegetabile Vollwertkost (s. o.) in Verbindung mit körperlicher Aktivität empfohlen. Insbesondere in der Diabetesbehandlung kam es seit den 1990er Jahren zu einem Paradigmenwechsel, der weg von einer sehr streng reglementierten Ernährung zu einer fast völligen Freigabe der Ernährungsempfehlungen führte („energiereduzierte Mischkost“).
Die Diätempfehlungen sind ständigen, wissenschaftlich begründeten Veränderungen unterworfen und werden in Leitlinien der medizinischen Fachgesellschaften wie z. B. der Deutschen Gesellschaft für Ernährungsmedizin veröffentlicht. Diäten zur Krankheitsbehandlung sollten besonders in der Anfangsphase unter ärztlicher Begleitung erfolgen.
Sonstiges.
Beispiele für Krankheiten, bei denen eine Diät die Heilung begünstigt oder den Verlauf verbessert, sind:
Bei schweren Krankheiten wie Krebs kann eine Diät nur eine unterstützende Therapieform sein. Bei Essstörungen ist eine Psychotherapie erforderlich, zu deren Begleitung eine Diättherapie erfolgen kann. |
1030 | 178175 | https://de.wikipedia.org/wiki?curid=1030 | Daten | Daten bezeichnet als Plural von "Datum" Fakten, Zeitpunkte oder kalendarische Zeitangaben. Als Pluralwort steht es für durch Beobachtungen, Messungen u. a. gewonnene [Zahlen]werte sowie darauf beruhende Angaben oder formulierbare Befunde.
Allgemeines.
Während "Daten" in der Umgangssprache Gegebenheiten, Tatsachen oder Ereignisse sind, sind "Daten" in der Fachsprache Zeichen, die eine Information darstellen. In verschiedenen Fachgebieten wie z. B. der Informatik, der Mathematik, der Wirtschaftstheorie, der Neurowissenschaft oder den Biowissenschaften sind unterschiedliche – meist ähnliche – Definitionen gebräuchlich. Eine einheitliche Definition gibt es bisher nicht. Das liegt auch daran, dass die verschiedenen Fachgebiete dem Begriff "Daten" einen unterschiedlichen Begriffsinhalt zuordnen, der nur dieses Fachgebiet betrifft.
Im Datenschutzrecht sind im Wesentlichen die personenbezogenen Daten gemeint, d. h. Angaben über natürliche Personen, z. B. das Geburtsdatum oder der Wohnort.
Für die Datenverarbeitung und (Wirtschafts-)Informatik werden Daten als Zeichen (oder Symbole) definiert, die Informationen darstellen und die dem Zweck der Verarbeitung dienen.
Die Wirtschaftstheorie beschreibt Daten als diejenigen volkswirtschaftlichen Gegebenheiten, die einen wesentlichen Einfluss auf den Ablauf der Wirtschaft haben, selbst dabei aber nicht beeinflusst werden.
Etymologie und Sprachgebrauch.
"Daten" oder zuvor "Data" sind eigentlich Pluralbildungen von "Datum", das als Lehnwort aus dem Lateinischen zurückgeht auf "datum" ‚gegeben‘ (PPP zu lat. "dare" ‚geben‘) bzw. substantiviert ‚das Gegebene‘. Auf wichtigeren Schriftstücken war in der üblichen Einleitungsformel vermerkt „datum …“ („gegeben (am) …“) mit <Zeitangabe> und eventueller <Ortsangabe> – womit deren Inhalt „das Gegebene“ wurde. Die Pluralform "Daten" zu "Datum" folgt anderen Wörtern lateinischen Ursprungs wie "Studien" – "Studium" oder "Individuen" – "Individuum".
Da sich in der deutschen Sprache die Bedeutung von „Datum“ im allgemeinen Sprachgebrauch eingeengt hat auf Kalenderdatum, wird für die Pluralbildung im Sinne von Zeitpunkten oft nicht die Wortform „Daten“ benutzt, sondern stattdessen von „Datumsangaben“ oder „Terminen“ gesprochen. Umgekehrt werden für die Einzahl von „Daten“ im weiteren Sinn als eine gegebene Messung, Information oder Zeichen(kette) dann Wörter wie „Wert“, „Angabe“ oder „Datenelement“ verwendet. Es handelt sich also um ein Pluraletantum.
Obwohl diese beiden Ausdrücke in der Umgangssprache oft synonym benutzt werden, unterscheidet die Informationstheorie beide dem Begriff nach grundlegend voneinander. Details und Beispiele siehe → Information.
Recht.
Das deutsche Recht verwendet an verschiedenen Stellen den Datenbegriff als Rechtsbegriff. Verwendet wird der Begriff etwa im Datenschutz (Art. 4 Nr. 1 DSGVO) oder im Strafrecht unter „Ausspähen von Daten“ ( StGB); „Daten“ in diesem Sinn sind „nur solche, die elektronisch, magnetisch oder sonst nicht unmittelbar wahrnehmbar gespeichert sind oder übermittelt werden.“ Diese strafrechtliche Bestimmung von Daten stellt auf die technische Sicht von Daten als maschinenlesbar codierte Zeichen ab, die an ein Speicher- oder Übertragungsmedium gebunden sind. Davon zu unterscheiden ist eine semantische Dimension von Daten als Träger von Informationen. Diese Unterscheidung hat auch eine rechtliche Bedeutung. Die Frage nach dem rechtlichen Schutz für den Informationsgehalt von Daten führt in den Anwendungsbereich des geistigen Eigentums (Urheberrecht, gewerblicher Rechtsschutz) oder des Datenschutzes. Unbefugte Veränderungen der Codierung auf einem Datenträger sind dagegen als Eingriff in das Sacheigentum am Datenträger anzusehen und damit sachenrechtlich und ggf. auch strafrechtlich relevant.
Eigentum an Daten: Ein dem Sacheigentum (§ ff. BGB) entsprechendes Eigentum an Daten kennt das Recht in Deutschland nicht. Da die Eigentumsvorschriften auf eine ausschließliche Zuordnung einer nicht beliebig vermehrbaren und eindeutig identifizierbaren Sache ausgerichtet sind, passen sie nicht zum Charakter von Daten als beliebig, fast ohne Kosten vermehrbares, nicht-rivales Gut. Wohl aber erkennt das geltende Recht ein Eigentum an Datenträgern an. Noch nicht abschließend geklärt ist bisher, inwieweit sich das Eigentum am Datenträger oder an einem Daten produzierenden Gerät auf die gespeicherten bzw. produzierten Daten erstreckt.
Das österreichische Kernstrafrecht kennt den Datenbegriff seit der Einführung des StGB (Datenbeschädigung). Im Laufe der Zeit wurden weitere Tatbestände hinzugefügt, sodass heute auch der betrügerische Datenverarbeitungsmissbrauch ( StGB), Datenfälschung ( StGB), die Störung der Funktionsfähigkeit eines Computersystems ( StGB) und diverse Vorfelddelikte (ua , und StGB) bestraft werden können.
Ferner findet sich eine differenzierte Darstellung des Begriffs im Datenschutzgesetz 2000 (DSG). So wird zwischen personenbezogenen und nicht personenbezogenen Daten unterschieden, wobei nur erstere durch das DSG geschützt werden.
Informatik.
Laut Definition der inzwischen abgelösten Norm DIN 44300 Nr. 19 waren Daten (ab 1985) „Gebilde aus Zeichen oder kontinuierliche Funktionen, die aufgrund bekannter oder unterstellter Abmachungen Informationen darstellen, vorrangig zum Zweck der Verarbeitung und als deren Ergebnis.“
Gemäß Terminologie der geltenden Norm des internationalen Technologiestandards ISO/IEC 2382-1 für Informationstechnik (seit 1993) sind Daten – "Data": „a reinterpretable representation of information in a formalized manner, suitable for communication, interpretation, or processing“ – eine wieder interpretierbare Darstellung von Information in formalisierter Art, geeignet zur Kommunikation, Interpretation oder Verarbeitung.
In der Informatik und Datenverarbeitung versteht man "Daten" gemeinhin als (maschinen-)lesbare und -bearbeitbare, in der Regel digitale Repräsentation von Information. Ihr Inhalt wird dazu meist zunächst in Zeichen bzw. Zeichenketten kodiert, deren Aufbau strengen Regeln folgt, der sogenannten Syntax. Um aus Daten wieder die "Informationen" zu abstrahieren, müssen sie in einem Bedeutungskontext interpretiert werden. So kann eine Ziffernfolge wie „123456“ zum Beispiel in Abhängigkeit vom Kontext für eine Telefonnummer, eine Kontonummer oder die Anzahl von Kfz-Neuzulassungen in einem bestimmten Zeitraum stehen. Die betrachtete Zeichenfolge „123456“ oder auch „11110001001000000“ als solche kann nur als Aneinanderreihung von Ziffern erkannt werden; ihre konkrete Bedeutung wird erst im jeweils passenden Kontext (siehe Semantik) klar.
Die Speicherung von Daten erfolgt auf Datenspeichern, wie z. B. Festplatten, DVDs, Flash-Speichern oder auch Magnetbändern, früher z. B. auch Lochkarten. Diese Datenträger gelten als Hardware, während die auf oder in ihnen enthaltenen Daten als „immaterieller Begriff“ zu verstehen sind.
Die Form der Darstellung von Daten nennt man Kodierung, die Menge der dabei möglichen Zeichen nennt man Codealphabet (z. B. UTF-8). Daten können unterschiedlich kodiert sein, d. h. in unterschiedlichen Codes notieren, aber dennoch die gleiche Information repräsentieren. In der heutigen Digitaltechnik hat sich die Kodierung in binärer Form fast ausschließlich durchgesetzt. Ein Bit ist dabei die kleinste Informationseinheit. Grundsätzlich ist neben Binärcode auch die Verwendung von Alphabeten mit mehr als zwei Symbolen möglich.
Kategorisierung von Daten.
Man unterscheidet:
Nach dem "Grad ihrer Beständigkeit" unterscheidet man:
Nach dem Grad der Digitalisierung unterscheidet man:
Nach dem Aggregationsgrad unterscheidet man:
Formen der Verarbeitung von Daten.
Als "Datenoperationen" beim Speichern von Daten sind nach dem Prinzip „CRUD“ das erstmalige Erfassen von Daten (c"reate"), das Lesen (r"ead"), das Verändern (u"pdate") und das Löschen (d"elete") zu unterscheiden. Gegenstand solcher Operationen ist zumeist eine bestimmte "Gruppe von Daten" (wie eine Kundenadresse, Bestellung etc.), die z. B. nach den Regeln der Datenmodellierung gebildet wurde. Diese datentechnischen Operationen werden durch Computerprogramme ausgelöst, d. h. über entsprechende, in diesen enthaltene Befehle (als Teil eines implementierten Algorithmus) vorgegeben. Die Operationen sind einerseits selbst Input-/Output-Befehle in Bezug auf den Datenbestand, sie stehen zum Teil aber auch im Zusammenhang mit Eingabe und Ausgabe seitens der Benutzer des Computerprogramms.
Zweck der Speicherung von Daten ist in der Regel ihre spätere "Nutzung". Dabei lässt sich die einfache Wiedergabe (z. B. in Form von Anzeigen oder Listen) unterscheiden von dem Auswerten, bei dem die Daten in unterschiedliche logische, mathematische oder darstellende Verfahren einfließen (z. B. zur Summenbildung, Durchschnittsberechnung, Differenzbildung, Datenabgleich, als grafische Diagramme usw.).
Eine besondere Form der Daten-Verarbeitung sind der "Datenimport" (Dateiimport) und "Datenexport" (Dateiexport) als gängige Methode zum Datenaustausch zwischen verschiedenen Systemen. Hierbei ist unter Umständen auch eine Datenkonvertierung erforderlich, wenn Ausgangs- und Zielsystem unterschiedliche Datenformate oder Dateiformate verwenden.
Betrachtungs- und Wirkungsebenen für Daten.
Der Begriff „Daten“ tritt in unterschiedlichen, miteinander im Zusammenhang stehenden Wirkungs- und Betrachtungsebenen auf. Dies sind im Wesentlichen:
Daten in der Programmierung.
Daten sind vornehmlich Quelle und Ziel der Verarbeitung in Computerprogrammen. Dazu sind im Programm, d. h. in dessen Quelltext, dem Verarbeitungszweck entsprechende Deklarationen und Befehle erforderlich. Diese können, abhängig von der Programmiersprache, erhebliche syntaktische und auch sprachlich-begriffliche (semantische) Unterschiede aufweisen. Wichtige datenbezogenen Begriffe sind hier (jeweils mit Synonymen, ähnlichen Begriffen und "Beispiel" angegeben):
Weitere Datenbegriffe, denen in der Programmierung / Softwareentwicklung eine wesentliche Bedeutung zukommt, sind beispielsweise: Datenmodellierung, Eingabe und Ausgabe, Datenfluss, …
Statistik.
Seit der Jahrtausendwende soll der Anteil der digitalen Daten den der analogen Aufzeichnungsbestände überschritten haben. Im Jahre 2020 wurden etwa 60 Zettabytes (6*1022 Bytes = 60 Billionen Gigabytes) an digitalen Daten erzeugt und weiterverwendet. Das Gesamtvolumen wuchs in den letzten zehn Jahren um mehr als das zwanzigfache und wächst zurzeit jährlich etwa um 25 %. In Blu-ray Discs ausgedrückt (25 GB, 2.500 TB/m^3, 1,5 TB/kg, Acryl 1,2 t/m^3) entspricht dies dem Gewicht der Giseh-Pyramide, wobei der „Datenhaufen“ deren Größe übersteigt.
Auch in den nächsten Jahren wird sich der weltweite Datenverkehr voraussichtlich vervielfachen, ebenso wie der Anteil an „dunkler Information“, was bedeutet, dass immer mehr Information zwischen Maschinen ausgetauscht wird. Für 2020 wird „die Menge an Daten, die erstellt, vervielfältigt und konsumiert werden, bei etwa 40 Zettabytes liegen – und damit 50-mal so hoch sein wie noch vor drei Jahren“.
Betriebs- und Volkswirtschaftslehre.
In Betriebs- und Volkswirtschaftslehre versteht man unter Daten gegebene und meist durch den Entscheidungsträger nicht beeinflussbare ökonomische Größen. Beide Wissenschaften nehmen die etymologische Herkunft des Wortes (, ‚das Gegebene‘) wörtlich. Die Umwelteinflüsse auf diese Entscheidungen teilt man in "endogene Faktoren" wie die innerbetriebliche Akzeptanz von Unternehmensentscheidungen oder die Störanfälligkeit bei der Durchführung der Leistungsprozesse und "exogene Faktoren" ein. Hierzu gehören "naturbedingte" (Angaben zum Klima und Wetterdaten) und "gesellschaftsbedingte Daten" (wie Gesetze, Tarifverträge, Aktionsparameter der Konkurrenten, Lieferanten und Abnehmer oder Institutionen), die nicht als Reaktion auf eigene Aktionsparameter zu verstehen sind. Unterbleibt jeglicher Beeinflussungsversuch durch den Entscheidungsträger, handelt es sich wie bei den naturbedingten Gegebenheiten auch bei den gesellschaftsbedingten um Datenparameter. Sie sind insbesondere die durch die äußere Umgebung eines Unternehmens (Markt, Staat, Zentralbank, Aufsichtsbehörden, Ausland) festgelegten Rahmenbedingungen, welche zumindest kurzfristig weder direkt noch indirekt durch eigene Entscheidungen beeinflussbar sind. Der Entscheidungsrahmen sieht mithin die Entscheidungsumwelt als ein unveränderliches Datum an.
Als wesentliche Entscheidungsgrundlage dienen Unternehmensdaten, die ein Unternehmen bei seiner Tätigkeit innerhalb eines Geschäftsjahres sammelt. Sie werden unterteilt nach operativen Daten, die zur Abwicklung des operativen Geschäfts dienen und dispositive Daten, die das Management für Managemententscheidungen benötigt. Lediglich ein geringer Teil aus dem Rechnungswesen gelangt im Rahmen der Publizitätspflicht aus bilanzrechtlichen Gründen durch Veröffentlichung im Jahresabschluss oder in Quartalsberichten an die interessierte Öffentlichkeit.
Unterschieden wird in beiden Wissenschaften zwischen „harten“ und weichen Daten, je nachdem, ob sie mit quantifizierenden Messmethoden als Messzahlen gewonnen werden oder ob sie personen- und/oder situationsabhängig und für unterschiedliche Interpretationen zugänglich sind. |
1034 | 223208328 | https://de.wikipedia.org/wiki?curid=1034 | Deskriptive Linguistik | Deskriptive Linguistik (auch Deskriptivismus) im weiteren Sinn (beschreibende Linguistik) ist ein Synonym für "moderne Linguistik" ("Sprachwissenschaft"), das verdeutlicht, dass die moderne Linguistik – im Gegensatz zu den Gepflogenheiten der meisten Gelehrten und Sprachwissenschaftler in früheren Jahrhunderten – Einzelsprachen, Sprachsysteme und Sprachwandel wertungsfrei beschreibt und analysiert. Der Begriff ist also insofern tautologisch, als alle modernen Wissenschaften deskriptiv statt präskriptiv sind, das heißt keine Vorschriften und Normen aufstellen.
Diachrone und historische Gesichtspunkte werden jedoch in der deskriptiven Linguistik oft nicht berücksichtigt. Der genauen Beschreibung der Daten (Beobachtungsadäquatheit) wird in der deskriptiven Linguistik viel mehr Raum zugemessen als möglichen Erklärungen für die beschriebenen Phänomene.
Im engeren Sinne wird die deskriptive Linguistik dem amerikanischen Strukturalismus in der Tradition von L. Bloomfield zugerechnet.
Wesentliche Elemente.
Linguistische Beschreibungen enthalten im Wesentlichen:
Verhältnis zu und Entstehung aus präskriptiven Sprachbeschreibungen.
Präskriptive Schriften über Sprachgebrauch werden heutzutage von Wissenschaftlern weitestgehend als unwissenschaftlich abgelehnt, aber sie sind sehr beliebt in der allgemeinen Bevölkerung und werden sogar zu Bestsellern, wie zum Beispiel "Der Dativ ist dem Genitiv sein Tod".
Bis in die jüngste Vergangenheit haben jedoch auch Sprachwissenschaftler (normative) Sprachratgeber und normative Handbücher (Grammatiken und Wörterbücher) herausgegeben, besonders im deutschen Sprachraum. Selbst die neuesten Ausgaben deutscher Wörterbücher sind weiterhin hauptsächlich präskriptiv und beschreiben nur wenige Abweichungen der tatsächlich gesprochenen Sprache von der in der Schule unterrichteten Standardsprache (Standarddeutsch). Genauer gesagt bestand die Sprachwissenschaft jahrhundertelang überwiegend aus präskriptiven Sprachbeschreibungen. Englische Wörterbücher sind schon seit längerer Zeit weitgehend deskriptiv, obwohl auch diese noch Warnungen vor weniger angesehenen oder nicht standardsprachlichen Formen enthalten.
Moderne normativ orientierte Arbeiten, die dennoch als wissenschaftliche angesehen werden, sind im Sinne von "" zu verstehen, aber solche Arbeiten nehmen im akademischen Bereich nur wenig Raum ein. Gerade in Bezug auf normative Schlussfolgerungen herrschen hier zum Teil sehr kontroverse Ansichten. Beispielsweise wird immer wieder heftig debattiert, inwieweit Sprachkritik überhaupt ein Gegenstand linguistischer Forschung sein beziehungsweise von Linguisten betrieben werden kann und soll, weil sie ja entweder leicht eine werthaltige Norm des Gebrauchs von Sprache mit einfließen lässt oder oft gleichzeitig auch Gesellschaftskritik darstellt. Präskriptive Arbeiten werden – mit wenigen Ausnahmen wie etwa Sprachentwicklungstests, die den Sprachstand eines Kindes gemessen an einer ermittelten Entwicklungsnorm festlegen – weitestgehend nicht in der akademischen Forschung und Lehre behandelt, sondern meist von wirtschaftlicher oder privater Seite erstellt.
Beispiele einer Gegenüberstellung von präskriptiven und deskriptiven Arbeiten aus denselben Bereichen sind etwa folgende: |
1036 | 3900015 | https://de.wikipedia.org/wiki?curid=1036 | Dortmund | Dortmund (Standardaussprache; regional: ; westfälisch "Düörpm") ist eine kreisfreie Großstadt in Nordrhein-Westfalen und mit 587.696 Einwohnern die neuntgrößte Stadt Deutschlands, sowie nach Köln und Düsseldorf die drittgrößte Stadt Nordrhein-Westfalens (Stand: 31. Dezember 2021). Ende 2022 lebten 609.546 Menschen mit Hauptwohnsitz in Dortmund. Dortmund ist Teil der Metropolregion Rhein-Ruhr mit rund elf Millionen Einwohnern, nach Fläche und Einwohnerzahl die größte Stadt im Ruhrgebiet und gilt als das administrative, kommerzielle sowie kulturelle Zentrum des östlichen Ruhrgebiets. Die Stadt befindet sich in Westfalen und ist Teil des Regierungsbezirks Arnsberg.
Die vermutlich auf eine karolingische Reichshofgründung zurückgehende, einst wichtige Reichs- und Hansestadt (lateinisch "Tremonia") entlang des Hellwegs entwickelt sich heute von einer Industriemetropole zu einem bedeutenden Dienstleistungs- und Technologiestandort: Früher vor allem bekannt durch Stahl, Kohle und Bier, ist Dortmund heute nach langjährigem Strukturwandel ein Zentrum der Versicherungswirtschaft und des Einzelhandels. Mit etwa 53.500 Studenten an sechs Hochschulen, darunter der Technischen Universität Dortmund und 19 weiteren wissenschaftlichen Einrichtungen, gehört Dortmund zu den zehn größten Hochschulstädten Deutschlands und ist auch ein bedeutender Wissenschafts- und Hochtechnologie-Standort. Neuansiedlungen und Unternehmensgründungen entstehen deshalb bevorzugt in den Bereichen Logistik, Informations- und Mikrosystemtechnik. Die Ruhrgebietsmetropole verfügt über eine vielfältige Kulturszene mit zahlreichen Museen und Galerien wie dem Museum Ostwall, dem Museum für Kunst und Kulturgeschichte oder dem Deutschen Fußballmuseum. Daneben gibt es das Theater Dortmund mit Opernhaus, dem prämierten Schauspielhaus und dem Kinder- und Jugendtheater sowie das Konzerthaus.
Dortmund ist mit seinem Hauptbahnhof und Flughafen wichtiger Verkehrsknoten und Anziehungspunkt, sowohl für das Umland als auch für Europa (Benelux-Staaten), und verfügt mit dem größten Kanalhafen Europas über einen Anschluss an wichtige Seehäfen an der Nordsee. Überregionale Bekanntheit erlangt Dortmund durch den Fußballverein Borussia Dortmund mit seiner Heimspielstätte Signal Iduna Park, dem früheren Westfalenstadion. Es ist mit über 81.000 Zuschauerplätzen das größte Fußballstadion in Deutschland. Weitere Anziehungspunkte und Wahrzeichen der Stadt sind das Dortmunder U, der Westenhellweg als einer der meist frequentierten Einkaufsstraßen Deutschlands, die Reinoldikirche, die Westfalenhalle, der Florianturm und der Phoenix-See. Das Stadtbild und die Skyline werden auch durch markante Hochhäuser geprägt. Touristisch gewinnt die Stadt jährlich an Bedeutung, so gab es 2019 über 1,44 Mio. Übernachtungen; das Wachstum liegt somit bei 6,5 Prozent.
Geographie.
Lage.
Dortmund liegt auf , . Der Dortmunder Stadtteil Aplerbecker Mark liegt nach Angaben des Landesvermessungsamt Nordrhein-Westfalen sogar mit den Koordinaten mitten in Nordrhein-Westfalen. In Dortmund gilt wie in ganz Deutschland die Mitteleuropäische Zeit, die mittlere Ortszeit bleibt dieser gegenüber 30 Minuten und 7,7 Sekunden zurück.
Dortmund liegt im Südwesten der Westfälischen Bucht, dem südlichen Fortsatz der Norddeutschen Tiefebene an der Grenze zum Deutschen Mittelgebirge; südlich erheben sich die Ausläufer des Sauerlands und das Ardeygebirge, zu dem als nördlichste Erhebung noch der Dortmunder Rücken im Osten der Stadt gezählt wird. Hinter diesem liegt, als Teil der Hellwegbörden, die Werl-Unnaer Börde, nördlich grenzen das Lippetal und die Lipper Höhen im Münsterland an. Der Westen wird bestimmt durch den Ballungsraum Ruhrgebiet, dessen östlichem, westfälischem Teil Dortmund angehört.
Der Stadtkern von Dortmund liegt auf der Grenze zwischen nördlichem Flach- und südlichem Hügelland, dem sogenannten westfälischen Hellweg; entsprechend hat die Stadt Anteil an den Naturräumen der Hellwegbörden und des Westenhellwegs. Da auch der Oberlauf der Emscher durch Dortmund fließt, ist sie ebenso Teil des weiter nördlich gelegenen Naturraums Emscherland. Im Süden, unterhalb der Hohensyburg, bildet der Mittellauf der Ruhr die Stadtgrenze, in die auf Hagener Gebiet die Lenne mündet und dort den Hengsteysee bildet. Im Dortmunder Stadthafen beginnt außerdem der in den Norden führende Dortmund-Ems-Kanal.
Gewässer.
Das Dortmunder Stadtgebiet ist relativ arm an natürlichen Gewässern. Zu den größeren Fließgewässern zählt neben der Ruhr im Dortmunder Süden an der Stadtgrenze zu den Städten Hagen und Herdecke nur der Fluss Emscher, der sich von Osten nach Westen durch das Stadtgebiet zieht. Darüber hinaus gibt es zahlreiche kleinere Bäche wie den Hörder Bach, Rüpingsbach, Schondelle, Roßbach oder Körnebach, die in die erstgenannten Flüsse münden oder zum Einzugsgebiet der Lippe gehören. Viele der Bäche dienten der Abwasserentsorgung, wurden jedoch im Zuge der Emscher- und Seseke-Renaturierung nach und nach wieder in ihren naturnahen Zustand versetzt. Durch die Renaturierung wurde das Umfeld der Bäche hierbei erheblich aufgewertet. Außerdem befindet sich der Dortmund-Ems-Kanal als eine Bundeswasserstraße zwischen dem Dortmunder Stadthafen und Papenburg/Ems.
Mit der Hallerey, dem Lanstroper See, dem Pleckenbrinksee und dem Brunosee im Naturschutzgebiet Beerenbruch sind vier Seen eng mit der Bergbaugeschichte in Dortmund verknüpft. Diese Gewässer entstanden durch Bergsenkungen. Weiterhin wurden mit dem Hengsteysee und Phoenix-See zwei weitere Seen künstlich geschaffen.
Ausdehnung.
Das Stadtgebiet Dortmunds umfasst 280,707 km². Damit liegt Dortmund auf Rang 26 unter den flächengrößten Gemeinden Deutschlands, unter den Großstädten auf dem neunten Platz. Seine Fläche wird in Nordrhein-Westfalen nur von den Großstädten Köln und Münster und der Stadt Schmallenberg überboten.
Der nördlichste Punkt Dortmunds liegt zwischen dem Stadtteil Groppenbruch und Lünen-Brambauer auf dem Gebiet der ehemaligen Gemeinde Schwieringhausen (), der südlichste 21 km von diesem entfernt gegenüber der Lennemündung (), der östlichste Punkt Dortmunds liegt nördlich des Flughafens im Stadtteil Wickede und grenzt an Unna-Massen (), der westlichste 23 km von diesem entfernt im Stadtteil Holte an der Grenze zu Bochum (). Grob kann man sich diese beiden Achsen als Diagonalen eines Quadrats vorstellen, das das Dortmunder Stadtgebiet bildet. Höchste Erhebung Dortmunds ist der im Stadtteil Syburg gelegene Klusenberg mit , der niedrigste Punkt befindet sich mit im Stadtteil Derne.
Nachbargemeinden.
Dortmund grenzt auf 21 km an den Kreis Recklinghausen mit den Städten Castrop-Rauxel im Westen und Waltrop im Nordwesten. Von Norden bis Südosten ist Dortmund auf insgesamt 76 km vom Kreis Unna mit den Städten Lünen im Norden, Kamen im Nordosten, Unna im Osten, der Gemeinde Holzwickede sowie der Stadt Schwerte (beide im Südosten) umklammert. Daran schließt sich die nur zwei Kilometer lange Stadtgrenze zur kreisfreien Stadt Hagen direkt im Süden an. Im Dortmunder Südwesten stößt die Stadt über 17 km an den Ennepe-Ruhr-Kreis mit den Städten Herdecke und Witten. Genau im Westen liegt schließlich die kreisfreie Stadt Bochum, die Stadtgrenze ist hier zehn Kilometer lang. Insgesamt umfasst die Dortmunder Stadtgrenze somit 126 km.
Politische Geographie.
Dortmund ist historisch ein Teil Westfalens und liegt heute im Bundesland Nordrhein-Westfalen. Die Stadt ist kreisfrei und liegt im Bereich des Regierungsbezirks Arnsberg. Sie gehört sowohl dem Landschaftsverband Westfalen-Lippe als auch dem Regionalverband Ruhr an. Daneben ist sie noch Mitglied in weiteren Zweckverbänden wie dem Verkehrsverbund Rhein-Ruhr, dem Ruhrverband, der Emschergenossenschaft oder dem Lippeverband. Dortmund ist ein Oberzentrum Nordrhein-Westfalens und Teil der europäischen Metropolregion Rhein-Ruhr. Es ist eines der vier großen Zentren des Ruhrgebiets, neben Essen, Duisburg und Bochum, die alle in der so genannten Hellwegzone liegen.
Seit dem 1. Januar 1975 gliedert sich die Stadt Dortmund in zwölf Stadtbezirke.
Dieses sind die drei Innenstadtbezirke West, Nord und Ost sowie der sie umgebene Ring aus den im Uhrzeigersinn (beginnend im Norden) neun weiteren Bezirken Eving, Scharnhorst, Brackel, Aplerbeck, Hörde, Hombruch, Lütgendortmund, Huckarde und Mengede. Jeder dieser Stadtbezirke wählt bei den Kommunalwahlen eine Bezirksvertretung und diese aus ihren Reihen einen Bezirksbürgermeister. In den Außenbezirken finden sich außerdem Bezirksverwaltungsstellen.
Unterhalb der Stadtbezirke wird die Stadt weiter in 62 statistische Bezirke und diese wiederum in insgesamt 170 statistische Unterbezirke unterteilt. Außerhalb der Innenstadtbezirke entsprechen diese häufig den in die Stadt Dortmund eingemeindeten ehemals eigenständigen Ortschaften. Neben dieser offiziellen Einteilung existieren auch noch die weiter unten aufgeführten urbanen Viertel.
Klima.
Dortmund liegt wie ganz Deutschland in einer gemäßigten Klimazone. Die Stadt wird dem nordwestdeutschen Klimabereich zugeordnet und befindet sich auf der Grenze zwischen den Klimabezirken Münster- und Sauerland und damit im Übergangsbereich zwischen atlantisch-maritimem und Kontinentalklima.
Charakteristisch sind milde Winter und relativ kühle Sommer. Die mittlere Jahrestemperatur beträgt 9–10 °C, die Niederschlagsmenge im langjährigen Durchschnitt 750 mm. Überwiegende Windrichtung ist Südwest. Die Niederschläge sind recht gleichmäßig über das Jahr verteilt, im Winter dominiert Dauerregen, im Sommer kürzere, aber ergiebigere Regenschauer. Dementsprechend wird das Maximum im Juli mit 80–90 mm erreicht, das Minimum liegt bei 40–50 mm im Februar. Auch die Temperaturschwankungen fallen mit unter 20 °C eher gering aus, kältester Monat ist der Januar mit −6 bis 11 °C, am wärmsten wird es im August mit 10–35 °C. In Dortmund zeigen sich klimatische Merkmale dicht besiedelter Räume, so bilden sich beispielsweise für ein Stadtklima typische Wärmeinseln aus.
Demografie.
Statistische Übersicht.
Am lebten in Dortmund Menschen. Damit liegt Dortmund innerhalb der Europäischen Union auf Rang 41 unter den größten Städten, innerhalb Deutschlands auf Rang 9 und in Nordrhein-Westfalen als größte Stadt des Ruhrgebiets auf Rang 3 hinter Köln und Düsseldorf. Dortmund gehört zur europäischen Metropolregion Rhein-Ruhr, die mit gut 10 Millionen Einwohnern nach den Agglomerationen Moskau, London, Paris und Istanbul die fünftgrößte Agglomeration Europas darstellt. Innerhalb dieser Metropolregion ist Dortmund Teil des Ballungsgebiets Ruhr und geht insbesondere im Westen fließend in die übrigen Städte des Ruhrgebiets über. Allein im Bereich des Regionalverbands Ruhr, dem Zweckverband des Ruhrgebiets, leben wiederum etwa 4,95 Millionen Menschen. Aus der Einwohnerzahl ergibt sich eine Bevölkerungsdichte von 2.087 Einwohnern je km². Damit liegt Dortmund deutschlandweit auf Rang 39 der Gemeinden mit der größten Bevölkerungsdichte.
Außerhalb des Innenstadtbereichs leben deutlich weniger Menschen pro Quadratkilometer als in der Innenstadt. Die Werte reichten dabei 2013 von etwa 1.460 Einwohnern je km² im statistischen Unterbezirk Holthausen (Stadtbezirk Eving) bis zu etwa 39.180 Einwohnern je km² im statistischen Unterbezirk Nordmarkt-Südost (Stadtbezirk Innenstadt-Nord).
Bevölkerungsstruktur.
Im Jahr 2022 waren 50,6 % der Bevölkerung Frauen und 49,4 % Männer.
Schon im Mittelalter war Dortmund Einwanderungsstadt, mit Beginn der Industrialisierung stieg der Zuzug aber enorm an. Unter diesen Einwanderern waren auch viele Polen und damit erstmals eine große Gruppe nicht-deutschsprachiger Personen mit anderer Religion, die sich aber schrittweise assimilierten. Weitere gezielte Anwerbungen von Gastarbeitern fanden vor allem in den 1960er Jahren statt, um den Arbeitskräftebedarf in der Montanindustrie zu decken. Der Ausländeranteil in der Stadt beträgt 21,3 % (Stand: 31. Dezember 2022). Dies ist für westdeutsche Großstädte ein durchschnittlicher Wert. Der Anteil der Menschen mit Migrationshintergrund (unabhängig von der Staatsbürgerschaft) lag Ende 2018 bei 35,6 %.
Ähnlich wie bei der Bevölkerungsdichte zeigen sich innerhalb des Stadtgebiets deutliche Unterschiede: den höchsten Ausländeranteil haben tendenziell die Stadtbezirke und Stadtteile im Dortmunder Norden. So lebten zum 31. Dezember 2022 im Stadtbezirk Innenstadt-Nord über ein Viertel aller Ausländer in Dortmund. Der Ausländeranteil liegt hier insgesamt bei 57,5 %. Auch in vielen äußeren Stadtteilen des Dortmunder Nordens wie etwa Scharnhorst-Ost (35,2 %), Lindenhorst (32,7 %), Eving (32,1 %) und Derne (26,5 %) wohnen verhältnismäßig viele Ausländer. Relativ hoch ist der Anteil auch in vielen Stadtteilen im Dortmunder Westen, wie etwa Westerfilde (29,3 %), Nette (26,8 %) und Huckarde (22,4 %). Tendenziell niedriger ist der Ausländeranteil im Dortmunder Osten und Süden. Verhältnismäßig viele Ausländer leben jedoch in Hörde (26,6 %). In Dortmund gibt es große Unterschiede zwischen den verschiedenen Nationen, so ist beispielsweise der Anteil EU-Bürger an den Ausländern am Stadtrand deutlich höher. Eine besondere Gruppe unter den Ausländern in Dortmund stellen die an den Hochschulen eingeschriebenen ausländischen Studenten dar: sie sind meist nur für einen kurzen Zeitraum in der Stadt und stammen zu einem großen Teil aus Asien und Afrika. Insgesamt waren an den sechs Hochschulen der Stadt im Wintersemester 2017/2018 etwa 53.500 Studierende eingeschrieben.
Im Jahr 2018 waren 40,2 % der Einwohner verheiratet, 43,7 % ledig, 6,9 % verwitwet und 8,1 % geschieden.
Einkommens- und Leistungsstruktur.
Am 31. Dezember 2016 erhielten 88.696 Dortmunder Transferzahlungen nach dem Zweiten Buch Sozialgesetzbuch (Arbeitslosengeld II, Sozialgeld), dies sind 15,1 % der Gesamtbevölkerung.
Die Arbeitslosenquote Dortmunds lag Ende Juni 2017 bei 11,0 %. Es existieren große Unterschiede innerhalb des Stadtgebiets.
Im Norden Dortmunds befinden sich viele Stadtteile mit einem hohen Anteil an Sozialhilfeempfängern und Arbeitslosen. Dies trifft insbesondere auf alle statistischen Bezirke des Stadtbezirks Innenstadt-Nord zu (Arbeitslosenquote von 21,3 %), aber auch auf außerhalb der Innenstadt gelegene Stadtteile, wie etwa Scharnhorst-Ost (18,9 %), Eving (14,7 %) und Lindenhorst (13,6 %).
Dennoch gibt es im Norden auch einige Stadtteile mit niedrigen Arbeitslosenquoten und hohem Einkommensdurchschnitt, wie etwa Brechten, Holthausen und die nordöstlichen Stadtteile Husen, Kurl und Grevel.
Relativ gemischt ist die Sozialstruktur in den Stadtbezirken des Dortmunder Westens. Vielerorts entsprechen die Arbeitslosenquoten ungefähr dem Dortmunder Durchschnitt bzw. sind leicht erhöht, so etwa in den größeren Stadtteilen Huckarde (12,8 %), Kirchlinde (12,5 %) und Lütgendortmund (11,2 %). Niedrige Arbeitslosenquoten und gehobenere Einkommensstrukturen weisen insbesondere Deusen sowie die Stadtrandlagen Oespel und Westrich auf. In anderen Teilen des Westens wie etwa Westerfilde (16,5 %), Nette (15,7 %) und Marten (14,3 %) ist die Arbeitslosigkeit hingegen deutlich überdurchschnittlich.
Der Dortmunder Osten weist überwiegend Stadtteile mit niedrigen Arbeitslosenquoten sowie mit durchschnittlichen oder leicht gehobenen Einkommensstrukturen auf. Mit Ausnahme des am äußersten Stadtrand liegenden Wickede (12,0 %) liegen die Arbeitslosenquoten im Osten stets unter dem Dortmunder Durchschnitt. Relativ gering ist die Arbeitslosigkeit dabei sowohl in einigen größeren Stadtteilen wie Aplerbeck (6,4 %) und Asseln (6,1 %), als auch in kleineren Stadtteilen wie etwa Sölderholz (3,6 %).
Im Dortmunder Süden liegen besonders viele Stadtteile mit niedrigen Arbeitslosenquoten und gehobenen Einkommensstrukturen. Dies trifft insbesondere auf die unmittelbar westlich der B 54 liegenden südlichen Stadtteile Brünninghausen, Lücklemberg, Kirchhörde und Bittermark zu sowie auf die entlang der "Wittbräucker Straße" liegenden südöstlichen Stadtteile Aplerbecker Mark, Höchsten, Holzen, Wichlinghofen und Syburg. Größere Arbeitslosigkeit herrscht nur in Hörde (14,8 %). Relativ durchschnittlich ist die Sozialstruktur hingegen etwa in Hombruch.
Der Altersdurchschnitt der Dortmunder Bevölkerung beträgt etwa 43 Jahre. Der Jugendquotient, also das Verhältnis der unter 20-jährigen zur erwerbsfähigen Bevölkerung beträgt 34,5, der Altenquotient, das heißt der Anteil der Personen mit 60 oder mehr Lebensjahren bezogen auf die erwerbsfähige Bevölkerung 47,0 und das Abhängigkeitsverhältnis von erwerbsfähiger zu nicht erwerbsfähiger Bevölkerung somit etwa 5:4. Dies sind Werte, wie sie auch für ganz Deutschland anzutreffen sind.
Bevölkerungsentwicklung.
Im Jahr 1895 überschritt die Stadt Dortmund die Grenze von 100.000 Einwohnern, was sie zur Großstadt machte. Nach der Eingemeindung der Stadt Hörde und der Landkreise Dortmund und Hörde lebten 1929 etwa 536.000 Personen in der Stadt. Der Zweite Weltkrieg entvölkerte das zerstörte Dortmund. Im April 1945 zählte man 340.000 Menschen. Danach siedelten sich viele ins ländliche Umland evakuierte Menschen sowie Flüchtlinge und Vertriebene in Dortmund an. Die Einwohnerzahlen stiegen rasch. 1965 wurde mit 657.804 Bürgern ein Höchststand erreicht. In den Jahren danach sank die Bevölkerungszahl, wie auch in den umliegenden Städten des Ruhrgebiets. So wurde bei der Volkszählung 1987 eine Einwohnerzahl von 584.089 festgestellt.
Dieser Trend hat sich aber mittlerweile umgekehrt. So stieg die Einwohnerzahl zwischen den Volkszählungen 2011 und 2019 wieder auf 588.250 amtliche Einwohner zum 31. Dezember 2019. Zum folgenden Jahr war die Einwohnerzahl laut Statistischem Landesamt wieder leicht gesunken.
Der Landesbetrieb Information und Technik Nordrhein-Westfalen (IT.NRW) prognostiziert für Dortmund bis zum Jahr 2040 einen Anstieg der Bevölkerungszahlen um 5,1 % auf 604.100 Personen.
Geschichte.
Stadtgeschichte.
Erste Spuren der Besiedlung auf dem heutigen Dortmunder Stadtgebiet reichen bis in die Jungsteinzeit zurück. Dortmund wurde im Jahre 882 das erste Mal als "" erwähnt. Die Ersterwähnung der Dortmunder Marktrechte stammt aus dem Jahr 990. Im 11. Jahrhundert wurde der Legende nach Reinoldus der Schutzpatron der Stadt.
Im Jahr 1152 fand in Dortmund ein Hoftag unter König Friedrich Barbarossa, dem späteren Kaiser statt. In Folge dessen siedelten vermehrt Handwerker und Händler um die Königspfalz und trugen zur allmählichen Stadtwerdung Dortmunds bei. Bereits im Jahr 1200 wurde die heutige Ausdehnung der Stadtmitte von 82 Hektar erreicht und mit Stadtmauern befestigt. Im Jahr 1232 (oder 1231) kam es zu einem großen Stadtbrand. Vermutlich durch Brandstiftung ausgelöst, zerstörte er die Stadt fast vollständig. Das Feuer wütete wohl vor allem im dicht besiedelten Stadtkern nördlich des Hellwegs und zerstörte nicht nur die hölzernen Häuser der Krämer und Handwerker, sondern auch die steinerne Reinoldikirche. Durch den Brand ging auch das Archiv der Stadt verloren und mit ihm sämtliche Urkunden aus der Zeit vor dem Stadtbrand. Die beim Stadtbrand verloren gegangenen Privilegien Dortmunds wurden 1236 von Friedrich II. erneuert und die Stadt Dortmund (lateinisch "[burgus] Tremonia") erstmals als Reichsstadt (wörtlich: „civitas nostra Tremoniensis imperialis“) bezeichnet.
Im Jahr 1293 wurde der Stadt das Braurecht verliehen und es begann eine beispiellose Entwicklung der Bierindustrie innerhalb der Stadt. Nach dem großen Stadtbrand erstarkte auch der Einfluss der Dortmunder Bürgerschaft. Dieser reichte dabei weit über das Stadtgebiet hinaus und war dabei so stark, dass um 1252 die baltische Stadt Memel unter Mithilfe von Dortmunder Kaufleuten gegründet und erwogen wurde, die Stadt „Neu-Dortmund“ zu nennen. Diese Bürgerschaft bzw. Patriziat, das sich selbstbewusst "rempublicam Tremoniensem gubernantes" (etwa: regierende Herren des Staats Dortmund) nannte, bestand aus einflussreichen Familien wie den Kleppings, Sudermanns, von Wickedes, Swartes, Muddepennings, vom Berges, Lembergs, Berswordts, Wales und Brakes. Letztere besaßen allesamt exzellente Handelsbeziehungen in ganz Europa und im Speziellen nach England. Die Vormachtstellung der Dortmunder Kaufleute führte sogar dazu, dass Englands König, Eduard III. im Jahr 1339 die englische Königskrone an ein von Dortmunder Kaufleuten geführtes Konsortium verpfändete.
Im Jahr 1389 überstand Dortmund die Große Dortmunder Fehde gegen den Grafen von der Mark und den Erzbischof von Köln sowie deren Verbündete. Allerdings wurde langsam der wirtschaftliche Niedergang der Stadt eingeleitet. Dieser Prozess wurde durch den Dreißigjährigen Krieg fortgeführt und verstärkt und führte dazu, dass die Stadt zum Ackerbürgerstädtchen herabsank und die Einwohnerzahl bis zum Jahr 1793 auf 4500 Einwohner zurückging. Dortmund verlor durch den Reichsdeputationshauptschluss 1803 seinen Status als Freie Reichsstadt und kam als Exklave zum Fürstentum Oranien-Nassau. 1808 wurde Dortmund als Teil des napoleonischen Großherzogtums Berg Präfektur des Ruhrdepartements. Das Ruhr-Département bestand aus den drei Arrondissements Dortmund, Hamm und Hagen. An seiner Spitze stand der Präfekt, Freiherr Gisbert von Romberg zu Brünninghausen. Dortmund wurde zur Hauptstadt des Ruhrdepartements bestimmt, weil es eine günstigere Lage und geeignete Verwaltungsgebäude besaß, hierdurch wurde die vormalige Reichsstadt zum Sitz der zahlreichen Verwaltungs- und Gerichtsbehörden. Nach dem preußischen Sieg über Napoleon fiel Dortmund 1815 schließlich an die preußische Provinz Westfalen. Hier wurde Dortmund 1817 Sitz eines Landkreises innerhalb des Regierungsbezirks Arnsberg, aus dem Dortmund 1875 als Immediatstadt (Stadtkreis) ausschied.
Erst mit dem Beginn der Industrialisierung Anfang des 19. Jahrhunderts konnte der Niedergang gestoppt werden. Nach der Urkatasteraufnahme aus dem Jahr 1826 lebten innerhalb der Wallanlagen ca. 4000 Menschen in 940 Wohnhäusern und 453 Stallungen und Scheunen. Das Stadtbild wurde geprägt von engen ungepflasterten Straßen und Gassen und vielen Fachwerkhäusern. Einzig die vier großen mittelalterlichen Stadtkirchen, das alte Rathaus und einige wenige steinerne Profanbauten zeugten vom großen kulturellen Erbe der Vergangenheit.
Ab der Mitte des 19. Jahrhunderts begann durch die Kohlenförderung und Stahlverarbeitung der erneute Aufstieg Dortmunds und der Wandel zu einer Industriestadt. Seit der Eröffnung der Cöln-Mindener Eisenbahn im Jahr 1847 wurde Dortmund zu einem wichtigen Verkehrsknoten im Ruhrgebiet. Einen weiteren bedeutenden Beitrag zur wirtschaftlichen Entwicklung leistete 1899 die Eröffnung des Dortmund-Ems-Kanals und damit des Hafens.
Diese Infrastruktur ebnete Dortmunds Weg zur Großstadt. Die Stadt wuchs über die engen Grenzen der mittelalterlichen Wallanlage hinaus. Die Erweiterung erfolgte zunächst nach Norden um den neuen Hauptbahnhof. Ab 1858 wurde durch den Stadtbaumeister Ludwig ein rechtwinkliges Straßennetz mit Schmuckplätzen (Steinplatz, Nordmarkt, Borsigplatz) in der Dortmunder Nordstadt errichtet.
Nach Eröffnung der Bahntrasse der Rheinischen Eisenbahngesellschaft zum Dortmunder Südbahnhof im Jahre 1874 wurde das Gebiet südöstlich der historischen Wallanlage für städtebauliche Zwecke erschlossen. Anders als die kompakten Blockrandgebiete in der Nordstadt, wurden das Kaiserviertel und die Südstadt jedoch vorrangig mit einer lockeren Bebauung mit repräsentativen Stadtvillen konzipiert und wurde zur bevorzugten Wohnlage Industrieller und Unternehmer. Im Jahr 1876 wurde der ca. 16 Hektar große Ostpark als parkähnliche Grünanlage eröffnet. Dieser wurde als zweiter städtischer Friedhof nach dem „Westentotenhof“, dem heutigen Westpark, eingerichtet. Diese zweite Friedhofsanlage steht im Zusammenhang mit dem rapiden Bevölkerungswachstum im Zuge der Industrialisierung des Ruhrgebiets. Während bei der Gründung des Westentotenhofs 1811 etwa 4.000 Menschen in Dortmund lebten, waren es 1876 über 50.000.
Südlich der historischen Wallanlage entstanden städtische Einrichtungen wie das Waisenhaus, das Luisenkrankenhaus und 1896 die Königliche Werkmeisterschule für Maschinenbauer, der Vorläufer der heutigen am gleichen Standort bestehenden Fachhochschule Dortmund, ließen sich in dem zu dieser Zeit vornehmlich durch umfangreiche Gartenanlagen geprägten Gebiet nieder. Zwischen 1902 und 1908 begann der Beamten-Wohnungsverein mit umfangreichen Bauarbeiten und errichtete in unmittelbarer Nähe der Werkmeisterschule eine umfangreiche Wohnbebauung. Die gründerzeitlichen Bauten dienten vornehmlich Beamten als Heimstätte. Im Zuge der Urbanisierung wurden dann auch Infrastruktureinrichtungen wie Schulen und Kirchen errichtet. Der Bau der Heilig-Kreuz-Kirche, die dem Kreuzviertel heute den Namen gibt, begann 1914 und wurde zwei Jahre später eingeweiht. Mit dem Ersten Weltkrieg war die Bebauung des Stadtviertels weitgehend abgeschlossen, und etwa 10.000 Menschen wohnten hier.
Bereits 1905 begann mit der Eingliederung von Körne eine Welle von Eingemeindungen, die mit dem Gesetz über die kommunale Neuordnung des Ruhrgebiets von 1928 ihren Höhepunkt mit der Eingemeindung der Stadt Hörde (die bereits 1340 Stadtrechte erhielt) erreichte. Das Gebiet Dortmunds liegt seit den Eingemeindungen von 1928 und 1929 zu größeren Teilen auf dem Gebiet der ehemaligen Grafschaft Mark als auf dem der ehemaligen Freien Reichsstadt Dortmund. Bis zum Ausbruch des Zweiten Weltkriegs wandelte sich das Stadtbild vom Ackerbürgerstädtchen zum großstädtischen Aussehen. Innerhalb weniger Jahre wurde das Stadtzentrum durch den Neubau von repräsentativen Bauwerken, wie dem der Synagoge, Kaufhausbau von Althoff 1904, dem Krügerhaus 1912 oder dem gesamten Bahnhofsumfeld durch den Bau eines neuen Hauptbahnhof, dem Theater, dem Postamt und dem Löwenhof als Handelszentrum oder städtebaulichen Maßnahmen wie dem Durchbruch Hansastraße radikal verändert.
Während des Zweiten Weltkriegs wurde die Stadt mitsamt ihren historischen Kirchen durch insgesamt 105 Luftangriffe und mehr als 22.242 Tonnen Bomben im Zentrum zu mehr als 90 Prozent zerstört. Die hohe Prozentzahl liegt teilweise in den acht Großangriffen begründet, in denen die Stadt Dortmund als alleiniges Ziel in den Mittelpunkt eines Angriffes rückte. Bei dem Großangriff vom 12. März 1945 trafen mehr als 4.800 Tonnen Bomben die Stadt. Dieser Angriff war der schwerste Bombenangriff gegen eine deutsche Stadt. Nach diesem letzten folgenschweren Angriff kam das komplette gesellschaftliche und wirtschaftliche Leben zum Erliegen. Zeitgenössischen Berichten zufolge wurde zunächst erwogen, die Innenstadt nicht wieder aufzubauen.
Der tatsächliche Wiederaufbau wurde jedoch durch die im Boden vorhandenen Infrastrukturleitungen und die darüber liegenden Straßen bestimmt, die im Nachkriegsalltag als Transport- und Verbindungswege zuerst geräumt wurden. Somit wurde der Umgang der Innenstädte als Wiederaufbau und Modifikationsmöglichkeit gesehen, anstatt einer völligen Neuplanung. Das öffentliche Bewusstsein der Nachkriegszeit war jedoch vom Wunsch geprägt, die städtebauliche Situation als Produkt der Industrialisierung auf den Grundrissen der mittelalterlichen Stadt nicht zu wiederholen. Planungsziel der Wiederaufbaujahre war somit ein neues, offenes und zukunftsfähiges Dortmund, welches sich bewusst von dem Gewesenen und dem alten historischen Erbe absetzen sollte. Trotz heftigen Widerstands der Dortmunder Bevölkerung wurden hierbei viele stadtbildprägende Gebäude wie das Rathaus oder die Synagoge abgerissen oder nicht wieder aufgebaut.
Der Wiederaufbau ging schnell voran und im Jahr 1950 zählte die Stadt 500.000 Einwohner. Bei einer Arbeitslosenquote von 2,3 % herrschte 1952 Vollbeschäftigung und die hervorragenden wirtschaftlichen Bedingungen zogen vermehrt Zuwanderer, insbesondere Flüchtlinge aus den Ostgebieten, an. Schon 1956 zählte Dortmund 624.000 Einwohner. 1965 erreichte die Stadt mit 658.075 Einwohnern einen historischen Höchststand.
Ortsname.
Dortmund wurde erstmals im Werdener Urbar erwähnt, das zwischen 880 und 884 entstand. Der lateinische Eintrag lautet: . Danach gibt es eine große Anzahl verschiedener, aber auf den gleichen Lautstamm zurückgehender Namen. Ihre jeweilige Verwendung in den Quellen erscheint willkürlich und zufällig.
Ein Jahr nach seinem Aufenthalt in Dortmund stellte der König Friedrich Barbarossa 1152 dem Kölner Erzbischof Arnold II. von Wied eine Urkunde aus, die die lateinische Bezeichnung enthält. Die Bezeichnung ' leitet sich nicht von ab. Man vermutet, dass bei Verwendung dieser Bezeichnung der gute Klang und der vermeintliche Sinngehalt eine Rolle spielten. Der Name würde sich dann aus den Wörtern ' oder ' (deutsch: "drei") und ' (deutsch: "Mauer") zusammensetzen und so viel wie "Dreimauernstadt" bedeuten.
Erst mit dem Aufkommen deutscher Quellen im 14. Jahrhundert wurde die alte Form sprachlich weiterentwickelt wieder aufgegriffen. Im westfälischen Platt wurde sie dann zu verkürzt. wird heute selten verwendet, das lateinische "" ist gelegentlich noch anzutreffen.
Bei der Wortbedeutung von "Dortmund" wird im Allgemeinen von einem Determinativkompositum ausgegangen.
Das Bestimmungswort ist vermutlich germanisch ", " mit der Bedeutung "Kehle / Gurgel / Schlund / Hals". Die Bedeutung des Grundworts ist unklar. Nach einer Theorie ist es das altsächsische Gewässerwort ", , ". Nach einer anderen Theorie ist es germanisch "" mit der Bedeutung "Berg / Hügel / Anhöhe / Erhebung". In der ersten Theorie wäre die Bedeutung "Kehlbach / Gurgelbach / Siedlung am gurgelnden Gewässer", in der zweiten Theorie als "*Throdmend - Berg mit einer Kerbe / Berg mit einem Einschnitt / Hügel mit einer Kerbe / Hügel mit einem Einschnitt". Bei beiden Deutungen handelt es sich um eine geografische Besonderheit, die heute überbaut ist und nicht mehr zu erkennen ist oder – in der zweiten Theorie – einen Hinweis auf eine Burg nördlich der Stadtmauern mit dem Fluss Kuckelke als Einschnitt gibt. Die Existenz einer solchen Burg ist umstritten.
Von spätmittelalterlichen Chronisten ist eine volksetymologische Deutung bekannt, nach der es zwei Dörfer gegeben habe, das ' und das ', die beide bei der Burg "Munda" lagen. Um diese Burg habe es eine Auseinandersetzung zwischen Sachsen und Römern – oder auch Franken – gegeben. Den Schlachtruf "" hätten die Burgmannen als "truz" oder "trot" interpretiert und die Angreifer höhnisch "Trotmanni" ("Trutzmänner") genannt. Die Bezeichnung sei dann auf den Ort übergegangen.
In der Vergangenheit wurde die Stadt auf niederländisch "Dortmond", auf , auf altfranzösisch "Trémoigne" genannt. Diese Exonyme sind aber außer Gebrauch gefallen und die Stadt wird heute international mit ihrem deutschen Namen bezeichnet.
Eingemeindungen.
Charakteristisch für das heutige Dortmunder Stadtgebiet ist die räumlich stark ausgeprägte Abgrenzung einzelner Stadtteile zu ihren Nachbarstadtteilen durch Felder, Wälder oder Verkehrsflächen. Dieser Umstand beruht auf den relativ kleinteilig erfolgten Eingemeindungen ehemals eigenständiger Gemeinden. Einige größere Stadtteile wie die Stadtbezirkszentren Hörde, Aplerbeck oder Mengede vermitteln ihre ehemalige Eigenständigkeit noch deutlich durch die Größe ihrer Stadtteilzentren und ihrer Einkaufsstraßen.
In die Stadt Dortmund wurden folgende Gemeinden eingegliedert:
Religionen.
Konfessionsstatistik.
Von den 602.713 Einwohnern Dortmunds gehören (Stand 31. Dezember 2021) 24,8 % (149.387) der evangelischen und 23,7 % (142.904) der römisch-katholischen Kirche an; 51,5 % haben ein anderes religiöses Bekenntnis oder sind konfessionslos. Jahresende 2019 gehörten 26,1 % (157.806) der evangelischen und 24,9 % (150.373) der römisch-katholischen Kirche an; 49,0 % hatten eine andere Konfession oder Religion oder waren konfessionslos. 2017 gehörten von den 601.780 Einwohnern Dortmunds 27,5 % der evangelischen und 25,9 % der römisch-katholischen Kirche an.
Nach den Ergebnissen des Zensus am 9. Mai 2011 gehörten 173.790 Einwohner von Dortmund der römisch-katholischen Kirche an. 188.470 Einwohner waren evangelisch, 3.120 evangelisch-freikirchlich, 9.420 orthodox und 2.390 jüdisch. 191.630 Einwohner wurden den Rubriken „Sonstige“ oder „Keiner öffentlich-rechtlichen Religionsgesellschaft zugehörig“ zugeordnet. Nach einer Berechnung aus den Zensuszahlen für die Personen mit Migrationshintergrund lag der Bevölkerungsanteil der Muslime in Dortmund 2011 bei 9,5 % (rund 54.200 Personen).
Christentum.
Dortmund gehörte seit der Gründung zum Erzbistum Köln und war Sitz eines Archidiakonats. Ab 1523 fasste allmählich die Reformation Fuß. Doch wurde erst ab 1562 das Abendmahl in beiderlei Gestalt ausgeteilt. Die Stadt war danach überwiegend protestantisch. Als Freie Reichsstadt konnte Dortmund auch die religiösen Angelegenheiten selbst regeln und so erhielt die Stadt 1570 ein neues Kirchenregiment. Vorherrschend war das lutherische Bekenntnis. Das reformierte Bekenntnis war bis 1786 überhaupt nicht zugelassen. 1625 errichtete der Rat die Superintendentur Dortmund. Hieraus entstand nach dem Übergang an Preußen der spätere Kirchenkreis Dortmund innerhalb der Evangelischen Kirche in Preußen beziehungsweise dessen westfälischer Provinzialkirche. 1960 wurde der Kirchenkreis Dortmund in vier Kirchenkreise aufgeteilt. Bis Ende 2013 bildeten die Kirchenkreise Dortmund-Mitte-Nordost (zwölf Kirchengemeinden), 2002 fusioniert aus den Kirchenkreisen Dortmund-Mitte und Dortmund-Nordost, Dortmund-Süd (acht Kirchengemeinden) und Dortmund-West (fünf Kirchengemeinden) mit ihren zugehörigen Kirchengemeinden zusammen mit dem benachbarten Kirchenkreis Lünen (vier Kirchengemeinden) die „Vereinigten Kirchenkreise Dortmund – Verband der evangelischen Kirchengemeinden und Kirchenkreise in Dortmund und Lünen“. Am 1. Januar 2014 haben sich die vier Kirchenkreise zum Evangelischen Kirchenkreis Dortmund vereinigt. Mit seinen 28 Kirchengemeinden, 24 in Dortmund, drei in Lünen und einer in Selm ist er Teil der Evangelischen Kirche von Westfalen.
Auch nach Einführung der Reformation gab es noch wenige Katholiken in Dortmund, die weiterhin zum Erzbistum Köln gehörten. Ihnen verblieben zunächst nur die Klosterkirchen für gottesdienstliche Nutzungen. 1616 erhielt jedoch das Dominikanerkloster wieder Pfarrrechte. Nach 1803 wurden die römisch-katholischen Klosterkirchen entweder säkularisiert oder gar abgebrochen. Die Kirche des aufgehobenen Dominikanerklosters blieb als Propsteikirche erhalten. 1821 wurden die Katholiken dem Bistum beziehungsweise Erzbistum Paderborn zugeordnet. Infolge starker Zuwanderung im 19. Jahrhundert und frühen 20. Jahrhundert, insbesondere aus der damaligen Provinz Posen, nahm auch die Zahl der Katholiken stark zu. 1832 wurde Dortmund Sitz eines römisch-katholischen Dekanats. Auch nach der Gründung des „Ruhrbistums“ Essen verblieb Dortmund beim Erzbistum Paderborn.
Neben den landeskirchlich-evangelischen und römisch-katholischen Gemeinden in Dortmund existieren verschiedene Freikirchen, darunter mehrere evangelisch-freikirchliche Gemeinden (Baptisten) (Christuskirche Dortmund-Mitte, Feldherrnstraße, Brückengemeinde Dortmund-Hörde, Auferstehungsgemeinde Dortmund-Eving, Evangelisch-Freikirchliche Gemeinde Dortmund-Asseln, Evangelisch-Freikirchliche Gemeinde Dortmund-Mitte, Saarbrücker Straße (Brüderbewegung) und Evangelisch-Freikirchliche Gemeinde Dortmund-Huckarde), die Freie evangelische Gemeinde Dortmund-Körne und die Evangelisch-methodistische Kirche Dortmund-Mitte. Mit der Trinitatisgemeinde der Selbständigen Evangelisch-Lutherischen Kirche und der altkatholischen St. Martin-Gemeinde sind auch die altkonfessionellen Kirchen in Dortmund vertreten.
In Dortmund sind die griechisch-orthodoxe Kirche, die Serbisch-Orthodoxe Kirche, die Russisch-Orthodoxe Kirche und die Mazedonisch-Orthodoxe Kirche vertreten.1961 wurde unter dem Archimandriten Ánthimos Drakonákis der Beschluss gefasst, eine griechisch-orthodoxen Gemeinde in Dortmund zu gründen (Kirche der Heiligen Apostel zu Dortmund, griech. "I.N. Αγίων Αποστόλων Ντόρτμουντ" – "I.N. Agíon Apostólon Dortmund"). Es handelt sich somit vermutlich um die erste Gründung einer griechisch-orthodoxen Gemeinde, die im Zusammenhang mit dem Anwerben von Gastarbeitern steht. Bis dahin hatte es nur dort Gemeinden gegeben, wo Griechen seit über 200 Jahren als Kaufleute sesshaft waren. Der damalige griechisch-orthodoxe Metropolit von Deutschland, Polyeuktos (Finfinis) (), wies den neu gegründeten griechisch-orthodoxen Gemeinden in Deutschland ihren jeweiligen Amtsbezirk zu. Dem frisch geweihten Presbyter Tilémachos (Margarítis) übergab er Ende des Jahres 1965 die Kirchengemeinde Dortmund und damit die seelsorgerliche Verantwortung für die orthodoxen Christen des östlichen Ruhrgebiets. Tilemachos hatte dieses Amt bis zum Oktober 2006 inne. Ihm folgte der Archimandrit Dr. Filótheos.
Dortmund ist Sitz des Sekretariats der Orthodoxen Bischofskonferenz in Deutschland.
Daneben gibt es als weitere Religionsgemeinschaften, die ihre Wurzeln im Christentum haben, die Zeugen Jehovas und die Kirche Jesu Christi der Heiligen der Letzten Tage („Mormonen“). Die Mormonen betreiben in Dortmund eine genealogische Forschungsstelle.
Seit dem Jahr 1896 ist durch die Gründung der Gemeinde Dortmund-Nord (fusionierte 2008 mit der Gemeinde Dortmund-Eving) die Neuapostolische Kirche auch in Dortmund vertreten. Ebenfalls befindet sich die Verwaltung der Neuapostolische Kirche Westdeutschland in Dortmund.
Durch den demographischen Wandel in der Gesellschaft und die steigende Zahl inaktiver Kirchenmitglieder wurden in den letzten Jahren einige Standorte aufgegeben und Gemeinden zusammengelegt. Im Jahr 2012 gab es noch 24 Gemeinden im Stadtgebiet, aktuell (Stand 2015) sind es 17 Gemeinden.
Islam.
Bedeutendste nichtchristliche Religionsgemeinschaft in Dortmund ist der Islam. Viele Moscheen und Gebetshäuser (vor allem in der stark migrantisch geprägten nördlichen Innenstadt) machen dies deutlich. Zurzeit gibt es in Dortmund etwa 30 Moscheevereine, die seit September 2007 von einem gemeinsamen Rat der Muslime in Dortmund vertreten werden.
Die islamischen Strukturen in Dortmund gründeten in Vereinen meist türkischstämmiger Arbeitsmigranten, aber auch marokkanisch (wie die Al-Fath-Moschee in der Mallinckrodtstraße). Der 1966 gegründete Verein Türkischer Arbeitnehmer in Dortmund und Umgebung richtete 1973 die erste islamische Gebetsstätte in einer ehemaligen evangelischen Notkirche in der Dortmunder Nordstadt ein. Mitte der siebziger Jahre gab es zahlreiche Gründungen von Vereinen gemeinsamer religiöser Identität. Unterstützt wurden diese Gemeinden häufig durch das Amt für Religiöse Angelegenheiten (türkisch: , kurz: DİB), das seit Anfang der 1970er Jahre in der Türkei ausgebildete islamische Theologen in die deutschen Moscheevereine entsendet. Im November 1976 wurde der erste islamische Theologe als Lehrer und Vorbeter in Dortmund begrüßt.
Zwischen 1979 und 1983 bestand die Islamische Gemeinde Dortmund als selbstständiger Dachverband der islamischen Gemeinden in Dortmund. Diese löste sich 1983 auf, da die Gründung einer sogenannten Diyanet-Stiftung seitens des Religionsattachés der türkischen Botschaft angedacht war. Diese Stiftung wurde letztlich nicht realisiert und die Dortmunder Gemeinden schlossen sich schließlich der Türkisch-Islamischen Union der Anstalt für Religion (türkisch: , kurz: D.I.T.I.B.) an. Zur D.I.T.I.B. gehören heute zehn Gemeinden in Dortmund.
Neben den an den nationalen Gegebenheiten in der Türkei orientierten Moscheevereinen existieren in Dortmund weitere islamische Gemeinden, zum Beispiel die Islamische Gemeinschaft Millî Görüş und Alevitische Gemeinde mit anderen spirituellen Ausrichtungen.
Als sich in den 1990er Jahren abzeichnete, dass die Arbeitsmigranten dauerhaft in Dortmund bleiben würden, hatte dies auch Auswirkung auf die Moscheevereine. Die bis dahin lose organisierten Vereine organisierten sich nach deutschem Vereinsrecht und strebten Gemeinnützigkeit an. Die zuvor häufig in Hinterhäusern untergebrachten Gebetsstätten zogen in die Vorderhäuser. Der Islam wurde sichtbarer. Der Trend zum Bau repräsentativer Moscheen, wie er in ganz Deutschland zu beobachten ist, hält auch in Dortmund an.
Im Herbst 2007 bildeten die Vertreter der meisten Moscheegemeinden unter Beteiligung aller wichtigen islamischen Organisationen in Deutschland einen „Rat der muslimischen Gemeinden in Dortmund“.
Judentum.
Das früheste Dokument, das auf die Existenz von Juden in der früheren Hanse- und Reichsstadt Dortmund hinweist, ist ein Privileg Heinrichs IV. von 1074; eine zweite urkundliche Erwähnung von Juden stammt aus dem Jahre 1096. Die meisten Wohnstätten der Dortmunder Juden, ihr Bethaus und die Mikwe lagen am westlichen Rand des Stadtkerns. Im Zusammenhang mit den Pestpogromen 1460/1465 wurden die Juden aus Dortmund vertrieben und siedelten sich erst im 16. Jahrhundert wieder in umliegenden Ortschaften u. a. in Dorstfeld, Hörde, Schwerte, Unna an. Erst zu Beginn des 19. Jahrhunderts gestattete die Stadt Dortmund wieder jüdische Ansiedlung in ihren Mauern. Seit Mitte des 19. Jahrhunderts wuchs die Zahl der in Dortmund ansässigen Juden stetig infolge der industriellen Entwicklung des Ruhrgebietes.
Im Zuge dessen entstand 1895 als zentrale, repräsentative Betstätte die Alte Synagoge. Mit 1300 Plätzen, davon 750 für Männer reservierte Sitzplätze im Erdgeschoss und 450 Plätze für Frauen auf den Emporen des Kuppelbaus, war die Synagoge zu ihrer Zeit eines der größten jüdischen Bethäuser in Deutschland. Als eine von wenigen jüdischen Gemeinden in Deutschland, wurde die Gemeinde noch vor den Novemberpogromen 1938 ihres Besitzes enteignet und der Abriss vollzogen. Neben der großen Synagoge in der Innenstadt gab es auch in Dortmund-Hörde und Dortmund-Dorstfeld jüdische Gemeinden mit eigenen Synagogen, die ebenfalls zerstört wurden. Die anschließende erzwungene Auswanderung im Nationalsozialismus und der Holocaust dezimierten die jüdische Bevölkerung Dortmunds drastisch.
In den 1990er Jahren ist die Jüdische Gemeinde durch den Zuzug von Juden aus der ehemaligen Sowjetunion wieder erheblich gewachsen. Heute umfasst die Kultusgemeinde eine orthodox geprägte Einheitsgemeinde 2594 Mitglieder. Sie betreibt neben einer Synagoge auch einen Kindergarten. Auch der jüdische Teil des Dortmunder Hauptfriedhofs wird heute wieder aktiv genutzt.
Dortmund ist Sitz des Landesverbandes der Jüdischen Gemeinden von Westfalen-Lippe.
Weitere Religionsgemeinschaften.
In Dortmund existieren zwei Thai-Buddhistische Gemeindezentren: das Wat Metta Parami im Hüttenbruchweg und das Wat Dhammabharami auf der Engelbertstraße. Neben diesen beiden Gemeinden, die am Theravada-Zweig des Buddhismus orientiert sind, gibt es auch ein Zentrum, das eine Form des Vajrayana vertritt. Dieses gehört dem Buddhistischen Dachverband Diamantweg e. V. an.
Für die hinduistische Gemeinde der in Dortmund lebenden Tamilen ist der Sri-Kamadchi-Ampal-Tempel in Hamm von großer Bedeutung.
Außerdem existiert eine Bahai-Gemeinde.
Interreligiöser Dialog.
Die Ursprünge des christlich-islamischen Dialogs in Dortmund finden sich im 1969 initiierten Arbeitskreis für Religion und Weltanschauung der Rheinisch-Westfälische Auslandsgesellschaft. In den 1990er Jahren fanden erste direkte Kontakte zwischen christlichen und islamischen Gemeinden im Arbeitskreis Kirche und Moschee statt. Diese Arbeitskreise existieren heute nicht mehr.
Seit 1993 widmet sich das gemeinsam von Christen und Muslimen initiierte Dortmunder Islamseminar der interreligiösen Zusammenarbeit zwischen Muslimen und Christen. Träger des Islamseminars sind die Abu-Bakr-Moschee Dortmund, die Moschee Bachstraße des VIKZ, der (evangelische) Kirchenkreis Dortmund-Lünen, das Katholische Forum Dortmund und die Dortmunder DITIB-Gemeinden.
Dem Zusammenleben von Juden und Christen in Dortmund widmet sich die Gesellschaft für christlich-jüdische Zusammenarbeit Dortmund e. V.
Politik.
Überblick.
Dortmund ist eine kreisfreie Stadt im Regierungsbezirk Arnsberg des Landes Nordrhein-Westfalen und handelt in freier Selbstverwaltung durch ihre Organe. Gemäß dem Gesetz über die Kommunalwahlen im Lande Nordrhein-Westfalen, der Gemeindeordnung für das Land Nordrhein-Westfalen und der Hauptsatzung der Stadt Dortmund sind dies der Rat der Stadt Dortmund und der Oberbürgermeister. Alle fünf Jahre wählen die Dortmunder Bürger den 82-köpfigen ehrenamtlichen Rat der Stadt Dortmund (2012: zusätzlich vier Überhang- und Ausgleichsmandate) und den hauptamtlichen Oberbürgermeister. Der Rat wählte bisher zwei ehrenamtliche Bürgermeister als Stellvertreter des Oberbürgermeisters seit 2020 sind es drei Bürgermeister. In den zwölf Stadtbezirken wird außerdem jeweils eine 19-köpfige ehrenamtliche Bezirksvertretung gewählt, die aus ihrer Mitte einen Bezirksbürgermeister (bis 2008: Bezirksvorsteher) und einen oder mehrere Stellvertreter wählt. Dem Oberbürgermeister obliegen die Geschäfte der laufenden Verwaltung, er leitet die Ratssitzungen und repräsentiert die Stadt. Der Oberbürgermeister ist verpflichtet, die Beschlüsse des Rats auszuführen. Der Rat wählt außerdem einen Stadtdirektor und bis zu neun weitere Stadträte als Stellvertreter des Oberbürgermeisters in der Verwaltung der Stadt. In den neun Außenstadtbezirken befinden sich Bezirksverwaltungsstellen.
Neben den Organen der kommunalen Selbstverwaltung werden in Dortmund vier Landtagsabgeordnete und zwei Bundestagsabgeordnete per Direktmandat gewählt, bei der Europawahl werden die Kandidaten ausschließlich über Listen gewählt.
In der Parteienlandschaft Dortmunds sind alle großen deutschen Parteien vertreten. Als rein kommunale Gruppe treten die Bürgerliste für Dortmund, die im Rat eine Fraktionsgemeinschaft mit der FDP bildet, auf. Eine dominierende Stellung nimmt die SPD ein: Sie stellt seit 1946 ununterbrochen den Oberbürgermeister, bis 1999 auch die absolute Mehrheit im Rat, sowie sämtliche direkt gewählten Abgeordneten auf Landes- und Bundesebene und erzielt noch heute Wahlergebnisse um die 40 %. Herbert Wehner sprach einst in diesem Zusammenhang von Dortmund als der „Herzkammer der Sozialdemokratie“. Inzwischen ist jedoch der Vorsprung der SPD gegenüber der CDU in Dortmund bei den Bundes- und Landtagswahlen deutlich geringer ausgeprägt als in anderen Ruhrgebietsstädten.
Politische Geschichte.
Die Selbstverwaltung der Stadt Dortmund hat eine lange Tradition. Seit etwa 1240 ist ein Rat belegt und vom König anerkannt, 1288 wurden erstmals Bürgermeister erwähnt und 1504 gingen auch die verbliebenen Rechte an der die Stadt umgebenen Grafschaft Dortmund von den Grafen an die Stadt über. An der Spitze der Stadt Dortmund stand in Zeiten der Freien Reichsstadt der 18-köpfige, später zwölfköpfige, patrizische Rat, der im Laufe der Zeit verschiedentlich zusammengesetzt war. Die Amtszeit dauerte zunächst ein Jahr, wobei die Mitglieder turnusmäßig wechselten, sodass es einen „alten Rat“ und einen „neuen Rat“ beziehungsweise „sitzenden Rat“ gab. Seit Ende des 15. Jahrhunderts wurden die Ratsherren auf Lebenszeit gewählt. Von den sechs Obersten Ratsherren führten zwei den Titel „Bürgermeister“. Der siebte Sitz war dem Freigrafen vorbehalten. Nach 1803 übernahm ein fürstlich-oranischer Stadtmagistrat die Amtsgeschäfte und in französischer Zeit gab es einen Maire, dem ein Munizipalrat zur Seite stand. Als Dortmund 1815 preußisch wurde, gab es einen Bürgermeister und einen Gemeinderat. Mit Einführung der Städteordnung 1835 leiteten der Magistrat und das Stadtverordnetenkolleg unter Vorsitz des Bürgermeisters die Verwaltung. Ab 1860 trug das Stadtoberhaupt den Titel Oberbürgermeister.
Während der Zeit des Nationalsozialismus wurde der Oberbürgermeister von der NSDAP eingesetzt. Nach dem Zweiten Weltkrieg setzte die Militärregierung der Britischen Besatzungszone einen neuen Oberbürgermeister ein und 1946 führte sie die Kommunalverfassung nach britischem Vorbild ein. Danach gab es einen vom Volk gewählten Rat der Stadt (anfangs noch nach dem britischen Mehrheitswahlrecht gewählt), dessen Mitglieder man als Stadtverordnete bezeichnet. Der Rat wählte anfangs aus seiner Mitte den Oberbürgermeister als Vorsitzenden und Repräsentanten der Stadt, der ehrenamtlich tätig war. Des Weiteren wählte der Rat ab 1946 ebenfalls einen hauptamtlichen Oberstadtdirektor als Leiter der Stadtverwaltung. 1999 wurde die Doppelspitze in der Stadtverwaltung aufgegeben. Seither gibt es nur noch den hauptamtlichen Oberbürgermeister.
Rat und Oberbürgermeister.
→ "Siehe auch: Ergebnisse der Kommunalwahlen in Dortmund", "Ergebnisse der Kommunalwahlen vor 1975", "Liste der Oberbürgermeister"
Die letzte Kommunalwahl fand in Dortmund am 13. September 2020 statt. Die SPD erreichte 30,0 % der Stimmen (27 Sitze), die GRÜNEN 24,8 % (22 Sitze), die CDU 22,5 % (20 Sitze), DIE LINKE 5,6 % (5 Sitze), die AfD 5,5 % (5 Sitze), die FDP 3,5 % (3 Sitze), Die PARTEI mit 2,8 % (3 Sitze), DIE RECHTE 1,1 % (1 Sitz), die Tierschutzpartei 0,9 % (1 Sitz), die PIRATEN 0,9 % (1 Sitz), das Bündnis für Vielfalt und Toleranz (BVT) 0,8 % (1 Sitz), die Bürgerliste 0,6 % (1 Sitz). Nicht im Stadtrat vertreten sind die Freie Bürger Initiative (FBI) mit 0,5 %, Basisdemokratie jetzt mit 0,4 %, die DOS mit 0,1 %, Heinz Augat - Miteinander mit 0,0 %, WiR in Dortmund mit 0,0 % und die DKP mit 0,0 %.
Bei der Wahl zum Oberbürgermeister am 13. September 2020 erreichte keiner der Kandidaten die absolute Mehrheit. Deshalb fand am 27. September 2020 eine Stichwahl zwischen Thomas Westphal (SPD) und Andreas Hollstein (CDU) statt. Im ersten Wahlgang erhielt Westphal 35,9 %, Hollstein 25,9 %. Daniela Schneckenburger (GRÜNE) erhielt 21,8 %, Utz Kowalewski (DIE LINKE) 4,4 %. 8 weitere Kandidaten erhielten zusammen 12,0 %. In der Stichwahl setzte sich Thomas Westphal (SPD) mit 52,1 % der Stimmen gegen Andreas Hollstein (CDU), der 47,9 % der Stimmen erhielt, durch.
Unterbrochen von einer konfliktgeladenen Koalition mit den Grünen (2004–2009) regiert die SPD seit dem Verlust der absoluten Mehrheit im Jahr 1999 mit wechselnden Mehrheiten. Die Haushaltspläne werden in der Regel gemeinsam von SPD und CDU beschlossen, fallweise auch von SPD und Grünen.
Die nächste reguläre Kommunalwahl findet im September 2025 statt.
Weitere Wahlen.
In der folgenden Tabelle sind die Ergebnisse von Bundestags-, Landtags- und Europawahlen in Dortmund dargestellt.
Parteien und Wählergruppen.
In Dortmund sind folgende Parteien und Wählergruppen vertreten: die SPD (Unterbezirksvorsitzender Jens Peick, Fraktionsvorsitzende Carla Neumann-Lieven), die GRÜNEN (Kreisverbandssprecher Heide Kröger-Brenner und Michael Röls, Fraktionssprecher Ingrid Reuter und Ulrich Langhorst), die CDU (Kreisvorsitz Sascha Mader, Fraktionsvorsitzender Jendrik Suck), Die Linke (Kreissprecher Christian Seyda und Christiane Tenbensel, Fraktionsvorsitzender DIE LINKE+ Utz Kowalewski und Petra Tautorat), die PIRATEN (Kreisvorstandsvorsitzende Uwe Martinschledde und Robert Ziethoff), die Tierschutzpartei (Kreisvorsitzender zurzeit unbekannt, stv. Vorsitzender DIE LINKE+ Michael Badura), die AfD (Kreisvorstandssprecher Peter Bohnhof, Fraktionsvorsitzender Heinrich Theodor Garbe), die FDP (Kreisvorsitzender Nils Mehrer), die Bürgerliste für Dortmund (Erster Vorsitzender und stv. Fraktionsvorsitzender FDP/BL Markus Happe), Die PARTEI (Kreisverbandsvorsitzender Hendrik Klünner, Fraktionsvorsitzender Olaf Schlösser), Die Rechte (Kreisvorstandsvorsitzender zurzeit unbekannt), das BVT (Vorsitzender zurzeit unbekannt), die NPD (Kreisvorsitzender Matthias Wächter), die FBI (Vorsitzender Detlef Münch), das BIG (Kreisvorsitzender zurzeit unbekannt), die DKP (Kreisvorsitzende Doris Borowski) und die Familien-Partei Deutschlands (Kreisvorstandsvorsitzender Alexander Dilger).
Bundestagsabgeordnete.
Das Dortmunder Stadtgebiet bildet zwei Bundestagswahlkreise. Der Bundestagswahlkreis 142 (ehem. 143) Dortmund I umfasst die westlichen Stadtbezirke. Bei der Bundestagswahl 2021 ging hier das Direktmandat mit 33,0 Prozent an Jens Peick von der SPD. Die östlichen Stadtbezirke bilden den Bundestagswahlkreis 143 (ehem. 144) Dortmund II. Hier fiel das Direktmandat 2021 mit 39,1 Prozent auf Sabine Poschmann, SPD.
Landtagsabgeordnete.
Dortmund ist in vier Landtagswahlkreise aufgeteilt. Folgende Abgeordnete vertreten die Stadt Dortmund im Landtag Nordrhein-Westfalen (17. Wahlperiode):
Wahlkreis Dortmund 1: Armin Jahl, Angestellter, SPD
Wahlkreis Dortmund 2: Volkan Baran, Diversity Manager, SPD
Wahlkreis Dortmund 3: Nadja Lüders, Rechtsanwältin, SPD
Wahlkreis Dortmund 4: Anja Butschkau, Diplom-Sozialarbeiterin, SPD
Landesliste: Thorsten Schick, Diplom-Kaufmann und Lehrer, CDU
Landesliste: Thomas Nückel, Journalist, FDP
Landesliste: Verena Schäffer, Parlamentarische Geschäftsführerin und Historikerin (B.A.), GRÜNE
Landesliste: Josef Hovenjürgen, Landwirt, CDU
Verschuldung.
Die Gesamtsumme der Verschuldung der Stadt Dortmund belief sich zum Jahresende 2012 auf 3,541 Milliarden Euro. Das entspricht einem Betrag von 6197 Euro pro Einwohner. Damit liegt Dortmund im „Ranking“ nach höchster Verschuldung der 103 deutschen kreisfreien Städte am unteren Ende des oberen Drittels.
Wappen und Farben.
Neben Wappen und Farben gab es seit 1994 ein Logo, das die stilisierten Buchstaben DO in einem rechtsoffenen Halbkreis aus neun dunkelblauen fünfzackigen Sternen zeigt. Die Sterne werden nach unten hin kleiner. Der senkrechte Strich im D ist nach oben verlängert und nochmals kurz gekreuzt. Er soll den Florianturm darstellen, während zwei gebogene Striche über dem O auf die große Westfalenhalle anspielen. Die beiden Buchstaben sind in Petrol gehalten. Die Darstellung mit Sternen galt als Europalogo, teilweise fand man das Logo auch ohne Sterne. Im Frühjahr 2005 wurde das städtische Corporate Design aber wieder auf die traditionellen Farben und Symbole umgestellt.
Außerdem stellt die Stadt Dortmund für Bürger oder Unternehmen, die ihre Verbundenheit mit Dortmund zeigen wollen, noch eine Stadtsilhouette mit mehreren markanten Gebäuden in der Farbe des ehemaligen Logos zur Verfügung.
Städtepartnerschaften.
Dortmund pflegt derzeit offiziell acht internationale Städtepartnerschaften sowie eine innerdeutsche Städtefreundschaft.
Darüber hinaus pflegt die Stadt Dortmund zahlreiche internationale Projektpartnerschaften und engagiert sich verstärkt im Bereich der kommunalen Entwicklungspolitik und der projektbezogenen, internationalen kommunalen Zusammenarbeit. Ziel ist dabei eine Zusammenarbeit auf Augenhöhe, deren Mehrwert für beide Partner auf Gegenseitigkeit beruht und die Umsetzung der Nachhaltigkeitsziele in beiden Ländern bzw. Regionen fördert. Die Projektkommunen suchen sich hierbei jeweils Themen, an denen beide arbeiten und unterstützen sich dabei, Lösungen zu finden.
Die älteste Städtepartnerschaft Dortmunds besteht zu Amiens in Frankreich. Erste Schritte zu einer solchen Partnerschaft entwickelten sich aus privaten Kontakten eines Bürgermeisters und Überlegungen des Auslandsinstituts bereits 1952. Ab 1957 kam es zu verstärkten Kontakten zwischen den Städten, und am 2. April 1960 erfolgte die Proklamation durch den Rat der Stadt Dortmund.
Noch weiter reicht die Partnerschaft zu Leeds im Vereinigten Königreich zurück. Bereits Ende 1949 wurde von der britischen der Vorschlag gemacht, Beziehungen zwischen dem und dem Regierungsbezirk Arnsberg aufzunehmen, da sich beide Gebiete strukturell ähnelten. Die eigentliche Städtepartnerschaft geht auf eine Reise mehrerer Bürgermeister aus dem Ruhrgebiet in diese Region im Jahr 1957 zurück, bei der eine partnerschaftliche Beziehung zwischen Leeds und Dortmund erwogen wurde. In der Folge intensivierten sich die Kontakte, und am 2. Juni 1969 kam es schließlich zur Unterzeichnung des Partnerschaftsabkommen durch die Stadt Dortmund.
Beide Partnerschaften standen noch im Schatten des Zweiten Weltkriegs und waren geprägt von dem Willen, eine derartige Katastrophe sich nicht wiederholen zu lassen. Sie sollten den Gedanken der Völkerverständigung und europäischen Freundschaft auch in der Bevölkerung verankern.
Der Gedanke der Völkerverständigung spiegelte sich auch in der Partnerschaft zu Buffalo im US-Bundesstaat New York wider, allerdings gingen hier die Bemühungen wesentlich stärker von der Partnerstadt aus, die sich daneben von dieser auch eine Stärkung der Kultur der dortigen deutschstämmigen Bevölkerung erhoffte. Erste Bemühungen vonseiten Buffalos fanden bereits 1950 statt, zu einem umfangreicheren Austausch kam es aber erst Mitte der 1970er Jahre. Der offizielle Beschluss wurde schließlich am 4. Juli 1977 gefasst.
Exakt ein Jahr später fasste der Rat den Beschluss, auch eine Städtepartnerschaft mit Rostow am Don in der damaligen UdSSR (heute Russland) aufzunehmen. Sie entwickelten sich aus den Auslandskulturtagen der Stadt von 1973 mit der Sowjetunion. Aufgrund der großen geographischen Entfernung und der Zugehörigkeit zu unterschiedlichen Blöcken, stellte diese Städtepartnerschaft von Anfang an eine Besonderheit dar. Zu intensiven Kontakten kam es entsprechend erst nach Ende des Kalten Krieges.
Die Städtepartnerschaft zu Netanja in Israel, am 12. Juni 1980 vom Rat der Stadt Dortmund beschlossen, geht auf eine Einladung aus dem Jahr 1972 an ehemalige Dortmunder Bürger, die als Juden aus Deutschland fliehen mussten, die Stadt zu besuchen, zurück. Infolgedessen wurde von Seiten Dortmunds der Wunsch an den israelischen Städteverband gerichtet, eine Partnerschaft mit einer israelischen Stadt aufzunehmen. Kurz darauf kündigte der Bürgermeister von Netanja Interesse an einer solchen Partnerschaft an. Aus dieser sind sechs Dortmunder Schulpartnerschaften hervorgegangen.
Ebenfalls auf die Dortmunder Auslandskulturtage geht die Partnerschaft mit Novi Sad im damaligen Jugoslawien (heute Serbien) zurück. Im Anschluss an die Veranstaltung 1978 teilte der Bürgermeister Novi Sads mit, dass vom jugoslawischen Konsulat eine Städtepartnerschaft mit Dortmund in Erwägung gezogen werde. Am 26. März 1981 unterzeichnete der Rat schließlich ein Partnerschaftsabkommen.
Die jüngste Dortmunder Städtepartnerschaft mit Xi’an in der Volksrepublik China geht auf geschäftliche Kontakte der ThyssenKrupp Uhde GmbH und eine Partnerschaft der Technischen Universität Dortmund mit der Jiaotong-Universität Xi’an zurück. Im Februar 1986 lagen Dortmund Anfragen mehrerer Städte nach einer Partnerschaft vor, und man entschied sich schließlich aufgrund der bestehenden Kontakte und der guten Verkehrsanbindung für Xi’an. Daraufhin intensivierten sich die Kontakte und am 1. April 1989 unterzeichnete der Volkskongress der Stadt Xi’an die Partnerschaftserklärung. Aufgrund des Tian’anmen-Massakers bestätigte die Stadt Dortmund die Partnerschaft nicht offiziell, sodass diese formal erst seit dem 27. Juni 1991 besteht.
Am 2. Juni 2014 wurde die Städtepartnerschaft zwischen Trabzon und Dortmund besiegelt. Der damalige Ausländerbeirat, heute Integrationsrat, hatte sich bereits 2008 für die Projektpartnerschaft ausgesprochen und sich im Nachgang – unter Beteiligung zahlreicher Akteure innerhalb und außerhalb von Politik und Verwaltung – intensiv für die Begründung einer offiziellen Städtepartnerschaft eingesetzt.
Am 31. Juli 2020 unterzeichnete Oberbürgermeister Ullrich Sierau mit seinem Amtskollegen Emil Boc aus der rumänischen Stadt Cluj-Napoca eine Absichtserklärung, um eine kommunale Partnerschaft einzugehen. Im Zentrum der Vereinbarung steht der Austausch insbesondere zu den Themen Digitalisierung und Smart City, Technologie- und Start-up-Förderung, Weiterentwicklung als Innovationscluster, Nachhaltigkeit und Daseinsvorsorge. Koordiniert wird die Projektpartnerschaft von dem Büro für Internationale Beziehungen und Nachhaltige Entwicklung der Stadt Dortmund und dem Büro für Internationale Angelegenheiten und ausländische Investitionen der Stadt Cluj.
Neben diesen bilateralen Beziehungen ist Dortmund Mitglied in den Vereinigungen Eurocities, Rat der Gemeinden und Regionen Europas und . Historische Beziehungen zu anderen Städten leben in der Neuen Hanse fort. Seit dem 14. Januar 2008 ist die Stadt Mitglied des Konvents der Bürgermeister.
Nach dem Zweiten Weltkrieg bildete sich der Patenstadtarbeitskreis Waldenburger Bergland/Dortmund, der bis 2008 alle zwei Jahre das Waldenburger Heimattreffen für den Kreis und die Stadt Waldenburg in der Westfalenhalle veranstaltete und auch heute über das "Kulturportal West-Ost" aktiv ist.
Jugendpolitik.
Dortmund ist bekannt als Hochburg der Schüler- und Jugendpolitik. Die Bezirksschülervertretung Dortmund gehört zu den bundesweit stärksten Schülerorganisationen. Seit 2005 gewinnen die Schülervertretungen in der Stadtöffentlichkeit an Bedeutung. Die Bezirksschülervertretung hat Stimmrecht in der Vollversammlung des Jugendring Dortmund und ist beratendes Mitglied im Schulausschuss des Rates der Stadt Dortmund.
Dem „Ring Politische Jugend Dortmund“, der die Gelder für die parteipolitischen Dortmunder Jugendorganisationen verteilt, gehören die Jusos, die Junge Union, die Grüne Jugend, die Jungen Liberalen und die Linksjugend an. Als bekanntestes, von Jugendlichen organisiertes Projekt galt Rock in den Ruinen, mit über 15.000 Besuchern, das bis 2013 jährlich von der Juso AG Hörde und dem SPD-Stadtbezirk Hörde organisiert wurde.
Kultur und Sehenswürdigkeiten.
Stadtbild.
Durch insgesamt 105 Luftangriffe mit mehr als 22.242 Tonnen Bomben wurde das historische Stadtzentrum innerhalb der Wallanlagen zu 95 % zerstört. Dortmund hatte damit sein städtebauliches Gesicht, das neben den mittelalterlichen Stadtkirchen, dem Alten Rathaus und einigen Profanbauten vor allem in der Zeit von 1890 bis 1930 entscheidend geprägt worden ist, im Hagel der Bomben völlig verloren. Es wurde von der britischen Militärregierung und dem Dortmunder Baudezernenten Wilhelm Delfs sogar erwogen, die Trümmer als Mahnmal gegen den Krieg vor Ort liegen zu lassen und Dortmund an einer anderen Stelle neu zu errichten.
Der Wiederaufbau wurde jedoch maßgeblich durch die im Boden vorhandenen Infrastrukturleitungen und die darüber liegenden Straßen bestimmt. Ausnahme bilden hierbei die Nord-Süd-Achse entlang der Kleppingstraße und die Ost-West-Linie entlang der Kampstraße in der Innenstadt, welche im Zeitgeist der autogerechten Stadtentwicklung durch die Altstadt geschlagen wurden. Beim Wiederaufbau wurden jedoch im Wesentlichen Straßenverläufe sowie historische Straßennamen beibehalten, die Bebauung erfolgte hierbei allerdings im Stil der 1950er Jahre. Das öffentliche Bewusstsein und die Planung der Nachkriegszeit war vom Wunsch gekennzeichnet, die städtebauliche Gegebenheit als Produkt der Industrialisierung nicht auf den Grundrissen der mittelalterlichen Stadt zu wiederholen. Somit sind weite Teile der Innenstadt von Nachkriegsarchitektur geprägt; dazwischen befinden sich einzelne Bauten, die erhalten geblieben sind. Wenngleich aufgrund der Kriegszerstörung und der Nachkriegs-Stadtplanung kein geschlossenes historisches Stadtbild mehr existiert, so besitzt die Stadt doch zahlreiche Gebäude vieler Epochen, insbesondere herausragende Beispiele der Nachkriegsmoderne.
In den letzten Jahren erhielt das Stadtbild Impulse durch verschiedene Maßnahmen wie den Umbau der Kampstraße als Boulevard oder den Bau der Thier-Galerie als Einkaufszentrum.
Architektur.
Architektonisch gesehen ist Dortmund eine Stadt voller Widersprüche. Die Wahrnehmung wird stark vom Stil der Nachkriegs- und Postmoderne geprägt und erweckt den Eindruck einer jungen Stadt. Tatsächlich besteht aufgrund der über 1125-jährigen Stadtgeschichte jedoch eine Vielzahl von Bauwerken aus verschiedenen Architekturepochen. Besonders sehenswerte Bauten werden zumeist in eigenen Artikeln beschrieben.
Bauwerke.
Bauwerke innerhalb des Wallrings.
Entlang des Dortmunder Ostwalls lassen sich noch die Strukturen und Ausdehnungen der mittelalterlichen Dortmunder Stadtbefestigung erkennen. Als einziger Wall zeigt der Ostwall jetzt noch die alte Mittelpromenade mit Kastanienallee, die im Zeitraum von 1810 bis 1874 durch das Schleifen der Stadtmauer entstanden ist. Bekannte Bauwerke am Ostwall sind das Schüchtermann-Denkmal, das alte Museum am Ostwall, der Adlerturm und ein Teilstück der historischen über 800 Jahre alten Stadtmauer.
Das Alte Stadthaus wurde 1899 nach einem Entwurf von Stadtbaurat Friedrich Kullrich im Stil der Neurenaissance errichtet. Wie viele Gebäude Dortmunds wurde es im Zweiten Weltkrieg stark beschädigt. Zwischen zwei Fenstern der Westseite befindet sich der westfälische Spruch „So fast as düörpm“, zu deutsch: „So fest wie Dortmund“.
An der Frontseite sind die Wappen der acht Hansestädte Bremen, Hamburg, Köln, Lippstadt, Lübeck, Münster, Osnabrück und Soest zu sehen. Den Balkon über dem Portal umrahmen zwei weibliche allegorische Figuren, deren linke die Blütezeit Dortmunds im Mittelalter symbolisiert. In einer Hand hält die Figur das mittelalterliche Rathaus, in der anderen die Hansekogge. Die rechte Figur ist ein Symbol für das neu herangebrochene Industriezeitalter, denn die Figur stützt sich mit dem Arm auf einem Dampfhammer ab, in den Händen hält sie ein Messgerät und einen Plan.
Angrenzend an das Alte Stadthaus stehen mit seinem Erweiterungsbau von 1929 an der Ecke Olpe/Kleppingstraße, dem neuen Stadthaus am Südwall von 1952 sowie der Berswordt-Halle von 2002 weitere Gebäude, die zusammen den städtischen Verwaltungskomplex gegenüber dem Dortmunder Rathaus bilden.
Neben dem neuen Stadthaus am Südwall befinden sich mit der ehemaligen Hauptverwaltung der Vereinigte Elektrizitätswerke Westfalen, heute Hauptsitz der DEW 21, und dem Gebäudekomplex der Versicherung für Handwerk, Handel Gewerbe, das heute als Jugendamt der Stadt Dortmund genutzt wird, weitere herausragende Großbauten der 1950er Jahre am Dortmunder Neutor.
Die Krügerpassage in der Dortmunder Innenstadt ist die älteste Passage auf Dortmunder Stadtgebiet; sie wurde 1912 im Stil der Neorenaissance von Paul Lutter und Hugo Steinbach erbaut. Jedoch fiel sie im Zweiten Weltkrieg wie viele bedeutende Dortmunder Bauwerke dem Krieg zum Opfer und wurde erst 1953 wieder aufgebaut.
Das Vehoff-Haus am Ostenhellweg gehört zu den ältesten steinernen Profanbauten im Dortmunder Stadtzentrum. Es wurde im Jahr 1607 erbaut, im Jahr 1905 durch einen Brand zerstört und in seinen Grundzügen als Kopie des historischen Hauses wiedererrichtet. Dabei wurde es in seiner Höhe an die Nachbargebäude angepasst. Nach der Zerstörung im Zweiten Weltkrieg erfolgte ein zweiter Wiederaufbau mit der Originalhöhe des historischen Hauses von 1607. Es grenzt hierbei direkt an die Dortmunder Marienkirche und befindet sich am Kreuzungsbereich zwischen Westenhellweg und Ostenhellweg.
Aufgrund der Kriegszerstörung und der Nachkriegs-Stadtplanung befinden sich innerhalb des Dortmunder Wallrings eine Vielzahl von herausragenden Beispielen der Nachkriegsmoderne. Namhafte Architekten wie Harald Deilmann, Will Schwarz und Fido Spröde verwirklichten sich hierbei im Stadtzentrum, herausragende Bauten sind unter anderem das Fritz-Henßler-Haus, das Museum am Ostwall und das Gesundheitshaus Dortmund. Die Gebäude der Architekten rücken hierbei in der letzten Zeit vermehrt in den Fokus des Interesses und werden aufwendig saniert, wie das Beispiel der ehemaligen WestLB Dortmund zeigt. Letztere wurde wegen seiner zeittypischen, von der Pop Art inspirierten Architektur als jüngstes Baudenkmal 2011 in die Denkmalliste der Stadt Dortmund eingetragen und fachgerecht saniert.
Weiterhin befinden sich eine große Anzahl von kleineren Bauwerken innerhalb des Wallrings, die unter Denkmalschutz gestellt wurden oder bereits tief im Bewusstsein der Dortmunder Bevölkerung verankert sind.
Der RWE Tower, erbaut nach Plänen des Architekturbüros Gerber, ist nach der Petrikirche und der Reinoldikirche das dritthöchste Bauwerk der Dortmunder Innenstadt und wurde am 24. August 2005 eingeweiht. Das 100 Meter hohe, im Grundriss linsenförmige Gebäude mit einer Fassade aus anthrazitfarbenem chinesischem Granit wird von der RWE AG genutzt. Er ist zusammen mit den Innenstadtkirchen, dem angrenzenden IWO-Hochhaus und dem Sparkassen-Hochhaus eines der höchsten Gebäude innerhalb des Wallrings
Die Stadt- und Landesbibliothek Dortmund wurde 1999 südlich des Dortmunder Hauptbahnhofs eröffnet. Der von Architekt Mario Botta gestaltete Bibliotheksbau besteht aus einem rechteckigen Baukörper aus rosafarbenem Sandstein und einer vorgelagerten Glasrotunde.
Das Konzerthaus Dortmund im Brückstraßenviertel an der Kreuzung der Brückstraße mit der Ludwigstraße wurde im September 2002 eröffnet. Das Konzerthaus (auch Philharmonie für Westfalen genannt) reiht sich in die vorhandene Fassadenreihe ein, aber sticht gleichzeitig durch die Eckposition und die Schräge hervor. Die optische Verbindung mit den anderen Fassaden wird durch eine gläserne Passage zwischen Konzerthaus und Nachbargebäude erreicht. In den Abend- und Nachtstunden kann die komplette Fassade durch LED-Elemente bespielt werden. Durch die enge und dichte Bebauung innerhalb des Brückstraßenviertel musste auf einen Vorplatz verzichtet werden, doch das Eingangsfoyer, die ganz aus Glas gestaltete Erdgeschosszone, bindet das Haus ganz natürlich in den Stadtraum ein.
Die Thier-Galerie mit ihren 33.000 Quadratmetern ist eines der neusten Großprojekte innerhalb des Wallrings. Neben einem modernen großflächigen Neubau, wurde außerdem der ehemalige Verwaltungsbau der Thier-Brauerei aus den 1950er Jahren reaktiviert und das ehemalige Clemenschen Kaufhaus von 1902 als Repräsentationsbau des Klassizismus am Westenhellweg detailgetreu und mit einer neuen Außenterrasse rekonstruiert.
Bauwerke außerhalb des Wallrings.
Neben dem RWE Tower, IWO-Hochhaus und dem Sparkassen-Hochhaus besitzt Dortmund noch weitere Hochhäuser, denn in den letzten Jahren hat sich in der Stadt ein beachtliches Cluster an Hochhäusern mittlerer Gebäudehöhe entwickelt. Zusammen mit den mittelalterlichen Kirchen St. Reinoldi und St. Petri bilden die Bürotürme die Dortmunder Skyline. Die Entwicklung erfolgt nach dem von der Stadt beschlossenen Stadtentwicklungskonzept "Dortmund 2030". Hierbei sollen einzelne Orte innerhalb der Innenstadt als Stadttore akzentuiert und kenntlich gemacht werden und so eine stark ausgeprägte Silhouette – die "City-Krone" – bilden. Weitere Hochhäuser sind das im April 1994 eröffnete Harenberg City-Center mit 19 oberirdischen und 2 unterirdischen Geschossen bei einer Höhe von 70 Metern eines der höchsten Häuser der Stadt sowie das Ellipson mit einer Höhe von 60 Metern und 17 Etagen und dem neuen Volkswohl Bund Hochhaus mit 63 Metern am Hohen Wall. Darüber hinaus bestehen am "Rheinlanddamm" und "Westfalendamm" weitere Hochhäuser wie der Florianturm mit 208 Metern, das Telekom-Hochhaus mit 88 Metern und der Westfalentower mit 86 Metern Höhe.
Das Landesoberbergamt Dortmund – ursprünglich Oberbergamt Dortmund – im Kaiserstraßenviertel entstand im Jahr 1910 nach einem Entwurf des Regierungsbaumeisters Behrendt und des Dortmunder Baurats Claren. Das repräsentative, dreigeschossige Bauwerk nebst Seitenflügel und schiefergedecktem Uhrenturm wurde während des Zweiten Weltkriegs stark beschädigt, aber nach dem Krieg weitgehend im Ursprungszustand wieder aufgebaut. Das Gebäude beherbergt die Abteilung "Bergbau und Energie in NRW" der Bezirksregierung Arnsberg.
Das Verwaltungsgebäude Union ist der ehemalige Hauptsitz der Union, AG für Bergbau, Eisen- und Stahl-Industrie an der Rheinische Straßen im Unionviertel. Der neoklassizistische Backsteinbau aus dem Jahr 1921, wurde von den Architekten Dietrich und Karl Schulze geplant und weist Ähnlichkeiten mit dem Mannesmann-Verwaltungsgebäude in Düsseldorf von Peter Behrens aus dem Jahre 1911/12 auf. Das Union-Gebäude umschließt im Inneren drei Lichthöfe. Nach außen zur Rheinischen Straße präsentiert sich das Gebäude als monumentaler Block. An der Kopfseite des Gebäudes befinden sich zehn Säulen im Stile der Neorenaissance. Oberhalb dieser Säulenreihe prangt weithin sichtbar die Inschrift „Es lobt den Mann die Arbeit und die Tat.“
Das Dortmunder U, ein denkmalgeschütztes Industriehochhaus aus dem Jahre 1926, gilt als markantes Wahrzeichen der Stadt. Auf dem Dach des ursprünglich als Brauerei genutzten Gebäudes prangt seit 1968 das neun Meter hohe beleuchtete goldene Dortmunder U als Unternehmenszeichen der Union-Brauerei. Nach dem Umzug der Brauerei in die Peripherie wurden seit 2003 alle umliegenden Gebäude abgerissen. Das Gebäude wurde nach seinem Umbau im Zuge der Ruhr.2010 ab Mai 2010 in Etappen wiedereröffnet und wird heute als Kultur- und Kreativzentrum genutzt. Auf zwei der insgesamt acht Etagen befinden sich die Ausstellungsräume des hierher umgezogenen Museums Ostwall.
Das Alte Hafenamt wurde 1899 im Stil der Neurenaissance nach Plänen von Stadtbaurat Friedrich Kullrich errichtet. Der zweigeschossige Bau mit einem zentralen Frontturm besitzt einen sechseckigen Grundriss und wurde am 11. August 1899 durch Kaiser Wilhelm II. eingeweiht. Bis 1962 war das Gebäude Sitz der Dortmunder Hafen AG. Heute beherbergt das Hafenamt die Wasserschutzpolizei und die Ausstellung Hafen und Schifffahrt mit Exponaten zur Hafengeschichte.
Das Seminargebäude der Industrie- und Handelskammer zu Dortmund wurde 1928–1930 von den Dortmunder Architekten Peter Grund & Karl Pinno entworfen und 1965 nach Planungen des Dortmunder Architekten Werner Lehmann erweitert. Der flachgedeckte mit Sandstein verkleidete Baukörper aus den 1930er Jahren erstreckt sich dabei über 100 Meter entlang der Märkischen Straße und bildet zusammen mit dem Kammergebäude aus den 1960er Jahren einen großen Vorplatz. Letzteres ist mit geschliffenen Tafeln aus Leca-Beton verkleidet und gilt in seiner architektonischen Ausprägung als Musterbeispiel seiner Bauweise.
Das Haus Schulte-Witten ist ein 1880 erbautes Herrenhaus unweit des Dortmunder Stadtzentrums im Stadtteil Dorstfeld. Archäologische Funde belegen ein Vorgebäude am gleichen Standort, das sich auf den Dreißigjährigen Krieg datieren lässt. Hinter dem Haus befindet sich ein weitläufiges Parkgelände sowie das ehemalige Wirtschafts- und Renteigebäude an. Das Haus Schulte-Witten gehört heute der Stadt Dortmund und wird als Stadtteilbibliothek und für sogenannte Ambiente-Trauungen genutzt.
Der Wasserturm des Dortmunder Südbahnhofs ist ein 43 Meter hohen alter Wasserhochbehälter am ehemaligen Bahnbetriebswerk Dortmund Süd. Er wurde zwischen 1923 und 1927 als Stahlbeton-Skelett-Bau von der Deutschen Reichsbahn errichtet und beherbergt diverse Büros von Architekten und Werbeagenturen.
Die Spielbank Hohensyburg wurde 1985 nach Plänen des Architekten Harald Deilmann und zweijähriger Bauzeit auf der Hohensyburg fertiggestellt. Deutschlands umsatzstärkstes Casino liegt oberhalb des Hengsteysees und bietet einen weitschweifenden Blick über das Ruhrtal bei Hagen.
Im Stadtwald Bittermark erinnert das Mahnmal Bittermark an die Endphaseverbrechen im Rombergpark und in der Bittermark durch die Geheime Staatspolizei.
Bedeutende Sakralbauten.
Auf Dortmunder Stadtgebiet befinden sich 63 römisch-katholische, 43 evangelische sowie weitere Kirchenbauten aus verschiedenen architektonischen Epochen. Darüber hinaus besitzt Dortmund nach Köln und Regensburg unter den deutschen Städten die drittmeisten romanischen Kirchen auf seinem Stadtgebiet.
Mit dem Bau der Reinoldikirche wurde 1250 begonnen. Die evangelische Kirche ist nach dem heiligen Reinoldus, dem Schutzpatron der Stadt benannt. Der ursprünglich 112 m hohe Turm der Reinoldikirche galt nach seiner Vollendung 1454 als „Wunder von Westfalen“. Nach Erdbebenschäden stürzte dieser 1661 ein und wurde unmittelbar wiederaufgebaut. Der Turm der Reinoldikirche mit einer heutigen Höhe von 104 m kann bis zur ersten Plattform durch den Glockenturm bestiegen werden.
Gegenüber der Reinoldikirche liegt die Marienkirche. Der wahrscheinlich älteste Gewölbebau Westfalens entstand in der zweiten Hälfte des 12. Jahrhunderts als spätromanische Pfeilerbasilika. Ende des 14. Jahrhunderts wurde ein gotischer Chor ergänzt und auch andere Bauteile gotisch erneuert, etwa die Fensterfront der Südseite. Die Kirche hatte ursprünglich zwei Türme. Das Innere der Kirche schmücken ein Marienaltar des Dortmunder Meisters Conrad von Soest aus dem Jahr 1420 und der ältere Altar des namentlich unbekannten Berswordtmeisters, der die Kreuzigung darstellt.
Auch die Petrikirche wurde am Hellweg errichtet. Der dreijochige Bau wurde im frühen 14. Jahrhundert begonnen und als gotische Hallenkirche vollendet. Im Inneren von St. Petri befindet sich das Goldene Wunder von Westfalen, ein prächtiger Flügelaltar aus dem Jahre 1521, der derzeit aufwändig restauriert wird.
Die Propsteikirche St. Johannes Baptist war die Klosterkirche des 1330 gegründeten ehemaligen Dominikanerklosters St. Johann und ist die einzige römisch-katholische Kirche in der Dortmunder Innenstadt. Zu den erhaltenen Sehenswürdigkeiten des Klosters zählt ein Altarretabel des Weseler Malers Derick Baegert aus dem 15. Jahrhundert.
Weitere Kirchenbauten in der Innenstadt sind:
Auch in den Stadtteilen gibt es zahlreiche historisch bedeutende Sakralbauten, unter anderem mehrere kleine romanische und gotische Kirchen, aber auch Beispiele für den modernen Kirchenbau. Besonders sehenswerte Bauten werden in den Artikeln der jeweiligen Stadtteile beschrieben.
Die älteste Kirche auf Dortmunder Stadtgebiet ist St. Peter zu Syburg. Die ursprüngliche Kirche wurde 776 auf der Hohensyburg durch Karl den Großen errichtet und 779 durch Papst Leo III. geweiht. Auf den Ruinen dieses Bauwerks erstand im 11. Jahrhundert die bis heute erhaltene Wehrkirche. Die Alte Kirche Wellinghofen stammt aus dem 12. Jahrhundert. Sie stand unter dem Patronat der Familie von Romberg. In der Kirche befinden sich ein romanischer Taufstein und viele Schätze mittelalterlicher Kirchenkunst. In Kirchhörde findet sich die Kleinreinoldi genannte, ebenfalls aus dem 12. Jahrhundert stammende, evangelische Patrokluskirche (Kirchhörde). Aus dem 13. Jahrhundert stammen die St.-Margareta-Kirche in Eichlinghofen, die Margaretenkapelle in Barop, die St.-Josef-Kirche in Kirchlinde und die St.-Remigius-Kirche in Mengede.
Weitere Kirchenbauten sind:
Burgen und Schlösser.
Auf dem Dortmunder Stadtgebiet befinden sich viele ehemalige Adelssitze:
Oberhalb des Zusammenflusses von Ruhr und Lenne in den Hengsteysee auf dem Rücken des Ardeygebirges liegt die historisch bedeutsame Hohensyburg. Von der sächsischen Sigiburg, deren erste urkundliche Nennung im Jahr 775 erfolgte, sind bis heute Ruinen erhalten. Auf dem Syberg findet sich weiterhin die auf das Jahr 1100 datierte historische Wehrkirche St. Peter zu Syburg, der 1857 errichtete Vincketurm und ein 1893 bis 1902 erbautes Kaiser-Wilhelm-Denkmal. Die 1985 fertiggestellte Spielbank Hohensyburg gilt als das umsatzstärkste Casino Deutschlands.
Die Hörder Burg wurde ursprünglich im 12. Jahrhundert am Hörder Bach erbaut. Sie diente lange Zeit als Gerichtssitz. Die Hörder Burg gilt als eine Wiege der Ruhrindustrie. Der Iserlohner Fabrikant Hermann Diedrich Piepenstock errichtete hier 1852 ein Puddel- und Walzwerk, die spätere Hermannshütte. Nach dem Niedergang der Montanindustrie befindet sich heute zu Füßen der Hörder Burg der Phoenix-See.
Das im 13. Jahrhundert erbaute Wasserschloss Haus Dellwig vereinigt verschiedene architektonische Stile und liegt in der hügeligen Moränenlandschaft im Dellwiger Bachtal, umgeben vom Naturschutzgebiet Dellwiger Wald. In fußläufiger Entfernung findet sich das Westfälische Industriemuseum Zeche Zollern II/IV.
Im Dortmunder Stadtteil Aplerbeck liegt das 1290 erstmals urkundlich erwähnte Wasserschloss Haus Rodenberg. Das vom Ritter Diederich von dem Rodenberge erbaute Wasserschloss gehört heute der Stadt Dortmund, wurde 1996 grundlegend saniert und dient als Seminargebäude der Volkshochschule.
Das Wasserschloss Haus Bodelschwingh wurde im 13. Jahrhundert von der Familie von Bodelschwingh errichtet und befindet sich bis heute im Familienbesitz.
Das von der Familie von Romberg im 13. Jahrhundert erbaute Schloss Brünninghausen wurde im Zweiten Weltkrieg weitgehend zerstört. An das ehemalige Wasserschloss erinnern heute das als städtische Kunstgalerie genutzte Torhaus und der ehemalige Schlosspark.
Der Rittersitz Haus Wenge wurde im 13. Jahrhundert von Goswin und Johann von der Wenge angelegt und präsentiert sich heute als einziges im Dortmunder Raum erhaltenes Adelshaus des 16. Jahrhunderts mit gotischen Formen.
Von der ehemaligen Wall- und Befestigungsanlage der freien Reichsstadt Dortmund zeugen der Adlerturm und, als vorgelagerte Warte, der Steinerne Turm.
Weitere bedeutsame Bauwerke sind:
Industriedenkmäler.
Der zunehmende Verfall und der drohende Abriss einer Vielzahl von Zeugnissen der zurückliegenden wirtschaftlichen Blütezeit mit seinen tiefgreifenden Auswirkungen, die die Industrialisierung auf das Zusammenleben der Menschen hatte, wurden von der Dortmunder Bevölkerung als existentieller Angriff auf die eigene Identität begriffen. Als einer der ersten Orte im Ruhrgebiet entstand hier der Kampf für den Erhalt des historischen Erbes der Industrialisierung und ihrer gesellschaftlicher Anerkennung. Der Ausgangspunkt der gesamten Bewegung war hierbei die Maschinenhalle der Zeche Zollern, die dank der Initiative von Hans P. Koellmann 1969 nicht wie geplant abgebrochen, sondern als erstes Industriebauwerk in Deutschland unter Denkmalschutz gestellt wurde. Im Jahr 1981 integrierte der Landschaftsverband Westfalen-Lippe die Zeche in das dezentrale Westfälische Industriemuseum. Nach und nach wurden die umliegenden Gebäude restauriert und für die Öffentlichkeit zugänglich gemacht. Neben den eindrucksvollen Bauwerken sind auch die Außenanlagen Teil des Museums. Die Kohleverladestation, der ehemalige Zechenbahnhof und ein begehbares Fördergerüst gehören zu den Attraktionen.
Die 1928 errichtete ehemalige Kokerei Hansa befindet sich seit 1995 Besitz der Stiftung Industriedenkmalpflege und Geschichtskultur. Seit 1998 sind die meisten Anlagenteile unter Denkmalschutz gestellt und das Denkmal Kokerei Hansa ist Teil der Route der Industriekultur. Die Anlage kann im Zuge von Führungen durch ehemalige Mitarbeiter und angelernte, fachkundige Begleiter erfahren werden.
Die Alte Kolonie Eving ist eine denkmalgeschützte Arbeitersiedlung im Stadtteil Eving. Die Siedlung wurde zwischen 1898 und 1899 von der Zeche Vereinigte Stein und Hardenberg für in dieser Zeit verstärkt angeworbene auswärtige Arbeiter errichtet und bestand ursprünglich aus 76 Häusern mit 270 Wohnungen.
Auf dem stillgelegten, teilweise denkmalgeschützten und zum größten Teil abgerissenen Hochofenwerk Phoenix-West südlich des Westfalenparks erinnern zwei in Teilen erhaltene Hochöfen, ein Gasometer, die sanierte und ungenutzte Gebläsehalle, das heute als Veranstaltungshalle genutzte ehemalige Reserveteillager und einige weitere Fragmente an die Industriegeschichte des Stadtteils Hörde.
Das Besucherbergwerk Graf Wittekind am Syburger Bergbauweg erlaubt einen Einblick in die Anfänge des Bergbaus im südlichen Ruhrgebiet.
Weitere industriehistorisch bedeutsame Bauten sind:
Plätze.
Wie jede Großstadt verfügt Dortmund über eine Vielzahl öffentlicher Plätze. Die Entstehungsgeschichte der verschiedenen Plätze ist dabei so unterschiedlich wie die Gestaltung. Neben der Keimzelle der Stadt wie der Alte Markt, entstanden andere während der Industrialisierung oder sind Produkt aktueller Stadtgestaltung. Die meisten liegen im Fußgängerbereich des historischen Stadtkerns.
Der Alte Markt bildet das historische Zentrum der Stadt. Um den Markt gruppierten sich im Mittelalter die historischen Zunft- und Gildenhäuser der Dortmunder Hanse-Kaufleute. Bis heute findet sich hier das Stammhaus der Privatbrauerei Dortmunder Kronen sowie die Adler Apotheke. Bis 1955 befand sich außerdem die Ruine des im Zweiten Weltkrieg zerstörten Alten Rathauses, das als das älteste steinerne Rathaus Deutschlands galt, und die Ruine der 1914 erbauten Städtischen Sparkasse, die nach dem Umzug in die Hansastraße bis 1943 als Bücherei benutzt wurde. Von beiden, ehemals prachtvollen Gebäuden, standen nach Kriegsende 1945 nur noch die Außenmauern. Heute dominiert rund um den Alten Markt die Gastronomie, die in den Sommermonaten annähernd den gesamten Platz bestuhlt. Der Alte Markt wird weiterhin häufig für Stadtfeste genutzt. Eine Besonderheit ist dabei der 1901 erbaute Bläserbrunnen, der an die Markttradition Dortmunds erinnert. Bereits im 12. Jh. wurden diese Stelle in der Stadt als Handelspunkt für Kaufleute, Handwerker und Bürger genutzt. Der Bläserbrunnen wurde dabei als Tränke für die Pferde der Markthändler angelegt. Seinen Namen bekam der Brunnen durch seine markante Figur auf seiner Mittelsäule, die von dem Berliner Prof. Gerhard Janensch geschaffen wurde. Sie soll dabei einen fahrenden Musikanten aus dem Mittelalter darstellen. 1964 wurde der Brunnen in der heutigen Form an der Ostseite des Alten Marktes angelegt, mit modernem Brunnenbecken, aber der alten Bläserfigur.
Im Südwesten an den Alte Markt anschließend befindet sich der Hansaplatz, der bis zum Ende des 19. Jahrhunderts noch Wickedeplatz hieß. Bevor dieser am Anfang des letzten Jahrhunderts zusammen mit dem Bau der Hansestraße entstand, verliefen durch diese Gegend zwei Straßenzüge mit einer dichten, kleinteiligen und dörflichen Bebauung. Anfang des 20. Jahrhunderts wurde mit dem Straßendurchbruch diese Bebauung abgebrochen und es entstanden repräsentative Neubauten wie das Althoffgebäude – heute Karstadt –, die Wandelhalle als Propstei-Arkaden, die Commerzbank und das Gebäude der ehemaligen Dresdner Bank. Heute findet auf dem Platz mittwochs, freitags und samstags der Wochenmarkt statt.
Der Friedensplatz ist der zentrale Veranstaltungsplatz der Stadt. Am Friedensplatz befinden sich wichtige städtische Einrichtungen wie das Rathaus, das aus rotem Sandstein erbaute Alte Stadthaus, die Berswordt-Halle, das Neue Stadthaus sowie die städtische Dortmund-Agentur. In der Mitte des Platzes ragt die Friedenssäule in den Himmel.
Rund um die Reinoldikirche liegen der Willy-Brandt-Platz, der Reinoldikirchplatz und der Platz von Leeds mit viel Außengastronomie. Letzterer ist dabei einer von insgesamt fünf Plätzen in der Dortmunder Innenstadt, die nach einer Partnerstadt benannt sind. Weitere Plätze sind dabei der Platz von Buffalo, Platz von Amiens, Platz Rostow am Don und Platz von Netanya.
In der planmäßig angelegten Nordstadt sah der damalige Stadtbaumeister Brandhoff bereits 1858 elf „Schmuckplätze“ vor. Realisiert wurden der Borsigplatz, die Wiege des Ballspielvereins Borussia Dortmund, der Nordmarkt, der Hackländerplatz und der Freiherr-vom-Stein-Platz, bis 1990 Steinplatz. Hinzu kommt der Fredenbaumplatz als Zentraler Festplatz der Stadt an der Eberstraße.
Urbane Viertel.
Die Dortmunder Innenstadt wurde im Zweiten Weltkrieg weitgehend zerstört. In den benachbarten Stadtvierteln, die meist zur Gründerzeit in urbaner Blockrandbebauung entstanden, haben sich zahlreiche Altbauten und eine lokale Stadtteilkultur erhalten.
Das Kreuzviertel im Südwesten der Innenstadt wurde zwischen 1904 und 1908 vom Beamten-Wohnungsverein bebaut und gilt noch heute als ein Wohnviertel der oberen Mittelschicht. Als Standort der Fachhochschule Dortmund und mit Nähe zur Universität ist das Kreuzviertel bei Studenten sehr beliebt. Im Stadtviertel macht sich dies durch eine vielfältige Szene von Cafés und Kneipen, vielfach mit Außengastronomie, bemerkbar. Die Kneipendichte zählt zu den höchsten im gesamten Ruhrgebiet. Bei Wahlen erzielen die Grünen im Kreuzviertel die höchsten Stimmenanteile in Dortmund.
Die Nordstadt wurde zwischen 1858 und 1913 als Arbeiterviertel errichtet und wird heute überwiegend von Migranten bewohnt, welche meist dort arbeiten oder ihre Geschäfte eröffnet haben. Nördlich des Dortmunder Hauptbahnhofs gelegen, ist die Nordstadt das größte zusammenhängende Gründerzeitviertel Nordrhein-Westfalens. Die Münsterstraße im Zentrum der Nordstadt ist eine Wohn- und Einkaufsstraße mit dem Motto „Dortmunds lebendiges Pflaster“. Sie ist durch die Mischung der Gastronomie aus verschiedensten Ländern bekannt geworden und besitzt touristisches Potenzial. Es gibt rund 150 Einzelhandels-, Gastronomie- und Dienstleistungsbetriebe aus verschiedensten Ländern und Kulturkreisen, das Münsterstraßenfest findet jährlich dort statt. Außerdem ist in der Nähe die Zentralmoschee Dortmund. Die Schützenstraße im Hafenviertel hat eine ähnliche Struktur mit multikultureller Gastronomie. Borsigplatz, Hoesch-Viertel und Hoesch-Park tragen die industrielle Entstehung des Stadtbezirks noch im Namen.
Das Kaiserviertel, aufgrund der gleichnamigen Geschäftsstraße auch "Kaiserstraßenviertel" genannt, befindet sich östlich der ehemaligen Wallanlagen Dortmunds und ist der judikativer Schwerpunkt der Stadt. Neben dem Amtsgericht und Landgericht sind auch das italienische und südafrikanische Konsulat sowie das Landesoberbergamt hier angesiedelt. Inzwischen werden hier aufgrund vieler Gründerzeitbauten und Unternehmervillen die höchsten Miet- und Immobilienpreise innerhalb der Dortmunder Innenstadt erzielt. Der historische Kaiserbrunnen ist heute der Mittelpunkt des lebendigen Viertels mit vielen inhabergeführten Einzelhandelsgeschäften, Freiberuflern, Bars, Cafés und Restaurants.
Das Brückstraßenviertel ist der letzte Teil der Innenstadt, dessen Straßennetz aus der Vorkriegszeit erhalten geblieben ist. Als Kinomeile und Standort zahlreicher Diskotheken hatte die Brückstraße ein zwielichtiges Image. Auch eine über die Stadt hinaus bekannte offene Drogenszene war bis Mitte der 1990er Jahre hier aktiv. Mit der Ansiedlung hochwertiger kultureller Einrichtungen (Konzerthaus, Volkshochschule und Orchesterzentrum NRW) und einem Quartiersmanagement durch die Stadt konnte hier eine gegenläufige Entwicklung eingeleitet werden. Heute präsentiert sich die Brückstraße als moderne, hochfrequentierte Einkaufsstraße mit einem multikulturellen Hintergrund als auch ein aktives Nachtleben mit Bars und Szenekneipen.
Parks und Grünflächen.
1897 entstanden aus einem patriotischen Zeitgeist überall im Ruhrgebiet sogenannte Kaisergärten, etwa in Oberhausen. Der Dortmunder Kaiserhain lag südlich der Bundesstraße 1. Auf diesem Gelände entstand 1959 zur Bundesgartenschau der Westfalenpark mit dem Deutschen Rosarium und dem Florianturm. In dem 75 Hektar großen Park fanden 1969 und 1991 weitere Bundesgartenschauen statt.
Etwa zwei Kilometer südlich, auf dem Gelände des Schlossparks des ehemaligen Schlosses Brünninghausen, findet sich der etwa 65 Hektar große Rombergpark. Er entstand als Botanischer und Englischer Landschaftsgarten und ist insbesondere für seine Gehölzsammlung bekannt. Als Besonderheit finden sich in dem naturnah belassenen Park ein Heilkräutergarten sowie eine künstliche Moor-Heide-Landschaft.
Das Gelände zwischen Westfalenpark und Rombergpark, früher Standort des Stahlwerks Phoenix-West, wird momentan renaturiert. Das Zusammenwachsen der beiden großen Dortmunder Parks wird damit vorbereitet.
Auch der Dortmunder Zoo gehört zu dieser großen städtischen Grünfläche. Am südlichen Ende des Rombergparks liegt der früher als „Tierpark Dortmund“ bekannte Zoo. Auf einer Gesamtfläche von 28 Hektar finden sich 1.840 Tiere in 265 Arten. Schwerpunkt des Zoos sind Haltung und Zucht südamerikanischer Tierarten.
Die größte Dortmunder Grünanlage ist mit 135 Hektar der weiterhin als Friedhof genutzte Hauptfriedhof. Auf dem im historistischen Stil entstandenen Friedhof finden sich große, freie Rasenflächen, landschaftsarchitektonisch interessante Sichtachsen und alter Baumbestand.
Der innenstadtnahe Ostenfriedhof verfügt über alten Baumbestand und eine Vielzahl historischer Gräber berühmter Dortmunder Bürger.
In der Dortmunder Nordstadt lädt der Fredenbaumpark auf dem Gelände des ehemaligen Stadtwalds Westerholt und der Freizeitanlage Lunapark auf 63 Hektar zu ausgedehnten Spaziergängen und Erholung ein. Eine Öffnung des Fredenbaumparks zum Wasser wurde 2007 mit URBAN-II-Mitteln realisiert. Im Nordwesten wurde der Park zum Dortmund-Ems-Kanal und den dortigen Ruderhäusern ausgeweitet.
Auch der Hoeschpark liegt im Dortmunder Norden. In der 1937 vom Reichsarbeitsdienst in unmittelbarer Nähe der Westfalenhütte und des Borsigplatzes angelegten Grünanlage finden sich zahlreiche Sportanlagen und das Warmwasserfreibad Stockheide. Nach dem Verkauf durch den Thyssen-Konzern an die Stadt wird der Park momentan saniert und wieder hergerichtet.
Der 1811 als Westentotenhof in der westlichen Innenstadt angelegte Westpark lädt mit Biergarten und Boulebahnen zum sommerlichen Verweilen ein. Ebenso wie der nahe gelegene Tremoniapark auf dem Gelände der ehemaligen Zeche Tremonia, dessen große Wiese als Liegewiese und Fußballplatz genutzt wird. Beide Grünanlagen werden insbesondere von der jüngeren Bevölkerung als Treffpunkt für Erholung und freundschaftliches Beisammensein genutzt.
Auch der Revierpark Wischlingen und das Naturschutzgebiet Hallerey liegen im Westen der Stadt.
Von der Volksgartenbewegung Ende des 18. Jahrhunderts zeugen die Volksgärten Mengede und Lütgendortmund.
In der Dortmunder Peripherie an den Grenzen zu Sauerland und Münsterland liegen die ausgedehnten Waldgebiete Bolmke, Stadtwald Bittermark, Schwerter Wald, Niederhofer Wald, Grävingholz, Kurler Busch, Rahmer Wald und das Wannebachtal. Ein wichtiges Naherholungsgebiet ist auch der Ortsteil Syburg mit Burgruinen, dem Kaiser-Wilhelm-Denkmal, dem Spielcasino, einer Naturbühne und einem Lehrpfad zur Bergbaugeschichte. Südlich der Hohensyburg fällt das Gelände steil zum Hengsteysee mit Bootsrevieren und Wanderwegen ab.
Sportstätten.
Nachdem die ersten Pferderennen bereits 1887 an der Hobertsburg am Fredenbaum stattgefunden hatten, wurde 1913 die Galopprennbahn Dortmund mit einer Sand- und Rasenbahn in Wambel eröffnet. Die historische Rennbahn ist Austragungsort des Deutschen St. Leger.
Die erste Sportstätte des Ballspielvereins Borussia Dortmund (BVB) war die Weiße Wiese an der Westfalenhütte im Dortmunder Norden. Dieses erste Stadion der Borussia bot 1924 als Sportpark Borussia Platz für 18.000 Zuschauer. 1937 wurde das Sportgelände von den Nationalsozialisten enteignet und der Reichsarbeitsdienst begann hier mit der Errichtung des Hoeschparks. An die Weiße Wiese erinnert heute nur noch eine Gedenktafel im Freibad Stockheide nahe dem Hoeschpark.
Die 1926 neu erbaute Kampfbahn Rote Erde im bürgerlichen Süden der Stadt wurde neue Spielstätte des BVB. Das Stadion Rote Erde war Teil des Volksparks Dortmund und beruhte auf der städtebaulichen Planung des Baurats Hans Strobel. Zum Dortmunder Volkspark gehörten zur damaligen Zeit ebenfalls die Westfalenhalle, die Rosenterrassen und das seit 2007 unter Denkmalschutz stehende Volksbad Dortmund unmittelbar südlich der alten Reichsstraße 1. Seine großen Zeiten erlebte das Stadion Rote Erde mit den Erfolgen der Borussia Mitte der 1960er Jahre. Mit hölzernen Behelfstribünen wurde die Zuschauerkapazität auf 42.000 Menschen angehoben. Nach dem Umzug Borussia Dortmunds in das Westfalenstadion, diente die Rote Erde bis in die 1990er Jahre als Trainingsstätte für die Profimannschaft des BVB. Heute dient das Stadion, mit einer Kapazität von 25.000 Zuschauern, als Leichtathletikstadion und ist Austragungsort nationaler und internationaler Wettkämpfe. Außerdem dient es als Spielstätte für die in der 3. Liga spielende zweite Mannschaft von Borussia Dortmund.
Zur Fußball-Weltmeisterschaft 1974 wurde das Westfalenstadion mit einer Kapazität von 54.000 Zuschauern neu errichtet. Ein reines Fußballstadion im Stil der 1970er Jahre aus Beton, und doch wurde es von der Bevölkerung und den Fans enthusiastisch angenommen. Trotz ausbleibender Erfolge der Borussia und einer Zeit in der Zweiten Bundesliga wurden Besucherrekorde gefeiert. Mit den Erfolgen Borussia Dortmunds Mitte der 1990er Jahre begann der sukzessive Ausbau des „Fußballtempels“. Das Westfalenstadion ist heute mit einer Zuschauerkapazität von 81.360 (bei internationalen Spielen 65.851) Zuschauern das größte Fußballstadion Deutschlands. Eine Besonderheit und äußerst sehenswert ist die Südtribüne. Als größte Stehplatztribüne Europas ist sie die Heimat der Fans der Borussia. Auch 2006 war das Stadion Spielstätte bei der Weltmeisterschaft. In Dortmund fanden sechs Spiele inklusive einer Achtel- und einer Halbfinalbegegnung statt. Die Kapazität wurde für alle sechs Spiele aus Sicherheitsgründen auf 60.285 (alles Sitzplätze) reduziert. Das Stadion war nach dem Olympiastadion Berlin die zweitgrößte Spielstätte der Weltmeisterschaft.
Die Westfalenhalle wurde als hölzerne Rundhalle durch Baurat Strobel in den 1920er Jahren errichtet. Mit einer Kapazität von 15.000 Zuschauern war sie zeitweilig das größte Hallengebäude Europas. Legendär ist der Weltmeisterschaftskampf von Max Schmeling im Jahre 1927. Im Zweiten Weltkrieg wurde die Halle als Kriegsgefangenenlager missbraucht, bei der Bombardierung der Halle durch die Alliierten kamen zahlreiche Gefangene ums Leben. Schon kurz nach dem Krieg wurde die Halle neu errichtet. 1952 wurde die neue Halle, erbaut als freitragende Dachkonstruktion mit einer Kapazität von 20.000 Zuschauern, durch Bundespräsident Theodor Heuss ihrer Bestimmung übergeben. Heute ist die Halle Teil des Messezentrums Westfalenhallen mit insgesamt neun Veranstaltungshallen.
Der Bundesstützpunkt Dortmund am Dortmund-Ems-Kanal ist nationale Trainingsstätte für den Rudersport. In den Gebäuden des Ruderclub Hansa von 1898 trainieren Teile der Nationalmannschaft des Deutschen Ruderverbandes (DRV) für internationale Wettkämpfe.
Theater.
Das 1904 gegründete Theater Dortmund bietet Oper, Ballett, Schauspiel und ein Kinder- und Jugendtheater. Auf dem Gelände der alten Synagoge wurden nach dem Zweiten Weltkrieg die Spielstätten Opernhaus, Schauspielhaus und die Studiobühne neu errichtet und galten als wichtiges Symbol des Wiederaufbaus der kriegszerstörten Stadt. Ein Gedenkstein vor dem Opernhaus erinnert an die Zerstörung der Synagoge im Jahr 1938. Das Kinder- und Jugendtheater „Theater Sckellstraße“ hat seine Spielstätte an der gleichnamigen Straße in unmittelbarer Nähe des Westfalenparks. In den nächsten ist es geplant den Standort zu schließen und das Kinder- und Jugendtheater in die Innenstadt zu verlagern. Ziel ist es mit der „Jungen Bühne Westfalen“ bzw. dem Kinder- und Jugendtheater am Hohen Wall einen großen Oper-Theater-Komplex entstehen zu lassen, der alle Bühnen an einem zentralen Ort vereinigt.
Das Ensemble Fletch Bizzel wurde 1979 gegründet. Seit 1985 verfügt das Theater Fletch Bizzel über eine eigene Bühne am Alfons-Spielhoff-Platz. Neben eigenen Inszenierungen des Ensembles werden im Theater regelmäßig Kindertheater- und Puppentheaterproduktionen gezeigt. Zum Theater gehören eine Galerie und eine Kulturwerkstatt, die als Weiterbildungsstätte im Bereich Theater, Tanz und Gesang dient. Die bekannteste Produktion des Theaters ist die alljährlich in der Zeche Zollern stattfinde Veranstaltungsreihe Geierabend.
In einem ehemaligen Straßenbahndepot an der Immermannstraße in der Dortmunder Nordstadt hat das Theater im Depot seine Spielstätte gefunden. Die sich als Zentrum der freien Theaterkunst verstehende Bühne bietet seit Januar 2001 zum großen Teil Eigenproduktionen, aber auch andere freie Theatergruppen ohne eigene Spielstätte finden hier ein Zuhause. Eine Theaterwerkstatt mit Kursen und Workshops für Amateure und Laienschauspieler rundet das Programm ab.
Das private Theater Olpketal ist die Heimatbühne des Dortmunder Originals Bruno Knust, genannt Günna. Der aus Funk und Fernsehen bekannte Günna widmet sich in seinen mit viel Lokalkolorit gewürzten Produktionen immer wieder den Themen Ruhrgebiet, den Bewohnern dieser Region sowie dem Fußball. Er ist ebenfalls Autor regelmäßiger Kolumnen in den Ruhr Nachrichten.
Über die landschaftlich schönste Spielstätte verfügt die Naturbühne Hohensyburg mitten im Syburger Wald am Fuße der Hohensyburg. Seit 1952 werden hier in den Sommermonaten unterschiedliche Inszenierungen für große und kleine Theaterfreunde von Laienschauspielern aufgeführt. Seit 2003 wird in den Wintermonaten die Spielsaison im Studio der Naturbühne fortgesetzt.
Die „Schule für Tanzkunst“ bildet das Tanztheater Cordula Nolte. In einer historischen Turnhalle an der Rheinischen Straße finden seit 1998 regelmäßig Tanztheaterinszenierungen auf einer privaten Studiobühne statt.
Das Roto-Theater im Herzen der Dortmunder Nordstadt legt neben musikalischen Inszenierungen und Komödien seinen Schwerpunkt auf literarische Programme.
Das Hansa Theater ist ein Theater im Dortmunder Stadtteil Hörde. Hier werden insbesondere musikalische Revuen, Musicals und Kabarett gezeigt.
Das mit nur 45 Plätzen kleinste Dortmunder Theater ist das Nostalgische Puppentheater im Westfalenpark.
Weitere Dortmunder Spielstätten sind:
Musik.
Baulichkeiten und Einrichtungen.
Das 2002 eröffnete, neu erbaute Konzerthaus Dortmund gilt als Leuchtturmprojekt der Dortmunder Musikkultur. Darüber hinaus zählt es seit dem Jahr 2014 zum europäischen Spitzenverband der European Concert Hall Organisation (ECHO). Das in einer modernen Stahl-Glas-Architektur errichtete Konzerthaus verfügt über 1500 Plätze und gilt als Klangkörper mit einer herausragenden Akustik.
Die Dortmunder Philharmoniker wurden im Jahr 1887 gegründet. Das Ensemble tritt auf der Bühne des Konzerthaus Dortmund und im städtischen Opernhaus auf. Daneben werden Gastspiele durchgeführt.
Das 1968 von der Stadt Dortmund eröffnete Freizeitzentrum West (FZW) bietet jährlich über 250 Veranstaltungen für verschiedene jugendliche Subkulturen und musikalische Szenen. Im FZW spielen neben regionalen Größen regelmäßig internationale Künstler verschiedener Musikrichtungen. Als einer der ersten Clubs Deutschlands erkannte das FZW früh den Bedarf mittelalter Menschen an guter Musik und Tanz und gründete den Club30. Das Electronic Music Festival Juicy Beats hat in der Clubkultur des FZW seinen Ursprung.
Seit 1969 existiert der Jazzclub domicil. Ursprünglich in den Kellerräumen einer Kindertagesstätte beheimatet, fand dieser 2005 eine Heimat im früheren Studio-Kino im Westfalenhaus an der Hansastraße. Der als Verein organisierte Jazzclub veranstaltete in seiner Geschichte unzählige Konzertveranstaltungen mit regionalen und internationalen Interpreten. Die Webseite des Clubs verfügt über ein umfangreiches Veranstaltungsarchiv. Der WDR und der Deutschlandfunk nutzen den Club regelmäßig zu Konzertmitschnitten. Das renommierte New Yorker Jazzmagazin Down Beat zählt das domicil zu den 100 besten Jazzclubs der Welt.
Das Jugendjazzorchester NRW wird 1975 mit dem Ziel der Nachwuchsförderung als erstes Jugendjazzorchester Deutschlands etabliert. Von den mittlerweile mehr als 500 Künstlern, die im JugendJazzOrchester ihre ersten Meriten sammelten, hat gut ein Drittel den Weg des professionellen Musikers eingeschlagen.
Auf eine mittlerweile mehr als 50-jährige Geschichte konnte die Jazzband Siggi Gerhard-Swingtett zurückblicken. Im 1948 gegründeten Hot Club Dortmund fanden Siggi Gerhard und Hilbert Homberg zueinander und gründeten die bis 2013 bestehende Formation, die mit ihrem eingängigen Swing große Popularität und Auftritte im WDR und beim Deutschen Jazzfestival hatte.
Der Ausbildung von Musikern widmet sich die Musikschule Dortmund. 1951 als Jugendmusikschule gegründet, blickt die Musikschule Dortmund auf eine lange Geschichte zurück. Unter der Leitung von Direktor Stefan Prophet unterrichten 250 Musikpädagogen im Hauptgebäude an der Steinstraße sowie in über 100 Außenstellen im gesamten Stadtgebiet Kinder, Jugendliche und Erwachsene (13.000 Belegungen). Die Musikschule Dortmund weist ein Produktportfolio in fünf Angebotssäulen auf: „MusikschulStart“, „Angebote in Schulen“, „Instrumental- und Vokalunterricht“, „House of Pop“ mit Glen Buschmann Jazz Akademie und Pop School sowie „Projekte, Wettbewerbe, Veranstaltungen“.
Der Internationale Schubert-Wettbewerb für Pianisten wird seit 1987 veranstaltet.
Bands und Interpreten.
Cochise war eine Band aus Dortmund, die sich Ende der 1970er Jahre bis Ende der 1980er Jahre mit politischen Pop und Folksongs einen Namen machte und vor allem in der linksalternativen Szene der Neuen Sozialen Bewegungen populär war.
Die Conditors waren eine Rockband aus Dortmund, die in den 1980er Jahren Bekanntheit erlangte. Ihr Stil war bei Rock und New Wave einzuordnen.
Heute wird die vielfältige unabhängige Musikszene durch Bands und Interpreten wie Cosmo Klein, Sasha, Too Strong, Orange but Green oder Axxis deutschlandweit wahrgenommen.
Chöre.
Dortmund verfügt eine Vielzahl von Chören, die teilweise im Verband Deutscher Konzertchöre oder im Chorverband Nordrhein-Westfalen Mitglied sind. Der Dortmunder Oratorienchor wurde 1899 als „Lehrer-Gesangverein Dortmund“ gegründet und gab seinen ersten musikalischen Vortrag zur Eröffnung des Dortmunder Hafens in Anwesenheit von Kaiser Wilhelm. Seit 1905 besteht eine Zusammenarbeit mit dem Philharmonischen Orchester Dortmund. Während der nationalsozialistischen Diktatur werden viele Mitglieder des Chores aufgrund ihrer jüdischen Abstammung ausgeschlossen und die Kriegswirren bedeuten das vorläufige Ende des Chors. Erst 1957 findet der Lehrerchor wieder zusammen und wird mangels sangesfreudiger Lehrer 1986 zum Dortmunder Oratorienchor. Das Repertoire des Chores umfasst klassische Musik von Bach bis Vivaldi.
Unmittelbar nach dem Zweiten Weltkrieg wurde 1946 im zerbombten Dortmund von Emil Rabe der Dortmunder Kammerchor aus der Taufe gehoben. Auf zahlreichen Auslandsreisen errang der Chor eine Vielzahl von internationalen Auszeichnungen, so zum Beispiel im Jahre 1954 den „Großen Preis der Republik Irland“. Der Dortmunder Kammerchor wurde bereits viermal mit dem Titel Meisterchor des Sängerbundes Nordrhein-Westfalen ausgezeichnet.
Die Chorakademie am Konzerthaus Dortmund ist europaweit eine der größten Singschulen ihrer Art. Sie betreut um die 1300 Sänger, die in mehr als 30 verschiedenen Chorensembles singen. In Dortmund besteht sie aus 17 Kinderchören und acht Chören im Leistungsbereich. Weitere Standorte gibt es in Essen und Gelsenkirchen mit jeweils sechs Kinderchören.
Weitere Dortmunder Chöre sind folgende:
Museen.
Das 1947 gegründete Museum Ostwall im Dortmunder U für moderne und zeitgenössische Kunst sammelt Gemälde, Skulpturen, Objekte, Fotos des 20. Jahrhunderts. Es beherbergt die größte Sammlung von Werken des Malers Alexej von Jawlensky in Deutschland sowie die Sammlung "Die Brücke" aus dem Umfeld des "Blauen Reiters". Zudem wurden Anfang der 1990er Jahre über 1000 Arbeiten von Marcel Duchamp bis Joseph Beuys, von Günther Uecker bis Jean Tinguely aus der Sammlung von Siegfried Cremer erworben, die einen weiteren Schwerpunkt des Museums bilden (Informelle Kunst, ZERO und Fluxus).
Das Museum für Kunst und Kulturgeschichte findet sich heute in einem 1924 von Hugo Steinbach als Städtische Sparkasse erbauten Art-déco-Bau. Die Sammlung des Museums gibt anhand von Gemälden, Skulpturen, Möbeln und Kunsthandwerk einen Einblick in die Kulturgeschichte der Stadt. Zeitlich umfasst die Sammlung Exponate der Ur- und Frühgeschichte bis hin zu Exponaten des 20. Jahrhunderts. Der Förderkreis Vermessungstechnisches Museum e. V. unterhält eine ständige Ausstellung zur Geschichte des Vermessungswesens und präsentiert seltene geodätische Instrumente. Die Räumlichkeiten des Museums werden regelmäßig zur Präsentation von überregional bedeutenden Kunst- und Kulturausstellungen genutzt.
Das Museum Adlerturm beherbergt eine Ausstellung zur mittelalterlichen Stadtgeschichte. Zu sehen sind Ausgrabungsfunde und ein Modell der mittelalterlichen Stadt. Zeitgenössische Darstellungen, historische Waffen und Gebrauchsgegenstände veranschaulichen das Erscheinungsbild Dortmunds im Verlauf der vergangenen Jahrhunderte.
Das Naturmuseum Dortmund wurde 1912 gegründet. Es soll seinen Besuchern die Geologie und Erdgeschichte sowie die heimische Tier- und Pflanzenwelt näher bringen. Höhepunkte sind ein Mineralien-Kabinett mit einer Bergkristall-Gruppe, ein Besucher-Schaubergwerk und ein etwa 90.000 Liter großes Aquarium, in dem die Fischwelt des Möhnesees zu sehen ist. Dieses Aquarium ersetzte 2012 ein etwa 72.000 Liter fassendes aus dem Jahre 1980, in dem tropische Süßwasserfische aus Mittel- und Südamerika lebten.
Im Mittelpunkt des Deutschen Kochbuchmuseums Dortmund steht die Kochbuchautorin Henriette Davidis, die von 1856 bis 1876 in Dortmund lebte. Das Museum möchte anhand der ausgestellten Exponate Gesellschaftsleben und Küchentechnik, Sozialunterschiede und Tischkultur des 19. Jahrhunderts erlebbar machen.
1910 als Einrichtung zur Lehrerfortbildung und als Lehrmittel-Schausammlung gegründet, blickt das Westfälische Schulmuseum auf eine traditionsreiche Geschichte zurück. Das Museum beherbergt eine der bedeutendsten schulhistorischen Sammlungen in Deutschland und besticht durch ein umfangreiches museumspädagogisches Programm.
Das LWL-Industriemuseum hat seine Zentrale auf der Zeche Zollern II/IV, einem Ankerpunkt der Europäischen Route der Industriekultur (ERIH). Die 1903 fertiggestellte Musterzeche der Gelsenkirchener Bergwerks-AG wurde im Jugendstil erbaut und trägt Züge norddeutscher Backstein-Gotik. Das Jugendstilportal rettete die Halle 1969 vor dem drohenden Abriss und machte sie damit zum Pionierbau der Industriedenkmalpflege in Deutschland. Heute ist in Zeche Zollern das "Museum der Sozial- und Kulturgeschichte des Ruhrbergbaus".
Die 1992 stillgelegte Kokerei Hansa bietet als begehbare Großskulptur faszinierende Einblicke in die Geschichte der Schwerindustrie des vergangenen Jahrhunderts. Auf einem Erlebnispfad Natur und Technik können Besucher die unter Denkmalschutz stehenden Produktionsbereiche der Kokerei begehen. Herausragend ist eine erhaltene Maschinenhalle mit fünf Gaskompressoren der Demag. Hansa ist Sitz der Stiftung Industriedenkmalpflege und Geschichtskultur.
Das 2005 wiedereröffnete Hoesch-Museum findet sich im ehemaligen Portierhaus I der Westfalenhütte. Das durch die Zusammenarbeit ehemaliger „Hoeschianer“, dem Museum für Kunst und Kulturgeschichte und der Stiftung Westfälisches Wirtschaftsarchiv entstandene Museum zeigt die Bedeutung des Unternehmens Hoesch AG für die Stadt auf und präsentiert die Industriegeschichte der Stahlindustrie von 1871 bis zum Niedergang Ende des 20. Jahrhunderts.
Die DASA – Arbeitswelt Ausstellung ist ein 1993 gegründetes technisches Museum im Dortmunder Stadtteil Dorstfeld in der Nähe der Technischen Universität Dortmund. Die Ausstellung zeigt auf etwa 13.000 m² Ausstellungsfläche moderne und vergangene Technik-Welten. Die Technik wird dabei nicht als Selbstzweck dargestellt, sondern immer der Bezug zum damit arbeitenden Menschen hergestellt.
Die Steinwache in Dortmund ist eine Mahn- und Gedenkstätte an die Gräuel der Zeit des Nationalsozialismus und beherbergt die ständige Ausstellung „Widerstand und Verfolgung in Dortmund 1933–1945“ des Dortmunder Stadtarchivs.
Im April 2006 wurde das Brauerei-Museum Dortmund wiedereröffnet. Untergebracht im historischen Maschinenhaus der ehemaligen Hansa-Brauerei mit angrenzender Produktionshalle aus den 1960er Jahren gibt das Museum einen Überblick über die Brauhistorie der Stadt.
Die Ausstellung Hafen und Schifffahrt im Alten Hafenamt informiert anhand von Schiffs- und Hafenmodellen über das Schifffahrtswesen und die moderne Hafenwirtschaft.
Seit dem 19. Dezember 2008, dem 99. Geburtstag von Borussia Dortmund, befindet sich in der Nordostecke des Signal Iduna Parks das Borusseum, ein Museum rund um die Geschichte des Vereins.
Das Deutsche Fußballmuseum ist das offizielle nationale Fußballmuseum des Deutschen Fußball-Bundes (DFB) und wurde am 23. Oktober 2015 eröffnet. Das Gebäude in unmittelbarer Nähe zum Hauptbahnhof wurde von 'HPP Hentrich-Petschnigg + Partner' aus Düsseldorf konzipiert und gliedert sich in die Dortmunder Kunst- und Kulturmeile ein. Inhaltlich ist es ein Erinnerungs- und Erfahrungsort der deutschen Fußballgeschichte. Dabei steht die Information über fußballhistorische Ereignisse und die Entwicklung des Sports in all seinen Facetten ebenso im Mittelpunkt wie soziale und gesellschaftliche Themen rund um den Fußballsport.
In der Wißstraße 11 befindet sich auf 300 Quadratmetern das privat geführt Apotheken-Museum. Es ist mit weit über 10.000 Exponaten die größte private pharmaziehistorische Sammlung Deutschlands.
Das Magnetmuseum ist ein privates Museum des Unternehmens Tridelta. Die Ausstellung gibt einen Überblick über historische und aktuelle Anwendungen von Dauermagneten in der Elektrotechnik. In dem Museum wird der Einsatz von Dauermagneten in Zählern, Lautsprechern, Telefonen, Schaltern, Relais, Uhren, Messgeräten, Kleinmotoren und Generatoren beleuchtet.
Das Nahverkehrsmuseum ist im Stadtteil Nette beheimatet und zeigt Exponate aus dem Bestand der Dortmunder Stadtwerke AG und ihrer Vorgängergesellschaften.
Das Deutsche Industrielack-Museum liegt im Dortmunder Hafen und möchte seinen Besuchern den Industrielack mit all seinen Facetten näher bringen.
Der Eintritt in die städtischen Museen ist ab dem 1. Januar 2019 frei.
Weitere Museen der Stadt sind:
Kunst im öffentlichen Raum.
Über 660 verschiedene Werke stehen im öffentlichen Raum der Stadt Dortmund verteilt – Kunst der letzten 150 Jahre. Von Skulpturen, Plastiken, Pflasterstein, Malereien, Mosaiken, Industrierelikten, Skulpturen oder Brunnen. Neben Denkmälern wie dem Löwendenkmal und dem Schüchtermanndenkmal entstanden seit Mitte der 1980er Jahre in der Innenstadt durch den Umbau der Kleppingstraße und Kampstraße unter anderem drei große Brunnenanlagen, künstlerisch gestaltete U-Bahn-Stationen, Spielplätze und Plastiken wie der „Chip“ am Platz von Amiens, der sich nach seiner Aufstellung zum Treffpunkt vor allem junger Leute entwickelt hat.
Besonders hervorzuheben ist der Europabrunnen an der Kleppingstraße, der von Joachim Schmettau entworfen und 1989 in Granit und Bronze ausgeführt wurde. Um den Europabrunnen ist mittlerweile entlang der gesamten Kleppingstraße eine rege Straßencafé-Szene entstanden. Ein weiterer Anziehungspunkt ist der Gauklerbrunnen im Zentrum des Stadtgarten. Der von Prof. Eberhard Linke zum 1125-jährigen Stadtjubiläum entworfene Gauklerbrunnen ist etwa 30 Meter lang und 12 Meter breit und überwindet dabei eine Höhendifferenz von 4 Metern. Das Wasser fließt in Kaskaden vom Quellbecken in das untere Brunnenbecken. Hier stehen die namensgebenden, bronzenen Gauklerfiguren, die das Brunnenwasser auf unterschiedliche Art versprühen.
Innerhalb des Wallrings und darüber hinaus steht außerdem das Kunstprojekt Dortmunder Nashorn. Das Nashorn mit Flügeln ("Rhinoceros alatus") ist das Wappentier des Dortmunder Konzerthauses. Dutzende unterschiedlich gestaltete Varianten wurden bei einer Kunstaktion im Stadtraum in Zusammenarbeit mit lokalen Künstlern und Jugendgruppen an markanten Stadtpunkten aufgestellt.
Seit 2003 werden auch in Dortmund durch den Künstler Gunter Demnig Stolpersteine für Opfer des Nationalsozialismus verlegt. Bis zum Sommer 2014 waren rund 200 Steine in zahlreichen Stadtteilen gesetzt.
Galerien.
Das Künstlerhaus Dortmund wird seit 1983 von Künstlern in Selbstorganisation geführt und als Ausstellungsort für zeitgenössische und experimentelle Kunst genutzt. Es befindet sich in der Dortmunder Nordstadt in einem ehemaligen Betriebsgebäude der Zeche Vereinigte Westphalia.
Der Dortmunder Kunstverein wurde 1984 gegründet und hat seinen Sitz in der Volkshochschule. Das Ausstellungsprogramm umfasst jährlich vier bis sechs Präsentationen zeitgenössischer junger Kunst aus den unterschiedlichsten Bereichen wie Malerei, Zeichnung, Bildhauerei, Fotografie oder Videokunst.
Auch das Torhaus Rombergpark des ehemaligen Schlosses Brünninghausen der Familie von Romberg wird als städtische Galerie genutzt.
Kino, Filmwesen und Fernsehen.
Am Nordausgang des Dortmunder Hauptbahnhofs befindet sich ein Multiplex-Kino der Cinestar-Gruppe. Auf der ehemaligen Kinomeile Brückstraße ist als letztes Kino an der Brückstraße das unabhängige Lichtspieltheater Schauburg erhalten geblieben. Im Dortmunder U befindet sich ebenfalls ein Kino, in dem regelmäßig ein anspruchsvolles Film-Programm gezeigt wird. In der Nordstadt sind die Programmkinos Roxy, Camera und sweetSixteen. Im Stadtteil Aplerbeck existiert außerdem die „Filmbühne Zur Postkutsche“ als einziges verbliebenes Vorort-Kino in Dortmund.
Im Jahr 2013 veröffentlichten Theater- und Filmschaffende in Dortmund das Manifest "Dogma 20 13", das eine Weiterentwicklung des Dogmas 95 fordert.
Mit der WAM-Medienakademie und dem Studiengang Film & Sound des Fachbereichs Design an der Fachhochschule Dortmund ist Dortmund auch eine Ausbildungsstätte für Filmschaffende. Zu nennen ist auch der Hartware Medienkunstverein, der 60 Mitglieder zählende Filmklub Dortmund (BDFA-Mitglied), das WDR-Landesstudio Dortmund, der Lernsender NRWision und das Sat.1-NRW-Studio. Von 1997 bis 2012 war zudem der Filmrechteverwerter e-m-s new media hier aktiv.
In Dortmund werden eine Reihe Filmfestivals veranstaltet, darunter das XXS Dortmunder Kurzfilmfestival, das Internationale Frauenfilmfestival Dortmund/Köln, oder das seit 2010 stattfindende Dortmunder Tresen-Filmfestival.
Die Stadt ist immer wieder Schauplatz von Filmaufnahmen, sowohl für erfolgreiche Fernsehserien wie "Balko" (1994–2003) oder den Dortmunder ARD-"Tatort" (seit 2012), als auch für Spielfilme (z. B. "Fickende Fische" oder "Was nicht passt, wird passend gemacht", beide 2002) und Dokumentarfilme, etwa zum Phoenix-See (2008, 2014 und 2013–14) oder dem Fußball in der Stadt von Borussia Dortmund.
Regelmäßige Veranstaltungen.
Viele Festivals machen Dortmund zum Mekka der elektronischen Musik. Während im Sommer das Musikfestival Juicy Beats mehr als 30.000 Besucher in den Westfalenpark lockt, gilt die Mayday in den Westfalenhallen mit 20.000 bis 25.000 Besuchern pro Jahr als das größte Indoor-Rave Festival Deutschlands. Hinzu kommen weitere elektronische Tanzveranstaltungen wie das Syndicate Festival oder das deutsch-russische Dance Event Glamotion in den Westfalenhallen zwischen 15.000 und 20.000 Besuchern.
Der Hansemarkt in der Dortmunder Innenstadt ist ein alljährliches Spektakel und vereint zahlreiche Händler und Akteure aus ganz Deutschland. Er greift die jahrhundertealte Tradition des Stadtmarktes auf. Und er findet noch immer an historisch bedeutsamer Stelle statt, denn der Dortmunder Markt ist einer der größten Märkte im Mittelalter gewesen.
Die Stadt Dortmund vergibt alle zwei Jahre den Nelly-Sachs-Preis für Literatur.
Seit 1957 gibt es die Internationalen Kulturtage der Stadt Dortmund, das mittlerweile älteste kontinuierlich stattfindende Kulturfestival in Deutschland. Alle zwei Jahre stellt ein europäisches Partnerland Exponate seiner kulturellen Vielfalt auf unterschiedlichen Veranstaltungen vor. Rund 20 europäische Länder waren bisher zu Gast. Heute sind die Dortmunder Kulturtage Kern des landesweiten Ereignisses .
Eingebunden in die Kulturtage wird beim Jazzfestival europhonics die Jazzszene des jeweiligen Partnerlandes beleuchtet und vorgestellt. Das 1987 zunächst unter dem Titel Dortmunder Jazzfrühling initiierte Musikfest präsentiert jährlich zeitgenössischen, europäischen Jazz an unterschiedlichen Spielorten in der Stadt.
Das Frauenfilmfestival femme totale wird seit 1987 zweijährlich veranstaltet. Bei dem Festival mit einem thematischen Schwerpunkt werden Produktionen gezeigt, in denen Frauen im Bereich Regie, Drehbuch, Ton oder Kamera maßgeblich mitgewirkt haben. Auf dem Filmfestival werden zudem ein themenunabhängiger Spielfilmwettbewerb für Regisseurinnen, ein Nachwuchsförderpreis für junge Bildgestalterinnen und ein Förderpreis für Kamerafrauen vergeben. Das Festival fusionierte im Jahre 2005 mit der Kölner feminale zum Internationalen Frauenfilmfestival Dortmund/Köln, das nun abwechselnd in Dortmund und Köln stattfindet.
Seit 1997 richtet sich das Tanz- und Theaterfestival off limits an die freie Tanz- und Theaterszene. Parallel zum Festival wird ein Symposium veranstaltet.
Jährlich wird das Dortmunder Literaturfestival LesArt abgehalten. Wie in anderen deutschen Städten öffnet sich die Kulturlandschaft der Stadt jährlich auf dem Tag des offenen Denkmals und der Dortmunder Museumsnacht einem breiten Publikum.
Im Westfalenpark findet seit 1959 im Sommer das Lichterfest statt und bietet den mehreren zehntausend Besuchern Feuerwerk und Unterhaltung.
Der Dortmunder Weihnachtsmarkt ist mit über 300 Ständen einer der größten Weihnachtsmärkte Deutschlands und wird alljährlich von mehr als zwei Millionen Besuchern aus der Stadt, der Region und aus dem Ausland besucht. Die Attraktion des auf mehreren Plätzen der Innenstadt stattfindenden Dortmunder Weihnachtsmarktes ist der als Gerüstkonstruktion errichtete höchste Weihnachtsbaum der Welt auf dem Hansaplatz mit einer Höhe von 45 Metern. Die Gerüstkonstruktion, in der eine Sprinkleranlage (52 Löschdüsen, 3200 Liter/Minute) zur Brandbekämpfung installiert ist, wird mit 1700 Rotfichten bestückt. 44.000 Lämpchen sorgen für die Beleuchtung. Der Baum hat ein Eigengewicht von 30 Tonnen und wird mit einem Betonfundament von 140 Tonnen gesichert. Auf Grund des bereits jetzt hohen Gewichts ist kein höherer Baum möglich, da die maximale statische Belastbarkeit der unter dem Hansaplatz gelegenen mehrgeschossigen Tiefgarage erreicht ist.
Am 19. Juli 2008 fand mit 1,6 Millionen Besuchern die größte Loveparade insgesamt auf dem Rheinlanddamm und dem Parkplatz der Westfalenhallen statt.
Jedes Jahr wird von Ende November bis Anfang Januar des folgenden Jahres der Westfalenpark im Rahmen der Aktion „Winterleuchten“ illuminiert.
Weitere Veranstaltungen sind:
Kulinarische Spezialitäten.
Am Dortmunder Export, gerne als Stößchen getrunken, führt in der Dortmunder Küche kein Weg vorbei. Trotz des Niedergangs des ehemals größten Brauereistandorts in Europa hat das Dortmunder Helle, ein herbes, untergäriges Exportbier, weiterhin Weltruf. Als bodenständiges Getränk, gereicht zu den westfälischen Spezialitäten Pfefferpotthast mit Salzgurken, Panhas oder Möppkenbrot, findet es bis heute viele Liebhaber. Weitere kulinarische Spezialitäten aus dem Raum Dortmund sind die klassische Currywurst und das Pumpernickel mit Griebenschmalz.
Die Dortmunder Gastronomie feiert jährlich neben der publikumswirksamen Leistungsschau Dortmund à la carte ein Pfefferpotthastfest auf dem Alten Markt. In Westhofen im Dortmunder Süden, wird im Winter das Sup Peiter mit westfälischen Spezialitäten gefeiert. Einmal im Jahr findet darüber hinaus rund um das Dortmunder U ein mehrtägiges Bierfest statt, an denen sich neben vielen regionalen neuen Biermarken, auch die bekannten Dortmunder Biermarken Bergmann Bier, Kronen, Union Bier, Brinkhoff's, DAB, Hövels, Ritter Bier, Thier Pils und Stifts präsentieren.
Eine Gebäckspezialität ist der Salzkuchen, ein kreisrundes, mit Salz und Kümmel gewürztes Brötchen mit einer Vertiefung in der Mitte. Er wird häufig mit Mett belegt gegessen, wobei die Vertiefung gehackte Zwiebeln aufnimmt.
Sport.
Dortmund ist für den Sport als Heimat bekannter Sportvereine, als Austragungsort wichtiger Wettbewerbe, als Standort großer Sportstätten sowie als Sitz nationaler Sportverbände von Bedeutung. Mehr als 140.000 Menschen sind in 564 Sportvereinen organisiert und geben damit dem Breitensport als auch dem Leistungssport in der Region wichtige Impulse.
Sportverbände.
Dortmund ist Sitz des Deutschen Handballbundes, der mit aktuell etwa 803.000 Mitgliedern in etwa 4.500 Vereinen mit etwa 24.000 Mannschaften als weltweit größter Handballdachverband gilt. Der Hauptsitz befindet sich im Willi-Daume-Haus an der Strobelallee.
In Dortmund ist außerdem der Olympiastützpunkt Westfalen als drittgrößter Stützpunkt Deutschlands beheimatet. An den Standorten Dortmund, Bochum, Warendorf und Winterberg werden mehr als 550 Sportler in über 20 Sportarten betreut.
Der Bundesstützpunkt Dortmund ist seit vielen Jahren Trainingsheimat des Deutschlandachters und bietet den Ruderern ideale Trainings- und Umfeldbedingungen. In den vergangenen Jahren stieg die zentrale Bedeutung des Stützpunktes stetig. Aufgrund einer deutlich gestiegenen Anzahl an Kaderathleten wurde mit Hilfe der Stadt Dortmund, des Bundes und des Landes das Zentrum zu einer modernen Trainingsstätte für das Leistungsrudern ausgebaut.
Auch der Deutsche Ringer-Bund hat seine Geschäftsstelle in Dortmund.
Daneben existieren Leistungszentren für die Sportarten Sportschießen, Eiskunstlauf und Eistanzen.
Vereine und Sportstätten.
Dortmunds sportliches Aushängeschild ist der traditionsreiche Fußball-Bundesligist Borussia Dortmund, Deutscher Fußballmeister 1956, 1957, 1963, 1995, 1996, 2002, 2011 und 2012, DFB-Pokal-Sieger 1965, 1989, 2012, 2017 und 2021, Europapokalsieger der Pokalsieger 1966 sowie Champions-League- und Weltpokalsieger 1997, der im Signal Iduna Park (ehemals Westfalenstadion) südlich der Innenstadt spielt. Der Verein hat etwa 155.000 Mitglieder und einen Zuschauerschnitt von 79.141 Zuschauern. Borussia Dortmund II spielt derzeit in der 3. Fußball-Liga. Die Handballdamen des BVB spielen zur Saison 2008/09 wieder in der Bundesliga. Die erste Mannschaft der Tischtennisabteilung gehört der zweiten Bundesliga an. Die ausgeprägte Fußball- und Sportbegeisterung der Menschen in Dortmund ist international bekannt.
Das Westfalenstadion war Spielstätte der Fußball-Weltmeisterschaften 1974 und 2006. Es bietet Platz für 81.365 Zuschauer und ist damit das größte reine Fußballstadion in Deutschland und das viertgrößte Stadion in Europa. In direkter Nachbarschaft befindet sich das Stadion Rote Erde und das Leichtathletikzentrum Helmut-Körnig-Halle. Die ebenfalls benachbarten Westfalenhallen sind bekannt als Schauplatz zahlreicher Europa- und Weltmeisterschaften in verschiedenen Sportarten, wie der Handballweltmeisterschaft 2007. Seit 1925 wird in der Westfalenhalle das traditionelle Steherrennen immer am 2. Weihnachtsfeiertag abgehalten, dem am gleichen Ort 1926 das jährliche Sechstagerennen bis 2008 folgte. Das internationale Reit- und Springturnier in der Dortmunder Westfalenhalle zählt zu den wichtigsten Veranstaltungen des Reitsports in Deutschland.
Die Helmut-Körnig-Halle und das Stadion Rote Erde stellen die Hauptstützpunkte der Dortmunder Leichtathletikgemeinde dar. Zahlreiche Vereinsmannschaften haben sich in der LG Olympia Dortmund zusammengefunden; zahlreiche Sportler der LGO erzielen auf nationaler und internationaler Ebene große Erfolge.
Auch Basketball findet einen großen Zuspruch. Der in Dortmund ansässige Verein SVD 49 Dortmund spielt derzeit in der Basketball-Regionalliga und erfreut sich bei Heimspielen in der Brügmannhalle regelmäßig an einer ausverkauften Halle. Besonders seit dem Bundesliga-Jahr 1992/93 erregt der Verein ein breites Interesse in der Öffentlichkeit.
Ein weiterer Traditionsverein in Dortmund ist die Eishockeymannschaft des EHC Dortmund. Die Ursprünge des Vereins gehen auf das Jahr 1937 zurück, als der EV Westfalen Dortmund gegründet wurde. In der Folgezeit gab es weitere drei Nachfolgevereine, die allesamt den Spielbetrieb aus finanziellen Gründen einstellen mussten. Der EHC Dortmund besteht seit 1996 und feierte im Sommer 2006 sein zehntes Jubiläum. Aktuell spielt der EHC in der dritthöchsten deutschen Eishockeyliga, der Oberliga. In den Jahren 2007 sowie 2008 konnte der Verein jeweils die Regionalliga-Meisterschaft gewinnen. Die Heimspielstätte der "Elche" ist das Eissportzentrum Westfalenhallen.
Der 1. Snooker Club Dortmund spielte von 2011 bis 2015 in der 1. Snooker-Bundesliga.
Im Dortmunder Schauspielhaus wird das Sparkassen Chess-Meeting Dortmund ausgetragen. Hervorgegangen aus den seit 1973 jährlich stattfindenden Internationalen Dortmunder Schachtagen gilt es als wichtigstes und stärkstes Schachturnier in Deutschland und besitzt internationale Bedeutung. Der Schachclub Hansa Dortmund e. V. spielte 2011/2012 in der Schachbundesliga, derzeit in der Staffel West der 2. Schachbundesliga.
Die seit 1913 bestehende Dortmunder Galopprennbahn im Stadtteil Wambel verfügt über eine 2000-m-Grasbahn und eine 1600-m-Allwettersandbahn. Auf der mit Flutlichtanlage und überdachten Tribünen ausgestatteten Rennbahn werden jährlich das Deutsche St. Leger und der Große Preis der Dortmunder Wirtschaft ausgetragen.
In Dortmund gibt es drei Golfplätze: Den seit 1956 in der Reichsmark vom Dortmunder Golf Club e. V. betriebenen 18-Loch-Platz, die von der ehemaligen britischen Rheinarmee zu Besatzungszeiten angelegte 18-Loch-Anlage Royal Saint Barbara’s in Brackel sowie einen 9-Loch-Golfplatz im Innenfeld der Dortmunder Galopprennbahn (GolfRange Dortmund).
Südlich des Westfalenparks existiert mit der Dortmunder Niere eine Trainingsstrecke für Radsportler.
Im Freizeitbereich und beim Breitensport bietet Dortmund ein vielfältiges Angebot. Unter anderem verfügt die Stadt über zehn Schwimmbäder, zahlreiche Sporthallen und -anlagen, ein inzwischen relativ gut ausgebautes, 300 km umfassendes Fahrradwegenetz, eine Mountainbike-Arena (auf dem Gelände der ehemaligen Hausmülldeponie im Stadtteil Deusen, Deusenberg), drei Kletteranlagen, einen Hochseilgarten sowie mehreren Funsportanlagen (Skateboard-, BMX- und Beachvolleyball-Anlagen) und natürlich die vielen Parks und Grünflächen. Insgesamt gibt es fast 600 Sportvereine in Dortmund mit ungefähr 140.000 Mitgliedern. Das denkmalgeschützte Dortmunder Südbad in der Innenstadt ist die traditionelle Austragungsstätte zahlreicher, national bedeutender Schwimmveranstaltungen.
Eine besondere Bedeutung für den Breitensport besitzen der mit ca. 7000 Mitgliedern größte Verein TSC Eintracht Dortmund, der Stadtsportbund und die Sport Welt Dortmund GmbH, als Betreiber der Dortmunder Schwimmbäder.
Eine große Tradition besitzt auch das Ringen in Dortmund. Zwischen 1927 und 1957 wurde der ASV Heros Dortmund zehnmal und der Sportklub Hörde 04 dreimal deutscher Mannschaftsmeister. Seit 2002 kommt es in Dortmund jährlich zu einem Treffen der Weltelite im griechisch-römischen Ringkampf. Mit Unterstützung des Landes Nordrhein-Westfalen und der Stadt Dortmund wird der „Grand Prix der Bundesrepublik Deutschland“ in der Dortmunder Helmut-Körnig-Halle erfolgreich ausgerichtet.
Aber auch Randsportarten wie American Football, Poker und Baseball finden in Dortmund Beachtung. So waren 1980 die Dortmund Giants einer der ersten deutschen Footballvereine. Nun spielen die Giants in der dritthöchsten deutschen Spielklasse, in der Regionalliga. Im Jahre 2008 spielt die Baseballmannschaft der Dortmund Wanderers in der höchsten deutschen Spielklasse, der 1. Bundesliga. Im Dortmunder Casino Hohensyburg wurde die "European Poker Tour" von 2007 bis 2009 je einmal jährlich veranstaltet.
Inklusion.
2021 bewarb sich die Stadt als Host Town für die Gestaltung eines viertägigen Programms für eine internationale Delegation der Special Olympics World Summer Games 2023 in Berlin. 2022 wurde sie als Gastgeberin für Special Olympics Palästina ausgewählt. Damit wurde sie Teil des größten kommunalen Inklusionsprojekts in der Geschichte der Bundesrepublik mit mehr als 200 Host Towns.
Verkehrsinfrastruktur.
Straßenverkehr.
Die Stadt wurde nach dem Zweiten Weltkrieg autofreundlich wieder aufgebaut. Auffälligste Merkmale sind die südlich des Stadtkerns durch das Stadtgebiet verlaufende Bundesstraße und der vier- bis sechsspurige Innenstadtring entlang des ehemaligen Stadtwalls. Innerhalb dieses Rings ist der Autoverkehr nur noch sehr eingeschränkt möglich.
Dortmund ist einer der bedeutendsten Verkehrsknotenpunkte des Ruhrgebiets und der Region Westfalens. Der Dortmunder Autobahnring umfasst Teilstücke der Autobahnen (Bremen–Köln), (Oberhausen–Berlin) und (Dortmund–Aschaffenburg). Im Straßenverkehr ist die Stadt zudem über die Autobahnen (Dortmund–Venlo), (Dortmund–Kamp-Lintfort), (Aachen–Dortmund sowie Dortmund–Kassel) und vier Bundesstraßen (, , und ) an das deutsche Fernstraßennetz angebunden. Mit dem Kamener Kreuz, dem Westhofener Kreuz sowie den Autobahnkreuzen Dortmund/Unna, Dortmund-West, Dortmund/Witten, Dortmund-Nordwest und Castrop-Rauxel-Ost liegen wichtige deutsche Autobahnkreuze auf oder in der Nähe des Dortmunder Stadtgebiets.
Schienenverkehr.
Der Dortmunder Hauptbahnhof zählt mit 41 Millionen Fahrgästen jährlich zu den wichtigsten Eisenbahnknoten im deutschen Personenverkehr. Darüber hinaus gibt es 23 Regionalbahnhöfe im Stadtgebiet. Gemessen an den Anbindungen im Regionalverkehr sind insbesondere die Bahnhöfe Dortmund-Hörde, Kurl und Mengede weitere wichtige Stationen, hinzu kommen 25 Halte der S-Bahn Rhein-Ruhr.
Eine weitere wichtige Verkehrsanlage ist dabei auch das im Osten der Stadt an der Strecke nach Hamm gelegene Bahnbetriebswerk Dortmund-Betriebsbahnhof der DB Regio NRW und DB Fernverkehr, das der Instandhaltung der ICE-Züge sowie weiteren Fahrzeugen des Fern- und Regionalverkehrs dient. Neben den Elektrolokomotiven und den Dieseltriebwagen des Regionalverkehrs und den Waggons des Fernverkehrs wird hier auch der ICE 3 gewartet. Ein weiteres Betriebswerk Dortmund-Hafen der DB Fernverkehr ist geplant. Im Schienengüterverkehr ist Dortmund jedoch nach Stilllegung der beiden Rangierbahnhöfe Dortmund Rbf und Dortmunderfeld kein Eisenbahnknoten mehr. Diese Züge können über die Güterumgehungsbahn Dortmund an der Innenstadt vorbeigeführt werden.
Luftfahrt.
Der Flughafen Dortmund liegt im Osten Dortmunds an der Stadtgrenze zu Holzwickede und Unna. Gemessen an der Passagierzahl ist der Flughafen der drittgrößte Verkehrsflughafen in Nordrhein-Westfalen. Deutschlandweit liegt er auf Platz 10. Einen Großteil des Flugbetriebs machen Billigfluggesellschaften aus. Hinzu kommt ein größerer Anteil an touristischem Linienverkehr, der Geschäftsreiseverkehr sowie die allgemeine Luftfahrt. Auf dem Gelände des Flughafens befindet sich außerdem eine Einsatzstaffel der Polizeiflieger Nordrhein-Westfalen und eine Station der DRF Luftrettung.
Der Flughafen Dortmund ist über die B 1 sowie im öffentlichen Nahverkehr über einen Transferbus direkt über den Bahnhof Holzwickede/Dortmund-Flughafen erreichbar. Seit 2004 betreibt der Flughafen Dortmund zusätzlich den Flughafenexpress, der zwischen dem zentralen Busbahnhof am Dortmunder Hauptbahnhof und dem Flughafen verkehrt. Der VRR-Tarif gilt auf dieser Strecke nicht.
Der Flughafen Düsseldorf ist in etwa einer Stunde mit der Bahn oder dem PKW zu erreichen.
Schifffahrt.
In der Binnenschifffahrt ist Dortmund über den Dortmund-Ems-Kanal mit dem Rhein und der Nordsee verbunden und verfügt über den größten Kanalhafen Europas.
Nahverkehr.
Der Dortmunder Nahverkehr wird zum Großteil durch die DSW21 im Verkehrsverbund Rhein-Ruhr betrieben. Die DSW21 hat innerhalb des VRR den Zahlenbereich der „4“ zugewiesen bekommen, es fangen also alle Liniennummern mit einer „4“ an (Ausnahmen bilden Linien über die Stadtgrenze hinaus). Im Schienenpersonennahverkehr (SPNV) ist Dortmund durch die vier S-Bahn-Linien S 1, S 2, S 4 und S 5, zahlreiche Regional-Express-Züge und Regionalbahnen erschlossen.
Im Kommunalen Personennahverkehr verfügt Dortmund über ein Netz aus acht innerstädtisch unterirdisch verlaufenden Stadtbahnlinien: U 41, U 42, U 43, U 44, U 45, U 46, U 47 und U 49. Im April 2008 wurden unter der Innenstadt die letzten Tunnelstrecken fertiggestellt. Die beiden letzten Straßenbahnlinien 403 und 404 wurden nach Eröffnung des Ost-West-Tunnels umgewandelt und heißen nun U 43 und U 44. Es sind diverse Verlängerungen in Überlegung, aber keine wird ernsthaft verfolgt.
Darüber hinaus verkehren im Stadtgebiet 73 Buslinien der DSW21. Dieses Streckennetz umfasst 852,1 Kilometer und befördert jährlich 134 Millionen Personen. [Stand: Januar 2018]
Zudem gibt es eine automatische H-Bahn zwischen den beiden Universitätsstandorten und dem Stadtteil Eichlinghofen sowie dem Technologiepark.
Auffallend waren die roten Doppeldecker-Schnellbusse, mit denen die VKU den ZOB am Hauptbahnhof Dortmund mit dem Busbahnhof in Bergkamen verband. Jetzt verkehren dort Gelenkomnibusse.
Fahrradverkehr.
Auch das Radfahren wird in Dortmund durch die Stadtplanung gefördert – seit den 1980er-Jahren wurde ein umfangreiches Radwegenetz geschaffen. Am 10. Juli 2006 wurde ein Antrag zur Aufnahme in die „Arbeitsgemeinschaft Fußgänger- und Fahrradfreundliche Städte und Gemeinden in NRW“ (AGFS) beim Verkehrsministerium in Düsseldorf eingereicht. Am 8. August 2007 wurde Dortmund mit diesem Titel ausgezeichnet. Darüber hinaus ist Dortmund an eine Reihe von Fernradwegen angebunden:
Im Fahrradklimatest des ADFC des Jahres 2018 belegte Dortmund unter den 14 Städten Deutschlands mit über 500.000 Einwohnern den 13. Platz. Für den Test wurden in Dortmund 1390 Radfahrer befragt. Erzielt wurde die Note 4,35, damit lag die Stadt knapp vor Köln, das die Note 4,38 erzielte und damit letzter wurde. Im Jahr 2016 erzielte Dortmund noch die Note 4,14 und Platz 8. Im Vergleich mit den anderen Städten dieser Kategorie schnitt Dortmund insbesondere in den Punkten „Stellwert des Radverkehrs“ (Note 4,9), „Werbung für das Radfahren“ (Note 4,7), „Fahrradförderung in jüngster Zeit“ (Note 4,9), „Falschparkerkontrolle auf Radwegen“ (Note 5,3), „Abstellanlagen“ (Note 4,4) und „Wegführung in Baustellen“ (Note 5,1) schlecht ab. „Positiv“ im Vergleich zu anderen Städten dieser Kategorie fiel der Punkt „Fahrraddiebstahl“ auf, allerdings nur mit einer Note von 4,4, knapp über dem Mittelwert von 4,54.
Wirtschaft.
Überblick.
In der Vergangenheit wurde die wirtschaftliche Entwicklung Dortmunds von Umbrüchen, Verwerfungen und Veränderungen des inneren Gefüges begleitet. Durch das Zusammenwirken zahlreicher ökonomischer und nichtökonomischer Faktoren verschoben sich die Größenordnungen der einzelnen Bereiche – des primären (Landschaft und Bergbau), des sekundären (Industrie und produzierendes Gewerbe) und des tertiären Sektors (Dienstleistungen). Die Relationen dieser Wirtschaftszweige veränderten sich untereinander ebenso wie zum Wirtschaftsraum Dortmund und im gesamten Ruhrgebiet. Flankiert durch wirtschaftsfördernde und strukturverbessernde Maßnahmen der Stadt, des Landes und des Bundes vollzogen und vollziehen sich nach wie vor Umschichtungen zum Quartärsektor. Heute ist Dortmund ein Handels- und Dienstleistungszentrum sowie Hightechmetropole in den Bereichen Energie (Strom-, Gastransportnetze), Mikrosystemtechnik und Biomedizin.
Im Jahre 2016 erbrachte Dortmund, innerhalb der Stadtgrenzen, ein Bruttoinlandsprodukt (BIP) von 21,553 Milliarden € und belegte damit Platz 14 innerhalb der Rangliste der deutschen Städte nach Wirtschaftsleistung. Das BIP pro Kopf lag im selben Jahr bei 36.781 € (Nordrhein-Westfalen: 37.416 €, Deutschland 38.180 €) und damit leicht unter dem regionalen und nationalen Durchschnitt. In der Stadt sind 2016 ca. 313.500 Personen beschäftigt. Die Arbeitslosenquote lag im Dezember 2018 bei 9,8 % und damit deutlich über dem Durchschnitt von Nordrhein-Westfalen mit 6,4 %.
Traditionelle Wirtschaftssektoren, Wandel und Perspektiven.
Im Rahmen der Industrialisierung entwickelte sich Dortmund rasch zu einem Zentrum der Schwerindustrie (Kohle- und Stahlindustrie). Bedeutende Dortmunder Konzerne waren Hoesch, die Dortmunder Union, die Phoenix AG für Bergbau und Hüttenbetrieb sowie die ab 1969 unter dem Dach der Ruhrkohle AG zusammengefassten Dortmunder Zechen. Noch Mitte des 20. Jahrhunderts gab es auf dem heutigen Dortmunder Stadtgebiet mehr als 15 Kohlebergwerke, deren letztes 1987 den Betrieb einstellte.
"Siehe auch Liste von Bergwerken in Dortmund"
Der letzte bedeutende Bergbauzulieferer, die Maschinenfabrik Gustav Schade, wurde erst später geschlossen.
Die wirtschaftlich gesunde Hoesch AG wurde 1992 von der Essener Krupp Stahl AG übernommen. 1997 fusionierten Krupp-Hoesch und die Düsseldorfer Thyssen Stahl AG zur ThyssenKrupp Stahl AG, mit drastischen Folgen für die Dortmunder Hüttenstandorte. Die Flüssig-Phasen der Eisen- und Stahlproduktionen wurden in Dortmund in den Folgejahren stillgelegt, weil der neue Konzern seine Stahlsparte an der geografisch günstigeren Rheinschiene konzentrierte. Der hieraus entstandene Arbeitsplatzabbau war für Dortmunds Wirtschaft eine schwere Belastung.
Die Flächen der früheren Industriestandorte bieten heute Entwicklungspotenzial für die Stadt:
Der Maschinen- und Anlagenbau besitzt in Dortmund eine große Tradition. Aktiv sind neben der Chemieanlagenbau-Gesellschaft ThyssenKrupp Uhde GmbH, die heute ebenfalls zur Thyssenkrupp AG gehört, der Maschinen- und Anlagenbauer "KHS GmbH", früher "Holstein & Kappert", mit Unternehmenssitz in der Juchostraße, Hersteller von Verpackungs- und Getränkeabfüllmaschinen. Ein nicht mehr in Dortmund tätigendes Unternehmen ist die Thyssen Klönne AG. Baufahrzeuge wurden früher in Dortmund durch das Unternehmen Orenstein & Koppel hergestellt, die bei den Hoesch-Krupp-Fusionen zur Krupp Fördertechnik und deren Schwesterunternehmen kam. Die O&K Baggersparte wurde durch den amerikanischen Terex-Konzern übernommen und fertigt bis heute schwere Baumaschinen in Dortmund, wurden jedoch inzwischen von der amerikanischen Firma Caterpillar aufgekauft. Auch der Werkzeugmaschinenbau hat eine namhafte Dortmunder Vergangenheit: in Lütgendortmund an der Stadtgrenze zu Bochum existierte bis in die 1980er Jahre das Familienunternehmen Tönshoff, ehedem weltbekannter Hersteller von Mehrspindel-Drehautomaten. Mit der früheren „Hoesch Maschinenfabrik Deutschland“ hatte Dortmund an der Bornstraße nahe der Westfalenhütte einen Hersteller von Größt-Drehmaschinen aufzuweisen. Die Maschinenfabrik Rothe Erde ist ein führender Hersteller von Großwälzlagern. Der Boom der Windenergie sichert dem Unternehmen steigende Absatzzahlen.
Mittlerweile haben sich in Dortmund Unternehmen der Versicherungs- und Finanzwirtschaft sowie im Umfeld der Universität viele moderne IT- und Dienstleistungsunternehmen etabliert, die für Beschäftigung sorgen.
Über seine Grenzen hinaus wurde Dortmund als Bierstadt durch das Brauen von Exportbier bekannt. Bekannte Dortmunder Brauereien waren unter anderem Bergmann, Borussia, Actien (DAB), Union (DUB), Kronen, Hansa, Ritter, Stifts und Thier. Nach dem Ersten Weltkrieg wuchsen sie zu Großbrauereien und beherrschten nahezu 50 Jahre lang den deutschen Biermarkt. Anfang der 1960er Jahre zählten die Dortmunder Brauereien rund 6000 Beschäftigte. Von den zahlreichen Brauereien blieb nur eine übrig: Unter dem Dach der zur Bielefelder Dr. August Oetker KG gehörenden Dortmunder Actien-Brauerei (DAB) sind heute alle, bis auf eine, Dortmunder Biermarken vereint. Die Dortmunder Bergmann Brauerei wurde 2005 neu gegründet und vertreibt eigenständig mehrere Bierspezialitäten.
Strukturwandel.
In der Zeit von 1960 bis 1994 verringerte sich die Zahl der Industriebeschäftigten von 127.000 auf 37.000 Personen. Neue Arbeitsplätze wurden hauptsächlich im Bereich der Informationsverarbeitung sowie bei Banken und Versicherungen geschaffen. Ein zukunftsweisendes Signal war Ende 1968 die Gründung der Universität Dortmund. Die Campus-Universität legte den Grundstein für den heutigen Wissenschaftsstandort. In räumlicher Nähe zur Universität wurde 1984 das Technologiezentrum als eines der ersten Deutschlands eröffnet. Im angrenzenden Technologiepark siedelten sich seit 1988 mehr als 225 Unternehmen mit über 8500 Mitarbeitern an. Das Projekt Stadtkrone-Ost auf dem ehemaligen Kasernengelände an der B 1 ist ein weiteres positives Beispiel des mit der Kohlekrise von 1958 einsetzenden und bis heute unverändert anhaltenden Strukturwandels in Dortmund. Dort ist auch der Hauptsitz der börsennotierten Adesso SE, eines der Top 25 IT-Beratungs und Systemintegrations-Unternehmen Deutschlands.
Mit dem dortmund-project, einer Public Private Partnership zwischen der Stadt und dem Konzern Thyssenkrupp, das vom Unternehmensberater McKinsey & Company nach dem Vorbild der Wolfsburg AG erarbeitet wurde, sollen sowohl die durch den Strukturwandel entstandene Beschäftigungslücke geschlossen als auch neue Leitbranchen für die Stadt entwickelt und gestärkt werden. Als neue Führungsbranchen wurden die Industriebrachen in das Gesamtkonzept mit eingebunden. Logistik, Mikrosystemtechnik (MST) und Informations- und Kommunikationstechnik wurden ausgewählt, später kamen die Gesundheitswirtschaft, die Biomedizin und die Energietechnik hinzu. 2005 wurde das Projekt unbefristet in die städtische Wirtschaftsförderung integriert. Unter anderem sollte bis 2010 die Zahl der Erwerbstätigen auf 325.000 Erwerbstätige vor dem Einbruch der Montanindustrie erhöht werden. Im April 2011 waren durch direkte und indirekte Folgen des Projektes 298.000 Erwerbstätige erreicht, was 53.000 der fehlenden 80.000 entsprach. Im Jahr 2008 wurden weitere Ziele bis zum Jahr 2018 veröffentlicht: Nach ihnen sollen die Arbeitslosenquote den einstelligen Bereich erreichen und die Einwohnerzahl stabil bleiben. Außerdem sollte sich die Zentralitätskennziffer (u. a. durch die Thier-Galerie) von 114 (2008) auf 118 erhöhen. Dieser Wert wurde 2014 auf 124 gesteigert.
Die Stadt war 2004 für den erfolgreichen Strukturwandel gelobt worden. Laut dem Wirtschaftsmagazin Capital war Dortmund die Stadt im Ruhrgebiet, die die besten Wirtschaftsaussichten bis 2013 besaß. Das Handelsblatt bezeichnete die Stadt 2004 in ihrem Zukunftsatlas als „stillen Star“. 2006 erhielt die Stadt für die MST.factory die Eurocities-Auszeichnung in der Kategorie „Innovation“.
2014 gehörte Dortmund zu den bedeutenden Logistikstandorten in Deutschland mit einer einzigartigen Infrastruktur, mehr als 900 im Wirtschaftszweig Logistik tätigen Unternehmen und national wie international anerkannten wissenschaftlichen Einrichtungen. Insgesamt arbeiteten 26.316 Menschen im Logistikbereich. Im Jahr 2016 wurde die Stadt innerhalb der Digital Hub Initiative des Bundesministerium für Wirtschaft und Energie als Digital Hub im Bereich Logistik ausgezeichnet und fungierte neben Berlin, Hamburg, München und Frankfurt als Motor für die Digitalisierung in Deutschland.
Die Bedeutung Dortmunds als Oberzentrum des Einzelhandels stieg an. Der Westenhellweg im Herzen der Innenstadt gilt neben der Kaufingerstraße in München, der Zeil in Frankfurt am Main und der Schildergasse in Köln als eine der am häufigsten frequentierten Einkaufsmeilen Deutschlands. Die hohen Mietpreise und nicht vorhandene Leerstände auf dem Westenhellweg und Ostenhellweg reflektierten diese Entwicklung.
Internationale Branchengrößen wie IKEA, Amazon oder Decathlon haben sich in den letzten Jahren in Dortmund mit Logistik- und Distributionszentren speziell im Dortmunder Norden auf der Westfalenhütte und am Dortmunder Hafen niedergelassen. Hinzu kommen Rhenus, REWE oder DHL, welche in Dortmund für einige Kunden Logistikzentren mit europäischer Reichweite betreiben.
Arbeitslosigkeit.
Die Tabelle zeigt die Arbeitslosenquote in Dortmund jeweils zum 30. Juni des Jahres (Zweijahresabstand).
Ansässige Unternehmen.
Einer der größten Arbeitgeber Dortmunds ist die Stadt selbst, nebst zahlreicher kommunaler Unternehmen. Die Dortmunder Stadtwerke AG (DSW21) beschäftigten in ihren zahlreichen Tochterunternehmen in den Geschäftsfeldern Transport, Energie, Telekommunikation, Wohnungsbau und Stadtentwicklung über 3.000 Menschen. Zusammen mit der Stadtwerke Bochum GmbH besitzen die Dortmunder Stadtwerke die Gelsenwasser AG.
Die Dortmunder Energie- und Wasserversorgung GmbH (DEW21) ist ein gemeinsames Unternehmen der DSW21 und der RWE. DEW21 versorgt die Einwohner der Stadt Dortmund mit Erdgas, Strom, Wärme und Wasser und bietet Dienstleistungen rund um diese Produkte für Geschäfts- und Privatkunden an. Die Stadt besitzt außerdem Aktienanteile an RWE, die Dortmund zu einem wichtigen Unternehmensstandort ausgebaut hat. Darüber hinaus bestehen mit der Westfalenhallen Dortmund GmbH als Betreiber des Veranstaltungszentrum Westfalenhallen und der dortigen Messe, der Entsorgung Dortmund GmbH (EDG) ist ein in den 1990er Jahren gegründetes Unternehmen der Entsorgungsbranche in Dortmund. Die Hauptaufgabe der EDG ist die Reinigung öffentlicher Flächen sowie der Müllabtransport und der Dokom21 als Gesellschaft für Telekommunikation GmbH.
Dortmund ist eines der wichtigsten Zentren der deutschen Versicherungswirtschaft. Neben der Continentale Krankenversicherung, der Muttergesellschaft des Continentale Versicherungsverbundes, hat die Signal-Iduna-Gruppe als ein Zusammenschluss der Hamburger Iduna-Gruppe und der Dortmunder Signal-Versicherungen einen Hauptsitz in der Stadt. Beide Unternehmen zählten 2009 zu den 20 größten Versicherungen nach Beitragseinnahmen in Deutschland. Darüber hinaus haben die AOK Nordwest, die Bundesinnungskrankenkasse Gesundheit, der Volkswohl Bund, die VKH Vorsorgekasse Hoesch Dortmund und die Kirchliche Zusatzversorgungskasse Rheinland-Westfalen hier ihren Sitz.
Darüber hinaus gilt die Stadt als Zentrum des westdeutschen Energiewirtschaft, neben der Westnetz GmbH als größtem Verteilnetzbetreiber hat auch die Amprion GmbH als zweitgrößter deutscher Übertragungsnetzbetreiber in Deutschland seinen Hauptsitz in Dortmund. Hinzu kommen wichtige Unternehmen der Gasbranche wie Thyssengas, Progas und Transgas Flüssiggas Transport und Logistik und die Wasserwerke Westfalen.
Mit mehr als 12.000 Beschäftigten in über 100 Unternehmen bildet Dortmund einen wichtigen Standort für die Kommunikationsverarbeitung und Informationstechnologie-Wirtschaft. Dies liegt darin begründet, dass mit der TU Dortmund, der Fachhochschule und dem IT-Center Dortmund eine der ältesten und größten Ausbildungsstätten mit der gesamten Bandbreite der Informationstechnik in der Stadt angesiedelt ist. Mit der Adesso SE und der Materna GmbH sind zwei der 25 größten deutschen IT-Beratungs- und Systemintegrations-Unternehmen in der Stadt beheimatet. Mit der Verizon Deutschland GmbH besitzt der US-amerikanische Telekommunikationskonzern seine deutsche Niederlassung im Dortmunder Technologiepark. Durch verschiedene Förderungen und Initiative der Stadt Dortmund sowie der Kooperation mit den Bildungseinrichtungen mit der TU Dortmund oder der FH Dortmund hat sich in diesem Umfeld ein großes Netzwerk von Start-Up Unternehmen entwickelt, wie RapidMiner, GreenIT, Cabdo, Urlaubsguru sowie GastroHero mit Sitz am Flughafen Dortmund in Holzwickede.
In Dortmund sind zahlreiche privatwirtschaftliche, genossenschaftliche und ehemals gemeinnützige und öffentliche Wohnungsgesellschaften ansässig, u. a. Spar- und Bauverein Dortmund und DOGEWO21. Überregionale, teilweise börsennotierte Immobilienunternehmen haben hier große Wohnungsbestände, u. a. Vivawest, LEG Immobilien und Vonovia.
Zu ansässigen Kreditinstituten zählen die Sparkasse Dortmund, die Volksbank Dortmund-Nordwest, die Dortmunder Volksbank und die Bank für Kirche und Diakonie (KD-Bank).
Im Juli 2021 eröffnete die größte und modernste Filiale der Bundesbank; es wird die Bargeldversorgung der gesamten Rhein-Ruhr-Region abgewickelt. Die Niederlassung nahe dem Westfalendamm ist etwa 79.000 m² groß.
Trotz tiefgreifendem Strukturwandel ist Dortmund weiterhin einer der größten Standorte Deutschlands im Anlagen- und Maschinenbau. Neben WILO als Hersteller für Pumpensysteme für die Heizungs-, Kälte- und Klimatechnik haben mit der KHS GmbH mit über 1.200 Mitarbeitern der größte industrielle Arbeitgeber der Stadt und der ABP Induction Systems, wichtige Hersteller von Anlagen- und Maschinenbau ihren Hauptsitz in Dortmund. Weitere Unternehmen mit Hauptsitz in Dortmund sind ThyssenKrupp Rothe Erde, ThyssenKrupp Uhde, Anker-Schroeder ASDO und Elmos Semiconductor. Die EvoBus fertigt in Dortmund Kleinbusse mit 8 bis 22 Sitzplätzen auf Basis des Kleintransporters Sprinter (220 Mitarbeiter). Das Pharmaunternehmen Boehringer Ingelheim betreibt in Dortmund eine Produktionsstätte für Inhalationsgeräte mit 630 Mitarbeitern. Die Firmengruppe Miebach beschäftigt in Dortmund rd. 500 Mitarbeiter im Bau von Schweißmaßnahmen und Schaltanlagen. Die Murtfeldt Kunststoffe ist weltweit auf dem Gebiet der Kunststoffherstellung und -verarbeitung tätig und beschäftigt etwa 350 Mitarbeiter. Die Vitesco Technologies (ehemals Continental) produziert in Dortmund-Hallerey Sensoren und Komponenten für Abgasnachbehandlungssysteme und beschäftigt am Standort etwa 400 Mitarbeiter. Siemens Mobility betreibt in Dortmund-Eving ein RRX-Instandhaltungswerk. Die Deutsche Bahn beschäftigte 2021 über 3.000 Mitarbeiter, unter anderem im Bahnbetriebswerk Dortmund-Betriebsbahnhof. Ein weiteres Betriebswerk Dortmund-Hafen mit bis zu 500 Arbeitsplätzen ist geplant.
Die Region Dortmund ist ein wichtiger Logistikstandort im Zentrum Europas. Die Rhenus als fünftgrößter deutscher Logistikdienstleister hat ihren Sitz am Dortmunder Flughafen und besitzt weiteren Standorte in der Stadt. Über 800 Unternehmen der Logistik und verwandter Branchen beschäftigen über 26.000 Menschen innerhalb der Stadt. In Dortmund existieren rund 50 Distributionszentren von renommierten Unternehmen wie dem Ikea Zentrallager der IKEA Distribution Services und der Rhenus. Darüber hinaus steuern Unternehmen wie ETL Fiege, Kaufland, Rewe, Tedi oder ThyssenKrupp Materials von Dortmund aus europaweit ihre Warenströme.
Zu weiteren Großunternehmen mit Sitz in Dortmund zählen Borussia Dortmund GmbH & Co. KGaA, Dortmunder Actien-Brauerei AG, Rewe Dortmund, Hülpert und Hellweg Die Profi-Baumärkte.
Bedeutende, in Dortmund ansässige Großbetriebe sind Schirmer Kaffee, TRD-Reisen, Geers Hörakustik, Rotkäppchen Peter Jülich, Nordwest Handel. Seit 1910 besteht die Atlas Schuhfabrik.
Einzelhandel.
Der etwa 900 Meter lange Westenhellweg in der Innenstadt ist die bekannteste und umsatzstärkste Einkaufsstraße in Dortmund und dem gesamten Ruhrgebiet. Seit Beginn der Messung der Passantenströme im Jahre 1999 durch Jones Lang LaSalle gehört der Westenhellweg zu den meistfrequentierten Einkaufsstraßen Deutschlands. Die im Jahre 2013 durchgeführte Untersuchung ergab 12.950 Besucher pro Stunde, was dem Westenhellweg den Titel der meistfrequentierten Einkaufsstraßen Deutschlands brachte. Darüber hinaus liegt der Westenhellweg im bundesweiten Mietpreisvergleich für Einzelhandelsflächen immer unter den Top 10 Standorten in Deutschland. Insgesamt wird der Westenhellweg stark durch Filialen großer Einzelhandels- (Kaufhof, Karstadt, C&A, H&M), Mode- (Peek & Cloppenburg, Esprit, s.Oliver, Zara) und Handelsketten (Parfümerie Douglas, Mayersche Buchhandlung) sowie Boutiquen, Fachgeschäfte und Gastronomie geprägt. Im Jahr 2011 eröffnete das neue Einkaufszentrum Thier-Galerie am oberen Westenhellweg.
Darüber hinaus gibt es weitere diverse Einkaufsstraßen und -viertel im Dortmunder Stadtzentrum mit unterschiedlichen Schwerpunkten des Einzelhandels:
Einen weiteren Einzelhandelsstandort repräsentiert der Indupark im Dortmunder Westen. Als Einkaufs- und Gewerbezentrum, das auf dem Gelände einer ehemaligen Zeche errichtet wurde, bietet der Indupark Platz für großflächige Geschäfte wie IKEA, Media-Markt oder Decathlon.
Kennzahlen des Einzelhandels.
Dortmund wies im Jahr 2014 mit einer Kennziffer von lediglich 93 ein vergleichsweise geringes Kaufkraftniveau auf. Die Kaufkraftkennziffer ist stetig gefallen und lag noch vor sechs Jahren mit 100,2 im Jahr 2008 über dem Bundesdurchschnitt. Verglichen mit umliegenden Städten wie Bochum, Unna oder Witten ist das Kaufkraftniveau Dortmunds relativ moderat. Insbesondere in den südlich an das Stadtgebiet angrenzenden Städten wie Herdecke oder Schwerte lässt sich ein vergleichsweise höheres Kaufkraftniveau feststellen, wohingegen die nördlich angrenzenden Städte wie Lünen eine tendenziell niedrigere Kaufkraftkennziffer aufweisen.
Mit einer Zentralitätskennziffer von 124,0 im Jahr 2014 lag Dortmund deutlich über dem Bundesdurchschnitt sowie dem Schnitt der umliegenden Städte. Dies verdeutlicht, dass Dortmund trotz des vergleichsweise geringen Kaufkraftniveaus der eigenen Bevölkerung im Stande ist, durch einen bedeutenden Kaufkraftabzug aus dem Umland eine hohe Handelszentralität aufzuweisen.
Messen.
Zum Messezentrum Westfalenhallen gehören neun klimatisierte Hallen mit Flächen zwischen 1.000 und 10.600 Quadratmetern. Insgesamt bietet das Messezentrum Westfalenhallen eine Ausstellungsfläche von 59.000 m². Hier finden jährlich rund 60 Messen mit rund 800.000 Besuchern statt.
Bedeutende Messen des Standorts Westfalenhallen sind:
Medien.
Zeitungen und Zeitschriften.
Das Organ der Zentrumspartei war bis 1933 die im Verlag Lensing erscheinende Zeitung "Tremonia".
Vor dem Zweiten Weltkrieg erschien in Dortmund mit dem General-Anzeiger für Dortmund die auflagenstärkste überregionale Tageszeitung Deutschlands außerhalb von Berlin. Nach einer Hitler-Karikatur von Emil Stumpp wurde die 1890 von Friedrich Wilhelm Ruhfus gegründete, linksliberale Zeitung von den Nationalsozialisten eingestellt und erschien fortan als Parteiorgan unter dem Namen "Westfälische Landeszeitung – Rote Erde".
An die publizistische Tradition konnte nach Ende des Krieges nicht angeknüpft werden. Heute erscheinen mit der Westfälischen Rundschau (WR), der Westdeutschen Allgemeinen Zeitung (WAZ) und den Ruhr Nachrichten (RN) vor Ort drei lokale Zeitungen. Allerdings gehört die WR zur Funke Mediengruppe, die in Dortmund den Lokalteil eingestellt hat und Inhalte der Ruhr Nachrichten übernimmt. Die überregionale Berichterstattung für die Ruhr Nachrichten liefert das Redaktionsnetz Westfalen aus Unna. Einmal im Monat erscheint das Straßenmagazin Bodo und wird in der Stadt zum Verkauf angeboten.
Kostenlos verteilt werden in Dortmund zahlreiche Anzeigenmagazine wie zum Beispiel der Stadt-Anzeiger und der Nordanzeiger. Diese erscheinen in der Regel wöchentlich. Die kostenlosen Veranstaltungsmagazine coolibri und Heinz liegen monatlich in Kultureinrichtungen und Gaststätten aus.
Der Visions-Verlag verlegt in Dortmund das monatlich erscheinende, bundesweit erhältliche Musikmagazin Visions.
Des Weiteren befindet sich die Redaktion des größten Rock- und Metal-Magazins Europas, Rock Hard, im Stadtteil Körne.
An der TU Dortmund erscheint dreimal pro Semester die Campuszeitung Pflichtlektüre.
Fernsehen.
Sowohl der Westdeutsche Rundfunk Köln (WDR) als auch Sat.1 betreiben in Dortmund Landesstudios. Der WDR produziert in Dortmund die Sendungen Planet Wissen, Lokalzeit aus Dortmund und Der geschenkte Tag. Die Lokalzeit aus Dortmund berichtet täglich mit aktuellen Nachrichten über die Region. Sat.1 produziert die NRW-Ausgabe von in Dortmund. Außerdem werden manche Beiträge für verschiedenen Sendungen zum Beispiel für das Sat.1-Frühstücksfernsehen in Dortmund produziert.
Der landesweite TV-Lernsender NRWision hat seinen Standort ebenfalls in Dortmund. An dem Programm beteiligen sich Lehrredaktionen, Amateurfilmer und Bürgergruppen aus ganz NRW. In seiner Mediathek werden gezielt alle Fernsehsendungen nach einzelnen nordrhein-westfälischen Städten bzw. Medienmachern aus diesen Orten gebündelt. Der Lernsender wird von der Landesanstalt für Medien Nordrhein-Westfalen gefördert und vom Institut für Journalistik an der TU Dortmund entwickelt und betrieben.
Dortmund ist neben London und Paris Sitz von Global Tamil Vision und Hauptsitz von GTV-Deutschland.
Hörfunk.
Im WDR Studio Dortmund werden Teile der Hörfunkwellen WDR 2 und WDR 4 sowie die Verkehrsnachrichten produziert. Das lokale Privatradio Radio 91.2 bietet regionale Informationen sowie das Rahmenprogramm von Radio NRW. Das studentische Radio eldoradio* spielt rund um die Uhr Musik, sendet morgens und abends auch Wortbeiträge und kann in Dortmund über Antenne, Kabel und darüber hinaus als Webradio empfangen werden.
Online-Angebote.
Die Online-Magazine mit der größten Reichweite sind die BVB-Fanzines schwatzgelb.de und gibmich-diekirsche.de.
Das Online-Angebot NRWision bündelt in seiner Mediathek Video- und Audio-Produktionen über Dortmund bzw. TV-Sendungen, Radio-Beiträge und Filme, die von Redaktionen und Medienmachern aus Dortmund produziert wurden.
Seit 2013 berichtet der mehrfach ausgezeichnete lokaljournalistische Blog Nordstadtblogger nahezu täglich aus der und über die Nordstadt und das ganze Stadtgebiet.
Im Juni 2016 ist das Online-Nachrichtenportal Dortmund24.de gestartet, das 2019 in RUHR24.de umbenannt wurde. Es gehört zum Verlag Lensing Media und ist zusammen mit dem Schwesterportal RuhrNachrichten.de das größte Online-Nachrichtenportal aus Dortmund. Es berichtet über Themen aus Dortmund, dem Ruhrgebiet und NRW, sowie über den BVB, den FC Schalke 04 und Themen aus dem Bereich Service. RUHR24.de gehört zum bundesweiten Online-Redaktionsnetzwerk von IPPEN.MEDIA.
Verlage.
Das Medienhaus Lensing ist der drittgrößte unabhängige Zeitungsverleger in Nordrhein-Westfalen. Der Harenberg Verlag verlegt die Fachzeitschrift "buchreport" und die "Spiegel"-Bestsellerlisten. Einer allgemeinen Öffentlichkeit bekannt wurde der Verlag durch die Reihe "Die Bibliophilen Taschenbücher" und insbesondere die "Chronik des 20. Jahrhunderts". Die Busche Verlagsgesellschaft ist ein Verlag für Hotel- und Gastronomiekritik. Bekannt sind insbesondere die jährlich erscheinenden Werke "Schlemmer Atlas" und "Schlummer Atlas". Der Grafit Verlag verlegt Kriminalromane.
Das Plattenlabel Century Media hat seinen Sitz in Dortmund und gehört seit 2015 zu Sony Music Entertainment. Die Aktive Musik Verlagsgesellschaft produziert unter dem Label Igel-Records Kinderkassetten, CDs und Kinderhörbücher.
Weitere in Dortmund ansässige Verlage sind Borgmann Verlag, IFS-Verlag, Ingrid Lessing Verlag, Verlag Kettler, OCM Verlag, VBE-Verlag, Verkehrsblatt-Verlag, Verlag Modernes Lernen und Vorsatzverlag.
Öffentliche Einrichtungen.
Dortmund ist Sitz folgender Einrichtungen beziehungsweise Körperschaften des öffentlichen Rechts:
Als regional bedeutsamer Gerichtsstandort verfügt Dortmund über ein Landgericht, ein Amtsgericht, ein Arbeitsgericht und ein Sozialgericht.
Außerdem existieren in Dortmund ein Konsulat Italiens sowie Honorarkonsulate von Bangladesch, Ghana, Kasachstan, Slowenien, Südafrika und Tschechien.
Bildung und Forschung.
Forschungsinstitute.
Die Basis der Dortmunder Bildungslandschaft bildet eine Vielzahl unterschiedlicher Schulformen. Dortmund ist außerdem „Korporativ Förderndes Mitglied“ der Max-Planck-Gesellschaft.
Schulen.
Die Stadt Dortmund verfügt über 160 Schulen, darunter 16 Gymnasien (14 städtische). Insbesondere zu nennen sind dabei das Stadtgymnasium Dortmund als ältestes Gymnasium der Stadt (gegründet 1543), das Max-Planck-Gymnasium als zweitältestes Gymnasium Dortmunds (gegründet 1858) und das Leibniz-Gymnasium als eine von nur ca. 30 Schulen bundesweit mit International-Baccalaureate-Abschluss.
Persönlichkeiten.
Angesichts der starken Zuwanderung im 19. und in den beiden ersten Dritteln des 20. Jahrhunderts galt: „Die meisten berühmten Dortmunder waren keine Dortmunder, sondern sie wurden es erst.“ Zu den bekannten gebürtigen Dortmundern der Gegenwart zählen insbesondere die Fußballer der Stadt wie Michael Zorc, Thorsten Fink, Christian Nerlinger, Marco Reus und Kevin Großkreutz. Darüber hinaus bekannte Schauspieler wie Dietmar Bär, Max Herbrechter und Amelie Plaas-Link, die deutschen Regisseure Peter Thorwarth und Martin Papirowski, die Filmregisseurin und Drehbuchautorin Yasemin Şamdereli, der Autor Ralf Husmann, die Journalisten Freddie Röckenhaus und Jörg Thadeusz, der Künstler Edgar Knoop, der Musiker Phillip Boa, der Kabarettist Bruno Knust oder Politiker wie Steffen Kanitz, Manuel Sarrazin und Marco Bülow.
Weitere gebürtige und bereits verstorbene Dortmunder sind der Verleger, Gründer des Verlagshauses „F. A. Brockhaus“ und Herausgeber des Brockhaus Friedrich Arnold Brockhaus, der Industriemagnat Leopold Hoesch, der deutsche Admiral Wilhelm Canaris, die Schauspieler Dieter Pfaff und Rudolf Platte, sowie die Fußballer Hans Tilkowski, August Lenz oder Lothar Emmerich. |
1037 | 1859 | https://de.wikipedia.org/wiki?curid=1037 | Deutsches Alphabet | Das deutsche Alphabet ist das Alphabet, das zur Schreibung der deutschen Sprache verwendet wird. Es ist in Deutschland, Österreich, der Schweiz sowie in Liechtenstein und Luxemburg in Gebrauch, darüber hinaus in Ländern mit deutschsprachigen Minderheiten wie Belgien (Eupen und Malmedy), Dänemark (Nordschleswig), Italien (Südtirol) und Polen (Oberschlesien).
Das deutsche Alphabet ist eine Erweiterung des lateinischen Alphabets. Im heutigen standardisierten Gebrauch umfasst es die 26 Grundbuchstaben des lateinischen Alphabets, die drei Umlaute (Ä, Ö, Ü) sowie das Eszett (ß). In der Schweiz und in Liechtenstein wird das ß jedoch heute nicht mehr verwendet (stattdessen wird ss geschrieben). Das große Eszett (ẞ) wurde erst im 21. Jahrhundert in das deutsche Alphabet aufgenommen.
Die Bezeichnungen der einzelnen Buchstaben haben neutrales Genus (sächliches Geschlecht): „das A“, „das B“ usw.
Sowohl in der Schreibung von Mundarten wie in historischen Dokumenten werden und wurden darüber hinaus zahlreiche Buchstabenvarianten und auch weitere Buchstaben gebraucht. Das Gleiche gilt für die Schreibung von Fremdwörtern, z. B. kommen é und è mit Akzent in französischen Fremdwörtern häufig vor.
Entwicklung aus dem lateinischen Alphabet.
Herkunft der Umlautbuchstaben.
Die "Umlautbuchstaben" (ä, ö und ü) entstanden aus der Kombination des jeweiligen lateinischen Buchstabens (also a, o und u) mit einem den Umlaut anzeigenden "e". Sie sind in dieser Form erst seit dem 16. Jahrhundert in allgemeinem Gebrauch. Umlautbuchstaben werden heute auch in zahlreichen anderen Sprachen verwendet.
In althochdeutschen Handschriften sind Umlaute nur dort bezeichnet, wo ein geeigneter Buchstabe zur Verfügung stand, nämlich "e" für kurzes "ä" und später "iu" für langes "ü", nachdem der Diphthong zum "ü" monophthongiert war. Die Buchstaben "o" und "u" konnten also in alt- und mittelhochdeutschen Schriften sowohl "o" und "u" wie auch "ö" und "ü" oder "üe" bedeuten.
Seit etwa dem 13. Jahrhundert wurde in manchen Handschriften die Ligatur "æ" für langes oder offen gesprochenes "ä" verwendet oder ein "e" oder "i" zur Unterscheidung über den umgelauteten Buchstaben gesetzt, seltener auch hinter ihn. In der deutschen Kurrentschrift, die etwa seit dem 16. Jahrhundert immer mehr in Gebrauch kam, sieht dieses kleine "e" wie zwei senkrechte Striche aus, aus denen schließlich die zwei heute häufig verwendeten Punkte wurden. Einige Schriftarten verwenden immer noch die senkrechten Striche für die Umlautbuchstaben.
Die Herkunft der Umlautbuchstaben ist im heutigen Schreibgebrauch noch erkennbar, insbesondere bei Familiennamen wie Baedeker und bei Ortsnamen wie Uerdingen oder Oerlikon. Wenn die Umlautbuchstaben auf einer Tastatur nicht zur Verfügung stehen, wird regelmäßig ae, oe, ue geschrieben. In Kreuzworträtseln wird zumeist AE, OE, UE anstelle von Ä, Ö, Ü geschrieben.
Herkunft des Eszett.
Das Eszett (ß), das auch als "scharfes s" bekannt ist, ist ursprünglich eine Ligatur aus dem langen ſ (s) und entweder dem runden s oder dem z in den spätmittelalterlichen Bastarden und der neuzeitlichen Frakturschrift. Ab etwa dem Anfang des 19. Jahrhunderts wurde die Antiqua auch in deutschsprachigen Ländern gebräuchlicher. Damals enthielten die meisten Antiqua-Schriften keine Buchstaben für das "ß", Drucke aus dem 19. Jahrhundert sind daher oftmals ohne ß gesetzt. Bei der Orthographischen Konferenz von 1901 wurde festgelegt, dass die Schriftgießereien in Zukunft ihre Antiqua-Schriften mit der Letter ß zu liefern hätten und für vorhandene Schriften ein ß nachzuliefern sei. Das lange s (ſ) wurde auch in der Antiqua gelegentlich gesetzt, es findet sich beispielsweise noch im Leipziger Duden von 1951.
Einführung des großen Eszett.
In Versalschrift wird für ß meist SS geschrieben, früher auch SZ. In amtlichen Dokumenten wurde das ß auch innerhalb von Versalschrift verwendet, zum Beispiel beim Familiennamen "WEIß", um die Unterscheidung zwischen "Weiß" und "Weiss" auch bei Versalschreibung zu ermöglichen. Bereits Anfang des 20. Jahrhunderts wurde die Schaffung eines Großbuchstabens diskutiert, von den Entwürfen hat sich aber keiner durchgesetzt. Das große ß (Versal-Eszett) wurde schließlich am 4. April 2008 in die Version 5.1 des Unicode-Standards als U+1E9E (ẞ) aufgenommen und am 24. Juni 2008 auch in die Norm ISO/IEC 10646. Die Verwendung des Versal-Eszett ist für die amtliche Schreibung geografischer Namen verbindlich.
Am 29. Juni 2017 hat der Rat für deutsche Rechtschreibung das große ß in das amtliche Regelwerk aufgenommen. Statt "STRASSE" kann man nun "STRAẞE" mit großem ß schreiben. Üblich ist nach wie vor die Schreibweise "STRASSE". Dies wird auch im amtlichen Regelwerk so dargestellt.
Benennung der Buchstaben.
Ein bloßer Konsonant ist akustisch relativ schwierig von anderen seiner Art zu unterscheiden. Daher weicht die Benennung der Konsonantenbuchstaben von der üblichen Laut-Buchstaben-Zuordnung ab. Im Folgenden wird angegeben, wie die Buchstaben normalerweise benannt werden (Aussprache nach IPA):
Besonders beim Buchstabieren ist es hilfreich, statt des Buchstabens ein festgelegtes Wort mit dem entsprechenden Anfangsbuchstaben auszusprechen, zum Beispiel „Friedrich“ für F. Siehe dazu Deutschsprachige Buchstabiertafeln.
In der Schrift werden Buchstaben meistens als solche notiert, zum Beispiel: „Vogel schreibt sich mit V, nicht mit F.“ Für einige wenige Buchstaben gibt es darüber hinaus verdeutlichende Schreibweisen, die gelegentlich verwendet werden. Laut Duden sind dies:
Reihenfolge und Sortierung.
Reihenfolge der Buchstaben.
Die 26 Grundbuchstaben (ohne Umlaute und ẞ) haben folgende Reihenfolge im Alphabet:
Bei einer Auflistung des kompletten Alphabets werden die Umlaute meist am Ende angefügt, das ß entweder nach s oder zusammen mit den Umlauten am Ende der Kleinbuchstaben. Beispielsweise werden im amtlichen Regelwerk zur Rechtschreibreform die Zeichen wie folgt in zwei Zeilen vorgeführt und mit größeren Abständen gruppiert:
Bei der alphabetischen Sortierung von ganzen Wörtern werden die Umlaute und ẞ anders behandelt (siehe unten).
Alphabetische Sortierung.
Die alphabetische Sortierung von Wörtern oder Namen richtet sich grundsätzlich nach der Reihenfolge der Buchstaben im Alphabet. Bei Umlautbuchstaben und beim Eszett (ß) sowie beim Vorkommen von Ziffern und Sonderzeichen kann es jedoch Abweichungen geben, die vom genauen Anwendungsbereich abhängen. Beispielsweise beschreibt die Norm DIN 5007:1991 zwei Varianten:
In Österreich werden teilweise andere Normen angewendet.
Selten verwendete Variationen von Buchstaben.
Folgende Variationen von Buchstaben werden im Deutschen – wenn auch selten – noch in Eigennamen verwendet:
Häufigkeit der Buchstaben im Deutschen.
Der häufigste Buchstabe ist das E, gefolgt vom N. Der seltenste Buchstabe ist das Q. Die Art der Texte (Lyrik, Prosa, Bedienungsanleitungen usw.) hat keinen Einfluss auf die Buchstabenverteilung.
Bei den Buchstabenpaaren (Bigrammen) sind ER und EN am häufigsten vertreten, und zwar hauptsächlich am Wortende. Die häufigsten Dreiergruppen (Trigramme) sind SCH und DER.
Zahl der Buchstaben im Alphabet.
Bei der Frage, wie viele Buchstaben das deutsche Alphabet enthält, ist zunächst die Konvention festzuhalten, dass Groß- und Kleinbuchstaben nicht separat gezählt werden. Zum Beispiel gelten A und a nicht als verschiedene Buchstaben, sondern als zwei Formen desselben Buchstabens. Entsprechend werden auch Buchstabenformen wie das ſ („langes s“) und das ʒ („z mit Unterschlinge“) sowie Ligaturen – die verschmolzene Schreibweise zweier Buchstaben – nicht als zusätzliche Buchstaben gewertet, sondern als besondere Gestaltungsformen von Buchstaben (siehe dazu Glyphe).
Es ist dennoch nicht eindeutig, wie viele verschiedene Buchstaben Bestandteile des deutschen Alphabets sind. Abhängig vom Verständnis des Begriffs „Alphabet“ werden meist 26 oder (seltener) 30 Buchstaben zum Alphabet gerechnet, manchmal auch 27 Buchstaben:
Im Zusammenhang mit dem Vergleich der zahlreichen lateinischen Alphabete und der Frage, wie viele Buchstaben diese enthalten, ist das Verständnis naheliegend, dass mit dem jeweiligen Alphabet die Gesamtheit der Buchstaben gemeint ist, die zum Schreiben von Wörtern der jeweiligen Sprache gebraucht werden – im Deutschen also nicht nur die 26 Buchstaben von A bis Z, sondern auch die Umlautbuchstaben und das ß. Entsprechende Definitionen finden sich in der Fachliteratur. Daraus ergibt sich die Zählung von 30 Buchstaben im deutschen Alphabet.
Ansonsten wird „Alphabet“ üblicherweise definiert als die Gesamtheit der Buchstaben einer Schrift, die in einer festgelegten Reihenfolge angeordnet sind. Die Reihenfolge der Buchstaben ist im deutschen Alphabet bei den 26 Buchstaben von A bis Z festgelegt, nicht aber bei den Umlautbuchstaben und ß (siehe oben zur Reihenfolge der Buchstaben). Aus diesem Grund wird meist gesagt, das deutsche Alphabet enthalte 26 Buchstaben. Bei dieser Perspektive werden die Umlautbuchstaben und ß zum Beispiel mit der Formulierung berücksichtigt, dass sie „dazukommen“ oder dass es außerdem vier zusätzliche „Sonderbuchstaben“ gebe.
Ein weiteres Motiv für die Zählung von nur 26 Buchstaben im Alphabet kann darin liegen, dass die Umlautbuchstaben und ß nicht im selben Maß als „eigenständige“ Buchstaben bewertet werden wie die 26 Buchstaben von A bis Z. Sie haben sich aus Kombinationen anderer Buchstaben entwickelt (siehe oben zur Herkunft) und lassen sich noch heute durch Buchstabenkombinationen ersetzen (z. B. ae für ä oder ss für ß). Außerdem werden die Umlautbuchstaben ä, ö, ü als die Vokalbuchstaben a, o, u mit diakritischem Zeichen geschrieben und erscheinen insofern als Varianten anderer Buchstaben. Das ß erscheint im Vergleich dazu eigenständiger, weil es sich nicht als Schreibvariante eines anderen Buchstabens interpretieren lässt. Auf diesem Hintergrund ist auch die Ansicht vertretbar, dass das deutsche Alphabet 27 Buchstaben umfasse (a bis z und ß), während ä, ö, ü als die Buchstaben a, o, u mit diakritischem Zeichen anzusehen seien. Im Zusammenhang mit der Einführung des großen ß wurde das ß als der 27. Buchstabe des Alphabets bezeichnet.
Personennamen mit Sonderzeichen.
Personen mit Umlauten und/oder ß im Namen haben häufig Probleme, da viele elektronische Systeme diese Buchstaben nicht verarbeiten können und man auf Umschreibungen (ae, oe, ue, ss) ausweichen muss. Gerade in Personalausweisen und Reisepässen ist der Name dann in zweierlei Weise geschrieben, einmal richtig und in der maschinenlesbaren Zone (MRZ) in Umschrift (z. B. Schröder / SCHROEDER, Weiß / WEISS). In verschiedenen Dokumenten (Kreditkarten, Krankenversicherungskarte, BahnCard) kann derselbe Name unterschiedlich geschrieben sein, was besonders im Ausland für Verwirrung und Verdacht auf Dokumentenfälschung sorgen kann. Österreichische Ausweisdokumente können (müssen aber nicht) eine Erklärung der deutschen Sonderzeichen (auf Deutsch, Englisch und Französisch, z. B. 'ö' entspricht / is equal to / correspond à 'OE') beinhalten.
Schon vor Einführung des großen ẞ wurde empfohlen, ß bei Familiennamen in Dokumenten aus Gründen der Eindeutigkeit auch als Großbuchstaben zu benutzen (z. B. HEINZ GROßE).
Das deutsche Namensrecht erkennt Sonderzeichen im Familiennamen als Grund für eine Namensänderung an (Nr. 38 NamÄndVwV). Auch eine bloße Änderung der Schreibweise, z. B. von Schröder zu Schroeder oder von Weiß zu Weiss, gilt als solche. Am 1. Oktober 1980 stellte das Bundesverwaltungsgericht noch einmal fest, dass die technisch bedingte fehlerhafte Wiedergabe von Sonderzeichen auf elektronischen Systemen ein wichtiger Grund für die Änderung des Familiennamens sein kann (der Kläger wollte die Schreibweise seines Namens von Götz in Goetz ändern, war damit aber zunächst beim Standesamt gescheitert; Aktenzeichen: 7 C 21/78). |
1038 | 238988 | https://de.wikipedia.org/wiki?curid=1038 | Deutscher Herbst | Als Deutscher Herbst wird die Zeit und ihre politische Atmosphäre in der Bundesrepublik Deutschland im September und Oktober 1977 bezeichnet, die geprägt war durch Anschläge der terroristischen Vereinigung Rote Armee Fraktion (RAF). Die Entführung und Ermordung Hanns Martin Schleyers, die Entführung des Lufthansa-Flugzeugs "Landshut" und die Selbstmorde der inhaftierten führenden Mitglieder der ersten Generation der RAF stellten den Schlussakt der so genannten Offensive 77 der RAF dar. Der Deutsche Herbst gilt als eine der schwersten Krisen in der Geschichte der Bundesrepublik Deutschland.
Der Begriff „Deutscher Herbst“ leitet sich von dem Film "Deutschland im Herbst" von 1978 ab, einer Collage mehrerer Dokumentarfilme von elf Regisseuren des „Neuen Deutschen Films“, die sich mit der Reaktion des Staates auf den Terrorismus aus unterschiedlichen Blickwinkeln kritisch auseinandersetzen.
Ereignisse im Frühjahr und Sommer des Jahres 1977.
Im Jahr 1977 erreichten die Aktivitäten der sogenannten zweiten Generation der RAF ihren Höhepunkt. Die Ereignisse vor September werden aber allgemein nicht dem Deutschen Herbst zugerechnet.
Am 7. April 1977 wurden in Karlsruhe vom "Kommando Ulrike Meinhof" der Generalbundesanwalt Siegfried Buback, sein Fahrer Wolfgang Göbel und der Leiter der Fahrbereitschaft der Bundesanwaltschaft Georg Wurster von einem Motorrad aus in ihrem Auto erschossen.
Am 30. Juli 1977 wurde der Vorstandssprecher der Dresdner Bank AG Jürgen Ponto bei einem fehlgeschlagenen Entführungsversuch ermordet. Das RAF-Mitglied Susanne Albrecht war mit Ponto persönlich bekannt. In Begleitung von Brigitte Mohnhaupt und Christian Klar besuchte Albrecht den Bankmanager, um ihn zu entführen. Da dieser von ihrer politischen Radikalisierung nichts wusste, empfing er sie arglos in seinem Privathaus in der Oberhöchstadter Straße in Oberursel. Als er sich gegen die Entführung zur Wehr setzte, schossen Klar und Mohnhaupt mehrmals und trafen ihn tödlich. Danach flohen alle drei mit dem vor Pontos Villa bereit stehenden, von Peter-Jürgen Boock gesteuerten Fluchtwagen.
Am 25. August 1977 scheiterte ein Anschlag auf das Gebäude der Bundesanwaltschaft in Karlsruhe.
Verlauf des Herbstes 1977.
Am 5. September 1977 kam es zur Entführung von Arbeitgeberpräsident Hanns Martin Schleyer in Köln, dabei wurden sein Fahrer und drei Polizeibeamte ermordet. Die Entführer forderten die Freilassung von elf inhaftierten RAF-Terroristen.
Da die Bundesregierung – anders als bei der Entführung von Peter Lorenz zwei Jahre zuvor – nicht auf die Erpressung einging, versuchten mit der RAF verbündete Terroristen der PFLP, den Druck durch die Entführung der Lufthansa-Maschine „Landshut“ am 13. Oktober 1977 zu erhöhen. Nach einer Odyssee durch die arabische Welt und der Ermordung des Piloten, Kapitän Jürgen Schumann, landete das Flugzeug auf dem Flughafen Mogadischus, der Hauptstadt des ostafrikanischen Somalia. Hier wurde die "Landshut" am 18. Oktober gegen 00:30 Uhr durch die Spezialeinheit GSG 9 gestürmt. Um 00:38 Uhr kam im Deutschlandfunk eine Sondermeldung, dass „alle Geiseln befreit sind. Ob es unter ihnen Tote und Verletzte gab, wissen wir zu dieser Stunde noch nicht …“. Tatsächlich waren alle 86 Geiseln unverletzt frei gekommen.
Kurz danach, noch in der Nacht vom 17. zum 18. Oktober 1977, der Todesnacht von Stammheim, nahmen sich die in Stuttgart-Stammheim inhaftierten RAF-Terroristen Andreas Baader, Gudrun Ensslin und Jan-Carl Raspe das Leben. Die ebenfalls dort inhaftierte Irmgard Möller überlebte ihren Suizid-Versuch mit vier Messerstichen in der Herzgegend. Der entführte Hanns Martin Schleyer wurde in der Folge von seinen Entführern ermordet. Seine Leiche fand man am Abend des 19. Oktober in Mülhausen im Elsass.
Reaktion der Politik.
Auch die Parteien gerieten im Deutschen Herbst in heftige Auseinandersetzungen. Die CDU/CSU-Opposition vermutete bei der regierenden sozial-liberalen SPD/FDP-Koalition unter Helmut Schmidt (SPD) eine ideologische Nähe zu den Terroristen. Die Koalition ihrerseits warf der Opposition hysterische Überreaktionen vor und unterstellte ihr, sie nutze die Gelegenheit, die Bundesrepublik ein Stück weit in einen Polizeistaat zu verwandeln.
Trotz dieser Gegensätze berief Bundeskanzler Schmidt zu Beginn der Schleyer-Entführung den so genannten Großen Krisenstab ein, dem Mitglieder aller Fraktionen des Deutschen Bundestages angehörten. Der Historiker Wolfgang Kraushaar bezeichnete diese Zeit später als „nicht-erklärten Ausnahmezustand“. Ein Ergebnis des parteiübergreifenden Konsenses war das im Herbst 1977 verabschiedete Kontaktsperregesetz, das die Möglichkeit zu einem Kontaktverbot für Häftlinge schuf. Dieses Kontaktverbot bezog sich auch auf die Gespräche mit Rechtsanwälten. Außerdem wurde die Strafprozessordnung dahingehend geändert, dass ein Angeklagter höchstens drei Wahlverteidiger benennen durfte. |
1039 | 1622109 | https://de.wikipedia.org/wiki?curid=1039 | David Arquette | David Arquette (* 8. September 1971 in Winchester, Virginia) ist ein US-amerikanischer Schauspieler, Musiker und Wrestler.
Leben.
Sowohl sein Großvater Cliff und sein Vater Lewis als auch seine Geschwister Patricia, Rosanna, Alexis und Richmond waren bzw. sind Schauspieler.
David Arquette absolvierte eine Ausbildung bei der "Second City Theatre Group" und begann seine Karriere 1989 mit Francis Ford Coppolas Fernsehserie "The Outsiders".
Bekannt wurde er vor allem durch seine Darstellung des naiven Polizisten Dewey in der Horrorfilm-Pentalogie "Scream" (1996, 1997, 2000, 2011 und 2022). Bei den Dreharbeiten lernte er seine spätere Frau Courteney Cox (bekannt aus der US-Sitcom "Friends") kennen, die er 1999 heiratete. Am 13. Juni 2004 kam die gemeinsame Tochter zur Welt. Im Oktober 2010 gaben David und Courteney ihre Trennung bekannt. Im Jahr 2011 war er in "Scream 4" erneut neben Courteney Cox und Neve Campbell zu sehen, 2022 folgte unter seiner Mitwirkung mit "Scream" der fünfte Teil der Reihe. Im Deutschen wird er häufig von Frank Röth und Dietmar Wunder synchronisiert; ersterer übernahm die Funktion in der "Scream"-Reihe. Abseits dessen hatte er im 2022 erschienenen Videospiel "The Quarry" eine Nebenrolle inne, welcher er sowohl seine Stimme als auch sein Aussehen lieh; seine deutsche Stimme stammt hierbei von Erik Schäffler.
David Arquette ist auch als Regisseur und Komponist tätig. In seiner Freizeit tourt er häufig mit seiner Band "Ear 2000" durch die USA.
Um den Film "Ready to Rumble" zu bewerben, trat David Arquette im April 2000 mehrfach bei der Wrestling Promotion WCW auf. Obwohl er keine Erfahrung in Sachen Wrestling hatte und nur einfache Anfänger-Aktionen zeigte, wurde er im April 2000 WCW World Heavyweight Champion. Diese Entscheidung der Führung der WCW wird noch heute in vielen Internetforen verspottet und als der Tod der Liga angesehen. Den Titel hielt Arquette zwölf Tage.
2020 wurde mit "You Cannot Kill David Arquette" eine Dokumentation über ihn veröffentlicht. |