Akademie-Journal 1/2004 - akademienunion.de · 4 Akademie-Journal 1/2004 Mikrotechnik...

91

Transcript of Akademie-Journal 1/2004 - akademienunion.de · 4 Akademie-Journal 1/2004 Mikrotechnik...

1

Akademie-Journal 1/2004

Editorial

Wissenschaft kreiert Technik

Noch vor 100 Jahren gab es zunächst die Erfin-dung sowie die daraus entwickelte Technik, underst danach entstand die zugehörige Wissen-schaft. Dampfmaschine, Auto, Telefon, Dynamo,Flugzeug wurden längst produziert, bevor dieWissenschaften sie genauer verstanden und ver-besserten. Diese Erfindungen waren mit mensch-lichen Sinnen und Vorstellungen im doppeltenSinne leicht zu be-greifen. Heute ist es bei fastallen neuen Techniken umgekehrt: Die Wissen-schaften, nicht nur die Natur- und Bio-, sondernauch die Technikwissenschaften, entdecken undentwickeln neue Prozesse und Produkte. Und erstdanach entsteht die Technik dazu: Mikro-, Na-no-, Laser-, Biotechnik, Elektronik, Voltaik, Bio-nik, neue und bessere Materialien. Diese Techni-ken sind meist nicht mehr be-greifbar. 10.000devon Nanoteilchen in einem Millimeter? Das gehtnicht in unseren Kopf, hat den Bereich des sinn-lich Wahrnehmbaren, wie es Goethe forderte,längst verlassen. Erzeugt es deshalb Ängste? BillJoys sich selbst reproduzierende Nano-Maschi-nen, die nicht nur die menschliche Spezies be-drohen?Wissenschaft und Technik sind in gegenseitigeAbhängigkeiten hineingewachsen, denn sie sindin unverzichtbarer Weise aufeinander angewie-sen. Ohne Technik: keine Suche nach subatoma-ren Teilchen, keine Plasmaphysik, keine Genom-Entschlüsselung und Stammzellenforschung,keine Erkundung des Kosmos, keine Analysenund Synthesen in der Chemie. Ohne Wissen-schaft: kein Computer-Chip, keine Brennstoff-zelle und Photovoltaik, keine Abgasreinigungder Luft, keine Laseroperation, keine Polymer-Elektronik und keine Abwassertechnik. Und diehier forschen und entwickeln sind kaum noch zuunterscheiden, ob sie als Physiker, Chemiker, In-formatiker, Biowissenschaftler oder Ingenieurebegonnen haben.Dieses Heft will anhand von neun ausgewähltenSpezialgebieten darüber informieren, woran die– nicht mehr so klassischen – Technikwissen-schaften arbeiten, was Technik des 21. Jahrhun-derts werden kann. Mikro-und Nanotechnik wol-len die Welt der kleinsten Dimensionen für tech-nische Konstrukte mit sehr vielseitigen Anwen-dungsfeldern erschließen. Lasertechnik, Photo-voltaik und Polytronik (Polymer-Elektronik) ent-wickeln aus Erfindungen der Physik und Chemie

Techniken, die für die industrielle Fertigung reifsind. Die Spinelektronik, die den durch Magneti-sierung veränderbaren Spin der Atome z. B. fürzukünftige, extrem leistungsfähigere Computernutzen will, ist z. Z. noch am weitesten entferntvon technischen Umsetzungen. Der Beitrag zurComputersimulation soll daran erinnern, daß In-genieure Funktion und Zukunftsverhalten ihresArtefakts in Modellen analysieren müssen. DerAufsatz von Ernst Gilles zeigt Komplexitäts-Analogien zwischen den biologischen Prozessenin einer Zelle und den vernetzten Systemen inder Technik auf.Wenn Wissenschaft zukünftige Technik entwi-ckelt, sind auch deren gesellschaftliche Aspekteintegrale Themen. Doch hiervon ist in diesemHeft bewußt nicht die Rede, weil Fragen nachder „richtigen“ Energie der Zukunft, der Nach-haltigkeit zukünftiger Technik, nach der Verant-wortbarkeit, ob wir das was wir tun, auch tundürfen, den Umfang des Heftes sprengen wür-den. So bleibt es hierfür nur bei einem Aufsatz,dem über den Wertewandel in der Technik.Die Bundesministerin Edelgard Bulmahn hat dasWissenschaftsjahr 2004 zum „Jahr der Technik“ausgerufen. Dieses Heft ist ein Beitrag dazu. DieBundesregierung hat einen „Innovationsbeirat“berufen. Der Konvent der Technikwissenschaf-ten acatech hat „nachhaltiges Wachstum durchInnovation“ zum Leitthema gewählt (s. Akade-mie Journal 1/2003, S. 47). Da wird (wie schonJoseph Schumpeter „Innovation“ definierte) vonBio-, Nano-, Medizin-Technik und anderen neu-en Technologien mehr erwartet als nur wissen-schaftliche Entwicklung, nämlich Markterfolg,ökonomischer Mehrwert, wirtschaftlicher Auf-schwung. Was also von den neuen TechnologienInnovation wird, das bestimmen die Märkte unddie, die sie erzeugen, nicht die Technikwissen-schaftler.Die Herausgeber hoffen, daß die Lektüre auchnichttechnische Leser damit belohnt, besser zuwissen, welche Techniken sich entwickeln. Frei-lich ist ein wenig Geduld gefordert, denn dieFachterminologie lies sich nicht gänzlich ver-meiden.

Heinz DuddeckWissenschaftlicher Beirat des Akademie-Journals

2

Akademie-Journal 1/2004

3

Akademie-Journal 1/2004

ImpressumAkademie-Journal 1/2004Magazin der Union der deutschen Akademien der Wis-

senschaften e.V.

Akademie der Wissenschaften zu Göttingen

Bayerische Akademie der Wissenschaften, München

Heidelberger Akademie der Wissenschaften

Akademie der Wissenschaften und der Literatur, Mainz

Nordrhein-Westfälische Akademie der Wissenschaften,

Düsseldorf

Sächsische Akademie der Wissenschaften zu Leipzig

Berlin-Brandenburgische Akademie der Wissenschaften,

Berlin

Herausgeber:Der Präsident der Union der deutschen Akademien der

Wissenschaften

Geschwister-Scholl-Straße 2, D-55131 Mainz, FRG

Telefon 0 61 31/21 85 28 14 · Telefax 0 61 31/21 85 28 11

e-mail: [email protected]

http://www.akademienunion.de

Redaktion: Dr. Katharina Weisrock

Wissenschaftlicher Beirat:Prof. Dr. W. Baumeister, München

Prof. Dr. H. Duddeck, Berlin*

Prof. Dr. J. Fried, Mainz

Prof. Dr. H. Hennig, Leipzig

Prof. Dr. J. Jacobs, Düsseldorf

Prof. Dr. U. Mölk, Göttingen

Prof. Dr. C.W. Müller, Leipzig

Prof. Dr. W. Müller-Seidel, München

Prof. Dr. H.W. Roesky, Göttingen

Prof. Dr. M. Schaefer, Mainz

Prof. Dr. E.A. Schmidt, Heidelberg

Prof. Dr. K. Starke, Heidelberg

Prof. Dr. W. Voßkamp, Berlin

* verantwortlich für den Themenschwerpunkt

Technik im 21. Jahrhundert

Die in dieser Zeitschrift veröffentlichten Beiträge sind

urheberrechtlich geschützt. Alle Rechte, insbesondere

das der Übersetzung in fremde Sprachen, sind vorbehal-

ten. Kein Teil dieser Zeitschrift (auch Abbildungen)

darf ohne schriftliche Genehmigung des Verlags in ir-

gendeiner Form – durch Fotokopie, Mikrofilm oder an-

dere Verfahren – reproduziert oder in eine von Maschi-

nen, insbesondere von Datenverarbeitungsanlagen, ver-

wendete Sprache übertragen werden. – Die Aufnahme

der Zeitschrift in Lesezirkel ist nicht gestattet. – Die

Nennung von Markenbezeichnungen in dieser Zeit-

schrift läßt keinerlei Rückschlüsse zu, ob es sich um ge-

schützte oder nichtgeschützte Zeichen handelt.

Auch die Rechte der Wiedergabe durch Vortrag, Funk-

und Fernsehsendung, im Magnettonverfahren oder auf

ähnlichem Wege bleiben vorbehalten. Von einzelnen

Beiträgen oder Teilen von ihnen dürfen nur einzelne

Exemplare für den persönlichen und sonstigen eigenen

Gebrauch hergestellt werden. Die Vervielfältigungen

sind mit dem Vermerk über die Quelle und den Verviel-

fältiger zu versehen.

For users in the USA:Authorization to photocopy items for internal or perso-

nal use, or the internal or personal use of specific

clients, is granted.

Herstellung, Layout und Reprographie:rjm Medienservice GmbH,

Rudolf J. Manke – 68623 Lampertheim

Erscheinung:

Heft 1/2004: Juli 2004, ISSN 0942-4776

Titelbild: Composing von Thomas Tempel,

T.G.T. Design

Inhalt

TECHNIK IM 21. JAHRHUNDERT

Jürgen HesselbachMikrotechnik – Mikroproduktion 4

Andreas OstendorfLasertechnik 12

Hans-Günther WagemannPhotovoltaik 20

Wolfgang KowalskyPolytronik 26

Andreas WaagSpinelektronik 32

Manfred KrafczykComputersimulationen 38

Peter A. WildererAbwassertechnik am Scheideweg 43

Harald FuchsNanotechnologie 48

Ernst Dieter GillesKomplexität in Technik und Biologie 55

Hans PoserTechnik im Wertewandel 62

Kurt Gärtner/Ralf WolzElektronisches Publizieren 67

Nachrichten aus der Union 69

Nachrichten aus den Akademien 74

Personalia aus den Akademien 86

4

Akademie-Journal 1/2004

Mikrotechnik – Mikroproduktion

Jürgen Hesselbach

Sehr große, aber auch sehr winzige Dinge haben die Menschen zu allen Zeiten beeindruckt.Wen fasziniert (oder beunruhigt) nicht die von japanischen Wissenschaftlern entwickelteVision des Mikro-U-Bootes, das durch unsere Blutbahnen navigiert, Inspektionsaufgabendurchführt und falls erforderlich schädliche Ablagerungen in den Adern mit kleinstenWerkzeugen entfernt. Professoren der Universität Berkeley träumen vom „intelligentenStaub“ (smart dust), der verteilt über Land und Leute sicherheitsrelevante Informationenliefert und damit eine neue Dimension im Kampf gegen das „Böse“ eröffnet.Insbesondere in Europa tun wir uns mit solchen Vorstellungen etwas schwerer. Aber dieMiniaturisierung bei gleichzeitiger Funktionsintegration ist unstrittig auch hier ein zentra-les Thema der Produktentwicklung in den unterschiedlichsten Anwendungsfeldern. Ohnedaß es uns bewußt ist, sind heute schon in vielen Produkten, sei es im Automobil der Air-bag-sensor oder im Handy die integrierte Kamera, winzige Komponenten (wenn auch meistnicht sichtbar) wichtige funktionale Bestandteile.In der Forschung im deutschsprachigen Raum sprechen wir von einem Mikrosystem, wennder Produktaufbau mechanische Komponenten, Signalverarbeitung, Sensoren und/oder Ak-toren auf kleinstem Raum umfaßt oder wesentliche Strukturelemente Abmessungen im Mi-krometer-Bereich (1/1000 mm) aufweisen. Aufgrund der vielfältigen Vorteile mikrosy-stemtechnischer Lösungen, wie kleine Abmessungen, geringes Gewicht und niedrigerEnergieverbrauch, hohe Zuverlässigkeit, Multifunktionalität und nicht zuletzt auch niedrigeKosten, wird die Mikrosystemtechnik (MST) weltweit als eine Schlüsseltechnologie für das21. Jh. angesehen, die zu ähnlichen technischen und gesellschaftlichen Veränderungen füh-ren kann wie die Mikroelektronik seit den sechziger Jahren. In vielen Industriezweigen, wiein der Fahrzeugindustrie, der Medizintechnik, der Kommunikationstechnik oder der Bio-und Umwelttechnik, werden miniaturisierte Komponenten und Produkte bereits heute inzunehmender Stückzahl eingesetzt. Zukunftsszenarien sehen wachsende Anwendungen beiMikromaschinen und in der Mikrorobotik (Mechatronische Mikrosysteme), bei elektroni-schen Assistenzsystemen (z.B. in die Kleidung integriert, die „wearables“) des Menschensowie bei Sicherheitstechniken und Identifizierungssystemen (Ubiquitäre Mikrosysteme),bei der optischen Datenübertragung und Höchstfrequenzelektronik (Photonische Mikrosy-steme) sowie bei Mikroreaktoren als künstliche Organe oder zur Produktion personalisierterMedikamente (Symbiontische Mikrosysteme) [1].In Marktstudien wird der Mikrosystemtechnik ein exponentielles Wachstum prophezeit. Soauch in der Studie des „Network of Excellence in Multifunctional Microsystems“ Nexus,die ein jährliches Wachstum von 20% prognostiziert und für das Jahr 2005 weltweit einMST-Marktvolumen von 68 Mrd. Dollar erwartet [2].

Mikroproduktion

Wichtige Voraussetzungen für diese Entwick-lung der Mikrotechnik sind neben dem Entwurfdie wirtschaftliche Herstellung und geeigneteVerfahren. Die Mikroproduktionstechnik umfaßtin ihrer Gesamtheit alle einzelnen, zum Teilhochspezialisierten Fertigungsverfahren für mi-niaturisierte Produkte. Miniaturisierte Systemeund Einzelkomponenten werden in sehr unter-schiedlichen Stückzahlen benötigt, von Massen-produkten im Automobilbau bis zu Kleinserienim Maschinen- und Anlagenbau. Da ein Großteil

der Herstellkosten in der Produktion anfällt, istes notwendig, eine wirtschaftliche und auf die je-weils zu fertigende Stückzahl zugeschnittene Lö-sung zu realisieren. Bei der Fertigung einzelnerFunktionsbaugruppen und kompletter Produktegibt es zwei unterschiedliche Ansätze: Die (klas-sischen) feinwerktechnischen sowie die (neue-ren) mikrotechnischen Verfahren.

Mikrotechnische Herstellung

Mikrotechnische Miniaturisierungsansätze basie-ren auf Verfahren, die aus der Mikroelektronik

5

Akademie-Journal 1/2004

übernommen wurden. Dies sind insbesondere dieFotolithographie, kombiniert mit Ätztechnikenoder Verfahren zur Abscheidung dünner Schich-ten (Abb. 1). Dabei wird z.B. über eine Maskeentsprechend der gewünschten Struktur ein foto-empfindlicher Lack auf dem Substrat belichtet.Nach der Entwicklung verbleibt eine strukturier-te Fotolackschicht. Anschließend wird mit einerÄtzlösung (naß-chemisches Ätzen) oder einemÄtzgas (Trockenätzen) die gewünschte Strukturaus dem Substrat herausgelöst. Die Mikrotechniküberträgt diese Verfahren auf nicht-elektronischeFunktionselemente [3]. Dadurch wird die Inte-gration von mechanischen Komponenten, Senso-ren, Aktoren und elektronischen Bauelementenzu komplexen, multifunktionalen Mikrosyste-men mit kleinen Abmessungen möglich. Zu-nächst waren diese Verfahren beschränkt auf dieHerstellung ebener (planarer) Strukturen. Inzwi-schen wurden diese weiterentwickelt, so daßauch die Herstellung dreidimensionaler bewegli-cher Gebilde möglich ist. Zu den dafür geeigne-ten Verfahren gehören unter anderem die Tiefen-lithographie, das anisotrope Tiefenätzen von Sili-zium, Opferschichttechniken und die Mikrogal-vanik [3].

(Sub-) Feinwerktechnische Herstellung

Eine evolutionäre Vorgehensweise bieten dieMethoden der Feinwerktechnik bzw. der Ultra-präzisionstechnik, bei denen konventionelle Ver-fahren zur Herstellung miniaturisierter Bauteileweiterentwickelt werden. Insbesondere Ferti-gungsverfahren, die mit formgebenden Werkzeu-gen im Mikrometerbereich arbeiten (Abform-techniken, Spritzgießen, Prägen), eröffnen inter-essante Ergänzungen und zum Teil auch Alterna-tiven zu mikrotechnischen Prozessen. Aber auchmit Hilfe von Verfahren der Lasermikrobearbei-tung oder der Mikrozerspanung lassen sich kom-plexe dreidimensionale Geometrien aus fast allenMaterialien fertigen. Ein Beispiel hierfür ist dasMikroschleifen (Abb. 2), mit dem sich Struktu-ren von wenigen Mikrometern Größe aus sprö-den und harten Werkstoffen, wie etwa Glas, Sili-zium oder gehärtetem Stahl, herausarbeiten las-sen [4].Für die Herstellung und Bearbeitung von kom-plexen dreidimensionalen Mikrostrukturen oderkleinsten Bohrungen eignen sich Mikroschleif-stifte (minimale Durchmesser von 60 µm). Mitdiesen winzigen Werkzeugen werden beispiels-weise Bohrungen in Einspritzdüsen modernerDieselmotoren bearbeitet (Abb. 2). Für großflä-chige Mikrostrukturen oder kleinste Nuten wer-den Mikroschleifscheiben eingesetzt. Hohe Bear-beitungsgeschwindigkeiten und sehr gute Ober-flächengüten sind Merkmale dieser Bearbeitung.Die minimale Breite von Mikroschleifscheibenliegt bei 20 µm = 1/50 mm. Als Schneidstoff

Abb. 1Fotolithographieund Ätzen. Die Abb.zeigt schematisch dieProzeßschritte zumErzeugen von Mikro-strukturen sowohl ineinem Substrat alsauch in auf einemSubstrat aufgebrach-ten Schichten. DasStrukturieren vonSubstraten wirdauch als Volumenmi-kromechanik be-zeichnet. Als Ober-flächenmikromecha-nik wird dahingegendas Strukturierendünner Schichten aufeinem Substrat be-zeichnet (Abb. nachBüttgenbach [3])

Abb. 2Mikrozerspante Strukturen und Mikrowerkzeuge. Auch mit den konven-tionellen Fertigungsverfahren Drehen, Fräsen, Bohren und Schleifenlassen sich kleinste Strukturen fertigen. Die Abb. zeigt verschiedeneSchleifwerkzeuge sowie Strukturen, die subfeinwerktechnisch gefertigtwurden (Quelle: IWF Braunschweig, Bosch)

wird sowohl bei Schleifstiften als auch bei-scheiben Diamant oder CBN (Kubisches Borni-trit) verwendet.

Mikromontage

Der Aufbau miniaturisierter Systeme ist austechnischen (z.B. bewegliche Strukturen, unter-

6

Akademie-Journal 1/2004

7

Akademie-Journal 1/2004

8

Akademie-Journal 1/2004

schiedliche Materialien) oder wirtschaftlichenGründen (z.B. niedrige Stückzahlen) nicht im-mer monolithisch zu realisieren, sondern mußaus einzelnen Bauteilen oder Baugruppen zu-sammengesetzt werden. Wesentliche Problem-stellungen dieser Mikromontagen folgen u.a. ausder geringen Größe der empfindlichen Einzeltei-le und den erforderlichen Montagegenauigkeiten(0,1...10 µm). Der Mensch ist hier hinsichtlich

seiner manuellen Fähigkeiten schlichtweg über-fordert, geht es doch um Probleme vergleichbarmit dem Einfädeln eines Haares (Durchmesserca. 70 µm) in eine entsprechende Bohrung.Ein weiteres Problem entsteht aus dem abneh-menden Verhältnis von Gewichtskraft der Ob-jekte zu den Oberflächenkräften (Abb. 3). BeiBauteilen mit kleinsten Abmessungen treten Pro-bleme durch schwer kontrollierbare Haftkräfteauf. Aufgrund der geringen Gewichtskräfte las-sen sich solche Bauteile noch einigermaßenleicht aufgreifen, jedoch das zuverlässige Loslas-sen bereitet oft Schwierigkeiten. Bei der Monta-ge erschwert dies die Handhabung der Teile. Er-forderlich sind daher zur schonenden Handha-bung neue Lösungsansätze, bei der Adhäsionsef-fekte reduziert oder ausgenutzt werden. So istz.B. seit längerem bekannt, daß sich Kräfte, diedurch ein elektrisches Feld verursacht werden,direkt zum Greifen kleinster Bauteile nutzen las-sen. An zwei Elektroden wird dazu eine Span-nung angelegt, die ein elektrisches Feld erzeugt,durch das kleine Bauteile an den Elektroden haf-ten bleiben. Für die Herstellung der elektrostati-schen Greifer werden z.B. dünne Goldschichtenauf ein Glassubstrat aufgebracht [5]. Der einfa-che Aufbau ermöglicht es, besonders kleineGreifer herzustellen. Die Transparenz des darge-stellten Greifers läßt eine Beobachtung der ge-griffenen Objekte durch den Grundkörper hin-durch zu. Diese Eigenschaft ist besonders vonVorteil, wenn während des Greifprozesses derVorgang mit einer Kamera überwacht werdensoll.

Beispiele miniaturisierter Bauteile undProdukte

Mikrosysteme aktueller Forschungsprojektewerden hier exemplarisch vorgestellt:

Mikroplasmareaktor zur AbgasnachbehandlungEin wichtiges Anwendungsgebiet der MST imBereich der „Lebenswissenschaften“ (Bioche-mie, Biotechnologie, Umwelttechnik) sind Mi-kroreaktoren für Trennprozesse und Analysen.Ein wesentlicher Vorteil dieser Mikrosystemebesteht in ihrem äußerst günstigen Verhältnisvon wirksamer Oberfläche der Katalysatorenzum Gesamtvolumen der durchgesetzten Me-dien. Der in Abb. 4 gezeigte Mikroreaktor er-möglicht die Zerlegung fluorhaltiger Abgase.Der Kern des Reaktors besteht aus mikrostruktu-rierten Elektroden, die kammförmig ineinandergreifen. Die mikrotechnische Fertigung des Re-aktors erfolgt mit Verfahren der Fotolithogra-phie. Wegen des Anwendungsgebietes mußte dieWerkstoffauswahl die Verträglichkeit mit Fluor-verbindung berücksichtigen. Besonders geringeSpaltweiten ermöglichen es, bei geringen Zünd-spannungen ein homogenes Plasma zu erzeugen,

Abb. 3Elektrostatischer Greifer [5]. Die Abb. zeigen ein Funktionsmuster ei-nes zentrierenden elektrostatischen Greifers. Mit Hilfe von FEM Simu-lationen wurden die Formen der Elektroden derart optimiert, daß beimAnlegen einer Hochspannung sowohl zentrierende vertikale als auchhorizontale Kräfte auf das Greifobjekt wirken (Quelle: SFB 516)

Abb. 4Mikroreaktor [5]. Das Bild zeigt links einen mikrotechnisch gefertigtenMikroreaktor. Im rechten Bildteil sind 16 parallel betriebene Einzelre-aktoren dargestellt. Das im Helium erzeugte Plasma leuchtet in denSpalten zwischen den kammförmig angeordneten Elektroden (Quelle:IMT-Braunschweig)

9

Akademie-Journal 1/2004

10

Akademie-Journal 1/2004

in dem Reaktionen erfolgen, die in konventionel-len thermischen Systemen Temperaturen über1000° C benötigen. Durch die Parallelisierungmehrerer Mikroreaktoren kann der Durchsatz er-höht werden.

MikrolinearmotorWährend inzwischen eine Vielzahl von mikro-technisch hergestellten Sensoren angeboten wer-den, sind Lösungen im Bereich der miniaturisier-ten Aktoren vergleichsweise selten. Anwen-dungsfelder hierfür sind in der MedizintechnikAntriebe für miniaturisierte Werkzeuge bei derminimalinvasiven Chirurgie oder Antriebsmoto-ren für Mikromaschinen und Mikroroboter. DerSFB 516 Konstruktion und Fertigung aktiver Mi-krosysteme [6] beschäftigt sich in Braunschweigund Hannover mit den erforderlichen Technolo-gien zur Herstellung derartiger Mikrosystemeauf der Basis des elektromagnetischen Prinzips.Der Linearmotor (Abb. 5) ist aufgebaut aus ei-nem elektrisch aktiven Teil, dem Stator, und ei-nem geführten Läufer, der den magnetischenRückschluß über Luftspalte schließt. Der Statorverfügt über mehrere Reihen von Polstrukturen,die von einer vertikalen Mäanderspule umwun-den werden. Der Läufer besteht aus einer denStator überspannenden Traverse mit kammför-migen, weichmagnetischen Strukturen, die zwi-

Abb. 5Mikrolinearmotor[6]. Die im SFB 516erarbeiteten Metho-den und Technolo-gien werden an sog.Demonstratoren ve-rifiziert. Das Bildzeigt einen aufge-bauten Mikrolinear-motor in einemKraftmeßversuchs-stand zum Charakte-risieren der erreich-baren Kräfte (Quel-le: SFB 516)

Abb. 6Mikrotechnisch her-gestellter Greifer[6], wird mit pneu-matischen Falten-balgaktoren betrie-ben. Die Aktoren ar-beiten nach dem Dif-ferentialprinzip. Dasheißt, je ein Aktorwird zum Öffnen undzum Schließen desGreifergetriebes ver-wendet(Quelle: SFB 516)

schen die Pole des Stators ragen. Durch eineschrittweise Stromansteuerung der einzelnenMäanderspulen werden elektromagnetisch Kräf-te erzeugt, die den Motor vorwärts bewegen. Diebisher gefertigten Motoren ermöglichen mit Ge-samtabmessungen von ca. 10 mm einen Verfahr-weg über einige Millimeter. Die Strukturabmes-sungen der magnetischen Pole liegen dabei bei50 µm = 1/20 mm. Zur Fertigung der Motorenwerden optimierte UV-Tiefenlithographie-Ver-fahren zum Herstellen von Galvanoformen ein-gesetzt, in denen durch galvanische Abscheide-prozesse Leiterbahnen und weichmagnetischeStrukturen erzeugt werden. Isolatorwerkstoffesind Fotolacke.

MikrogreiferEin Beispiel für einen mikrotechnisch hergestell-ten Greifer ist der in Abb. 6 dargestellte Parallel-greifer mit zwei Faltenbalgaktoren zum Öffnenund Schließen der Greifbacken. Der Greifmecha-nismus kann monolithisch in Silizium oder inSU-8 (Fotolack) mit stoffschlüssigen Gelenken(„Filmgelenken“) aufgebaut werden. Bei stoff-schlüssigen Gelenken wird die Beweglichkeitdes Mechanismus durch eine gezielte Schwä-chung der mechanischen Struktur an definiertenStellen erreicht. Man spricht von nachgiebigenMechanismen (compliant mechanism). SolcheMechanismen eignen sich für eine Miniaturisie-rung besonders gut. Eine Möglichkeit, derartigeStrukturen in Silizium herzustellen, ist das plas-maunterstützte Trockenätzen (Reactive Ion Et-ching – RIE). Durch das Anwenden solcher Op-ferschichttechnologien lassen sich die Mikrome-chaniken auch aus strukturierten Fotolacken her-stellen.

Ausblick

Eine neue Dimension der Miniaturisierung undFunktionsintegration bei der Entwicklung undHerstellung innovativer Produkte eröffnet dieNanotechnolgie. Eine klare Abgrenzung zwi-schen der Mikro- und der Nanotechnologie er-scheint heutzutage sowohl hinsichtlich der Her-stellung von Strukturen sowie definierter Ober-flächen nur über die kleinsten erreichbaren Ab-messungen sinnvoll. Eine pragmatische Defini-tion besagt daher: Nanotechnologie ist die Ge-samtheit aller technischen Verfahren, die Mate-riestrukturen von unter 100 Nanometern Ausdeh-nung nutzen oder herstellen. Heinrich Rohrer,der Miterfinder des Rastertunnelmikroskops,warnt in dieser Hinsicht jedoch vor der Überbe-tonung der Miniaturisierung. “Nanotechnologiebedeutet nicht kleiner, schneller, billiger. Nano-technologie heißt: intelligenter, intelligenter, in-telligenter“ [7].Nanotechnologie umfaßt die Produktion undAnwendung von physikalischen, chemischen

11

Akademie-Journal 1/2004

und biologischen Systemen mit Abmessungenim Bereich von wenigen Atomen oder Mole-kühlen bis zu Submikrometerstrukturen und de-ren Integration in größere Systeme. So könnenbeispielsweise schon heutzutage dünnste rei-bungs- und verschleißarme Schichten mit Na-nopartikeln in Mikrosystemen eingesetzt wer-den.Ein weiteres Beispiel sind sogenannte Analyse-chips, in denen mit mikrofluidischen Komponen-ten die Flüssigkeiten transportiert werden, wäh-rend die analytische Funktionalität durch speziel-le Oberflächenstrukturen realisiert wird, die na-notechnologische Effekte nutzen.Zur Förderung der Nanotechnologien stellte dieBundesforschungsministerin Edelgard BulmahnAnfang März 2004 ein Rahmenkonzept zur För-derung der Nanotechnologie mit einem Förder-volumen von 200 Millionen Euro vor. Durch vierausgewählte Leitinnovationen in den BranchenAutomobil, Optische Industrie, Pharma und Me-dizintechnik sowie die Elektronik sollen die An-wendungspotentiale der Nanotechnologie für dieam Standort Deutschland wichtigen Industrie-branchen erschlossen werden.

Anschrift des Verfassers:Prof. Dr.-Ing. Dr. h.c. Jürgen HesselbachTechnische Universität BraunschweigInstitut für Werkzeugmaschinen undFertigungstechnikLanger Kamp 19 B38106 Braunschweig

Literatur

[1] Botthoff, A.; Pelka, J.(Hrsg.) Mikrosystemtechnik Zukunftssze-

narien, Springer-Verlag, Berlin Heidelberg New York, 2002

[2] Götz, F. (Hrsg.): Nexus MST Market Analysis 2002, NEXUS

Association, Grenoble 2002

[3] Büttgenbach, S.: Mikromechanik, Einführung in Technologie

und Anwendungen, B.G. Teubner, Stuttgart, 1991,

[4] Hesselbach, J., Raatz, A. et al.: MikroPRO Untersuchungen

zum internationalen Stand der Mikroproduktionstechnik. Vul-

kanverlag, Essen, 2002

[5] SFB 516 Konstruktion und Fertigung aktiver Mikrosystem, Er-

gebnisbericht, Braunschweig, 2004

[6] Sichler, P; Baars-Hibbe, L; Schrader, C.; Büttgenbach, S.; Ge-

ricke, K.-H.: A Micro-Plasma-Reactor for Fluorinated Waste

Gas Treatment. Proc. IMRET 7, Lausanne, 2003, Book of Ab-

stracts, S. 93-95

[7] Boeing, N.; Göthans, K.: Die Wahrheit über Nanotechnologie.

Technology Review, Nr.5, Mai 2004, S. 28, 2004

12

Akademie-Journal 1/2004

Laser haben sich heute ein breites Wissenschafts-und Anwendungsspektrum erobert. Dies reichtvon der Produktions- und Fertigungstechnik überdie Disziplinen Medizin, Biotechnologie, Meß-technik, Kommunikationstechnik bis hin zur Un-terhaltungselektronik. Nachdem die Grundlagenvon Einstein bis Schawlow in den Jahren 1917 bis1958 erarbeitet wurden, kamen in der Folgezeitimmer neue Lasermaterialien hinzu. Das Wellen-längenspektrum für Laserstrahlung wurde vomfernen Infrarot-Bereich bis in den Ultraviolett-Be-reich sukzessive erweitert. Daneben ist es mit Me-thoden der nichtlinearen Optik heute möglich, Fre-quenzen zu vervielfachen und damit noch vorhan-dene Lücken im Spektrum zu schließen. Die ge-genwärtig verfügbare Breite des Spektrums vonLaserwellenlängen erstreckt sich über nahezu 10Oktaven von 10 Mikrometer bis 10 Nanometer.Die Lasertechniken wurden von der Güteschaltungbis zur Modenkopplung weiterentwickelt. Damitstehen gepulste Strahlungsquellen mit Pulsdauern

bis hinunter zu einigen Femtosekunden (10-15s) zurVerfügung [1]. Die zugehörigen Pulsleistungenkönnen dabei Größenordnungen von Terawatt er-reichen. Bei kontinuierlich emittierenden Lasersy-stemen, d.h. ungepulsten Systemen, stehen heutemehrere Kilowatt Ausgangsleistung mit sehr guterStrahlqualität zur Verfügung. Derartige Strahl-quellen lassen sich bei kleineren Leistungen stabi-lisieren und hinsichtlich der Bandbreite minimie-ren. Hierdurch eröffnen sich neue Anwendungenauch in der ultrapräzisen Meßtechnik. Im Folgen-den wird anhand von vier Beispielen gezeigt, wiedie Erschließung neuer Erkenntnisse zu immerneuen Anwendungen geführt hat.

Von Nanosekunden zu Femtosekunden-Laserpulsen

Bereits 1963 wurde das Prinzip der Güteschaltungdes Laserresonators angewandt, um Nanosekun-den (ns)-Laserpulse (10-9 s) zu erzeugen. Eine Ver-

LasertechnikMit neuen Strahlquellen und erweiterten Parameternzu innovativen Anwendungen

Andreas Ostendorf

„Den Rest meines Lebens möchte ich damit zubringen,darüber nachzudenken, was Licht ist.“ (Albert Einstein)

Als Arthur L. Schawlow, ein Wissenschaftler bei den Bell Labs, und Charles H. Townes,beratend für die Bell Labs tätig, 1958 den Laser erfanden und diesen auf der Grundlagevon Einsteins Quantenmechanik von 1917 zur spontanen und stimulierten Emission be-rechneten, ahnten sie noch nicht, welchen dynamischen Verlauf diese Entwicklung je-mals nehmen würde. Ihre Veröffentlichung „Infrared and Optical Masers“ in der Fach-zeitschrift Physical Review hat nicht nur ein vollständig neues wissenschaftliches Feld er-öffnet, sondern in der Retrospektive auch einen Multimilliarden-Dollar Markt hervorge-bracht. Ihre wissenschaftlichen Arbeiten hatten keineswegs den Plan, ein Gerät zu ent-wickeln, das einmal zahlreiche Technologien von der Medizin bis zur Telekommunika-tion revolutionieren sollte. Ihre Absicht war es vielmehr, nach einer Lösung für ein kon-kretes Problem zu suchen. Mit Hilfe der Mikrowellen-Spektroskopie wollten sie moleku-lare Strukturen studieren und analysieren. Zwei Jahre später, 1960, realisierte TheodoreH. Maiman bei Hughes Aircraft Company den ersten Laser mit einem Rubinstab, und einJahr darauf erfanden Ali Javan, William R. Bennett, Jr. und Donald Herriott, ebenfalls beiden Bell Labs, den ersten Helium-Neon-Laser. Im selben Jahr entwickelte Robert J. Col-lins das Prinzip der Güteschaltung zur Erzeugung kurzer Laserpulse bis in den Nanose-kunden-Bereich. Bereits 1965 wurden durch Modenkopplung erste ultrakurze Pulse imPikosekunden-Bereich (1 billionstel sek) erzeugt. So wurde in den letzten 40 Jahren auf-grund dieser ersten Pionierarbeiten das Feld der Anwendungen durch neue Laserparame-ter kontinuierlich erweitert. Für ihre Arbeiten erhielten Townes 1964 und Schawlow 1981den Nobelpreis.

13

Akademie-Journal 1/2004

kürzung der Pulse bis in den Pikosekunden (ps)-Bereich (10-12 s) und darunter gelang 1965 durchdie Modenkopplung. Das Grundprinzip der Mo-denkopplung beruht auf einem schnellen Ver-schluß, der jedes Mal, wenn der im Resonator um-laufende Puls auf den Verschluß trifft, geöffnetund anschließend wieder geschlossen wird. Dabeigelangen die einzelnen longitudinalen Resonator-moden, d.h. die angeschwungenen Wellenlängen,in eine feste Phasenbeziehung. Diese phasenbezo-gene Kopplung führt im Gegensatz zu einer stati-stischen zu einer in den Pulsen sehr viel intensive-ren Überlagerung der einzelnen Wellenlängen.Unterschieden wird dabei zwischen aktiver undpassiver Modenkopplung. Bei der aktiven Moden-kopplung wird der Verschluß extern gesteuert. Beider heute überwiegend eingesetzten passiven Mo-denkopplung wird der Verschluß durch den Pulsselbst aktiviert. Derartige Komponenten sind z.B.sättigbare Absorber, die auf dem Ausbleichen ei-nes Farbstoffes bei genügend hohen Intensitätenbasieren. Mit diesem Verfahren können Pulsdau-ern bis unter 20 Femtosekunden (fs) (20·10-15 s) er-zeugt werden.Die Anwendung von Femtosekundenpulsen hatgroße Vorteile in der zeitaufgelösten Untersu-chung ultraschneller Prozesse z. B. in der chemi-sche Reaktionskinetik. Bedeutsam ist die Wech-selwirkung ultrakurzer Laserpulse mit unter-schiedlichen Materialien. Bei der Absorption inMetallen [2] kommt es zunächst zur Energiekopp-lung der einfallenden Strahlung in das Elektronen-system. Die freien Elektronen werden beschleu-nigt, es folgt eine Stoßionisation. Der Absorptionfolgt die schnelle Energierelaxation innerhalb desElektronensystems (Größenordnung 10 fs) und derWärmetransport in den Festkörper. Im Gegensatzzu längeren Laserpulsen verlaufen diese Prozessebei Femtosekundenpulsen nicht im Gleichge-wichtszustand, d.h. es kommt nicht zur Ausbil-dung einer Gleichgewichtstemperatur zwischenElektronen und Festkörpergitter. Bei dielektri-schen und halbleitenden Werkstoffen ist dieserProzeß analog, da die mit den Femtosekundenpul-sen verbundenen hohen Intensitäten eine Multi-photonenabsorption ermöglichen, d.h. es werdenzunächst ausreichend freie Elektronen erzeugt, dieden o.a. Prozeß wie bei Metallen anstoßen. Diesführt zu einer bedeutenden Eigenschaft von Fem-

tosekundenlasern, da bei ausreichender Intensitätalle Werkstoffklassen mit nahezu gleicher Präzi-sion bearbeitet werden können (Abb. 1). Das Aus-bleiben einer stationären Gleichgewichtstempera-tur führt dazu, daß das Material nahezu abrupt in

ein Mikroplasma transformiert wird, welches ex-pandiert und infolgedessen zu einem Materialab-trag führt. Eine durch thermische Diffusion imFestkörpergitter verursachte schmelzflüssige Pha-se, welche die Reproduzierbarkeit der Abtragsgeo-metrie in der Regel einschränkt, wird bei diesemVerfahren nahezu unterdrückt. Die erreichbarePräzision beim Materialabtrag mit Femtosekun-den-Laserpulsen reicht bis in den Nanometerbe-reich.

Von Ultraviolett-Lasern zu extremenUltraviolett-Quellen

Im elektromagnetischen Spektrum findet sich zwi-schen dem Vakuum-Ultraviolett (VUV)-Bereichund den weichen Röntgenstrahlen eine bis vor kur-zem wenig genutzte Region: Das extreme Ultra-violett (EUV) (Abb. 2). Während sich natürlicheStrahlungsquellen für EUV-Strahlung nur imWeltraum finden, wurde dieser Spektralbereichauf der Erde erst in den 50er Jahren des vergange-nen Jahrhunderts durch die Entdeckung der Syn-chrotronstrahlung zugänglich. Die kurze Wellen-länge ermöglicht die Fokussierung der Strahlungund die Bearbeitung von Strukturen im Nanome-

Abb. 1Durch Wechselwir-kung ultrakurzer La-serpulse mit Materielassen sich nahezualle Werkstoffe mithöchster Präzisionstrukturieren. NebenMetallen mit hoherWärme- und Elektro-nenleitfähigkeit (z.B.Kupfer) könnenHalbleiter und Mate-rialien mit Bandlüke(Glas, Polymere, Ke-ramik, etc.) bearbei-tet werden

Abb. 2Ausschnitt aus demelektromagnetischenSpektrum. Verfügba-re Laserstrahlungreicht vom fernen In-frarotbereich (10,6µm: CO2-Laser) bisin den VUV-Bereich(157 nm: F2-Laser).Für die Herstellungvon Strukturen mitwenigen zehn Nano-metern werden Be-lichtungsquellen imEUV-Spektralbe-reich benötigt

14

Akademie-Journal 1/2004

terbereich. Besondere Beachtung hat dieser Spek-tralbereich in den letzten Jahren durch die Mikro-chiplithographie erhalten. Da die bisher genutztenUV-Wellenlängen der Excimer-Laser (308 nm,248 nm, 193 nm und 157 nm) bis an die physikali-schen Grenzen ausgereizt sind, wird auf der Suchenach geeigneten Wellenlängen zur Herstellungkleinster Strukturen die Nutzung von elektroma-gnetischer Strahlung bis hinunter zu einer Wellen-länge von 13,5 nm angestrebt.Generell herrscht im EUV-Bereich noch erhebli-cher Forschungs- und Entwicklungsbedarf. Indu-strie und Universitäten suchen mit Hochdrucknach geeigneten Strahlquellenkonzepten für die je-weiligen Anwendungen. Das Spektrum der Anfor-derungen reicht dabei von schmalbandiger mono-chromatischer Strahlung für die Photoelektronen-spektroskopie bis zu breitbandiger intensiverStrahlung für die Projektionslithographie im EUV-Bereich.Neben Synchrotrons und Röntgenröhren sind dich-te heiße Plasmen bis zu Temperaturen von220.000 K (20 eV) Strahlungsquellen im EUV.Während Synchrotrons den Großforschungsein-richtungen vorbehalten bleiben, können EUV-Röhren und Plasmastrahlungsquellen durchauskompakt aufgebaut werden.Plasmastrahlungsquellen werden durch elektrischeGasentladungen oder durch die Beleuchtung vonMaterie mit Strahlung hoher Intensität realisiert[3]. Hier kommen besonders laserproduzierte Plas-men zum Einsatz: Gepulste Laserstrahlung mit In-tensitäten größer als 1010 W/cm2 wird auf eine Tar-getoberfläche eingestrahlt. Die Wechselwirkungder Strahlung mit dem Target führt zur Bildung ei-nes Plasmas. Aus diesem Plasma werden Brems-strahlung, Rekombinationsstrahlung und eine cha-rakteristische Linienstrahlung entsprechend derelektronischen Übergänge emittiert. In die Charak-teristik der Strahlung gehen sowohl die Eigen-schaften des Targets als auch die der Laserstrah-lung ein. Dieses Konzept wird besonders für dieEUV-Lithographie verfolgt, da erwartet wird, daßes auf die benötigten hohen Leistungen skaliertwerden kann. Geringere Leistungen, wie sie z.B.für die Entwicklung von Optiken benötigt werden,lassen sich in einem deutlich kompakteren Aufbaumittels Elektronenröhren mit Silizium-Targets er-zeugen. Dem Mangel an Strahlungsquellen standbis vor kurzem ein ebensolcher Mangel an Optikenentgegen. Da für Wellenlängen kürzer als 100 nmkeine transparenten Materialien zur Verfügungstehen, können traditionelle Linsenoptiken nichtgefertigt werden. Auch die Effizienz reflektiverOptiken ist geringer als beispielsweise im sichtba-ren Spektralbereich. Genutzt werden komplexe re-flektive Optiken, die aus Mehrschichtsystemen be-stehen. Die Anforderungen – besonders an dieOberflächenqualität – sind dabei enorm. Nach er-heblichen Forschungsanstrengungen können heutein sehr aufwendigen Herstellungsprozessen Spie-

gel mit Reflektivitäten um 70% bei 13,5 nm herge-stellt werden.Eine große Zahl möglicher EUV-Anwendungenwartet im Labor auf breiten Einsatz. Dazu zählenbeispielsweise die EUV-Mikroskopie, die Absorp-tionsspektroskopie, die direkte Strukturierung imNanometerbereich und die Photoelektronenspek-troskopie. In der Photoelektronenspektroskopiewechselwirkt monochromatische Strahlung mitMaterie und löst durch den photoelektrischen Ef-fekt gebundene Elektronen aus den inneren Scha-len der Atome. Die ausgelösten Elektronen werdendann energieselektiv nachgewiesen.Bedingt durch das große kommerzielle Interesseliegt das Hauptaugenmerk derzeit im Bereich derHalbleiter-Lithographie. Im Jahr 2005 wird der er-ste Prototyp eines Wafer-Belichtungsautomatenmit einer EUV-Belichtungsquelle erwartet. DieMarktreife für Halbleiterstrukturen, die mit EUV-Strahlung erzeugt werden, wird nach den Plänender Halbleiterhersteller bis 2009 angestrebt. Bisdahin sind noch viele technische Probleme zu lö-sen.

Hohe Laserleistungen mit verbesserterStrahlqualität

Die Entwicklung von Dauerstrichlasern, d.h. kon-tinuierlich emittierenden Lasern, mit hohen Aus-gangsleistungen hat in der jüngsten Zeit großeFortschritte gemacht. Dabei lag der Fokus wenigerauf einer Erzielung immer höherer Ausgangslei-stungen über 6 kW, sondern mehr auf der Optimie-rung der Strahlqualität bei Leistungen von 2-6 kW.Insbesondere im Bereich der Festkörperlaser(FKL) wurden hier bestehende Limitierungendurch neue Laserkonzepte überwunden [4].Die auch für die Zukunft Erfolg versprechendenKonzepte sind hierbei der Faserlaser und derScheibenlaser. (Abb. 3) In beiden Fällen wurde dieEntwicklung von immer leistungsfähigeren Laser-dioden als Pumpquellen getrieben. Im Fall desScheibenlasers wurde der bisher störende Effektder thermischen Linsenwirkung im Laserkristalldurch eine effiziente Kühlung des aktiven Medi-ums in Form einer dünnen Scheibe (typ. d=100µm) minimiert. Durch geeignete Anordnung derPumpstrahlung werden bis zu sechszehn Durch-läufe eines Pumpstrahls durch die Scheibe reali-siert, die zu einer hohen Absorption der Pumplei-stung trotz der geringen Dicke des Mediums füh-ren. Ferner sind Pumpwellenlänge (940 nm) undLaserwellenlänge (1030 nm) im Spektrum näherzusammen gerückt, so daß die Verlustleistung imMedium reduziert wurde. So wird ein optischerWirkungsgrad von über 60% erreicht. Bei Faserla-sern wird der Kern einer Lichtleitfaser mit laserak-tiven Materialien dotiert. Im Gegensatz zumScheibenlaser wird der thermische Verlust beimFaserlaser nicht über die Stirnfläche, sondern überdie Mantelfläche abgeführt. Eine Faser besitzt bei

15

Akademie-Journal 1/2004

Abb. 3Prinzipskizze Schei-benlaser (a) und Fa-serlaser (b). BeimScheibenlaser erfolgteine Kühlung überdie Stirnseite derdünnen aktiv dotier-ten Scheibe, so daßdie Strahlqualitätnicht durch thermi-sche Effekte negativbeeinflußt wird.Beim Faserlaserwird die Strahlquali-tät durch den Faser-aufbau vorgegeben.Die Wärmeabfuhrerfolgt über dieMantelfläche

Erklärungstafel

Laser: Abk. für engl. Light Am-plification by Stimulated Emis-sion of Radiation „Lichtverstär-kung durch angeregte Strah-lungsemission“ Grundlage desLaserprinzips ist die Anregungeiner stehenden Welle in einemResonator zwischen einem re-flektiven und einem teildurchläs-sigen Spiegel in einem homoge-nen Medium. Durch externeEnergiezufuhr (z.B. Lichtein-strahlung oder elektrische Energie) werdenElektronen im Medium auf ein höheres Ener-gieniveau angehoben (Besetzungsinversiondurch das sog. Pumpen). Kehren diese Elektro-nen in ein tieferes Energieniveau zurück, soentsteht durch das dabei ausgesandte Licht einesich verstärkende zwischen den Spiegeln ste-hende Welle, die durch den teildurchlässigenSpiegel entweder kontinuierlich (Dauerstrichla-ser) oder gepulst (Pulslaser) austreten kann. Jenach Lasermedium wird zwischen Festkörper-lasern (z.B. Nd:YAG) und Gaslasern (z.B. CO2)unterschieden. Laser erzeugen kohärente, mo-nochromatische, sehr intensive und scharf ge-bündelte Lichtstrahlen.Nichtlineare Optik: Die hohen Leistungs-dichten, die mit heutigen Lasern erzeugt wer-den können, ermöglichen Effekte, die über dieoptischen Phänomene der klassischen Physikhinausgehen. Von besonderer Bedeutung istdie Intensitätsabhängigkeit des Brechungsin-dexes, die z.B. den Kerr-Linsen-Effekt be-gründet. Dabei ruft eine intensitätsabhängigeModulation des Brechungsindexes im Materi-al eine Linsenwirkung hervor. Ein weiteresBeispiel für die Nutzung von nichtlinearen Ef-fekten in der Lasertechnik ist die Frequenz-konversion, d.h. die Vervielfältigung der opti-schen Lichtfrequenz.

Güteschaltung: Bei der Güteschaltung wirdüber einen schnellen Schalter im Resonatorein Pulsbetrieb mit sehr hohen Pulsleistungenund kurzen Pulsdauern bewirkt. Der zunächstgeschlossene Schalter bewirkt ein Anregenohne Entladung durch den Laserbetrieb. BeimÖffnen wird die gespeicherte Energie schlag-artig über den teildurchlässigen Spiegel inForm eines Laserpulses ausgekoppelt.Modenkopplung: Das Prinzip der Moden-kopplung basiert auf der phasengekoppeltenÜberlagerung möglichst vieler angeschwunge-ner Laserwellenlängen innerhalb einer defi-nierten Bandbreite. Modengekoppelte Laser-pulse sind in der Regel extrem kurz und verfü-gen über sehr hohe Pulsleistungen. Die Erzeu-gung einer konstanten Phase zwischen den ein-zelnen Wellenlängen geschieht in der Regelaktiv oder passiv über nichtlineare optischeKomponenten.Projektions-Lithographie: Bei der Herstel-lung von mikroelektronischen Schaltkreisen aufHalbleitern wird das Schaltungsdesign in derRegel über eine Lichtprojektion verkleinert aufden Halbleiter übertragen. Die Integrations-dichte ist dabei mit abnehmender Belichtungs-wellenlänge zunehmend, d.h. je kleiner die ver-wendete Belichtungswellenlänge, desto gerin-ger die theoretisch minimalen Strukturen.

16

Akademie-Journal 1/2004

einer langen Wechselwirkungslänge für Pump-strahlung ein außerordentlich günstiges Verhältnisvon Oberfläche zu Volumen. Der Mechanismusdes optischen Pumpens wird durch neuartigeTechnologien der Leistungseinspeisung und durchspezielle Geometrien des Faserkerns optimiert.Dabei wird die eingekoppelte Pumpleistung nichtmehr durch die Faserendflächen limitiert, sondernkann über einen als Pumpkern wirkenden Faser-mantel zugeführt werden. Die damit erzielte Lei-stung beträgt gegenwärtig bis zu 500 W aus einerFaser mit einem Kerndurchmesser von 25 µm. Dieerzielten Strahlqualitäten verschiedener Lasersy-steme sind in Abb. 4 dargestellt.Der Begriff Strahlqualität definiert die Fokussier-barkeit der Laserstrahlung und wird quantitativ imStrahlparameterprodukt angegeben. Dieses Pro-dukt setzt sich aus dem Divergenzwinkel und demDurchmesser des Lichtstrahls beim Austritt ausdem Laser zusammen und ist eine für einen Lasercharakteristische Größe. Eine hohe Leistungsdichtekann nur durch eine gute Fokussierbarkeit erreichtwerden. Mit einer erhöhten Strahlqualität erschlie-ßen sich vielfältige neue Anwendungsfelder. Dreitypische Nutzungsmöglichkeiten sind in Abb. 5dargestellt.

Abb. 4Leistung und Strahl-qualität verschiede-ner Lasersysteme.Die Grafik zeigt diekonkurrierenden An-sätze Scheiben- undFaserlaser. Für An-wendungen in derEbene ist der CO2-Laser aufgrund sei-nes günstigen Preis/Leistungsverhältnis-ses häufig überlegen.DreidimensionaleAnwendungen wieim Fahrzeugbau er-fordern jedoch in derRegel fasergeführteSysteme im Nahin-frarotbereich wieScheiben- oder Fa-serlaser

Abb. 5Vorteile von Lasernmit verbesserterStrahlqualität. Heutenoch vorwiegendeingesetzte lampen-gepumpte Laser (ingrau) sind für vieleAnwendungen limi-tiert. Zukünftige dio-dengepumpte Laser(in rot) lassen sichdurch ihre guteStrahlqualität besserfokussieren und öff-nen damit neue An-wendungen

Zunächst kann bei gleichbleibender Optik ein klei-nerer Fokus und damit eine höhere Leistungsdichteerzielt werden. In der Automobilindustrie und imFlugzeugbau sind verzugminimierte Schweißnähtevon großer Bedeutung. Durch die höhere Strahl-qualität läßt sich die Laserstrahlung auf einen klei-neren Spot fokussieren, was zu einer kleinerenWärmeeinflußzone führt und damit zu einem gerin-geren Verzug des Bauteils. Außerdem kann dieSchweißgeschwindigkeit deutlich erhöht werden.Ein weiterer Nutzen verbesserter Strahlqualität istdie Vergrößerung des Arbeitsabstandes. Bei kon-stantem Fokusdurchmesser kann die Brennweiteder Fokussierung erhöht werden (Abb. 5 Mitte).Diese Zielsetzung wird bei Scannersystemen ver-folgt. Hier können die Positionier- und Nebenzei-ten minimiert werden, indem der Laserstrahl nichtdurch Roboter über das Werkstück geführt wird,sondern über Spiegelsysteme nahezu trägheitslosbewegt wird. Insbesondere bei Anwendungen wiedem Schweißen von kurzen Steppnähten werdendie Produktionszeiten durch die Scannernutzungum ca. 50% reduziert. Die Größe des Arbeitsfeldswird in diesem Fall von der Brennweite der Optikbegrenzt, so daß eine hohe Strahlqualität automa-tisch ein großes Arbeitsfeld z.B. für Schweißpro-zesse ermöglicht (Abb. 6).Ein dritter, weniger häufiger Vorteil liegt in derVerschlankung der Optik. Bei gleichen optischenAbständen und Fokusgrößen kann der Durchmes-ser der Strahlführung reduziert werden, was zuleichteren und handlicheren Optiksystemen führt.Dies ist insbesondere bei der Miniaturisierung vonBearbeitungsstationen von Interesse.Aus diesen Anwendungsfeldern erklärt sich diegesteigerte Nachfrage nach Lasersystemen, die ei-ne Laserleistung im Bereich mehrerer Kilowatt beigleichzeitig sehr hoher Strahlqualität besitzen. Ein

17

Akademie-Journal 1/2004

eine Phasenverschiebung. Die Verschiebung ent-spricht dem Längenunterschied δl beider Arme.Die Dehnung des Raumes h, kann somit beschrie-ben werden als

wobei Z der Länge der Interferometerarme ent-spricht (Abb. 7).Mit Hilfe von Interferometern, die eine Armlängevon bis zu 4 km aufweisen, soll die benötigte Meß-empfindlichkeit erzielt werden. Die zum Erreichendieser Empfindlichkeit benötigte zirkulierende La-serleistung muß dabei einige 100 kW betragen. Ei-ne solche Laserleistung läßt sich nur mit Hilfe vonInterferometer internen speziellen Fabry-Perot Re-sonatoren und einer brillanten Hochleistungslaser-strahlquelle erreichen. Die Entwicklung derarthochspezifischer Laserstrahlquellen erfordert neueWege auf dem Gebiet der Laserentwicklung. Somuß das Lasersystem für den „advanced LIGO“Detektor bei einer Ausgangsleistung von ca.200 W einen nahezu beugungsbegrenzten Strahlaufweisen, d.h. der theoretisch optimalen Strahl-qualität sehr nahe kommen. Weiterhin mußeine Amplituden- und Frequenzstabilität von2·10-9Hz/ √Hz und 10Hz/√Hz jeweils bei 10Hz er-reicht werden.Physiker und Ingenieure entwickeln derzeit inweltweiten Teams Lasersysteme, die den enormenmeßtechnischen Anforderungen gewachsen sind.

Abb. 6Erweiterung des Be-arbeitungsraumes beider Scannerbearbei-tung mit variablerStrahlqualität. FürlampengepumpteFestkörperlaser sindbei einer schnellenScannerbearbeitungnur kurze Brennwei-ten einsetzbar. DasArbeitsfeld ist dahervergleichsweise klein.Mit besserer Strahl-qualität können län-gere Brennweiten fürdie Fokussierlinsegenutzt werden. DerArbeitsraum ist damitgrößer

zusätzliches Qualitätsmerkmal sowohl des Schei-benlasers als auch des Faserlasers ist die hohe Fle-xibilität, die beide Systeme durch einfache Strahl-führung über Lichtwellenleiter haben.

Hochstabile Lasersysteme für dieGravitationswellenastronomie

Die allgemeine Relativitätstheorie ist Albert Ein-steins Theorie der Schwerkraft von 1915. Sie be-schreibt die Gravitation nicht als Kraft, sondern alsAspekt der Geometrie des Raum-Zeit-Kontinuums(„Raumzeit“). Sterne und Galaxien rufen eineKrümmung dieser Raumzeit hervor; Licht undMaterie sind gezwungen, durch den so verzerrtenRaum zu laufen und der Krümmung zu folgen. Dasich alle Massen in Bewegung befinden, ändertsich die Geometrie der Raumzeit ständig. Die da-bei auftretenden Änderungen des Gravitationsfel-des können sich nur mit endlicher Geschwindig-keit ausbreiten. Das führt zwangsläufig zu einerals Welle fortschreitenden Erscheinung. Sie äußertsich in der Verformung der Raumzeit, d.h. in einerperiodischen Abstandsänderung zwischen benach-barten Probemassen – den Gravitationswellen. Un-ter den vielen bestandenen Tests der allgemeinenRelativitätstheorie ist es besonders die Voraussagevon Gravitationswellen, die noch der Bestätigungdurch einen direkten Nachweis harrt. Der experi-mentelle Nachweis besteht aufgrund der periodi-schen Abstandsänderung „nur“ in einer einfachenLängenmessung. Beobachtbare Gravitationswel-len werden jedoch nur von kompakten kosmischenObjekten und Vorgängen mit großen Beschleuni-gungen erzeugt, z.B. Sternexplosionen (Superno-vae), superschwere Schwarze Löcher oder schnellumeinander kreisende Neutronensterne [5].Selbst wenn diese Quellen in der Milchstraße odereiner Nachbargalaxis liegen, rufen sie auf der Erderelative Längenänderungen von bestenfalls nur10-18 hervor, typischerweise sogar nur 10-21, d.h. ei-ne Strecke von 3 km Länge ändert sich nur um einTausendstel eines Protonendurchmessers. ZurMessung derart kleiner Signale sind Interferometervom Michelson-Typ ideal geeignet. Sie messendie Verschiebung zwischen zwei Lichtwellen, diegleichzeitig die unter einem rechten Winkel ste-henden Interferometerarme durchlaufen. Verän-dert eine Gravitationswelle die Länge der beidenArme (Stauchung und Streckung), so ergibt sich

Abb. 7a) Aufbau eines Gra-vitationswellendetek-tors in Form einesMichelson-Interfero-meters. b, c) Stre-kung bzw. Stauchungder Interferometer-arme wie sie von ei-ner Gravitationswel-le ausgelöst würden

18

Akademie-Journal 1/2004

Herzstück dieser Systeme sind hochstabile Laser,die auf einem Miniatur-Einkristall-Laser (Miser)aufbauen. Der Miser verfügt über eine große In-tensitäts-und Frequenzstabilität, ist jedoch in sei-ner Ausgangsleistung auf ca. 2 W begrenzt. DieAusgangsleistung des Misers reicht daher nichtaus, um die erforderliche Detektorenempfindlich-keit zu erreichen. So muß dessen Leistung durchweitere Lasersysteme erhöht werden. Für dendeutsch-britischen GEO 600 Detektor wird derMiser-Laser genutzt, um seine Stabilitätseigen-schaften mittels „injection-locking“ auf eine Lei-stungslaserstufe zu übertragen. Für den GEO 600Detektor wurden so 12W, für den VIRGO Detek-tor mehr als 20 W erreicht. Für das Erreichen des200 W Lasersystems wird eine weitere Hochlei-stungsstufe an die schon vorhandene 12 W Stufegekoppelt [6].Die Anwendung dieser hochspezifischen Strahlquel-len könnte in Zukunft auch in anderen Bereichen derGrundlagenforschung wie z. B. der Spektroskopieliegen. Sicher ist jedoch, daß mit wissenschaftlichenAnwendungen wie dem Gravitationswellenexperi-ment neue Felder z.B. in der Astronomie eröffnetwerden, die in den nächsten Jahrzehnten immerempfindlichere Meßinstrumente und somit Laser-strahlquellen höchster Stabilität benötigen.

Anschrift des Verfassers:Dr.-Ing. Andreas OstendorfLaser Zentrum Hannover e.V.Hollerithallee 830419 Hannover

Literatur

[1] J. Meijer; K. Du, A. Gillner; D. Hoffmann, V.S. Kovalenko, T. Masu-

zawa, A. Ostendorf, R. Poprawe, W. Schulz: Laser Machining by

Short and Ultrashort Pulses, State of the Art and New Opportunities

in the Age of the Photons. In: Manufacturing Technology, Annals of

the CIRP, 51 (2002), Nr. 2, 531 – 550[2] G. Kamlage, T. Bauer, A. Ostendorf, B.N. Chichkov: Deep Drilling

of Metals by Femtosecond Laser Pulses. Appl. Phys. A, 77 (2003),

Nr. 2, 307 – 310[3] U. Stamm, H. Schwoerer, R. Lebert: Strahlungsquellen für die EUV-

Lithographie, Physik Journal, 12 (2002), 33-39[4] Handbook of Laser Technology and Applications: Volume 2: Laser

Design and Laser Systems, Part B, Ed. C.E. Webb, J.D.C. Jones, IOP

Publishing, 2003[5] P. Aufmuth, K. Danzmann: Auftakt zum Konzert der Sterne, Physik

Journal, 1 (2002), 33 – 38[6] I. Zawischa, M. Brendel, K. Danzmann, C. Fallnich, M. Heurs, S.

Nagano, V. Quetschke, H. Welling, B. Willke: The GEO 600 laser

system, Class. Quantum Grav. 19 (2002) 1775 – 1781

19

Akademie-Journal 1/2004

20

Akademie-Journal 1/2004

Photovoltaik

Hans-Günther Wagemann

Das große Interesse der Öffentlichkeit und die Faszination, die die Direktwandlung derSonnenstrahlung in elektrische Energie ausübt, ist erstaunlich. Wenn man den Anteil vonetwa 0.03% der Photovoltaik an der deutschen Stromerzeugung bedenkt, wächst die Ver-wunderung. Denn diese neuartige Technik veranlaßt private Hausbesitzer, ihr Geld fürdie aufwendige Umrüstung des eigenen Hausdaches mit zwei oder drei Kilowatt Solarzel-len auszugeben, ohne daß dafür zwingender Bedarf vorhanden ist oder, daß man in dennächsten Jahren mit einer Amortisierung der Anlage rechnen kann. Die Studenten vielerDisziplinen interessieren sich für die Grundlagen der Photovoltaik und wollen ganz per-sönlich die Herstellung von Solarzellen erlernen. Der Staat fördert die Entwicklung undAnwendung der Solarzellen durch großzügige Programme. Allein im Jahre 2002 hat dieBundesrepublik Deutschland für die Photovoltaik etwa vierhundert Millionen Euro auf-gewendet. Das 100.000-Dächer-Programm der Bundesregierung, das privaten Hausbesit-zern den subventionierten Photovoltaik-Generator auf dem Dach verschafft mit garantier-ter Einspeise-Rückvergütung, war im Juli 2003 dank des hohen Interesses der Öffentlich-keit ausgebucht. Seit 1990 hat sich die installierte Leistung von Photovoltaik-Anlagen inDeutschland mehr als verhundertfacht. Die Solarzellen-Hersteller investieren in neue Pro-duktionslinien. Versuchen wir diese Euphorie zu verstehen, indem wir Entwicklungsli-nien nachvollziehen und uns den erreichten Stand der neuen Technik vergegenwärtigen.Wir wollen dabei aber auch die Probleme sehen, die durch hoch gesteckte Erwartungenentstehen.

Die Entwicklung der Photovoltaik biszur heutigen Reife

Die Physik betrachtet die photovoltaische Energie-wandlung als eine Besonderheit, weil sie unter al-len Arten der Energiewandlung durch thermody-namische Maschinen mit einem unerschöpflichenEnergieresevoir mit vergleichsweise geringer Er-zeugung von Verlusten in der Form zusätzlicherEntropie abläuft. Die Wechselwirkung von Strah-lung und Materie steht seit der Entdeckung desPlanckschen Gesetzes im Mittelpunkt der moder-nen Physik. Die Entwicklung der Quantenphysikdes Festkörpers führte zum Verständnis der elek-tronischen Halbleitung. Schon bald nach der Ent-deckung der Halbleiterdiode (Tafel 1) wurde imJahre 1954 die Silizium-Solarzelle (Tafel 2) vorge-stellt. Auch angesichts schneller Fortschritte beider Erhöhung des Anfangswirkungsgrades auf10% jedoch bemerkt G.L. Pearson von den BellLabs in Murray Hill/USA in einem Artikel von1957 über künftige Anwendungen der neuen Ener-giewandlung, daß sie im kleinen Maßstab auf Spe-zialanwendungen beschränkt bleiben wird [9].Tatsächlich aber sind im Jahre 2002 weltweit an-nähernd ein Gigawatt an photovoltaischer Energieinstalliert, eine Kapazität, die – tagsüber und beiklarem Himmel – der Leistung von ein bis zweikonventionellen Kraftwerken entspricht. Da esbislang keine wirkungsvollen Speicher elektri-scher Energie gibt, ist der Zusatz „tagsüber und bei

klarem Himmel“ eine starke Einschränkung derVerfügbarkeit photovoltaischer Energie. Dessenungeachtet drückt sich eine bemerkenswerte Eu-phorie in der derzeitigen jährlichen Zuwachsratevon 26% aus.Der Siegeszug der Solarzellen begann in den fünf-ziger Jahren, allerdings anders als zunächst erwar-tet. Der Technikpionier M. Prince berichtete aufder Photovoltaik-Weltkonferenz in Osaka 2003,wie erstmals im Jahre 1958 in den USA Solarzel-len erfolgreich zur elektrischen Versorgung einesSatelliten verwendet wurden. Bis in die siebzigerJahre lag hier die Hauptanwendung der „Solarele-mente“. Und auch europäische Hersteller wie RTCCompelec in Caen/Frankreich und Telefunken inHeilbronn sammelten wichtige Erfahrungen beiden Projekten europäischer Nachrichtensatellitenwie „Azur“ und „Symphonie“. Inzwischen sind fürNachrichtensatelliten wahre Wunderwerke ent-standen: mit teleskopartig aufeinander gebautenMehrfach-Dünnschicht-Solarzellen und minimier-tem Gewicht bei 30 % Wandlungswirkungsgrad.Erst nach der Energiekrise Anfang der 70er Jahreerwog man die „terrestrische“ Verwendung vonSolarzellen. Bislang wurden die Solarzellen fürden Weltraum aus teurem einkristallinem Siliziumnach den aufwendigen Verfahrensschritten der Mi-kroelektronik hergestellt oder aus dem noch teure-ren, dafür im Weltraum leistungsfähigeren Galliu-marsenid, bis im Jahre 1978 B. Authier/WackerHeliotronik, Burghausen und H. Fischer/Telefun-

21

Akademie-Journal 1/2004

Der pn-Übergang und seine Raumladungszone

Solarzellen bestehen aus Halbleiter-Werkstoffund bilden einen pn-Übergang, wenn Elektro-nen-Leiter (n-Halbleiter) und Löcher-Leiter(p-Halbleiter) eine gemeinsame Kontaktflächehaben. Dabei entsteht beiderseits der Kontakt-fläche eine Raumladungszone der ionisiertenDotieratome, zwischen denen eine hohe elek-trische Feldstärke E existiert, die die durch ab-

sorbiertes Sonnenlicht erzeugten Elektronen-Loch-Paare zu trennen vermag. Ohne Tren-nung rekombinieren (d.h. verschwinden unterEnergieabgabe) die Paare an Kristallstörungenund sind für die photovoltaische Energie-wandlung verloren.In Abb. 1 ist der linke p-leitende Bereich hochdotiert, während der rechte n-leitende Bereichgeringer dotiert ist: die unterschiedlichenDichten der quadratisch eingezeichneten Do-tieratome symbolisieren dies. Oben erkenntman vor Kontakt beider Bereiche die rund ge-zeichneten Löcher (beige) und die Elektronen

(rot), die als bewegliche Ladungsträger ihreortsfesten Dotieratome neutralisieren. Untensind nach Kontakt beider Bereiche die beweg-lichen Ladungsträger der obersten Dotierato-me über die Kontaktfläche diffundiert und imanderen Bereich rekombiniert. Als Folge blei-ben Dotieratome unkompensiert und erzeugenein elektrisches Feld. Dieses elektrische Feld

über der Raumladungszone unkompensierterDotieratome ist das wichtigste Merkmal einespn-Überganges. Über die Raumladungszoneintegriert ergibt die elektrische Feldstärke dieDiffusionsspannung des pn-Überganges vonca. 0,4 -.0.5 Volt. Jede Halbleiter-Diode ent-hält eine Raumladungszone, so auch die So-larzelle. In der Raumladungszone der Solar-zelle werden die solar-erzeugten Elektron-Loch-Paare getrennt und finden erst nach Lei-stungsabgabe im externen Verbraucher wiederals Partner zusammen zur Rekombination(siehe „Grundlagen der Solarzellen).

ken, Heilbronn eine gänzlich neue Lösung vor-stellten [1], [5]. Aus blockgegossenem polykristal-linem Silizium (Tafel 3) mit unkonventionellenVerfahrensschritten der Massenproduktion (wieSiebdrucken der stromabgreifenden Elektrodenund der Antireflexionsschichten sowie Einsinternder Dotierstoffe im Durchlaufofen) entstanden„low cost“-Solarzellen mit dem respektablen Wir-kungsgrad von 13% und zu einem Bruchteil derKosten von Weltraumzellen. Seitdem gilt bis heu-te: Nötig sind preiswerte und leicht verfügbareAusgangswerkstoffe, deren Reinheit nicht allzuhohe Ansprüche erfüllt und aus denen nur die pho-tovoltaisch wirksame Schicht aufgebaut ist. Wei-terhin nötig ist die „Abmagerung“ aller Ferti-gungsschritte unter dem Kostengesichtspunkt, oh-ne dabei allzu große Wirkungsgrad-Einbußen hin-

nehmen zu müssen. In der Massenfertigung er-reicht man Wirkungsgrade von 16% und mehr(Tafel 4). Heute liegen der Fachwelt jedoch völligneue Vorschläge zur Steigerung auf Werte bis80% des Energie-Wandlungswirkungsgrades vorfür die „Solarzellen der 3. Generation“, wie M. A.Green diese neuartig konzipierten Bauelementenennt [7].

Aufwand und Kosten der Photovoltaik

Die Kosten betragen ungefähr 6.000 Euro für So-larzellenmodule einer 1-Kilowatt-Anlage auf ei-nem deutschen Dach. In günstigen Lagen mit jähr-lichen 1.300 Sonnenstunden (z.B. Freiburg i.Breisgau) „erntet“ man damit bis zu 1.000 kWh anelektrischer Energie. Mit den üblichen Zinsen er-

Abb. 1

22

Akademie-Journal 1/2004

Grundlagen der Solarzellen

Es ist wichtig, daß die Absorption der Photo-nen und die Generation der Ladungsträger-paare in der Nähe der Raumladungszone statt-finden, weil diese ansonsten aus großer Ent-fernung herandiffundieren müssen und aufdem Wege leicht rekombinieren. Besondersgeeignet für diesen Vorgang sind die „direk-ten“ Halbleiter, bei denen Absorption und Ge-

neration oberflächennah in einer dünnenSchicht (1...5 µm) ablaufen, während bei „in-direkten“ Halbleitern sich diese Vorgängeüber Tiefen bis zu 100...200 µm erstrecken.Kristallines Silizium ist von seiner optischenAnpassung ans Sonnenlicht besonders gut für

dessen Absorption geeignet, jedoch als „indi-rekter“ Halbleiter weniger gut für die La-dungsträger-Sammlung. Nur bei fehlerfreiemMaterial gelingt erfolgreiche Trennung derElektronen-Loch-Paare im Feldgebiet nachDiffusion von weit her. Die „direkten“ Halb-leiter wie Galliumarsenid und amorphes Sili-zium bieten hier Vorteile zum Aufbau sehr

viel dünnerer Solarzellen.Allerdings sind die Bestand-teile von Galliumarsenid inder Erdkruste nur sehr ge-ring anzutreffen und deshalbauch erheblich teurer.Amorphes Silizium zeigt bisheute große Instabilität sei-ner photovoltaischen Wirk-samkeit im Sonnenlicht. Diekristalline Silizium-Solarzel-le besteht aus einem pn-Übergang, dessen dem Son-nenlicht zugewandte Seite,der n-Emitter, recht dünn(~1µm) ist. Die andere Sei-

te, die p-Basis, mißt heute ungefähr 200-300 µm. Die sonnenzugewandte Seite ist miteiner Oberfläche versehen, die das optischeReflexionsvermögen vermindert. Dafür rauhtman die Oberfläche der Solarzelle samtartigauf und beschichtet sie außerdem mit Interfe-renzschichten.

gibt sich dann über einen Zeitraum von zehn Jah-ren ein Preis einer selbst erzeugten und verbrauch-ten Kilowattstunde von ungefähr 0,65 – 1,0 Euro,während man derzeit einige Cent weniger, nämlich0,57 Euro, für jede ins öffentliche Netz eingespei-ste Kilowattstunde vergütet erhält [4]. Diese Rech-nung scheint für den engagierten Privatmann halb-wegs ausgeglichen, allerdings nur infolge gesetzli-cher Verfügung. Die eigentliche Konkurrenzlageerkennt man am besten bei einem Blick auf diemonatliche Stromrechnung im Vergleich mit demvom örtlichen Elektrizitätsunternehmen abgerech-neten Preis von weniger als 0,20 Euro pro Kilo-wattstunde.Es muß noch einiges geschehen, bevor sich auchin Deutschland die Photovoltaik als konkurrenzfä-hig erweist. Bei der Analyse der Kosten für dieHerstellung von Solarzellen ergibt sich ein Anteilvon 40% für das Silizium-Material und ein gleichhoher Anteil für die Modul- und Systemtechnik.Der Rest fließt in die Verfahrenstechnik. Entspre-chend richten sich die Überlegungen zur Kosten-senkung vor allem auf den Solarzellen-Werkstoff,dessen für die Einzelzelle verwendete Menge ge-senkt werden muß. Auch für die Bereitstellung des

Ausgangsmaterials für das „solar grade silicon“müssen neue Konzepte entwickelt werden, wenndie Ausweitung der Solartechnik bei uns weiter sowie bisher verlaufen soll.

Nachhaltige Entwicklungvon Solarzellen

Die Konzepte zur Herstellung von Solarzellen fürden „irdischen“ Gebrauch beachten heute zusätz-lich alle Zielvorgaben einer „nachhaltigen“ Ent-wicklung, ja, sie sind geradezu zu Musterbeispie-len technischer Problemlösungen geworden. De-ren fünf Gesichtspunkte sind: Materialintensität;Energieintensität; Wiederverwendung/Wiederver-wertung; Minimierung der Toxizität und Einsatzvon erneuerbaren Energien [11].Materialintensität. Das bislang meist benutzte Ma-terial für Solarzellen ist Silizium, das zweithäufig-ste Element der Erdrinde. Etwa 95 % aller Solar-zellen bestehen heute aus Silizium. Um das hoch-reine Ausgangsmaterial für Solarzellen zu gewin-nen, müssen große Mengen von Quarzsand verar-beitet werden. Die erforderliche Reinheit („Fünf-Neuner-Material“, d.h. 99,999% Reinheit von

Abb. 2

23

Akademie-Journal 1/2004

Fremdstoffen) geht um ein Vielfaches über die üb-lichen Anforderungen an technische Werkstoffehinaus und erreicht bereits die Anforderungen fürSilizium in der Chip-Fertigung, die hier „Sieben-Neuner Material“ erfordert. Das erwähnte „Abma-gern“ der Verfahrensschritte bezieht sich u.a. auftolerierbare Verunreinigungen bei Solarzellen,aber auch auf die kristalline Struktur des Halblei-ters. Der Kokillen-Guß von Silizium faßt sowohlGesichtspunkte der Reinheit als auch der kristalli-nen Struktur zusammen, indem er polykristallineBlöcke erzeugt, die sich – senkrecht zur ausgebil-deten Säulen-Struktur der Mikrokristallite gesägt –nahezu wie monokristallines Material verhalten(Tafel 3). Allerdings müssen nach wie vor dünneScheiben („wafer“) gesägt werden. Dabei entstehtviel Sägeverschnitt in Form von Silizium-Staub,ein ärgerlicher Verlust. Deshalb hat man mit gro-ßem Einsatz Verfahren entwickelt, wie man ohnegroßen Sägeverschnitt auskommt. Dafür steht u.a.das EFG-Verfahren (edge-defined film-fedgrowth“), bei dem das gereinigte Roh-Silizium inRohren dünner Wandstärke mit Oktogon-Profilgezogen wird, die dann lediglich an den Kantendes Achteck-Querschnittes mit dem Laser getrenntwerden und mit sehr viel geringerem VerschnittAusgangswafer für Solarzellen ergeben. Derartige

Guß von polykristallinen Silizium-Blöcken („silicon ingot casting“)

Beim Blockguß von polykristallinem Siliziumkommt es darauf an, eine mikrokristallineStruktur von säulenförmigen Mikrokristallitenzu erzeugen. Dies erzielt man durch eine spe-zielle Abkühlungstechnik der Gußblöcke.Man führt den Prozeß derart, daß sich zu-

nächst der Kokillenboden abkühlt und die Si-lizium-Schmelze dort erstarrt. In der Folgekühlt man von unten nach oben ab, so daß lan-zettförmige Mikrokristalle von unten nachoben wachsen. Mit diesem Wachstum findetgleichzeitig über Segregation an der Phasen-

grenze fest – flüssig eine Reini-gung von den wichtigsten Ver-unreinigungen statt.Abb.3 zeigt links den aufge-schmolzenen Zustand des Sili-ziums, rechts – nach der Entfer-nung der thermischen Isolationam Kokillenboden – das begin-nende kolumnare Wachstum desGußblockes [12]. Der Gußblockwird senkrecht zur kolumnarenWachstumsrichtung in Schei-ben zersägt. Bei der Solarzel-len-Herstellung erzeugt man injeder Scheibe zahlreiche paral-lel-arbeitende mikrokristallineSolarzellen. Wichtig ist, daß al-le Mikrokristallite parallel zu-einander stehen, damit diffun-dierende Ladungsträgerpaarenicht die Korngrenzen überque-ren und dabei rekombinieren.

Zellen werden inzwischen auf dem Markt angebo-ten (RWE Solar Essen).Bei der Dünnschicht-Solarzelle wird die teure pho-tovoltaisch-aktive Halbleiter-Schicht auf einemTräger aus preiswertem Material wie Glas, Kera-mik, Stahl usw. aufgebracht. Am eindrucksvoll-sten waren die anfänglichen Fortschritte der Solar-zellen aus „amorphem“, d.h. nicht-kristallinem Si-lizium auf Flachglas. Eine Schicht von nur 1 µmdes hochreinen Siliziums ergibt Solarzellen mit10% Wirkungsgrad. Außerdem lassen sich dieDünnschicht-Solarzellen hintereinander schalten,so daß am 30x30 cm2 Zellen-Modul bis zu 24 Voltabgegriffen werden anstelle der 0,5 Volt einer kri-stallinen Einzelzelle. Hier schien die Lösung füreine preiswerte Technik terrestrischer Solarzellenzu liegen. Allerdings stellte man bald anhand derBetriebsdaten großer Feldversuche fest, daß dasSonnenlicht die Solarzellen aus amorphem Silizi-um allmählich verändert und ihren Wirkungsgradsinken läßt. Diese Schädigung hängt mit dem Auf-bau des amorphen Siliziums zusammen. Es bestehtaus einer Legierung von Silizium und Wasserstoff,der zur Bildung kovalenter Bindungen mit nicht-gepaarten Elektronen-Valenzen des amorphen Si-lizium-Netzwerkes führt. Durch die Energie desSonnenlichtes werden die Wasserstoff-Atome aus

Abb. 3

24

Akademie-Journal 1/2004

der Bindung ans Silizium befreit, verbinden sichirreversibel mit einem zweiten Wasserstoff-Atomzu molekularem Wasserstoff und hinterlassen dasnun unabgesättigte Silizium-Elektron als „Rekom-binationsfalle“ für solar erzeugte Elektronen, diedamit der Nutzung entzogen werden. So lassensich trotz intensiver Forschungen die amorphen Si-lizium-Dünnschicht-Solarzellen im großen Maß-stab nur begrenzt zur Energiewandlung einsetzen.Das „Arbeitspferd“ bleibt weiterhin das Massiv-Silizium.Unter dem Gesichtspunkt der Energieintensität istmassives Silizium allerdings nicht die erste Wahl.Um die chemische Reduktion des Quarzsandes zuelementarem Silizium und die notwendige Rein-heit des kristallinen Ausgangsmaterials zu errei-chen, benötigt man beim Standardverfahren derChipindustrie für die gezogenen Einkristalle bis zu2000 kWh/kg. Daher haben sich die Silizium-Her-steller stets an der Wasserkraft angesiedelt, wie dieFirma Wacker Siltronic in Burghausen an der Sal-zach. Es hat nicht an Versuchen gefehlt, durch ver-änderte Verfahrensschritte wie z.B. das Auslaugendes Rohsiliziums oder durch eine aluminothermi-sche Aufbereitung den Energieeinsatz für das Aus-gangsmaterial zu senken, aber einen technischen„Durchbruch“ gegenüber dem industriell prakti-zierten Standard-Verfahren (Tafel 3) hat es nichtgegeben. So ist die Herstellung von Silizium-So-larzellen bis heute von hohem Material- und Ener-gie-Einsatz gekennzeichnet. Beim Blockgießen imgroßen Maßstab kann man die benötigte Energiezwar auf 1000 kWh/kg verringern. Je nachdem,wie der Prozeß geführt wird, benötigt man für mo-derne Massiv-Solarzellen mit der Leistung von 1Kilowatt bis zu 16 kg Rohsilizium, eine gewaltigeMenge, die es künftig ebenfalls zu verringern gilt.Die Energierücklaufzeit beschreibt das Verhältnisvon im Verlaufe der Lebensdauer gewonnenerzum Wert der bei der Herstellung eingesetzterEnergie einer Energiewandlungs-Technologie.Starten wir für eine Abschätzung mit den Angabenaus einem Prospekt zu multikristallinen Solarzel-len der Maße 15 x 15 x 0,03 cm3 mit einer Spitzen-leistung von 3 W [10]. Unter Verwendung desSpezifischen Gewichtes für Silizium errechnetman, daß in der Solarzelle 15 g Silizium 3 W Son-nenlicht wandeln. Wir geben einen Zuschlag fürden Sägeverschnitt von 180 ìm dazu. Damit erhöhtsich die Siliziummenge der Solarzelle auf 24 g.Hochgerechnet auf 1 kW Solarzellenleistung, be-nötigen wir 8 kg Silizium, das zuvor mit 8000kWh Energie zu gegossenen Blöcken verarbeitetworden ist. Mit der Annahme von 1000 Sonnen-stunden im Jahr – in Süddeutschland nicht unty-pisch – und deren Nutzung zu 70% (entspricht nä-herungsweise der Sonnenbewegung relativ zumnach Süden ausgerichteten Solargenerator), „ern-ten“ wir über ein Jahr 700 kWh Sonnenenergie.Um die eingesetzte Energie von 8000 kWh wie-derzugewinnen, bedarf es dann eines Zeitraumes

von elfeinhalb Jahren, der Energierücklaufzeit.Auf unterschiedliche Weise ermitteln zahlreicheAnalysten der Photovoltaik ähnliche Werte [2].Bei der Veranschlagung eines kompletten Solar-zellen-Modules erhöht sich der Wert um etwa10%. Die Energierücklaufzeit ist von hohem Inter-esse, wenn es um ihren Vergleich mit der techni-schen Lebensdauer von Solarzellen-Modulen geht.Die Erfahrung zeigt, daß man i.a. mit einer Le-bensdauer von 20 Jahren rechnen kann. Die Ener-giebilanz ist also positiv. Für Dünnschichtzellenaus amorphem Silizium sinkt die Energierücklauf-zeit auf unter vier Jahre. Wenn – wie angestrebt –das hochbeständige Silizium der ausgedientenPhotovoltaik-Module ein zweites Mal zu Solarzel-len verarbeitet wird, wird für derartige Module dieEnergierücklaufzeit auf Bruchteile der bisherigensinken. Ergänzend sei angemerkt, daß eine derarti-ge Verrechnung des Energieeinsatzes erst seit demterrestrischen Einsatz der Photovoltaik üblich ist.Kaum zuvor ist der Energieaufwand für die Errich-tung von Standard-Kraftwerken veranschlagt wor-den, z.B. für die Herstellung der Stahlträger, desBetons, der Turbinen und – beim Kernkraftwerk –der Brennstäbe.

Chalkopyrit-Solarzellen,eine Alternative zum Silizium?

Im Vergleich zum Material- und Energie-Aufwandbeim Silizium bieten Solarzellen aus Chalkopyrit-Material einige Vorteile. Hier handelt es sich umVerbindungshalbleiter aus der VI. und der II. Spal-te des Periodensystems. Zunächst erforschte manCadmiumsulfid/CdS, das bereits im weniger rei-nen Zustand mit einer preiswerten Dünnschicht-Technologie gute Wirkungsgrade von 12 – 15 %ergibt, allerdings unter Inkaufnahme des toxischenElementes Cadmium. Trotzdem entwickelte mandiese CdS-Solarzellen bis zur industriellen Ferti-gung (Siemens Solar, Antec Solar u.a.), ohne daßsie bislang den Markt der Silizium-Solarzellen ge-fährden konnten. Hier spielt der Verstoß gegen dasNachhaltigkeits-Kriterium Toxizität eine großeRolle, das die Kundschaft der Photovoltaik sehrwohl beachtet. Neuere Entwicklungen zeigen, daßman den Cd-Anteil der Chalkopyrit-Zellen bis aufNanometer-dünne Zwischenschichten verringernkann, wenn man CIS- oder CIGS-Solarzellen baut[8], die aus einem Gemisch von Cu(In, Ga)(S,Se)bestehen und gute Wirkungsgrade in preiswerterIndustrie-Technologie ergeben (Würth Solar). Esgibt Hoffnungen, den Cd-Anteil insgesamt durchZink zu ersetzen.Nach alledem entsteht der Eindruck, daß die Solar-zellen heute immer noch ein Produkt für wohlha-bende Enthusiasten sind. Soweit es um eine netz-gekoppelte Betriebsweise geht, ist dieser Eindruckrichtig. Allerdings zeigt die Entwicklungskurveder letzten 20 Jahre, daß sich allein durch die jähr-liche Marktausweitung der Preis der Anlagen ste-

25

Akademie-Journal 1/2004

Der heutige Stand terrestrischer Solarzellen

Abb. 4 zeigt eine DSLG-BC-Solarzelle (engl.double-sided laser grooved buried contact),die von M.S.Green und Mitarbeitern Anfangder 90er Jahre entwickelt wurde und die bisheute die Standard-Technologie der kristalli-nen Silizium-Solarzellen mit hohem Wir-kungsgrad bestimmt [7]. An Vorder- undRückseite befinden sich die Kontakte in laser-geschnittene Gräben versenkt. Beide Oberflä-chen sind nach einer Strukturätzung aufge-rauht, um „Lichtfallen“ zu bilden, Abschlie-ßend wird durch eine dünne dielektrischeSchicht („oxide“) entspiegelt. Zu beidenOberflächen hin ist die Dotierung des Halblei-termaterials hochgezogen, um niederohmigeÜbergänge zu den Kontakten zu erhalten.Vielfach werden die Rückseiten-Kontakte –ähnlich wie an der Vorderseite – nur punkt-

weise angebracht. Die restliche Fläche wirddurch dielektrische Beschichtung, meist Sili-ziumnitrid, passiviert. Im Labor werden damitWirkungsgrade über 20% erreicht, in der Mas-senfertigung mit polykristallinem Silizium biszu 16%.

tig verringert hat auf den Wert von derzeit 6,00Euro/W. Insofern könnte man sagen: „wenn unse-re Enkel davon profitieren sollen, müssen wir be-reits heute Solarzellen kaufen.“

Dient die Photovoltaik bereits heute derVerbesserung des menschlichen Lebens?

Nicht allein für den Markt der Industrieländer wer-den Solarzellen entwickelt und produziert. Einegroße Bedeutung haben sie in den ariden Gebietender Welt, wo in Oasen der Wüste kleine bäuerlicheSiedlungen fern vom Netz existieren. Die ersteAufgabe ist dort stets, Mensch und Tier aus Tief-brunnen mit Wasser zu versorgen. SolarbetriebeneDruckpumpen holen z.B. in der Sahara Wasser aus60 m Tiefe. Damit hat man Menschen – meistFrauen – von einer inhumanen Arbeit befreit. Dar-überhinaus bringt die Elektrizität neue Anbauflä-chen für Obst und Gemüse und ermöglicht überdas Schulfernsehen den Unterricht der Kinder undim solarbetriebenen Kühlschrank die Aufbewah-rung von Medikamenten gegen Infektionen undSchlangenbiß. In der Sahara, der Kalahari und imDschungel Indonesiens erweisen sich die Solarzel-len als Bedingung für ein besseres Leben, über dasFernsehen als Verbindung zur modernen Welt. Er-ste Montagebetriebe für Photovoltaik-Module gibtes in Algerien, erste Fabrikationen in China undIndien. Die Photovoltaik-Weltkonferenz in Osaka2003 zeigte, wie begeistert in asiatischen Ländernwie China, Vietnam und Malaysia die Chancen derSolartechnik aufgenommen werden, und daß wirin Deutschland diese neue Technik nicht nur hin-sichtlich ihrer Konkurrenzfähigkeit zu anderenEnergieträgern bei uns beurteilen sollten. „Let usshare the benefits of solar power you have been al-

ready enjoying for years“, so äußerte sich im Mai2003 ein vietnamesischer Konferenz-Teilnehmerin Osaka. Hat er nicht Recht?

Anschrift des Verfassers:Prof. Dr.-Ing. Dr. h.c. Hans-Günther WagemannTechnische Universität BerlinElektrotechnik und InformatikInstitut für Hochfrequenz- und Halbleiter-System-TechnologienEinsteinufer 1910587 Berlin

Literatur

[1] B. Authier „Polycrystalline Silicon with Columnar Structure“, Fest-

körperprobleme XVIII (1978), 1-18[2] J. Bernreuter „Mehrfache Ernte“, Photon, Dezember 2003, 49-52[3] Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit

„Erneuerbare Energien und nachhaltige Entwicklung“, Berlin April

2002[4] Erneuerbare Energien Gesetz / EEG, Novelle v. 7.11.03[5] H. Fischer „Silicon Solar Cells from Polycrystalline Material“,

Wiss.Ber.AEG-TELEFUNKEN 51(1978), 85-90,[6] M.A.Green „Third Generation Photovoltaics“, Springer Verlag 2003-

12-16[7] M.A.Green et al., „High Efficiency Silicon Solar Cells“, Proc 20th

IEEE Spec. Conf. New York 1990, p. 207 u.f.[8] J. Klaer, et al., „ Efficient CuInS2Thin-Film Solar Cells prepared by a

Sequential Process“; Semicond. Sci. Technol. 13(1998), 1456 –

1458,[9] G.L.Pearson „Conversion of Solar to Electrical Energy“,

Am.J.Phys.25(1957), 591-598[10] Q-Cells Thalheim, Data sheet Q6, März 2003[11] Sarasin Studie PV 2001, C. Butz „Markt, Akteure und Prognosen“,

November 2003[12] H.G. Wagemann, H. Eschrich, „Grundlagen der photovoltaischen

Energiewandlung“, Teubner Studienbuch, Stuttgart 1994

Abb. 4

26

Akademie-Journal 1/2004

Polytronik

Wolfgang Kowalsky

„Am Anfang war s Käse!“ In der Geschichte des Kunststoffs wird ein neues Kapitel auf-geschlagen – vom Käsekonzentrat zum Mikrochip [1]. Mit diesem Rückblick auf das Jahr1530, in dem B. Schobinger eine Rezeptur zur Gewinnung einer Ersatzsubstanz für Rin-derhorn als Einstieg in die Chemie der Kunststoffe vorstellte, lud der Projektträger Infor-mationstechnik des Bundesministeriums für Bildung und Forschung im August 2002 zueiner Presseveranstaltung unter dem Motto „Polytronik: Intelligenz in Plastik – Polymer-elektronik für das 21. Jahrhundert“ ein.Während Kunststoffe kaum mehr aus einem Bereich unseres Alltags wegzudenken sind,spielten sie in der Elektronik und Photonik bisher nur eine begleitende Rolle. Abgesehenvon sehr wenigen Ausnahmen (z. B. Flüssigkristall) wurde von diesem Allroundwerk-stoff selten mehr als die Eigenschaft der elektrischen Isolation genutzt. Aus diesemSchattendasein treten derzeit organische Materialien nach beachtlichen Erfolgen in lang-jähriger Grundlagenforschung als neuartige elektronische und photonische Funktions-werkstoffe heraus: Komplexe, maßschneiderbare organische Verbindungen erobern An-wendungsfelder als elektrische Leiter, Halbleiter und Lichtemitter, die bisher ausschließ-lich anorganischen Materialien vorbehalten waren. Vorrangiges Ziel dieser Polytronik(Polymerelektronik) ist es nicht, mit der klassischen Silizium- und III-V-Halbleitertech-nologie in Konkurrenz zu treten, sondern neue Anwendungsfelder zu erschließen, die die-sen prinzipiell nicht zugänglich sind, wie z. B. flexible Displays, elektronische Etikettenund Fahrausweise. Abb. 1 zeigt erste Produkte dieses zukunftsträchtigen Forschungsge-biets, die im Folgenden näher diskutiert werden. Für zukünftige Fertigungsstandorte do-miniert zwar Asien (Korea, China, Taiwan, Japan), doch werden auch europäische Fir-men dank umfangreicher Grundlagenforschung als Hersteller von Produktionseinrichtun-gen, organischen Quellenmaterialen und Substraten erheblich an der Wertschöpfungsket-te beteiligt sein.

Drei ausgewählte Beispiele sollen das Potentialdieses neuen Arbeitsgebiets belegen. Die organi-sche Elektrolumineszenz, die organische Elek-tronik und die organischen Laser. WeitereSchwerpunkte liegen in den Bereichen Sensorik,Mikrosystemtechnik und integrierte Optik. DieBedeutung der noch jungen Polytronik dürfte be-reits in naher Zukunft erheblich anwachsen. Dieorganische Elektrolumineszenz wird seit mehr alsfünfzehn Jahren intensiv erforscht. Sie ermög-licht flache selbstleuchtende Displays, deren ho-he Effizienz insbesondere für mobile Anwendun-gen bei begrenzter Akkukapazität (z. B. Mobilte-lefone, Organizer und Laptops) sehr vorteilhaftist. Während diese OLED-Displays (organiclight emitting diodes) die Schwelle zur Marktein-führung bereits überschritten haben, erfordert dieorganische Elektronik noch weitere Grundlagen-forschung. Diese Technologie tritt nicht in Kon-kurrenz zu anorganischen Halbleitern, sondernerschließt durch eine kostengünstigere Rolle-zu-Rolle Fertigung, bei der elektronische Schaltun-gen nicht auf Einzelsubstraten, sondern fortlau-fend auf einem Plastikfilm präpariert werden,neue Produktfelder, wie z.B. elektronische Eti-ketten zum Ersatz des Barcodes. Organische La-

ser, deren Erforschung sich ebenfalls noch in ei-ner frühen Phase befindet, belegen die außeror-dentliche Stabilität organischer Materialien. Sieermöglichen Laser im gesamten sichtbaren Spek-tralbereich.

Organische Elektrolumineszenz

Anzeigeelemente als Bindeglied zwischen Ma-schine und Mensch gewinnen einen immer grö-ßeren Stellenwert. Die Anforderungen an derarti-ge Displays sind vielseitig. Die Anwendungsge-biete für den Einsatz von einfachen Anzeigeele-menten bis hin zu großflächigen Vollfarbdis-plays nehmen in unserer multimedialen Gesell-schaft stetig zu [2]. Folglich zeigt der Flachdis-play-Markt für Flüssigkristall-Displays (LCD)und andere Flachdisplays (FPD), s. Abb. 2, einWachstum von jährlich etwa 15% bei einemweltweiten Gesamtvolumen von etwa 45 Milliar-den US $. Das Marktvolumen der voluminösenKathodenstrahlröhren (CRT) ist dagegen rück-läufig. In diesem hart umkämpften Markt hatkaum eine neue Technologie eine stürmischereEntwicklung erfahren als die organische Elektro-lumineszenz und ihre Anwendung in flachen

Abb. 1Anwendungsbeispie-le der Polytronik: a)Digitalkamera mitorganischem Elek-trolumineszenz-Dis-play (Kodak), b) in-tegrierte Schaltungaus organischenFETs auf einem fle-xiblen Kunststoffsub-strat (Siemens) undc) Lichtemission(Fernfeld) eines op-tisch angeregten or-ganischer DFB-La-ser (OLAS-Verbunddes BMBF)

27

Akademie-Journal 1/2004

selbstleuchtenden Displays. OLEDs werden inzwei zunächst konkurrierenden, inzwischen aberhäufig kombinierten Technologien hergestellt:Die „Small Molecule-OLEDs“ (SM−OLED), al-so OLEDs aus kleinen Molekülen, werden vor-rangig durch Vakuumsublimation von niedermo-lekularen Verbindungen hergestellt, während„Polymer−OLEDs“ (P−OLED) durch naß-che-mische Beschichtungen (Aufschleudern, Druk-ken, Tauchen oder Sprühen) entstehen.In ihrer Funktion unterscheiden sich die Poly-mer- und SM-Dioden nicht. Beide beruhen aufder Elektrolumineszenz organischer Materialien.Über eine Anode und eine Kathode werden Lö-cher bzw. Elektronen in die organischen Schich-ten injiziert. Diese bilden in der Emissionszoneangeregte Zustände aus, sogenannte Exzitonen,die teilweise ihre Energie in Form von Licht„strahlend“ abgeben [3]. Um das Licht abstrah-len zu können, wird bei konventionellen OLEDsdie Anode auf dem Glassubstrat aus leitfähigemtransparentem Indium-Zinn-Oxid (ITO) abge-schieden, das auch bei LC-Displays als Kontakt-material eingesetzt wird. Effiziente Bauelementesind allerdings nur Mehrschichtsysteme (Abb.3), da die organischen Materialien unterschiedli-che Eigenschaften für den Elektronen- und Lö-chertransport aufweisen. So ist es möglich, denOrt der Rekombination der Elektronen mit denLöchern im Bauelement durch eine geeigneteSchichtenfolge festzulegen. Der in Abb. 3 darge-stellte Standardaufbau einer grün emittierendenOLED enthält die organischen Halbleiter BCPals Elektronentransport- und Löcherblockier-schicht, den Metall-Chelat-Komplex Alq3 dotiertmit etwa 1% Chinacridon als Emissionsschichtund das Starburst-Derivat 1-TNATA sowie dasaromatische Amin α-NPD für den Löchertrans-port. Die Einsatzspannung liegt bei der Photo-nenenergie von 2,2 V. Die für ein Mobiltelefonerforderliche Leuchtdichte von 100 cd/m2 wirdbereits bei 3 V erreicht, und bei 4,7 V beträgt dieHelligkeit sogar 10.000 cd/m2. Dieses Beispielbelegt die Leistungsfähigkeit von OLEDs, so daßsie eine interessante Basis für eine emissive Dis-playtechnologie bilden.Ein großflächiges, defektfreies und in der Schicht-dicke präzise kontrolliertes Aufbringen der organi-schen Schichten ist die größte Herausforderung fürdie OLED-Displayfertigung. In der Grundlagen-forschung werden bevorzugt Cluster-Vakuumanla-gen (OMBD, organic molecular beam deposition)eingesetzt. Um einen zentralen Substratmanipula-tor herum sind die einzelnen Prozeßkammern fürdas Aufdampfen der organischen Schichtenfolgeund der Deckmetallisierung angeordnet. Ein derar-tiges System bietet zwar eine hohe Flexibilität fürdie Forschung, limitiert aber aufgrund des seriel-len individuellen Substrataufbringung den Proben-durchsatz derart, daß hiermit keine kostengünstigeProduktion realisiert werden kann.

Abb. 2Weltweiter Display-markt [1]

Abb. 3Aufbau und Lei-stungskennlinie einergrün emittierendenOLED

In Zusammenarbeit mit der Firma Applied Filmswurde daher ein in-line-OMBD-Prozeß entwik-kelt: Die in Abb. 4 dargestellte weltweit erste in-line-Anlage erlaubt die Beschichtung von Sub-straten bis 180 x 240 mm2 während des kontinu-ierlichen Transports durch das langgestreckteVakuumsystem: Orthogonal zur Transportrich-tung sind lineare Verdampferquellen in geringemAbstand unter dem Substrat angeordnet, die einehomogene Schichtabscheidung bei hoher Materi-alausbeute ermöglichen. Zur Steigerung derOLED-Lichteffizienz und zur Erzeugung unter-schiedlicher Farben werden die Emissions-schichten dotiert. Über die Dotierung kann dieEmission der OLEDs von der in Abb. 2 gezeig-ten grünen Emissionswellenlänge in den blauenoder roten Bereich verschoben werden, so daßauch die Herstellung eines mehrfarbigen odervollfarbigen Displays möglich ist [4]. In Koope-ration mit der Firma Aixtron wird am Institutderzeit ein neuartiges Abscheideverfahren, dieOVPD-Technik (engl. organic vapour phase de-position), erprobt. Im Gegensatz zur OMBD-An-lage, bei der das organische Material im Hochva-kuum sublimiert wird und sich dann auf demGlassubstrat abscheidet, wird bei der OVPD dasorganische Quellenmaterial in einen Gasstromsublimiert. Präzise Schichtdicken- und Dotie-rungskontrolle bei hoher Materialausbeute zeich-nen dieses Verfahren aus.

28

Akademie-Journal 1/2004

Die Herstellung eines Passiv-Matrix-Displaysmit Lichtemission durch das Glassubstrat stelltspezifische Anforderungen an die Substratstruk-turierung, da bei organischen Halbleitern keinegängigen Strukturierungsverfahren der Mikro-elektronik eingesetzt werden können. So ist z.B.

eine photolithographische Strukturierung der or-ganischen Dünnfilme nicht möglich, da Feuchteund die verwendeten Lösungsmittel die Schich-ten angreifen oder sogar völlig zerstören. Ein eta-bliertes Verfahren für monochrome oder mehr-farbige Displays ist die Verwendung von Katho-denseparatoren. Nach der naß-chemischen Struk-turierung der ITO-Zeilen werden Polymerrippenlithographisch präpariert. Bei der anschließendenVakuumabscheidung der organischen Filme undder Deckmetallisierung werden diese an den Ka-thodenseparatoren unterbrochen, so daß die Spal-ten des Displays elektrisch getrennt sind. Abb. 5zeigt am Beispiel eines 5.000 Pixel Passiv-Ma-trix-Displays für ein Mobiltelefon die gute Ho-mogenität bei hohem Füllfaktor.

Abb. 4Produktionsnahe in-line-Depositionsan-lage

Abb. 55000 PixelPM-Display

Der serielle Ansteuermodus der einzelnen Zeileneines Passiv-Matrix-Displays mit einer Bildwie-derholfrequenz von typisch 100 Hz begrenzt auf-grund der Leitungsverluste die Displaygröße aufetwa 128 Zeilen (MUX 128). Für eine hohe Auf-lösung bei großen TV-Bildschirmdiagonalen istdaher der bei Flüssigkristall-Displays etablierteAktiv-Matrix-Aufbau unverzichtbar: Auf demGlassubstrat werden die Treibertransistoren auspolykristallinem Silizium unmittelbar am Ort je-des einzelnen Pixels präpariert. Auf diese Weisekann in Aktiv-Matrix-Displays jede OLED indi-viduell angesteuert werden, so daß die Notwen-digkeit hoher Impulshelligkeiten entfällt. Einwichtiges Gütekriterium ist der Füllfaktor (Abb.5), also der Ausnutzungsgrad der Bildschirmflä-che für leuchtende Elemente. Es ist daher sinn-voll, die Treiberschaltungen „platzsparend“ unterden organischen Leuchtdioden anzuordnen.Invertierte organische Leuchtdioden erlauben ei-ne Lichtemission durch den obenliegendenDeckkontakt und stellen somit einen vielverspre-chenden Ansatz zur Realisierung von Aktiv-Ma-trix-Displays dar. Wie Abb. 6 zeigt, basieren sieauf einer Umkehrung der Kontaktreihenfolge so-wie der funktionalen organischen Dünnfilme.Die technologische Herausforderung liegt imAufbringen eines transparenten, leitfähigen Me-talloxids mit guten Injektionseigenschaften.Durch die Verwendung eines hydrophobenSchutzfilms ist es gelungen, die Materialklasseder hochleitfähigen Polymere zu erschließen. Diein Wasser dispergierten Verbindungen werdendurch Aufschleudern abgeschieden und zeichnensich durch ideale ohmsche Kontakteigenschaftenmit der Indium-Zinn-Oxid-Anode aus.

Organische Elektronik

Organische Materialien für den Ladungstrans-port verfügen im undotierten Zustand über nahe-zu keine freien Ladungsträger und sind damit gu-

Abb. 6Invertierte OLED fürAktiv-Matrix-Dis-plays

29

Akademie-Journal 1/2004

te Isolatoren. Durch Anlegen eines elektrischenFeldes können jedoch Ladungsträger angerei-chert werden, so daß das Material leitfähig wird.In einem Transistor (Abb. 7) wird dieser „Feldef-fekt“ genutzt, um über die Variation der Span-nung an einer Steuerelektrode (Gate) den Strom-fluß zwischen zwei Elektroden (Drain und Sour-ce) eines zweiten Stromkreises zu modulieren.Die erste Demonstration eines Feldeffekttransi-stors auf der Basis von Polythiophen gelang1986 Tsumura und Koezuka [5]. Intensive For-schungsarbeiten sowohl im universitären alsauch im industriellen Bereich haben seitdem zuerheblichen Verbesserungen der Bauteileigen-schaften geführt. Auch wenn die Leistungsfähig-keit – bedingt durch die in organischen Materia-lien geringe Beweglichkeit der Ladungsträger –wohl auch in Zukunft nicht an die der Silizium-technologie heranreichen wird, können heute in-tegrierte Schaltungen bereits mit vielen hundertTransistoren aus organischen Materialien aufge-baut werden.Als aktive Materialien haben sich im Bereich derkleinen Moleküle „Pentacen“ und bei den Poly-meren „Poly(3-hexylthiophen)“ als besondersgeeignet erwiesen. Beide Substanzen haben dieTendenz, bei der Abscheidung als Dünnfilm ge-ordnete kristalline Strukturen zu bilden. Mit die-sen Materialien werden daher die höchsten La-dungsträgerbeweglichkeiten erreicht. Da sichdiese Materialien aus einer Lösung oder durcheinfaches thermisches Verdampfen aufbringenlassen, können die aus der klassischen Halblei-tertechnik bekannten, kostenintensiven Epita-xie-, Diffusions- und Abscheidungsprozesse ver-mieden werden. Stattdessen besteht die Möglich-keit, Drucktechniken oder verwandte Verfahrenzu nutzen, um elektronische Schaltungen aus“Plastik“ sehr preiswert herzustellen. Dieses ko-stengünstige Verfahren hat große Chancen fürAnwendungen, in denen der Preis gegenüber derLeistungsfähigkeit im Vordergrund steht. Die or-ganische Elektronik kann hier die Siliziumtech-nologie ergänzen oder ihr sogar in speziellen An-wendungsfeldern überlegen sein.Die Chance, einfache und großflächige Prozessefür die Produktion zu nutzen, stellt gleichzeitigdie größte Herausforderung dieser Technologiedar: Um Bauelemente mit ausreichend gutenelektrischen Eigenschaften zu erhalten, muß dieKanallänge (der Abstand zwischen Drain- undSource-Elektrode in Abb. 7) im Bereich wenigerMikrometer liegen. Die bisher bekannten Druck-verfahren sind jedoch nur an die geringeren An-forderungen des menschlichen Auges angepaßtund liefern eine zu schlechte Strukturauflösung.Ein großer Teil der Arbeiten im Bereich der or-ganischen Elektronik widmet sich daher der Ent-wicklung von Techniken, mit denen auf einfacheWeise sehr feine, leitfähige Strukturen herge-stellt werden können. Dazu wurden bereits er-

Abb. 7Schematische Dar-stellung der Funk-tion eines organi-schen Feldeffekttran-sistors: Durch dieSteuerspannung UGS

werden Ladungen imorganischen Halblei-ter angereichert,zwischen Source-undDrain-Kontakt kannStrom fließen

folgreich fotochemische Verfahren, optimierteDrucktechniken (z.B. Inkjet, Mikrokontakt-Druck) und Laser-Ablation eingesetzt. Abb. 8zeigt ein flexibles Transistorsubstrat, das mit ei-nem elektrochemischen Druckverfahren herge-stellt wurde. Dabei wird eine vorstrukturierteAnode als „Druckform“ verwendet. Die “Druck-farbe“ ist ein leitfähiges Polymer, das sich nurauf den metallischen Bereichen der Anode bildet.Ein Verlaufen der Farbe, das bei herkömmlichenDrucktechniken die Auflösung begrenzt, kannhier nicht auftreten.Besondere Möglichkeiten ergeben sich durch ei-ne Verbindung von organischen Feldeffekttransi-storen mit OLEDs. Da für leistungsfähige Dis-plays mit hoher Auflösung eine aktive Ansteue-rung der einzelnen Bildpunkte erforderlich ist,muß mit jeder OLED eine Schaltung integriertwerden, die den gewünschten Helligkeitswert so-lange speichert, bis neue Bildinformationen ge-schrieben werden. Bisher bestehen entsprechen-de Ansteuerschaltungen mit Dünnfilmtransisto-ren aus polykristallinem Silizium. Da die Ab-scheidung des Siliziums bei Temperaturen vonmehreren hundert Grad Celsius erfolgt, könnennur Glassubstrate als Träger für Aktiv-Matrix-Bildschirme verwendet werden. Der Herstel-lungsprozeß für organische Transistoren ist da-gegen wegen der geringen Temperaturen auchmit Kunststoffmaterialien und Folien möglich.Somit bietet sich die Möglichkeit, leichte, flexi-

Abb. 8Substratfolie mit Po-lymer-Transistoren

30

Akademie-Journal 1/2004

ble und leistungsfähige OLED-Displays herzu-stellen.

Organische Laser

Mit zunehmendem Erfolg organischer Leucht-dioden (OLEDs) sind die organischen Emis-sionsmaterialien auch für Laser interessant ge-worden. Forschungsarbeiten zu optisch angereg-

Abb. 9Aufbau des Lasersund Struktur der or-ganischen Materia-lien

ter ASE (Amplified Spontaneous Emission) lie-ferten den Nachweis für das Vorhandensein derfür Laser notwendigen Besetzungsinversion.Weiterführende Untersuchungen des optischenGewinns, sowie die erfolgreiche Realisierungverschiedener Laserbauelemente, ergaben eingroßes Potential der organischen Emissionsmate-rialien. Die Forschungsbemühungen zielen hier-bei auf günstig herstellbare, weit in der Wellen-länge abstimmbare Laserdioden für den gesam-ten sichtbaren Spektralbereich.Dieser Reihe von Vorteilen solcher Bauelementesteht jedoch eine Anzahl praktischer Problemeentgegen, die es zu lösen gilt. Im Gegensatz zuOLEDs, die mit geringen Betriebsströmen (mA/cm) arbeiten, ist für den Laserbetrieb eine Hoch-stromanregung (kA/cm) erforderlich. Daher wer-den extreme Anforderungen an solche Bauele-mente hinsichtlich Stromzuführung und Wärme-ableitung gestellt.Die in jüngster Zeit erzielten Fortschritte aufdem Gebiet optisch angeregter organischer Laser

bestätigen die vielversprechenden Eigenschaftenwie Emissionswellenlänge und spektrale Ab-stimmbarkeit. Hierbei kommen als aktive Laser-materialien prinzipiell alle organischen Materia-lin in Frage, welche bei geeigneter Anregung op-tischen Gewinn erbringen. Der Aufbau der La-serbauelemente (Abb. 9) orientiert sich dabei amDFB-Laser (DFB: distributed feedback) und be-steht im wesentlichen aus einem vorstrukturier-ten Substrat und der organischen Emissions-schicht. Somit entsteht ein Filmwellenleiter, derüber die Substratoberfläche die für Laseremis-sion erforderliche Rückkopplung sicherstellt. AlsSubstratmaterialien werden hauptsächlich oxi-dierte Siliziumwafer verwendet. Die Strukturie-rung der Substratoberfläche zur Erzeugung desDFB-Gitters erfolgt in der Physikalisch Techni-schen Bundesanstalt mittels Elektronenstrahlli-thographie und Ätzverfahren, die eine rechteck-förmige Modulation der Oxidschicht erzeugen.Diese Modulation des Substrates gibt die Emis-sionswellenlänge des Lasers vor. Am hiesigenInstitut werden dann in einer Cluster-OMBD-Anlage die organischen Emissionsschichten auf-gedampft. Die Spektren dieser Laser zeigenHalbwertsbreiten von etwa 0,1nm und lassensich durch Wahl der Gitterperiodizität abstim-men (Abb. 10). Für Alq3:DCM2 wurden eine Ab-stimmbarkeit von 37,6 nm im roten Spektralbe-reich erzielt [6].Die erfolgreichen Untersuchungen an optisch ge-pumpten organischen Laserbauelementen sindnur ein erster Schritt zum elektrischen Betrieb.Hierfür sind noch einige Hürden zu überwinden.Soll das Aufbaukonzept der OLED auch für or-ganische Laser Verwendung finden, so müssendie Ausmaße des Wellenleiters auf etwa eineMaterialwellenlänge ausgedehnt werden. Hierbeistellt vor allem die geringe Leitfähigkeit organi-scher Materialien ein Problem dar. Des weiterenmüssen die verschiedenen Auslöschungseffekte,welche bei Hochstromanregung auftreten, unter-sucht und minimiert werden. Diese Schwierig-keiten sind der Grund dafür, daß bis heute nochkeine elektrisch angeregte Besetzungsinversionin amorphen organischen Dünnfilmen nachge-wiesen werden konnte.Derartig komplexe experimentelle Forschungsar-beiten erfordern ein hochmotiviertes interdiszi-plinäres Forschungsteam und eine aufwendigetechnologische und meßtechnische Ausstattung.Die Mitarbeiterinnen und Mitarbeiter verdienendaher unbedingt eine namentliche Nennung indiesem Beitrag (unter Verzicht auf akademischeGrade): E. Becker, T. Dobbertin, G. Dobreva, M.Dümeland, G. Ginev, S. Hartmann, A. Janssen,H.-H. Johannes, A. Kammoun, H. Krautwald, M.Kröger, U. Lawrentz, R. Parashkov, T. Rabe, T.Riedl, C. Schildknecht, D. Schneider. Die um-fangreiche Förderung des BMBF (Förderkenn-zeichen 01 BK 918, 13N 8216, 01 BI 162, 13 N

Abb. 10Laserspektren fürverschiedene Gitter-periodizitäten

31

Akademie-Journal 1/2004

8166) der DFG, der VW-Stiftung und der EU ha-ben dieses Forschungsarbeiten überhaupt erst er-möglicht. Die durch nur drei Beispiele belegteEntwicklung von polymeren Bauelementen mitelektrischen, optischen, mikromechanischen undsensorischen Funktionalitäten hat in den letztenJahren erstaunliche Fortschritte gemacht. Siewird in naher Zukunft preiswerte, flexible mikro-elektronische Systeme ermöglichen, die wesent-liche Bereiche unseres täglichen Umfelds nach-haltig verändern werden. Zu visionären Anwen-dungen gehören der elektronische Barcode, dieflexible elektronische Display-Zeitung aber auchmikrooptische Systeme für die medizinischeDiagnostik (lab on chip).

Anschrift des Verfassers:Prof. Dr.-Ing. Wolfgang KowalskyTechnische Universität BraunschweigInstitut für HochfrequenztechnikLabor für ElektrooptikSchleinitzstraße 2238106 Braunschweig

Literatur

[1] C. Lüdemann, Einladung zur Presseveranstaltung Polytronik,

Fraunhofer Verbund Mikroelektronik, Berlin, 8.2002.

[2] D. E. Mentley: State of Flat-Panel Display Technology and Futu-

re Trends. Proceedings of the IEEE 90 (2002) 4,453-459.

[3] D. Metzdorf: Organische Passiv-Matrix-Displays. ISBN3-

89873-764-0 Cuvillier Verlag Göttingen 2002.

[4] BMBF- Förderung 01 BK 918.

[5] Applied Physics Letters Vol 49(18) pp. 1210-1212, 1986.

[6] D. Schneider et al.: Wavelength-tunable organic solid-state dis-

tributed-feedback laser. Applied Physics B 77, 399-402 (2003).

32

Akademie-Journal 1/2004

Spinelektronik

Andreas Waag

„Elektronik der Zukunft“ ist der Titel einer kürzlich veröffentlichten Mini-Delphi Studiedes VDI Technologiezentrums im Auftrag des Bundesministeriums für Bildung und For-schung (BMBF). Magnetoelektronik und Spinelektronik werden hier mit der CMOS(Complementary Metal Oxide Semiconductor -Technologie) konventioneller Halbleiter-chips als zukunftsträchtige Entwicklungen genannt. Es wird erwartet, daß sich in ZukunftMarktpotentiale im Umfang zweistelliger Milliardenbeträge öffnen. Worin unterscheidensich die Spin- und Magnetoelektronik von der konventionellen Elektronik? Wie sind dieZukunftsaussichten einzuschätzen?

Die Entwicklung der Halbleitertechnik und da-mit der Elektronik beeinflußte unser täglichesLeben in der zweiten Hälfte des 20. Jhs. zuneh-mend stark. Dazu trugen die fantastischen Lei-stungssteigerungen und die drastischen Preisre-duktionen bei Mikroprozessoren aus Silizium(Si) bei. Parallel dazu konnte die Packungsdichteund die Verarbeitungsgeschwindigkeit von Spei-cherbausteinen erhöht werden. Hierdurch erstwurde die Handhabung immens großer Daten-mengen in Sekundenbruchteilen möglich. Weni-ger evident ist die Tatsache, daß auch der Handy-Boom erst durch die Entwicklung neuer Materia-lien und neuer Bauelemente ermöglicht wurde.Es handelt sich dabei um leistungsfähige, schnel-le und rauscharme Verstärker auf der Basis vonGalliumarsenid oder um Filterschaltungen, dieOberflächenwellen auf einem piezoelektrischenMaterial ausnutzen. Auch im Bereich der Opto-elektronik – also der Erzeugung und Detektionvon Licht – konnten die technologischen Fort-schritte einen riesigen neuen Markt eröffnen: dender optischen Datenübertragung. Schnell modu-lierbare Halbleiter-Laser – auf der Basis vonGalliumarsenid (GaAs) – werden zur Übertra-gung digitaler Information über Glasfaserkabel-netze genutzt. Momentan machen sich die Halb-leiter-Entwickler daran, „ihren“ Materialien wei-tere Märkte zu erschließen. Bald werden hochef-fiziente farbige und vor allem weiße Leuchtdio-den (LEDs), insbesondere auf der Basis von Gal-liumnitrid GaN, für die Beleuchtung von Räu-men oder in der Automobiltechnik nutzbar wer-den: ein riesiges Anwendungsfeld mit sehr gro-ßen Umsatzaussichten.Ein weiterer Meilenstein bei der Entwicklungneuer Konzepte für neue Funktionalität in derElektronik ist die Verwendung des Elektronen-spins. Spinabhängiger Transport auf der Basisvon metallischen (Magnetoelektronik) oder halb-leitenden Schichtstrukturen (Spinelektronik)führt zu neuen Bauelementen mit bemerkenswertnützlichen Eigenschaften.1 Nicht mehr nur dieLadung von Elektronen wird in diesen Bauele-menten genutzt, sondern auch der Spin der Elek-

tronen und damit deren magnetisches Moment.Das Elektron kann nämlich als Elementarmagnetangesehen werden. Es besitzt einen Eigendreh-impuls (Spin) und damit verbunden ein magneti-sches Moment. Dabei gehorchen sowohl derSpin als auch das magnetische Moment den Re-geln der Quantenmechanik.Die möglichen Anwendungen magnetoelektroni-scher oder spinelektronischer Bauelemente kön-nen im Wesentlichen in drei Kategorien einge-teilt werden:1. Ferromagnetische Schichtstrukturen für die

magnetische Datenspeicherung, meist auf derBasis metallischer Ferromagnete, wie sie z.B.in modernen Festplatten genutzt werden.

2. Spinpolarisierter Stromtransport durch elek-tronische Halbleiter-Bauelemente, z.B. fürfrei programmierbare Prozessoren. Die Pro-grammierung erhält sich stromlos aufrechtund ist trotzdem sehr schnell umprogram-mierbar.

3. Manipulation einzelner spin-polarisierterElektronen, z.B. für die Quanteninforma-tionsverarbeitung.

Halbleitereigenschaften

Was zeichnet die Materialien wie Silizium undGaAs aus, daß diese so erfolgreich in der Elektro-nik und Optoelektronik eingesetzt werden können?Um zu verstehen, was die Spinelektronik von derkonventionellen Elektronik unterscheidet, müssenzunächst einige Grundbegriffe der Halbleiterphy-sik erläutert werden.Halbleiter bestehen aus Atomen, die außerordent-lich regelmäßig in einem wohldefinierten Kristall-gitter angeordnet sind. Die quantenmechanischenWellenfunktionen der Elektronen benachbarterAtome überlappen sich. Eine entsprechende Be-rechnung der Situation zeigt, daß dies zu Energie-zuständen für Elektronen im Halbleiter führt, wiesie in Abb. 1 qualitativ für GaAs und den Verbin-dungshalbleiter Aluminiumgalliumarsenid (Al-GaAs) gezeigt ist. Die möglichen Energien liegenin Bändern, in denen sich Elektronen aufhalten

33

Akademie-Journal 1/2004

Abb. 1Bänderschema vonHalbleitern mit Po-tentialsprung an derGrenzfläche

können, während zwischen den Bändern Bandlük-ken auftreten. In diesen Bandlücken existieren kei-ne Energiezustände für Elektronen, d.h. die zuge-hörigen Energien kommen nicht vor.Halbleiter sind deshalb interessant, weil ihre Leit-fähigkeit zwischen „isolierend“ und „metallisch“durch die Zugabe von Dotierstoffen gesteuert wer-den kann. Diese externe Kontrolle über die Leitfä-higkeit zeichnet die Halbleiter im Vergleich zuMetallen aus. Die Leitfähigkeit von Metallen isti.A. immer konstant groß, die Leitfähigkeit vonHalbleitern kann dagegen in weiten Bereichenüber viele Zehnerpotenzen variiert werden. Dar-überhinaus kann die Leitfähigkeit von Halbleiternauch durch Beleuchtung oder elektrische Feldergesteuert werden. Dieser Feldeffekt ist die Grund-lage für Feldeffekt-Transistoren (FETs), die dieBasis-Bauelemente moderner elektronischerSchaltungen darstellen.Eine weitere zentrale Erkenntnis besteht darin, daßan der Grenzfläche zwischen zwei Halbleitern mitunterschiedlicher Bandstruktur ein Potentialsprungauftritt (Abb.1). Der Potentialsprung für Elektro-nen ist gegeben durch die Differenz der Leitungs-bandkanten der beiden Halbleiter. Die Position derBandkanten kann nun sehr einfach über die Zu-sammensetzung ternärer Verbindungshalbleiterwie z.B. AlGaAs, d.h. über den Aluminium-Ge-halt, gesteuert werden. Dies führt dazu, daß Poten-tialverläufe, wie sie der Wissenschaftler für neuar-tige Bauelemente benötigt, in der Realität – imHalbleiterbauelement – nachgebaut werden kön-nen. Die Möglichkeit dieses „Band-Gap-Enginee-rings“ ist einer der großen Vorteile von Halbleiter-systemen und Grundlage vieler moderner Halblei-terbauelemente. So wären Laserdioden und damitdie moderne Datenkommunikation über Glasfaserohne Band-Gap-Engineering nicht denkbar. DieKontrolle über die Leitfähigkeit sowie die Kon-trolle über die Potentialverläufe zeichnen moderneHalbleitersysteme aus. Durch diese Flexibilität ge-lingt es, Mikroprozessoren, Laserdioden und vieleandere wichtige Halbleiterbauelemente zu realisie-ren. Allen diesen Bauelementen ist allerdings ge-meinsam, daß sie eine inhärente Eigenschaft derElektronen vernachlässigen: den Spin.

Das Elektron: nicht nur Ladung,sondern auch Spin

Durch Halbleiter-Bauelemente fließt ein Strom.Strom entsteht aus der Bewegung geladener Teil-chen: den Elektronen im Leitungsband des Halb-leiters2. Das Elementarteilchen Elektron trägt ne-ben der Ladung (der Elementarladunge = 1.6⋅10-19 Coulomb) auch einen Eigendrehim-puls – den Elektronenspin. Nach den Vorstellun-gen der klassischen Physik entsteht ein Drehim-puls, wenn z.B. eine Kugel rotiert. Ist die Kugelgeladen, resultiert daraus ein Kreisstrom und da-mit wie bei einer Spule auch ein magnetisches Mo-

ment. Das Elektron besitzt neben dem Spin eben-falls ein magnetisches Moment. Es verhält sich da-mit wie ein winziger Mini-Magnet. Die Eigen-schaften Spin und zugehöriges magnetisches Mo-ment des Elektrons sind quantitativ allerdings kei-neswegs im Rahmen der klassischen Physik ver-ständlich. Berechnungen zeigen, daß die Vorstel-lung des Elektrons als rotierende Kugel unhaltbarist, insbesondere würde sie die RelativitätstheorieEinsteins verletzen.Spin und magnetisches Moment sind dem Elektronals Elementarteilchen eingeprägt. Der Eigendreh-impuls des Elektrons (genauer: dessen z-Kompo-nente) beträgt Jz = ½ h (h = Plancksches Wir-kungsquantum/2π). Das zugehörige magnetischeMoment beträgt ein Bohrsches Magneton,µB = (e h)/2m, dabei ist e die Elementarladung undm die Ruhemasse des Elektrons. Das Elektron kanndamit als Elementarmagnet angesehen werden.Der Spin und das magnetische Moment gehorchenquantenmechanischen Regeln. Eine dieser Regelnbesagt, daß die Richtung, in der der Elementarma-gnet des Elektrons ausgerichtet ist, quantisiert seinmuß – im Gegensatz z.B. zu einer Kompaßnadel,die ja in beliebige Richtungen zeigen kann. Bezüg-lich einer vorgegebenen Richtung existieren beimElektron nur zwei Einstellmöglichkeiten: „Spin-Up“ oder „Spin-Down“. Damit eignet sich nichtnur die Ladung des Elektrons als Informationsträ-ger, sondern auch dessen Spin. Ziel der Spin- bzw.Magnetoelektronik ist es nun, die Eigenschaft„Spin“ zur Informationsspeicherung und Informa-tionsverarbeitung in elektronischen Bauelementenauszunutzen.

Ferromagnetische Schichtstrukturen fürdie magnetischen Datenspeicherung

In nicht-magnetischen Halbleitern wie Siliziumund GaAs kommen die beiden Spin-Orientierun-gen gleich häufig vor. In jedem Energiezustand

34

Akademie-Journal 1/2004

Abb. 2Zustandsdichte einesferromagnetischenMetalls, getrennt fürSpin-up und Spin-down Elektronen

Abb. 3Prinzipieller Aufbaueiner magnetischenTunneldiode

kann sich ein Elektron mit Spin-Up und eines mitSpin-Down befinden. Anders ist die Situation inferromagnetischen Metallen. Dort ergeben sichauf Grund der makroskopischen Magnetisierungsowie der Wechselwirkung zwischen den ma-gnetischen Atomen und den freien Elektronen imLeitungsband andere Verteilungen zwischenSpin-Up und Spin-Down-Elektronen. In Abb. 2ist qualitativ die Zustandsdichte für eine ferro-magnetisches Metall skizziert.3 Wenn die makro-skopische Magnetisierung eine Vorzugsrichtungvorgibt, ergibt sich auch eine Spin-Polarisation.In häufig verwendeten ferromagnetischen Metal-len beträgt die Spin-Polarisation ca. 30%.Vor etwa fünfzehn Jahren konnten erste Bauele-mente hergestellt werden, deren Widerstand vonder relativen Magnetisierung zweier ferromagne-tischer Metallschichten abhängt. Dies war derEinstieg in eine stürmische Entwicklung hin zuBauelementen, die spinabhängigen Transport derLadungsträger ausnutzen. Mittlerweile werden„Giant Magnetoresistance“-Bauelemente (GMR)und magnetische Tunnelstrukturen (TunnelingMagnetoresistance, TMR) großindustriell herge-stellt und z. B. als Leseköpfe in Festplatten ein-gesetzt: eine Schlüsseltechnologie zur Steige-rung der Speicherdichte solcher magnetischenMedien.

Das Prinzip einer magnetischen Tunneldiode istin Abb. 3 skizziert. Eine hartmagnetische Unter-lage ist von einer weichmagnetischen Schichtdurch eine dünne Barriere (rot) getrennt. Die bei-den ferromagnetischen Schichten können in derEbene magnetisiert werden, und zwar entwederparallel oder antiparallel. Bei paralleler Magneti-sierung passen die Spin-Zustandsdichten der bei-den Materialien zueinander, die Elektronen kön-nen leicht von der oberen weichmagnetischenSchicht in die untere hartmagnetische Schichttunneln. Es ergibt sich ein vergleichsweise nied-riger Widerstand des Bauelements. Sind die bei-den Schichten dagegen anti-parallel magnetisiert,so finden die meist spin-up-polarisierten Elektro-nen aus der oberen Schicht relativ wenige pas-sende spin-up-Zustände in der zweiten Schicht.Der Stromtransport ist behindert, es ergibt sichein hoher Widerstand. Parallele und anti-paralle-le Konfiguration führen also zu unterschiedli-chen elektrischen Widerständen. Der Widerstandändert sich in Abhängigkeit von der relativenMagnetisierung, je nach Bauart um ca. 30%.Dies bildet die Grundlage für die Entwicklungvon sehr empfindlichen Magnetfeld-Sensoren inden unterschiedlichsten Anwendungen.Derartige Bauelemente werden seit 1998 u.a. vonIBM und Seagate sehr erfolgreich als Leseköpfevon Festplatten eingesetzt. Die weichmagnetischeSchicht des Sensors wird durch das Magnetfeldder Festplatte hin- und hermagnetisiert, je nachMagnetisierung der Festplatte, und kann so die di-gitale Information auslesen. Dabei fliegt der Lese-kopf mit einer Geschwindigkeit von ca. 100 km/hund einem Abstand von 20 nm über die Festplatte.Abb. 4 zeigt, wie mit der Entwicklung dieser neu-artigen Sensortechnologie auf der Basis der Mag-netowiderstandsänderung die Speicherdichte aufFestplatten drastisch erhöht werden konnte.Magnetische Tunnelstrukturen können nicht nurals Sensor, sondern auch als Speicherbauelementeingesetzt werden. Die Magnetisierungsrichtungder weichmagnetischen Schicht kodiert die digi-tale Information, das Auslesen erfolgt über Wi-derstandsmessung. Zur Ummagnetisierung kön-nen Schreibleitungen eingesetzt werden, die beiStromfluß ein Magnetfeld erzeugen, das ausrei-chen muß, um eine ausgesuchte Speicherzelle ineiner bestimmten Richtung zu magnetisieren.Bestechende Vorteile dieser Technologie beste-hen in der Erhaltung der Information auch ohneSpannungsversorgung, sowie in der Schnellig-keit des Schreibens und Auslesens. Sie ist damitder konventionellen Speichertechnologie auf derBasis von Silizium-Halbleiterbauelementenüberlegen. Allerdings ist die Miniaturisierung beiden magnetischen Speichern noch nicht so weitvorangetrieben wie bei den Silizium-Speichern.Die magnetischen Random Access Memories(MRAMs) (Abb. 5) werden demnächst auf demMassenmarkt verfügbar sein, weil sich praktisch

35

Akademie-Journal 1/2004

Abb. 4Erhöhung der Spei-cherdichte von Fest-platten mit der Ein-führung magneto-elektronischer Lese-köpfe

Abb. 5Prinzip des MRAM(magnetischer Ran-dom Access Memo-ries)

alle Big Player der Elektronik-Branche vor weni-gen Jahren die Entwicklung solcher Bausteinezum Ziel gesetzt haben. Neben der Firma Moto-rola, die gerade einen 4 MB-MRAM-Chip anTestkunden verschickt hat, beschäftigt sich u.a.auch Infineon in Kooperation mit IBM mit dieserneuen Technologie. Ein riesiger Markt mit einemVolumen von geschätzten 100 Milliarden Eurowartet auf seine Erschließung. Der MRAM-Spei-cher wird hochintegriert wie ein DRAM (dyna-mic RAM), schnell wie ein SRAM (static RAM)und schneller als ein Flash-Memory sein – alsoein Alleskönner unter den Speicherbausteinen.Die Zahl der möglichen Schreib-/Lesezyklen istsehr groß, und zusätzlich sind MRAMs noch be-sonders strahlungsresistent gegen hochenergeti-sche Weltraumstrahlung. Diese Vorteile könntendazu führen, daß MRAMs in Zukunft die unter-schiedlichen Speichertypen in Computersyste-men sogar komplett verdrängen.Spinabhängiger Transport wird schon in elektro-nischen GMR- und MRAM-Bauelementen aufder Basis ferromagnetischer Metalle ausgenutzt.Dieses Gebiet wird im Allgemeinen als Magne-toelektronik bezeichnet. Im Gegensatz hierzu istes das Ziel der Spinelektronik, spinabhängigenTransport mit den Funktionen der Halbleiter zukombinieren.

Magnetische Halbleiter

Zur erfolgreichen Umsetzung spinelektronischerKonzepte müssen magnetische Halbleiter ent-wickelt werden, die es erlauben, den Spin vonElektronen in Halbleitern zu manipulieren. Einzentrales Experiment hierzu gelang 1999.4 Hier-bei wurde ein dotierter magnetischer Halbleiter(im Beispiel BeMnZnSe) als Kontakt auf einemansonsten unmagnetischen Halbleiterbauelementverwendet. Magnetische Halbleiter zeichnen sichdadurch aus, daß die Zustände für Elektronen mitSpin-Up und Spin-Down nicht mehr die gleicheEnergie besitzen. Der energetisch tiefere Ener-giezustand wird bevorzugt oder gar ausschließ-lich von den Elektronen bevölkert, wie imBeMnZnSe. Da das magnetische Mangan nur ei-

nen Bruchteil des gesamten Halbleiters aus-macht, werden solche Systeme oft als semimag-netische Halbleiter bezeichnet. Im Experimentzeigt sich, daß ein Strom, der über den magneti-schen BeMnZnSe-Kontakt in das darunter lie-gende Halbleiter-Bauelement fließt, tatsächlichaus spin-polarisierten Elektronen besteht. Dieskann durch die Analyse des emittierten Lichtesabgelesen werden: Das von der LED abgegebeneLicht ist nämlich auf Grund der Spinpolarisationder Elektronen zirkular polarisiert. Dies war dererste überzeugende Beweis, daß es in der Tatmöglich ist, die Konzepte des spinabhängigenTransports und die Welt der Halbleiter zu verbin-den. Der Nachteil an dem beschriebenen frühenExperiment ist, daß die spinpolarisierenden Ei-genschaften des magnetischen Kontaktes ausBeMnZnSe nur bei sehr tiefen Temperaturen undeinem externen Magnetfeld auftreten, das perma-nent aufrecht erhalten werden muß. Beides ist zuaufwendig für die praktische Anwendung.Viele Gruppen weltweit erforschen deshalb alter-native magnetische Halbleiter, die eine Spin-Po-larisation auch bei Raumtemperatur anbieten undam besten kein permanentes Magnetfeld benöti-gen, also selbst ferromagnetisch sind.

36

Akademie-Journal 1/2004

Magnetische Halbleiter können bisher noch nichtalle Anforderungen erfüllen. Als Beispiel sei hierdas GaMnAs oder das ZnCoO genannt. (Es gibtnoch viele weitere, diesbezüglich interessantemagnetische Halbleiter, die auf ihre Tauglichkeitfür die Raumtemperatur-Spinelektronik unter-sucht werden.) GaMnAs ist zwar ferromagne-tisch, allerdings nur bis ca. 170 K, und ZnCoO istzwar ein ferromagnetischer Halbleiter bei Raum-temperatur, aber dessen Spinpolarisation ist nochunbekannt. Hier gibt es erheblichen Forschungs-bedarf bezüglich der Materialentwicklung.Eine interessante Besonderheit magnetischerHalbleiter besteht darin, daß die ferromagneti-sche Kopplung zwischen den magnetischen Io-nen durch die freien Ladungsträger und damitdurch die Dotierung beeinflußt wird. Da die Do-tierung in Halbleitern kontrollierbar ist, kann nunein magnetischer Halbleiter zwischen „ferroma-gnetisch“ und „nicht-ferromagnetisch“ hin undhergeschaltet werden – z.B. mittels eines Steuer-kontaktes (Gatestruktur), wie sie von Feldeffekt-Transistoren her bekannt ist und die als Grundla-ge für die CMOS-Technlogie dient: ein sehr in-teressanter Aspekt für die Anwendung.

Anwendungen

Das Gebiet der magnetischen Datenspeicherungwird zunächst wohl den ferromagnetischen Me-tallen vorbehalten bleiben. Metallische MRAM-Chips sind weit entwickelt. Der Vorteil vonMRAM-Strukturen auf der Basis magnetischerHalbleiter würde in der Kombination mit dem fürHalbleiter typischen Band-Gap-Engineering be-stehen. Elektrische Potentiale könnten in diesenStrukturen maßgeschneidert werden, mit klarenVorteilen für die Bauelement-Designer.Der spinpolarisierte Stromtransport durch Halb-leiter – das zweite Anwendungsfeld – wird zuBauelementen völlig neuer Funktionalität führen.In Abb. 7 ist ein Feldeffekt-Transistor gezeigt,dessen Kontakte (Source und Drain genannt) aus

Abb. 6Spinelektronik ver-bindet die Welt derHalbleiter mit derWelt der magneti-schen Datenspeiche-rung

Abb. 7ProgrammierbarerSpin-Feld-Effekt-Transistor (Spin-FET)

einem magnetischen Halbleiter bestehen. Die re-lative Magnetisierung der ferromagnetischenSource- und Drainkontakte erlaubt die Realisie-rung zweier unterschiedlicher Zustände des Bau-elements: parallele und anti-parallele Magneti-sierung. Beide Zustände führen auf Grund desspinpolarisierten Stromtransports zu zwei unter-schiedlichen Strom-Spannungscharakteristika.Diese Elektronik kann also umprogrammiertwerden. Die Programmierung wäre semi-perma-nent, da die Source- und Drainkontakte fer-romagnetisch sind. Der jeweilige Zustand wirdauch ohne Versorgungsspannung aufrechterhal-ten, ist gleichzeitig aber auch beliebig oft änder-bar. Darüber hinaus läßt sich die Magnetisierungextrem schnell schalten. Die Spininjektion in La-serdioden wäre ebenfalls sehr interessant. Ober-flächenemittierende Laser würden bei einer nied-rigeren Schwellstromdichte arbeiten, und die Po-larisation solcher Laserdioden könnte mit Hilfeder Spinorientierung der Ladungsträger gesteuertwerden. Die Demonstration der elektrischenSpin-Injektion in Silizium-CMOS-Schaltungenund GaAs-oder Galliumnitrid-Laserdioden stehtallerdings noch aus. Hier befindet man sich amAnfang der Entwicklung.Die dritte Kategorie möglicher Anwendungender Spinelektronik betrifft die Manipulation des

37

Akademie-Journal 1/2004

Spins von Einzelelektronen. Diese Einzelelektro-nen werden durch eine quantenmechanischeWellenfunktion beschrieben. Da der Einzelspinnur zwei Einstellmöglichkeiten hat – Spin upoder Spin down – wird ein lokalisiertes Einzel-elektron auch als quantenmechanisches Bit oderauch Qbit bezeichnet. Qbits können miteinanderverschränkt (gekoppelt) werden, womit dannquantenmechanische logische Operationendurchgeführt werden können. Diese sind dieGrundlage für die Realisierung eines Quanten-computers. Neben dem Konzept der Einzelspinsgibt es noch weitere Konzepte zur Realisierungeines Quantencomputers (z.B. die Verwendungvon Kernspins oder von Einzelatomen in Atom-fallen). Die Realisierung eines Quantencompu-ters auf Halbleiter-Basis hätte den Vorteil, daßfür die Massenproduktion die Erfahrung der Sili-zium-Industrie genutzt werden kann.Da ein Quantencomputer quantenmechanischenRegeln gehorcht, ist seine Arbeitsweise nur mitHilfe der Quantenmechanik zu verstehen. Aus-zeichnen wird einen Quantencomputer seinemassive Parallelität. Während z.B. 100 klassi-sche Bits nur eine von 2100 Zahlen repräsentieren,können 100 Qbits 2100 Zahlen gleichzeitig reprä-sentieren, mit denen auch Rechenoperationengleichzeitig durchgeführt werden können. EinQuantencomputer mit nur 100 Qbits würde damiteine enorme Rechenleistung entwickeln. Speziel-le mathematische Probleme z.B. im Zusammen-hang mit der Dechiffrierung von Sicherheitsco-des könnten hiermit extrem effizient angegangenwerden. Die Arbeitsweise und die Anwendbar-keit eines Quantencomputers sind Gegenstandaktueller Forschung, wobei allerdings viele Fra-gen z.B. bezüglich der Dephasierung der quan-tenmechanischen Wellenfunktion und der not-wendigen Fehlerkorrektur noch weiter erforschtwerden müssen. Man ist noch weit davon ent-fernt, einen brauchbaren Quantencomputer zurealisieren.

Blick in die Zukunft

Die Kontrolle über den Spin der Elektronen erlaubtdie Realisierung von Bauelementen mit völlig neu-er Funktionalität. Während die Magnetoelektronik,

d.h. die Spinelektronik auf der Basis metallischerFerromagnete, zur Zeit den Weg in die industrielleFertigung findet und uns in Zukunft vermutlich daslästige „Booten“ der PCs und Notebooks ersparenwird, steckt das Gebiet der Spinelektronik auf derBasis von Halbleiterstrukturen noch in Kinderschu-hen. Eine einigermaßen präzise Beschreibung derweiteren Entwicklung dieses Teilbereiches ist des-halb schwierig. Diese wird sehr stark davon abhän-gen, inwieweit neue, für den Praxiseinsatz taugli-che Materialien mit geeigneten magnetischen Ei-genschaften entdeckt und entwickelt und mit denkonventionellen Halbleitern wie Silizium oderGaAs und GaN kombiniert werden. Das Verhaltender Elektronenspins in Halbleitern ist nur mit Hilfeder Quantenmechanik zu verstehen. Eine genauerephysikalische Beschreibung sollte helfen, magneti-sche Materialeigenschaften vorherzusagen und dieArbeitsweise von Bauelementen insbesondere inder Quanteninformationsverarbeitung genauer ken-nen zu lernen. Klar ist allerdings, daß das Fensterfür reale Anwendungen der Spinelektronik weitaufgestoßen wurde und daß speziell in Europa vieleder weltweit führenden Gruppen auf diesem Gebiettätig sind.

Anschrift des Verfassers:Prof. Dr. Andreas WaagTU BraunschweigInstitut für HalbleitertechnikHans-Sommer-Straße 6638106 Braunschweig

Anmerkungen

1 Die Begriffe „Magnetoelektronik“ bzw. „Spinelektronik“ werden

immer noch nicht einheitlich benutzt. Die hier gegebene Definition

ist die wohl gebräuchlichste.2 Alternativ kann Strom auch durch Defektelektronen (Löcher) ge-

tragen werden. Dabei handelt es sich um fehlende Elektronen im

Valenzband.3 Die Zustandsdichte gibt an, wie viele Elektronen mit der entspre-

chenden Energie im Halbleiter vorkommen.4 R. Fiederling, M. Keim, G. Reuscher, W. Ossau, G. Schmidt, A.

Waag, L.W. Molenkamp; Injection and detection of a spin polari-

zed current in a n-i-p light emitting diode, Nature 402(1999)787.

38

Akademie-Journal 1/2004

Computersimulationen und Technologiefortschritt –ein symbiotisches Duo

Manfred Krafczyk

Die Effizienz und Genauigkeit computergestützter Analysen und Verhaltensprognosenkomplexer Systeme in Natur und Technik basieren auf Fortschritten der numerischen Ma-thematik, der Informatik und der technischen Fachdisziplinen. An Beispielen ausgewähl-ter ingenieurrelevanter Probleme werden grundsätzliche Anforderungen an Simulations-systeme erläutert. So beeindruckend manche Erfolge im Bereich der computergestütztenSimulation (insbesondere dem Laien) erscheinen, zeigt sich jedoch auch eine zunehmen-de Tendenz, bei der Bewertung solcherart erzeugten „Wissens“, grundlegende Unsicher-heitsfaktoren zu ignorieren oder falsch zu interpretieren. Die Bewertung von Ergebnissencomputerbasierter Simulationen setzt daher ein vertieftes Wissen bezüglich des Ur-sprungs potentieller Fehlerquellen voraus. Eine verläßliche Automatisierung der Quali-tätssicherung von Simulationen komplexer Ingenieurprobleme bleibt daher noch weitge-hend der Zukunft vorbehalten.

Vom Ingenieurproblemzur Formulierung

Ingenieure müssen den Entwurf ihrer Konstruk-tionen nicht nur gegen Beanspruchungen in denGebrauchszuständen, sondern auch gegen poten-tielle Gefährdungen absichern, für die es oft garkeine Erfahrungen gibt. Im letzteren Falle sindVerhaltensprognosen nur durch Simulationenmit computergerechten Modellen gewinnbar. InAbb. 1 ist als Beispiel der simulierte Anprall ei-ner Flutwelle auf eine Brücke dargestellt. Umauch für diesen Fall die Standsicherheit derBrücke nachzuweisen, müssen Brücke, Flutwel-le, Baugrund der Widerlager und die Strömungs-mechanik in berechenbare Modelle übersetztwerden.· Wie läuft eine – mit Schlamm und Geröll an-

gereicherte – Flutwelle gegen ein Hindernis?· Welche Kräfte wirken beim Wellenschlag auf

die Brücke? Hält sie stand?· Ist die Gründung ausreichend, ein Versagen

der Fundamente zu verhindern?· Welche dynamischen Kräfte wirken bei der

Überspülung?· Wird das Flußbett durch die turbulente Strö-

mung im Nahfeld der Pfeiler ausgekolkt?Die prinzipielle Vorgehensweise bei der Lösungsolcher Fragestellungen durch Computer-Simu-lationen wird nachfolgend erläutert.

Von der Modellierungzur Ergebnisanalyse

Die Verwendung von Computern hat in den letz-ten Dekaden unsere Gesellschaft transformiert;ein Prozeß, der weiterhin andauert und in seinen

Folgen durchaus ambivalent bewertet wird. Ne-ben einer weitgehend globalen Verfügbarkeitvon Daten über das Internet und dem Einsatz vonspezifischer Hardware zur vielfältigen Steuerungtechnischer Systeme im Bereich des Maschinen-baus, der Telekommunikation, der Medizin undder Elektronik (um nur einige zu nennen) werden

Abb. 1Simulation einerFlutwelle, die auf ei-ne Brücke trifft. VonInteresse ist nebender mechanischenBelastung der Struk-tur durch die Welleauch die Frage, obes zu einer Überspü-lung des Bauwerkskommt und welcheFolgen dies hat

39

Akademie-Journal 1/2004

Computer im technischen und wissenschaftli-chen Bereich vorwiegend eingesetzt, um dasVerhalten bestehender oder geplanter Systemezu analysieren. Diese Art der Simulation hat sichneben rein theoretischen und experimentellenMethoden als drittes Standbein der Wissenschaftetabliert. In diesem Kontext dient der Computerals sensorische und mentale Prothese, die unse-ren Erfahrungsbereich drastisch erweitert. Dieswird ermöglicht, in dem Berechnungs-Modelleals Ersatz für reale Systeme entwickelt werden,die uns durch ihr in der Simulation gezeigtesVerhalten ein mehr oder minder detailliertes Bildvermitteln, wie sich das modellierte reale Systemraumzeitlich zu verschiedenen Szenarien entwik-keln würde. Die Prozeßkette der Modellierungund Simulation hat die folgenden funktionalenBestandteile:

Das physikalisch-mechanische Modell: Hier wer-den die als wesentlich angenommenen Kompo-nenten des Modellsystems und die zugehörigenEigenschaften definiert. Ferner erfolgt die Festle-gung, welche Effekte (z.B. chemische, mechani-sche, biologische, thermische, elektrische etc.)berücksichtigt und welche Art von Modellen ver-wendet werden sollen (Struktur, Strömung,Strahlung u.a.).

Das mathematische Modell beschreibt die quantita-tive Wechselwirkung zwischen den oben definier-ten Systemkomponenten und den Einwirkungen.Für das in den Abb. 2 und 3 dargestellte Beispielder Kühltürme sind dies z.B. die Eigenschaften desBetons und des Baugrunds und als EinwirkungenWindlasten. Die Mehrzahl der heute verwendetenmathematischen Modelle sind partielle Differenti-algleichungen, die das Verhalten interessierenderGrößen (z.B. Kräfte oder Flüsse) aus Erhaltungs-sätzen (Masse, Impuls, Energie) oder Extremal-prinzipien (z.B. Prinzip der kleinsten Wirkung) alsalgebraische Beziehungen zwischen funktionalenund vorgegebenen Größen sowie zusätzlichenQuelltermen repräsentieren.Rand- und Anfangsbedingungen: Da meist räum-lich und zeitlich beschränkte Systeme betrachtetwerden, muß definiert werden, welche Rand-undAnfangsbedingungen anzunehmen sind und wel-che Einflüsse von Außen auf das System wirken.Sonneneinstrahlung, Temperaturdifferenzen zwi-schen Innen- und Außenseite der Bewandung,ungleichmäßige Fundamentsetzungen oder Erd-beben. Weiterhin wird die interne Geometrie ei-nes Problems über spezielle Übergangsbedin-gungen der primären Variablen sowie ihrer zeit-lichen oder räumlichen Änderungen definiert.Ähnlich, wie der Inhalt eines Kreuzworträtselsüber die vorliegenden Wortbeschreibungen suk-zessive zu ermitteln ist, legen die Rand- und An-fangsbedingungen die Lösung der Modellglei-chungen fest.

Abb. 2Modellrepräsenta-tionen eines Kühl-turms: a) CAD-Mo-dell (Splines), b)STL-Modell (ebeneDreiecke), c) kartesi-sches Raumgitter zurnumerischen Berech-nung von Konstruk-tion und Luftströ-mung

Abb. 3Versagen einerKühlturmgruppe inFerrybridge (Eng-land, 1965)

Numerische Diskretisierung: Nur in Ausnahme-fällen ist es möglich, die Lösung der im erstenArbeitsschritt genannten Differentialgleichungendurch Anpassen analytisch vorgebbarer Funktio-nen zu erhalten. Hierbei leisten Computeralge-brasysteme, welche eine symbolische Manipula-tion mathematischer Ausdrücke erlauben, wert-volle Dienste. Im allgemeinen Fall wird das Be-rechnungsgebiet in endlich viele diskrete Teilge-biete zerlegt (Abb. 2c). Für diese Teilgebietewerden die Differentialoperatoren näherungs-weise durch arithmetische Ausdrücke ersetzt, de-ren algebraische Beziehungen eine algorithmischeindeutige Berechnungsvorschrift zur Ermittlungvon Näherungslösungen auf den Teilgebietenoder deren Verbindungsknoten ermöglichen. DieGenauigkeit solcher numerisch ermittelter Nähe-rungslösungen hängt von der gewählten Komple-xität der lokalen Näherung und der Anzahl derGebietsunterteilungen ab, da die unbekanntenLösungsfunktionen durch die Aneinanderreihungeinfacherer lokaler Funktionen meist beliebig an-genähert werden können. Beide Möglichkeitender Ergebnisverbesserung erhöhen die Anzahlder Freiheitsgrade der Näherungslösung (i.e. derzu berechnenden Zahlenwerte) und damit denBerechnungsaufwand, d.h. Genauigkeit hat ihrenPreis. Auf Höchstleistungsrechnern sind heutzu-tage Simulationen mit mehr als zehn MilliardenFreiheitsgraden möglich.

Implementation und eigentliche Berechnung: Fürtechnische Simulationen ist das mathematisch-physikalische Problem für einen vorzugebenden

40

Akademie-Journal 1/2004

Prototyp (Gebäude, Auto, etc.) zu lösen, welchervon Entwurfsingenieuren oder Architekten meistals Computer-Aided-Design (CAD)-Modell vor-liegt (Abb. 2a). Alternativ kann auch die digitaleRekonstruktion eines natürlichen Objektes einegeometrische Ausgangsbasis darstellen sein(Abb. 5). Das Berechnungsprogramm muß in derLage sein, unterschiedliche geometrische Model-le zu erfassen, mit den problemspezifischenRand-und Anfangsbedingungen zu ergänzen, dieStruktur und die Zeit zu diskretisieren und dannden eigentlichen Berechnungsprozeß durchzu-führen. Im Grenzfall muß die Simulation bis inZerstörungszustände gehen (Abb. 3 zeigt einenrealen Versagensfall).

Ergebnisauswertung: Die erhaltene Näherungs-lösung liegt im Anschluß an die Berechnung in

Abb. 4Simulation des zeitabhängigen, räumlichen Strömungsfeldes um zweiKühltürme mit einer Höhe von 100 m. Der Wind bläst von oben linksnach unten rechts. Die Färbung der Schnittebenen bezieht sich auf dieGröße der zum Wind parallelen Strömungsgeschwindigkeitskomponen-te (rot: hohe Geschwindigkeit stromabwärts, blau: hohe Geschwindig-keit stromaufwärts). Die Ausschnittsvergrößerung zeigt die starkenVerwirbelungen als Vektordarstellung. Obwohl diese Berechnung fastzwei Milliarden Freiheitsgrade umfaßt, können nur die größeren Wir-bel (> 1m) berücksichtigt werden

Abb. 5Rekonstruktion einerrealen Sandprobe(0,2 Kubikzentime-ter) durch Mikroto-mographie. SolcheProben dienen alsAusgangsgeometriezur mikroskaligenSimulation desSchadstofftransportsin Böden (mitfreundlicher Geneh-migung ITÖ, ETHZürich [1])

einer Form vor, die erst durch Aufbereitung infachspezifische Darstellungsformen zur Einsichtführt. Für dreidimensionale und zeitabhängigeProbleme kann diese Nachbearbeitung selbst ei-nen aufwendigen, iterativen Berechnungsprozeßerfordern, siehe Abb. 4. Weitere Beispiele fürDarstellungen komplexer Strömungsprozessesind in Abb. 6 für die Dynamik von Luftblasen ineinem Abwasserreaktor und in Abb. 7 für die lo-kale Temperaturverteilung in einem Brutkastenfür Frühgeburten gezeigt.

Gründe für die wachsende Bedeutungvon Computersimulationen

Die oben skizzierte Prozesskette hat sich schonseit mehr als vierzig Jahren bewährt. Zwei Fakto-ren haben jedoch zum Boom von Computer-Si-mulationen besonders beigetragen:

Beschleunigung des Berechnungsvorgangs durchFortschritte der numerischen MathematikIm Laufe der letzten dreißig Jahre wurden im Be-reich der numerischen Mathematik qualitativneue Ansätze entwickelt, die den Berechnungs-aufwand zur näherungsweisen Lösung von Dif-ferentialgleichungen für vorgegebene Genauig-keiten um bis zu sechs Größenordnungen redu-zieren. Stichwortartig seien hier Mehrgitterver-fahren [2] und adaptive Ansätze [3] erwähnt. Beiletzteren wird durch eine a posteriori Fehler-schätzung des lokalen Diskretisierungsfehlersmit anschließender Modifikation der lokalenDiskretisierung der Berechnungsaufwand in dieProblemzonen mit den größten Sensitivitätenverlagert (Abb. 8). Dies minimiert bei vergleich-barem Berechnungsaufwand den globalen undlokalen Diskretisierungsfehler.

Beschleunigung des Berechnungsvorgangs durchFortschritte in der Computerhard- und softwareIn den letzten sechs Dekaden hat sich die Anzahlder pro Sekunde von einem Computer durchführ-baren Rechenoperationen um zwölf (!) Größen-ordnungen erhöht. Diese Leistungssteigerung er-folgte zum einen durch die Verbesserung vonProzessor und Hardware, zum anderen durch dieVerwendung von Parallelrechnern, bei denensich bis zu Tausende von Prozessoren die Bear-beitung eines Gesamtproblems teilen und somitdie Berechnungszeit reduzieren.Durch diese dramatischen Effizienzsteigerungenwird die Durchführung von numerischen Simula-tionen auch für komplexe Modelle aus Wissen-schaft und Technik mit akzeptabler Genauigkeitermöglicht. Im Bereich der Elektrotechnik undInformatik tragen aufwendige Simulationen sub-stantiell zur Weiterentwicklung der Computer-hardware bei. Hier handelt es sich um eine positi-ve Rückkopplung, deren Ende noch nicht abzu-sehen ist. Der Hunger nach leistungsfähigerer

41

Akademie-Journal 1/2004

Abb. 6Durchströmung ei-nes Labor-Festbett-Reaktors zur Abwas-serreinigung mit ei-nem Wasser-Luft-Gemisch. Die grüngefärbten Luftblasendurchlaufen die Ku-gelpackung und bil-den dabei komplexeBlasenformen (dieWasserkomponenteist ausgeblendet).Die beiden blauenRauten symbolisie-ren Messorte, an de-nen der zeitlicheVerlauf der Luftkon-zentration gemessenwird. Diese variiertinnerhalb des Sy-stems deutlich, wiean den beiden rech-ten Diagrammen zusehen ist

Abb. 7Momentaufnahme der turbulenten thermischenStrömung in einem Brutkasten ca. 5 min. nacheinem Kaltstart mit 20° Celsius. Links untenströmt warme Luft zu, rechts strömt die ver-brauchte Luft ab. Die Temperaturverteilung istfür die mittlere Ebene durch Farb- und Höhen-kodierung dargestellt. Die Matratze des Neuge-borenen hat sich noch nicht aufgeheizt. NachAnsicht von Medizinern beeinträchtigen die inder Simulation auftretenden Temperaturfluktua-tionen die Gesundheit eines Neugeborenen(durch zwei Ellipsoide im unteren Bildbereichstilisiert) [4,5]

Abb. 8Adaptive Simulationeiner zeitabhängigenZylinderumströmungzu drei unterschied-lichen Zeitpunkten.Die Farben reprä-sentieren den Betragder horizontalen Ge-schwindigkeitskom-ponente. Ausgehendvon der a priori Dis-kretisierung (oben)orientiert sich diezunehmende Verfei-nerung des Gittersan dem Betrag deslokal geschätztenFehlers

Hard- und Software ist ungebrochen. So erfor-dern beispielsweise Modelle der computerge-stützten Klimaforschung Berechnungskapazitä-ten, die viele Größenordnungen über denen deraktuell verfügbaren Höchstleistungsrechner lie-gen.

Geschwindigkeit ist nicht alles ...

Die staunenswerte Leistungssteigerung der com-putergestützten Simulation und ihr maßgeblicherEinfluß auf die Entwicklung von Technik und

Wissenschaft darf nicht darüber hinwegtäuschen,daß eine alleinige Beschleunigung der Berech-nungsprozesse bei weitem nicht den Ansprüchengenügt, die speziell im Bereich der Technikwis-senschaften erforderlich sind. In der Ingenieur-praxis zeigt sich zunehmend die Tendenz, teureund komplexe Softwaresysteme einzusetzen undden erzielten Berechnungsergebnissen über Ge-bühr zu vertrauen, indem z.B. aus der Genauig-keit der numerischen Näherungslösung auf dieRealitätsnähe des der Berechnung zugrunde lie-genden physikalisch-mathematischen Modellsgeschlossen wird. Oft wird die eingesetzte Soft-ware durch schlichten Kenntnismangel ihrerFunktionalität suboptimal verwendet. Die ersteProblematik wird insbesondere dann bedeutsam,wenn die der Berechnung zugrunde liegenden

mathematischen Modelle so komplex sind, daßeine vorausgehende Validierung nicht durchführ-bar ist. Dies ist insbesondere der Fall, wenn daszu lösende Problem eine Funktion vieler qualita-tiv unterschiedlicher Prozesse ist (sog. Multi-Physics-Probleme), die auf unterschiedlichenSkalen in Zeit und Raum wechselwirken, z.B.Abb. 4 und 6. Solche Probleme sind in vielen In-genieurdisziplinen von zunehmendem Interesse.Begnügte man sich beispielsweise früher damit,den Tragfähigkeitsnachweis eines Bauwerkesüber vereinfachende Annahmen für statisch-me-chanische Lasten zu simulieren, zielen heutigeModelle zunehmend auf die Berücksichtigungdynamischer, deterministischer oder statistischerLasten durch Windeinwirkung, strahlungsindu-zierte Temperaturschwankungen sowie chemi-scher und geotektonischer Einflüsse, um nur ei-nige zu nennen.Für solche komplexen Modelle erzielen die obenerwähnten Methoden der numerischen Mathema-tik oftmals keine signifikante Beschleunigung.Adaptive Fehlerschätzer müssen meist mit gro-ßem Aufwand modellspezifisch entwickelt oderangepaßt werden. Als Analogie kann hier dasBild von der hochspezialisierten Numerik alsSportwagen herhalten, der im rauhen Geländekomplexer Ingenieurprobleme durch mangelndeRobustheit keine oder nur geringe Geschwindig-keitsvorteile bietet, auf der Autobahn idealisier-ter Modellprobleme aber seine spezifischen Op-

42

Akademie-Journal 1/2004

timierungen ausspielen kann. So verwundert esnicht, daß zugunsten der Robustheit in vielenkommerziellen Simulationswerkzeugen numeri-sche Algorithmen implementiert werden, die(vergleichbar einem Geländewagen) eine Nähe-rungslösung (das Fahrtziel) nur in suboptimalerRechenzeit (i.e. im Schritttempo) zu finden er-lauben.Neben der Effizienzsteigerung durch schnelleHardware und effiziente Numerik wird zuneh-mend auch der Ablauf einer Simulation selberhinterfragt. In der Industrie erfolgt die computer-gestützte Entwicklung von Prototypen fast aus-schließlich als iteratives Durchlaufen eines mo-nodirektionalen Zyklus aus Design, Diskretisie-rung, Berechnung und Auswertung mit jeweilsanschließender Designmodifikation. Dieses Vor-gehen ist vor allem bei sehr komplexen Simula-tionen nicht sehr effektiv, da sich oft erst wäh-rend der Berechnungsphase herausstellt, wieRandbedingungen oder Prozeßparameter optimalgestaltet werden sollten.Eine Korrektur wesentlicher Modelleigenschaf-ten während der Berechnung erlauben neuesteAnsätze des sog. Computational Steering. Dieseermöglichen dem Bearbeiter, die Entwicklungund Optimierung der gesuchten Lösung aktiv un-ter Einsatz seines Fachwissens zu gestalten, an-statt bei jeder Modifikation des Designs die zeit-intensive Berechnung komplett zu wiederholen.Solche Simulationskonzepte erfordern neben ei-ner automatischen Gittergenerierung auf Basisdes aktuellen geometrischen Modells auch diezur Berechnung parallele Visualisierung desevolvierenden Systemzustandes. Mit einem sol-chen vereinheitlichten Prä- und Postprocessing-werkzeug führt der Bearbeiter seine Optimierun-gen an den Objekten seiner Anschauung aus(Abb. 9). Handelt es sich um ein dynamischesProblem in Raum und Zeit, erfolgt die Optimie-

rung idealerweise in einem immersiven Ent-wurfsraum, der auf Methoden der Virtual Realitybasiert, bei denen durch z. B. Mehrkanalprojek-tion dem Betrachter visuell suggeriert wird, erbefände sich innerhalb des simulierten Systems.

Wohin geht die Entwicklung?

Die wechselseitige Effizienzsteigerung von Si-mulationsmethoden und der Beschleunigung vonComputerhardware wird auf absehbare Zeit an-dauern, auch wenn die derzeitig siliziumbasierteTechnologie sich mittelfristig vielleicht andererTräger bedienen wird. Dies gilt ebenso für dieWeiterentwicklung der numerischen Methodenfür mehrskalige Ingenieurprobleme. Die obenskizzierten Ansätze, welche eine direktere undintuitivere Wechselwirkung mit Simulationssy-stemen ermöglichen sollen, befinden sich nochweitgehend in der Entwicklung. Im Zusammen-spiel mit modernen Programmierkonzepten (Ob-jektorientierung und visuellem Programmieren)muß ein langfristiges Ziel sein, die für die Simu-lation notwendige Qualität und Effizienz derMensch-Maschine-Interaktion qualitativ zu ver-bessern. Dieser nur durch interdisziplinäre Ar-beiten zu erreichende Fortschritt in Verbindungmit gut validierten Ingenieurmodellen wird unslangfristig in die Lage versetzen, verläßliche Pro-gnosen auch über außergewöhnliche Ereignisse(Abb. 1 u. 3) zu machen, ohne diese erst mit allenunangenehmen Folgewirkungen der Gesellschaftzumuten zu müssen.

Anschrift des Verfassers:Prof. Dr.-Ing. habil. Manfred KrafczykTU BraunschweigInstitut für Computeranwendungen imBauingenieurwesen (CAB)Pockelsstraße 338106 Braunschweig

Literatur

[1] Die Tomographie wurde erstellt durch Mitarbeiter von Prof. Füh-

ler, Inst. für terrestrische Ökologie, ETH Zürich

(http://www.ito.umnw.ethz.ch) an der Swiss Light Source des Paul-

Scherrer-Instituts (http://www.psi.ch/)[2] U. Trottenberg, C. Oosterlee, A. Schüller, Multigrid, ISBN 0-1-

701070-X, Academic Press, 2001[3] R. Becker and R. Rannacher, An optimal control approach to

a-posteriori error estimation in finite element methods, in Acta Nu-

merica, A. Iserles, ed., Cambridge University Press, Cambridge,

UK, 2001[4] W. J. R Daily., M. Klaus, and H.B.P. Meyer, Apnea in premature

infants: monitoring incidence, heart rate changes, and an effect of

environmental temperature, Pediatrics, 43, 510-518, 1969[5] P. H. Perlstien, N. K. Edwards, and J. M Sutherland, Apnea in pre-

mature infants and incubator air temperature changes, N. Engl. J.

Med., 282, 461-466, 1970

Abb. 9Interaktive Bearbei-tung eines Kühlturm-modells in einer Vir-tual Reality-Umge-bung. Die farbigenSchnittebenen cha-rakterisieren dieWindströmung wiein Abb. 4. Die Foto-montage vermittelteine Idee von demräumlichen Eindruckder Szenerie. Dieserkommt zustande,wenn der Betrachterdas von hinten aufdie Leinwand proji-zierte Stereobildsi-gnal mit einer spe-ziellen Brille be-trachtet, welchedurch unterschied-lich polarisierte Glä-ser den Augen je einperspektivischesTeilbild liefert. Da-durch kann der Be-obachter in die Sze-ne „eintauchen“(Immersion) undkomplexe räumlicheZusammenhänge er-kunden, als ob erTeil des Systems wä-re. Mit Ansätzen desComputational Stee-ring können auch di-rekt an den Objektender Anschauung Sy-stemmodifikationenvorgenommen wer-den (z.B. die relativePosition der Türmeverändern). Der Ver-bund mit einem Strö-mungssimulator er-laubt die automati-sierte Berechnungder Systemantwort(z.B. die schwin-gungsinduzierendenKräfte auf die Bau-werke)

43

Akademie-Journal 1/2004

Abwassertechnik am Scheideweg -Entsorgung oder Wertstoffgewinnung?

Peter A. Wilderer

Tag für Tag befreit uns ein sanfter Druck auf die Spültaste von dem stinkenden gelb-brau-nen Süppchen, das wir „Unser Abwasser“ nennen. Wasser aus Duschen, Spül- und Wach-maschinen kommt hinzu. Auf seinem Weg durch kilometerlange, unterirdisch verlegteRohrleitungen vereinigt sich dieses „Unser Abwasser“ mit Abläufen aus Gewerbebetrie-ben und Industrieanlagen. So entsteht schließlich eine heterogene Mischung aus gelöstenund partikulären Substanzen organischer und anorganischer Natur. Dieses Stoffgemischzu entwirren und aus dem Abwasser wieder abzuscheiden, ist die Aufgabe der Kläranla-ge. Es entsteht so aber nicht nur gereinigtes Abwasser, sondern auch das Konzentrat des-sen, was zuvor im Abwasser enthalten war, Klärschlamm nämlich. Über dessen Entsor-gungsmöglichkeiten reden sich bereits Generationen von Ingenieuren, Landwirten, Um-weltschützern und Kommunalpolitikern die Köpfe heiß. Ist die Technik der Abwasserbe-handlung, wie sie sich über die zurückliegenden 150 Jahre hinweg in den Industriestaatenentwickelt hat, eigentlich noch zeitgemäß?

Wie kam es zur Abwassertechnik vonheute?

Begonnen hat die Entwicklung der Abwasser-technik in der Mitte des 19. Jhs. in England. Da-mals befaßte sich eine königliche Kommissionmit der Frage, warum in den Ballungszentren desLandes immer wieder Seuchen auftraten, dieTausenden von Menschen das Leben kosteten.Man stellte fest, daß in den Stadtteilen, in denendie Straßen mit Morast bedeckt waren, die mei-sten Krankheitsfälle auftraten, und schloß dar-aus, daß die Seuchen durch den direkten Kontaktder Menschen mit diesem Morast ausgelöst wur-den – mit den darin enthaltenen pathogenen Mi-kroorganismen und Viren, wie man heute weiß.Woher aber kam der Morast? Er entstand da-durch, daß die Menschen in Ermangelung ande-rer Entsorgungsmöglichkeiten ihr Nachtgeschirr– und nicht nur das – auf die Straße entleerten(Abb. 1). So war es naheliegend, dem Problemdurch Verlegung von Kanälen zu begegnen, mitdenen das Abwasser unterirdisch aus den Sied-lungsgebieten abgeleitet werden konnte. Es ent-wickelte sich die Technik der Abwasserablei-tung.Für die weitere Diskussion ist wichtig, daß dieAbwasserkanäle aus Kostengründen mit relativgeringem Gefälle verlegt werden, um nicht zutief in das Gelände einschneiden zu müssen. Nunenthält Abwasser aber absetzbare Stoffe, die zustinken beginnen und ganze Leitungen verstop-fen können, wenn sich Sedimentschichten bil-den. Um das zu verhindern, ist in den Kanälenfür eine ausreichende Fließgeschwindigkeit zusorgen. Viel Wasser ist notwendig, um ausrei-chende Abschwemmeffekte zu erzielen. Man

spricht daher auch von der Schwemmkanalisa-tion. Daß als Transportmittel qualitativ hochwer-tiges Trinkwasser verwendet wird, stimmt nach-denklich vor allem, wenn man bedenkt, daßTrinkwasser vielerorts Mangelware ist.Der Bau von Abwasserkanälen führte dazu, daßdas Abwasser in den nächstgelegenen Fluß ge-langte, wo sich zwangsläufig Schlammablage-rungen bildeten. Der Fluß verwandelte sich in ei-ne stinkende, trübe, ekelerregende Brühe. Verlo-ren ging nicht nur die ländliche Idylle, wie diesin einer Erzählung von Wilhelm Raabe [1] über-aus plastisch beschrieben wird. Gravierender war

Abb. 1Entleeren des Nacht-geschirrs auf dieStraße, eine gängigePraxis bis weit indas 19. Jh. hinein(Quelle: ArchivLehrstuhl für Was-sergüte- und Abfall-wirtschaft, TU Mün-chen)

44

Akademie-Journal 1/2004

die Zerstörung der ökologischen Gleichgewichtein den betroffenen aquatischen Systeme und diedaraus entstandenen Gefahren für Mensch, Tierund Pflanze. Das Problem war nicht gelöst, son-dern nur räumlich verlagert. Das Flußwasser warals Rohwasser für die Trinkwasserversorgungund als Brauchwasser für die Industrie praktisch

Abb. 2Aggregation vonBakterien in Formeiner Flocke (Belebt-schlammflocke)

Abb. 3Karl Imhoff (1876-1965), Pionier derAbwassertechnik

nicht mehr zu gebrauchen. Also mußte etwas ge-tan werden, um Schlammablagerung, Gestanks-entwicklung und Verbreitung pathogener Keimezu vermeiden, und um die Funktionsfähigkeit deraquatische Ökosysteme zu erhalten. Man bauteAnlagen, in denen das, was im Fluß nicht er-wünscht ist, die Sedimentation nämlich, unterkontrollierten Bedingungen ablaufen kann. MitAbsetzbecken, aber auch mit Rechen, Sieben undFiltern sollten Trübstoffe abgeschieden und dasAbwasser geklärt werden. Deshalb bezeichnenwir Abwasserreinigungsanlagen seither als Klär-Anlagen, obwohl unsere heutigen Reinigungsan-strengungen über das bloße Klären weit hinaus-gehen.Mittlerweile hatte der Chemiker Frankland [2]eine Methode zur Bestimmung des im Wassergelösten Sauerstoffs entwickelt. Bei der Anwen-dung dieser Methode stellte man fest, daß Fischebei Absinken der Konzentration an Gelöstsauer-stoff unter eine kritische Marke sterben. Beson-ders niedere Konzentrationswerte wurden an derEinleitungsstelle von Abwasser gefunden.Stromabwärts stieg die Sauerstoffkonzentrationaber gewöhnlich wieder an, was man auf Selbst-reinigungskräfte im Gewässer zurückführte. Mi-kroskopische Untersuchungen zeigten, daß Mi-kroorganismen bei der Selbstreinigung eine be-deutende Rolle spielen. Daraus leiteten Ingenieu-re die Idee ab, die auf mikrobiologischen Stoff-wechselvorgängen beruhenden Selbstreinigungs-prozesse nachzubilden und in technischen Anla-gen unter kontrollierten Bedingungen ablaufenzu lassen. So entstanden zu Anfang des 20. Jhs.die beiden bis zum heutigen Tage überwiegendeingesetzten Verfahren zur biologischen Abwas-

serreinigung, das Tropfkörper- und das Bele-bungsverfahren. Die beiden Verfahren unter-scheiden sich dadurch, daß im Tropfkörper dieMikroorganismen als Biofilme an festen Flächensiedeln. Beim Belebungsverfahren vergesell-schaften sich die Mikroorganismen in Form flok-kiger Gebilde, den Belebtschlammflocken (Abb.2), die im Wasser schwimmen, solange für eineausreichend hohe Mischungsenergie gesorgtwird, und sedimentieren, wenn das Wasser ei-gens dafür konstruierte Absetzbecken durch-strömt.Die grundlegenden Entwicklungsarbeiten zu bei-den Verfahren fanden in England statt. Bei derapparatetechnischen Weiterentwicklung war spä-ter dann aber Karl Imhoff [3] die treibende Kraft(Abb. 3). Ihm verdanken wir nicht nur bedeuten-de technische Innovationen, sondern auch Be-messungsregeln, die aus der Erfahrung beim Be-trieb von Kläranlagen abgeleitet wurden.Bei der praktischen Anwendung der Verfahrenzeigte sich, daß zum Erzielen eines ausreichendhohen Reinigungseffektes ganz unterschiedlicheOrganismenarten zusammenwirken müssen. Diebenötigten Arten unterscheiden sich hinsichtlichihrer Wachstumsgeschwindigkeit und ihrer An-forderungen an die Milieubedingungen in denbiologischen Anlageteilen. Viele der Bakterien-arten, die bei der biologischen Abwasserreini-gung eine wichtige Rolle spielen, kennen wirerst, seit die molekulare Mikrobiologie uns dazudie notwendigen Bestimmungsmethoden zurVerfügung gestellt hat. Mit Hilfe moderner De-tektionsverfahren gelingt es heute, nicht nur dieVerteilung der verschiedenen Organismenartenin Bioaggregaten (Belebtschlammflocken undBiofilme) zu messen (Abb. 4), sondern auch In-formationen über die Stoffwechselaktivitäten dereinzelnen Arten zu gewinnen [4]. Solche Infor-mationen sind wichtig, um die Reinigungspro-zesse in biologischen Abwasserbehandlungsan-lagen wirksam und kostengünstig zu gestalten.Um alle die metabolischen Fähigkeiten der vie-len wichtigen Organismenarten nutzen zu kön-nen, waren vielfältige verfahrenstechnische Ent-wicklungen zu leisten. Die biologische Abwas-serreinigung wurde immer komplexer, platzauf-wendiger (Abb. 5) und auch teuerer. Mathemati-sche Modelle wurden entwickelt, die heute in dieIngenieurpraxis weltweit Eingang gefunden ha-ben und als Dimensionierungshilfsmittel sowiezur Betriebssteuerung von Kläranlagen einge-setzt werden.Probleme bereitet der Klärschlamm, der bei derAbtrennung der partikulären Abwasserinhalts-stoffe sowie der überschüssigen Biomasse ausden biologischen Anlageteilen entsteht. Er ent-hält in konzentrierter Form Problemstoffe unter-schiedlichster Art und Wirkung. Er enthält aller-dings auch wertvolle Düngestoffe und Humus,und wäre deshalb für eine landwirtschaftliche

45

Akademie-Journal 1/2004

Abb. 4Tiefenprojektion ei-nes Biofilms, derdurch Mikrokolonienverschiedener Bakte-rienarten aufgebautist (mikroskopischeAufnahme mit demconfocalen LaserScanning Mikroskopnach Behandlungdes Biofilms mitGensonden); Bild:Regina Nugueira

Verwertung bestens geeignet. Die Furcht vor ei-ner Verbreitung von Schadstoffen in der Umweltveranlaßt derzeit allerdings viele Kläranlagenbe-treiben, von der landwirtschaftlichen VerwertungAbstand zu nehmen und den Klärschlamm zuverbrennen.

Ist die klassische Abwassertechniknoch zeitgemäß?

Ohne Einschränkung kann festgestellt werden,daß die Entwicklung der Abwassertechnik, derSchwemmkanalisation eingeschlossen, im Ver-bund mit der Entwicklung der städtischen Was-serversorgung wesentlich zum wirtschaftlichenAufschwung der Industrieländer beigetragen hat.Durch Befriedigung der Grundbedürfnisse vonBevölkerung, Gewerbe und Industrie an ausrei-chenden Mengen sauberen Trinkwassers, nachgeordneter Sanitärtechnik und effizienter Ab-wasserreinigung war eine wichtige Vorausset-zung für Wohlstand und Wirtschaftswachstumgelegt. In den Genuß derartiger geordneter was-serwirtschaftlicher Verhältnisse gelangt derzeitaber nur ein Bruchteil der Erdbevölkerung. Übereine Milliarde Menschen haben keinen Zugangzu sauberem Trinkwasser oder können sich sau-beres Trinkwasser nicht leisten. Fast ein Drittelder Erdbevölkerung hat nach Schätzungen derVereinten Nationen keinen Zugang zu einermenschenwürdigen Sanitärtechnik, und wenigerals 10% der Erdbevölkerung ist an Kläranlagenangeschlossen. Dies alles geht einher mit Armut,Krankheiten, Kriminalität bis hin zu Terroris-mus. Die Folgen betreffen nicht nur die Men-schen in den unterentwickelten Ländern. Wie dieEreignisse der letzen Jahre gezeigt haben, sindweltweite Auswirkungen unvermeidlich.Als Reaktion auf diese Mißstände haben die 191Mitgliedsstaaten der Vereinten Nationen be-schlossen, rasche und weitreichende Maßnahmenzur Armutsbekämpfung, zur Eindämmung vonSeuchen, zur Verbesserung der Trinkwasserver-sorgung und zur Einführung von Abwassertech-nik zu ergreifen. Die Kosten, die bei der Umset-zung der Beschlüsse anfallen, sind allerdings ex-orbitant. Die Weltbank rechnet mit einem Mittel-bedarf von 180 Milliarden US$ pro Jahr, wennzur Lösung der anstehenden Aufgaben die klassi-schen Verfahren eingesetzt werden. Innovative,kostengünstigere Verfahren werden dringend be-nötigt, um mit weniger Geld einen hohen Stan-dard hinsichtlich Ver- und Entsorgungssicherheitsowie Komfort bereitstellen zu können.Was macht die herkömmliche Abwassertechnikso teuer, und was kann man tun, um die Kostenzu senken, ohne damit an Effizienz einzubüßen?Zu dem Bemühen, solche Fragen zu beantwor-ten, gehört das kritische Hinterfragen der Tech-nik, wie wir sie heute betreiben, und der Konzep-

te dazu. Wie steht es beispielsweise mit derSchwemmkanalisation. Der Bau von Kanalisa-tionssystemen verschlingt bis zu 80% der Inve-stitionskosten für Abwasserbehandlungssysteme.Große Mengen an Trinkwasser müssen, wie obenerklärt, eingesetzt werden, um die Schwemmka-nalisation betreiben zu können. Gerade das fehltin vielen Großstädten dieser Erde. Wenn es alsogelänge, die Schwemmkanalisation durch eineandere Technik zu ersetzen, wäre man den Mil-lenniumszielen der UN ein gutes Stück näher ge-kommen.Wie eingangs geschildert, werden auf dem Wegzur Kläranlage vielerlei Abwasserteilströme mit-einander vermischt. Angesichts der so entstehen-den Stoffvielfalt und angesichts der gleichzeitigeintretenden Verdünnung kann eine Abwasser-reinigung nur erfolgreich sein, wenn man in derKläranlage degradierende Methoden einsetzt,den biologischen Abbau zum Beispiel. Würdeman dagegen die Teilströme separat erfassen, dieStoffe aufbereiten und sie in den Stoffkreislaufzurückführen, wie man das bei der Behandlungfester Abfallstoffe mit Erfolg tut, würde sich dasKosten-Nutzen-Verhältnis völlig verändern.Urin, beispielsweise, enthält wertvolle Dünge-stoffe in hoher Konzentration [5]. Ihn nutzbar zumachen, statt ihn in Kläranlagen durch teuere Ni-trifikations- und Denitrifikationsprozesse in at-mosphärischen Stickstoff zu überführen, ist einGedanke, der in der Wirtschaft zunehmend aufInteresse stößt.

Herausforderungen an die Wissenschaftund Technik

Viel konsequenter, als dies heute noch der Fallist, müssen die Abwasserreinigungsanlage alsElement eines urbanen Systems verstanden wer-den, das auf eine nachhaltige Nutzung der Res-source Wasser ausgerichtet ist. Kreislaufführungund Mehrfachnutzung nicht nur von Wasser,sondern auch von Abwasserinhaltsstoffen wirdin zunehmendem Maße zum Standard werden.Um dieses Ziel zu erreichen, ist jedoch noch ein

Abb. 5Luftaufnahme derKläranlage MünchenII, Gut Marienhof(Foto: Photogram-mertrie GmbH, Mün-chen; zur Verfügunggestellt von SEWMünchen)

46

Akademie-Journal 1/2004

erhebliches Maß an Forschung notwendig sowiedie Bereitschaft der Wirtschaft, wissenschaftli-che Erkenntnisse in neue Vorrichtungen undVerfahren umzusetzen.

organischer Natur mit heterogen zusammenge-setzten mikrobiellen Lebensgemeinschaften un-ter Luftabschluß so aufzubereiten, daß die in denMaterialien enthaltenen Wertstoffe gewonnenund genutzt werden können.Bisher waren Anaerobverfahren in der Abwas-sertechnik ausschließlich auf die Gewinnung vonMethangas (Biogas) ausgerichtet. Die Stoffum-wandlungsprozesse erweisen sich teilweise alssehr langsam, insbesondere wenn die Molekül-struktur der zu metabolisierenden Ausgangssub-strate sehr komplex ist. Entsprechend groß undteuer sind die Reaktoren (Abb. 6), die zur Bio-gaserzeugung eingesetzt werden.Anaerobe Stoffumwandlungsprozesse sind in derNatur weit verbreitet. Der Mensch, das Schweinoder die Kuh würden nicht existieren können,wenn nicht im Magen/Darmtrakt anaerobe Pro-zesse ablaufen würden. Wie in den technischenAnaerobreaktoren wird auch hier das Ausgangs-substrat, die aufgenommene Nahrung, zuerst de-polymerisiert und versäuert, bevor das Lebewe-sen Nutzen aus der Nahrung ziehen kann. DieserNutzen besteht interessanterweise aber nicht dar-in, daß Methangas erzeugt wird. Vielmehr wer-den die gewonnenen Monomere und organischenSäuren über die Darmwand in den Blutkreislaufüberführt und zum Aufbau körpereigenen Mate-rials sowie zur Energiegewinnung verwendet.Die Darmwand fungiert dabei als Trenn- undTransportmembran. Bei genauerem Hinsehenfällt auf, daß die anaeroben Prozesse im Magen-/Darmtrakt recht schnell ablaufen. Das gilt auchfür Strukturmaterialien wie Gras, die von Kühen,Schafen oder Ziegen innerhalb weniger Stundenumgesetzt werden, während technisch dafür eini-

Abb. 6Beispiel für Faulbe-hälter zur anaerobenBehandlung vonKlärschlamm (Klär-anlage Singapore)

Aus der großen Palette der Forschungs- und Ent-wicklungsaufgaben, die derzeit weltweit behan-delt werden, seien zwei kurz umrissen: die Wei-terentwicklung der Anaerobtechnik zur Gewin-nung von Wertstoffen aus Abwasser und aus an-deren Abfallstoffen privater Haushalte, Industrie,Landwirtschaft, und die Erforschung der Wir-kung von organischen Spurenstoffen, die überdie Verwendung von Arzneimitteln und Haus-haltschemikalien in das Abwasser gelangen so-wie die Entwicklung von Methoden zur Entfer-nung derartiger Stoffe aus dem Wasser. Bei derAnaerobbehandlung geht es darum, Materialien

Abb. 7RESI (Rumen En-hanced Solid Incu-bator) als Anschau-ungsmodell für einenAnaerobreaktor, dernach dem Vorbildder Natur konzipiertist; links: eine künst-liche Kuh mit Guck-löchern; rechts: dasModell eines Kraft-werks als Symbol für„Energieerzeugungaus Biogas“

47

Akademie-Journal 1/2004

ge Wochen benötigt werden. Durch Anwendungmolekularbiologischer Methoden konnten dieMechanismen, die im Pansen einer Kuh ablau-fen, weitgehend aufgeklärt werde. Abb. 7 zeigtdas Anschauungsmodell, mit dem die Vorgängeverdeutlicht werden sollen. Mit einem dem Kuh-magen nachgebildeten technischen Verfahren,das als „Rumen Enhanced Solid Incubator“ (RE-SI) bezeichnet wird, können in der Tat ähnlicheAbbaugeschwindigkeit erreicht werde, wie in derlebenden Kuh. Die Membrantechnik scheint indiesem Zusammenhang eine Schlüsselrolle zuspielen. Durch Entwicklung selektiv wirksamerMembranen könnte es gelingen, Produkte desanaeroben Stoffwechsels auszuschleusen undnutzbar zu machen, beispielsweise in der techni-schen Chemie.Über die genaue Wirkung organischer Spuren-stoffe, die durch die Verwendung von Chemika-lien im Haushalt direkt oder indirekt in das Ab-wasser und möglicherweise in die Nahrungskettegelangen, weiß man derzeit erst sehr wenig. We-gen der sehr geringen Konzentration der Wirk-stoffe sind Untersuchungen sehr aufwendig undlangwierig. Noch viel komplizierter ist es, solcheStoffe gezielt abzutrennen und zu vernichten.Nur wenn dieses gelingt, kann aufbereitetesWasser auf lange Sicht gefahrlos wiederverwen-det werden. Auch hier bietet die Membrantrenn-technik eine gute Chance, einen wichtigenSchritt vorwärts zu kommen.

Ausblick

Die Abwassertechnik steht heute an einerSchwelle, die gelegentlich auch als Paradigma-wechsel bezeichnet wird. Durch Nutzung neuertechnischer Möglichkeiten, beispielsweise derMembrantechnik oder auch der molekularbiolo-gischen Analytik, gelingt es, neue Möglichkeitenzur Wiederverwendung von Wasser und von Ab-wasserinhaltsstoffen zu schaffen. Das NE-Water-Projekt der Stadt Singapore (Abb. 8) mag in die-sem Zusammenhang als das am weitesten fortge-schrittene gelten. Umkehrosmosemembranen,

wie sie zur Meerwasserentsalzung dienen, wer-den dort erfolgreich eingesetzt, um aus AbwasserTrinkwasser herzustellen. Bereits heute wird eingroßer Teil des kommunalen Abwassers, in Zu-kunft das gesamte Abwasser zu hochreinemWasser aufbereitet, industriell beispielsweise fürdie Waver-Produktion verwendet und im übrigenzusammen mit aufbereitetem Regenwasser in dasWasserversorgungsnetz der Stadt eingeleitet. Be-vor solche Recycling-Prozesse allerdings kosten-günstig und auf breiter Front eingesetzt werdenkönnen, bedarf es noch erheblicher Anstrengun-gen in Forschung und Entwicklung.

Anschrift des Verfassers:Prof. Dr.-Ing. Dr. h.c. Peter A. WildererInstitut für Wassergüte und AbfallwirtschaftTechnische Universität MünchenAm Coulombwall85748 Garching

Literatur

[1] Raabe, W. Pfisters Mühle – Ein Sommerferienheft. http://guten-

berg.spiegel.de/raabe/pfister/Druckversion_pfister.htm, 1884[2] Frankland, E. 1st Report of the River Pollution Commission, 1870[3] Imhoff, K., Fair, G.M. Sewage treatment. John Wiley & Sons, New

York, 1949[4] Wilderer, P.A., Bungartz, H.-J., Lemmer, H., Wagner, M., Keller

J., Wuertz, S. Water Research 36, 2002[5] Lange, J., Otterpohl, R. Mallbeton Verlag Donaueschingen-Pfoh-

ren, 1997

Abb. 8Anlage zur Gewin-nung von hoch-rei-nem Trinkwasser ausdem kommunalenAbwasser der StadtSingapore: Schul-klassen werdendurch die Anlage ge-führt, um das Ver-trauen der Bevölke-rung in die neueTechnik zu fördern

48

Akademie-Journal 1/2004

Nanotechnologie – Chance oder Risiko?

Harald Fuchs

Materie auf molekularer und atomarer Skala untersuchen und gezielt verändern zu kön-nen, ist ein alter Traum der Naturwissenschaften. Auf dem modernen Gebiet der Nano-wissenschaften beginnt dieser Traum Realität zu werden – und damit eröffnen sich neuetechnologische Möglichkeiten in nahezu allen Technologiebereichen einschließlich derMedizin und der Umwelttechnik. Oberflächenveredelung, intelligente nanoskalige Mate-rialien, schnellere Elektronik, Optik, Sensoren und Nanomotoren sind nur einige Beispie-le dieses interdisziplinären Gebietes. Noch steckt die Nanotechnologie in den Kinder-schuhen, erste Ergebnisse und Anwendungen lassen jedoch ein enormes Potential erwar-ten. Besonders der ’biologische Ansatz’ der Selbstorganisation ist äußerst vielverspre-chend, weckt aber andererseits zahlreiche diffuse Ängste hinsichtlich der Beherrschbar-keit dieser Querschnittstechnologie insgesamt. Wie groß sind die Chancen wirklich undwelche Risiken können wir heute absehen? Einige Beispiele und gesellschaftlich wichtigeAspekte werden in diesem Artikel diskutiert.

Die Nanometerskala

Die Technologieentwicklung der letzten Jahr-zehnte war geprägt durch eine stetige Miniaturi-sierung, die zur Produktion von immer leistungs-fähigeren elektronischen Produkten führte, dieschließlich als Massenprodukte für jeden einzel-nen erschwinglich wurden. Seit der Erfindungdes Transistors wurden große technologischeAnstrengungen unternommen, hochintegrierteelektronische Bausteine zu entwerfen, die heuteweit über 100 Mio. Transistorfunktionen auf ei-nem einzigen Siliziumchip vereinigen. Dennochgehorchen auch die hochkomplexen Computer-chips von heute noch den selben physikalischenGesetzen, nach denen auch die ersten experimen-tellen Spitzentransistoren funktionierten. Extra-poliert man nach dem Moore’schen Gesetz diebisherige Entwicklung, so wird absehbar, daß in-nerhalb der nächsten beiden Jahrzehnten einephysikalische Grenze der Strukturgrößen erreichtsein wird, unterhalb derer ein Technologiewech-sel notwendig wird, weil zunehmend quantenme-chanische Effekte die Funktion elektronischerBauelemente dominieren.Eine charakteristische Skala hierfür ist der Be-reich unterhalb von 100 nm, der in bestimmtenStrukturen heutiger Chips bereits unterschrittenwird. Hier kann man bereits von Nanotechnolo-gie sprechen, die sich von der konventionellenMikrosystemtechnik und Mikroelektronik vor al-lem dadurch unterscheidet, daß hier qualitativneue Effekte abrupt auftreten, die nicht durch ei-ne weitere Miniaturisierung vorhandener Tech-nologien zu erreichen sind. Dies ist ein ersteswichtiges Charakteristikum der Nanotechnolo-gie. Für sie sind völlig neue technologische Kon-zepte und Verfahren erforderlich. Ein Nanometerist ein ungeheuer kleines Längenmaß, es ent-

spricht etwa dem 50.000stel des Durchmesserseines Haares und damit etwa 4-5 aneinanderge-reihten Atomen. Die zweite Aufgabe der Nano-technologie ist es, diese Skala zu beherrschenund vor allem einzelne Atome und Moleküle ge-zielt und individuell zu adressieren. Ein dritterwichtiger Aspekt der Nanotechnologie ist der’biologische Ansatz’, bei dem es um die Erzeu-gung von komplexen funktionalen Strukturengeht, ein Standardverfahren der Natur. Alle bio-logischen Funktionsstrukturen, wie sie in Formvon Proteinen und in Zellmembranen mit einerDicke von etwa 5 nm vorliegen, sind auf geord-neten komplexen Nanostrukturen aufgebaut, wo-bei diese super- und supramolekularen Struktu-ren qualitativ andere Eigenschaften aufweisenals die einzelnen Moleküle, aus denen sie zusam-mengesetzt sind. Dieses Konzept technologischumzusetzen, ist eine der größten Herausforderun-gen der Nanotechnologie insgesamt, da bishernur wenig darüber bekannt ist, wie die Program-mierung des Aufbaues komplexer Strukturen inder Biologie eigentlich vonstatten geht. Geradedieser Gesichtspunkt wird in den nächsten Jahr-zehnten zu einem zentralen Thema der Nano-technologie werden.Die technisch-wissenschaftlichen Herausforde-rungen der Nanotechnologie lassen sich grob inzehn zentrale Bereiche einteilen:

1. Nanomaterialien

Die Erzeugung von nanoskaligen Materialien istbereits in vollem Gange und wird – technolo-gisch betrachtet – einer der ersten wirtschaftlichinteressanten Bereiche sein. Hierbei geht es umdie Nutzung von physikalischen Effekten, die inbestimmten geordneten oder ungeordneten nano-skaligen Materialien auftreten, und die an makro-

49

Akademie-Journal 1/2004

skopischen, beispielsweise polykristallinen Fest-körpern der gleichen chemischen Zusammenset-zung nicht zu beobachten sind. Hierzu gehörenz.B. Quantenpunktstrukturen, metallische undhalbleitende Nanocluster sowie kompaktierteNanopulver, aber auch gezielt hergestellte Ruße,wie sie für die Autoreifenproduktion erforderlichsind. Zu den technologischen Effekten gehörenz.B. spezielle Markermaterialien für die Biologieund Medizin, aber auch Aerogele mit ihrer hohenWärmedämmungseigenschaft, selbstreinigendeOberflächen und vieles andere.

2. Verbesserung bestehender Produkte

Ein wichtiger Anwendungszweig nanotechnolo-gisch hergestellter Produkte dürfte in der näherenZukunft im Bereich der Oberflächenveredelungund der Effizienzsteigerung von Katalysatorenliegen. Hierbei geht es nicht um die Herstellungvöllig neuartiger Materialien, sondern um dieVerbesserung und wirtschaftlichere Herstellungbereits vorhandener Produkte wie kratzfeste Au-tolacke und selbstheilende Oberflächen, rei-bungsmindernde Schichten und Korrosions-schutzschichten, die sich zum Teil sogar selbstregenerieren können. Auch wenn es hierbei nichtum eigenständige Nanoprodukte geht, ist dasMarktpotential in diesem Bereich erheblich.

3. Lernen von der Biologie

Die Biologie erzeugt zahlreiche Verbundmate-rialien durch Selbstorganisation, die auch tech-nologisch gesehen äußerst interessante Eigen-schaften haben. Hierzu gehören z.B. Muschel-schalen, die eine hohe mechanische Festigkeitbesitzen, obgleich sie zu 98 % aus sehr sprödenmineralischen Stoffen bestehen. Der geschickteEinsatz eines geringen Anteils von organischenZwischenschichten, die für sich gesehen sehrweich und elastisch sind, aber keine große me-chanische Stabilität aufweisen, führt im geeigne-ten Verbund, zumeist über nanoskalig geordneteSchichtsysteme, zu einem hochzähen Material,welches genau die richtige Kombination vonBruchfestigkeit und Elastizität aufweist. DiesesPrinzip ist auch in unseren Skelettknochen durchden Verbund von kalziumkarbonathaltigen An-teilen und Kollagen realisiert. Das Konzept dernanoskaligen Strukturierung von Verbundmate-rialien wird bereits in der Kunststoffherstellungsowie bei Keramiken und metallischen Legierun-gen gezielt eingesetzt.Ein anderer, technologisch bisher kaum genutz-ter Effekt ist der Lotuseffekt, der sich in der Bio-logie in vielen Bereichen sowohl in der Flora alsauch in der Fauna in selbstreinigenden Oberflä-chen ausdrückt. Durch eine geeignete wasserab-weisende chemische Beschichtung, in der Naturzumeist Wachse, und Oberflächenstrukturierung

Abb. 1Entwicklung der Physikalischen Technologien über dieletzten 60 Jahre und Trends in den chemischen und bio-logischen Wissenschaften. Während im Bereich derTechnik (rote Kurve) Strukturen immer kleiner, schnellerund billiger wurden, versucht man im Bereich der Che-mie (grüne Kurve) tendenziell immer komplexere undgrößere molekulare Strukturen und Systeme aufzubauen.In der Biotechnologie (blau) wurden immer kleinerefunktionale Systeme hergestellt (z.B. Biosensoren). ImBereich der Nanometerskala (vertikale Achse) werdendie klassisch getrennten naturwissenschaftlichen Diszi-plinen (Physik, Chemie, Biologie (blaue Kurve)) zusam-mengeführt (schwarzer Kreis). Daraus entstehen zukünf-tig neue Arbeitsfelder und Märkte u. a. im Bereich desAutomobilbaus, der Pharmaindustrie und der Medizin(z.B. Kopplung neuronaler Strukturen mit elektronischenBauteilen).

von der Nanoskala bis zur Mikroskala könnenOberflächen erzeugt werden, die durch Wasser,aber auch z.T. durch Öle und Fette nicht mehrbenetzt werden können. Mit diesem Trick gelingtes der Natur, Oberflächen herzustellen, die prak-tisch nicht mehr verschmutzen können bzw. beidenen vorhandener Schmutz durch Regenwasserohne weitere mechanische Einwirkung einfachabgewaschen wird. Obschon dieses Konzept inder Natur Jahrmillionen alt ist, wird es technischbisher kaum genutzt. Die Methode eignet sich je-doch außer zur Herstellung von schmutzabwei-senden Fensterscheiben oder Autolacken, auchzum Einsatz in völlig anderen Bereichen, etwader Diagnostik zur Herstellung von miniaturi-sierten Labors (Lab-on-a-chip, vgl. Beitrag Hes-selbach). Die Übertragung eines bestimmtenPrinzips in verschiedenste Technologiebereicheist typisch für die Nanotechnologie. Es zeigt sichhierbei auch, daß dieses Gebiet nicht auf die

50

Akademie-Journal 1/2004

Elektronik beschränkt ist, sondern viele bekann-ten Technologiebereiche betrifft.

4. Elektronik und Computertechnologie

In diesem Bereich haben sich in den letzten Jahr-zehnten die technologisch rasantesten Entwick-lungen abgespielt. In Deutschland erkannte manerst relativ spät, daß die Erzeugung von winzigenSiliziumchips (im Vergleich zu Stahl, Kohle undAutomobilindustrie) zur eigentlichen Schlüssel-technologie wachsen würde, da keines der ande-ren Technologiefelder ohne Mikroelektronikauskommt [1] und so die Technologieführer-schaft auch im Automobilbau oder im Bereichder Konsumelektronik entscheidend davon ab-hängt, von welchem Land die weitestentwickel-ten elektronischen Chips hergestellt werden.Nach der Einführung der integrierten Schaltungdurch Jack Kilby in den 70er Jahren, konnte imBereich der Computerindustrie eine dramatischeMiniaturisierungsentwicklung erreicht werden,die uns die ’Personal Computer’ beschert hat.Über die weltweite Vernetzung durch das Inter-net, hat diese Technologie massive Veränderun-gen des Kommunikationsverhaltens bewirkt,welches sich sowohl in der Wirtschaft als auchim Freizeitverhalten vieler Millionen Menschenniederschlägt. In nahezu allen Bereichen des täg-lichen Lebens, im Haushalt, in fast allen Berei-chen der beruflichen Tätigkeit, im Auto-, Schie-nen- und Luftverkehr ist nur noch mit der Unter-stützung modernster Computerelektronik ein rei-bungsfreier Ablauf gewährleistet. Die weitereMiniaturisierung stößt jedoch an physikalischeGrenzen, sobald die Quanteneffekte, vor allemElektronentunneln und ballistische Effekte mitzunehmender Verringerung der Strukturgrößenwichtig werden. Bereits heute arbeiten viele Fir-men, bisher vorwiegend noch im Bereich der ex-ploratorischen Forschung, an neuen elektroni-schen Konzepten, wie z.B. der Nutzung vonQuantenphänomenen in Quantenpunktstrukturenfür neue Laser oder der molekularen Elektronik,d.h. Elektronik, die auf einigen wenigen Molekü-len aufbaut, oder der sog. Spintronik, die nicht

mehr die Elektronen selbst, sondern deren Krei-seleigenschaft zur Informationsverarbeitungnutzt (s. Beitrag Waag). Welche dieser Möglich-keiten technologisch umgesetzt werden kann,hängt nicht nur von weiteren Grundlagener-kenntnissen, sondern auch von wirtschaftlichenGrenzen ab, die möglicherweise schon lange vordem Erreichen der physikalischen Grenzen derweiteren Miniaturisierung der Elektronik erreichtwerden könnten. Selbst weltweit organisierteKonsortien im Bereich der Elektronikindustrie,die gemeinsam den Aufbau von neuen sog.’Fabs’ zur Herstellung von hoch integriertenSchaltungen der nächsten Generationen betrei-ben, werden sehr bald an wirtschaftliche Grenzenstoßen, oberhalb derer ein weiterer Miniaturisie-rungsschritt aufgrund extremer Kosten nichtmehr sinnvoll ist.Zunehmend wird neue und billige Elektronik ei-ne Rolle spielen, bei der nanotechnologischeKonzepte wichtig werden, ohne daß extrem ge-ringe Strukturgrößen per se für die Funktion er-forderlich sind. Dazu gehören etwa druckbareelektronische Schaltungen auf Polymerbasis, diezur Herstellung von intelligenten Preisschildernin Warenhäusern, oder als in Kleidungsstücke in-tegrierte Elektronik auf den Markt kommen wer-den. Diese „Wegwerfelektronik“ wird bestimmtenützliche oder wünschenswerte Funktionen ein-führen, die wir in dieser Form heute noch nichtkennen, wie etwa ein in die Kleidung integriertesTelefon, Satellitennavigationssystem oder einWarnsystem vor herannahenden Fahrzeugen.Denkbar wäre auch ein elektronischer, in dieKleidung integrierte Ausweis, der den Besitzeran bestimmten biomimetischen Eigenschaftenautomatisch erkennt und so seinem Träger denZugang zu den ihm erlaubten Bereichen in Ge-bäuden, bei seiner Kontoführung oder beim Star-ten seines Fahrzeuges ohne konventionelleSchlüssel erlaubt. Diese elektronischen Helfer imUmfeld eines Menschen könnten sich selbstän-dig und adaptiv miteinander vernetzen, ohne daßein Benutzer aktiv eingreifen muß (und kann).

5. Energieverbrauch und Umweltschutz

Die durch die Nanotechnologie zu erwartendeMiniaturisierung von neuen Funktionselementenfür die Informationsverarbeitung hat wie die bis-herige Miniaturisierungswelle im Bereich derMikroelektronik ein erhebliches Potential im Be-reich der Energieeinsparung und damit des Um-weltschutzes. Laut einer Statistik der Fa. IBMaus dem Jahre 2001 wurden für das Erhebungs-jahr weltweit ca. 550 Mrd. US-Dollar für Ener-giekosten zum Betrieb aller aktiven Computerverbraucht. Diese Kosten werden sich in naherZukunft nicht wesentlich verringern, obwohl dieeinzelnen Computer immer weniger Energie ver-brauchen, weil durch fallende Preise zugleich

Abb. 2Beispiel für ein chi-rales Molekül(links), das aus rela-tiv einfachen Einhei-ten komplexe Struk-turen an einer Was-ser/Luftgrenzflächeerzeugt (rechtesBild, Größe:6x4mm). (Synthese:Prof. Erker, Inst. F.Organische Chemie,WWU Münster, Bil-der: PD Dr. L.F.Chi, PhysikalischesInstitut, WWU Mün-ster)

51

Akademie-Journal 1/2004

52

Akademie-Journal 1/2004

immer mehr Computer angeschafft werden, vorallem im privaten Bereich und in großen Mengenin Schwellenländern wie China und Indien. Einedramatische Reduktion des Energieverbrauchskönnte durch die molekulare Elektronik entste-hen, die nach heutiger Schätzung vielleicht nurnoch ein Millionstel der für unsere heutigen PCsbenötigten Energie für die gleiche Rechenlei-stung benötigt. Daher loten einige Konzerne wieHewlett Packard in Palo Alto, Kalifornien, derar-tige Potentiale aus. Ein Ziel dieser Technologie-entwicklung ist es, die Rechenkapazität einesheutigen Supercomputers auf die Größe einerArmbanduhr zu reduzieren bei einem Energie-verbrauch, der etwa dem der elektronischenArmbanduhren entspricht. Gelingt dies, könnteder Energieverbrauch für Rechner tatsächlich umetliche Größenordnungen gesenkt werden unddamit eine Vielzahl von Kraftwerken, die mitfossilen oder atomaren Brennstoffen betriebenwerden, überflüssig werden. Daraus ergibt sichindirekt auch ein wichtiger Beitrag der Nano-technologie zum Umweltschutz.

6. Komplexe Strukturen

Die Erzeugung von Komplexität und selbstorga-nisierten Strukturen ist die Grundlage für den Er-folg, den die Natur im Laufe der biologischenEvolution erreicht hat. Alle biologischen Orga-nismen beruhen letztlich auf Selbstorganisations-prinzipien und haben die Fähigkeit der Selbstre-paratur. Die hierdurch erreichbare Komplexitätist beeindruckend.Im Bereich der Nanotechnologie wird versucht,durch die Kombination von physikalischenTechniken und speziellen chemischen Methodenwie die supramolekulare Chemie, komplexeStrukturen zumindest in einfachster Form zu er-zeugen. Damit könnte es gelingen, molekulareSchalter und Motoren herzustellen, die weitausmehr ’können’ als die Einzelmoleküle, aus denensie aufgebaut sind. Allerdings sind selbst schein-bar einfache Funktionselemente wie Linearmoto-ren, aus denen unsere Muskeln aufgebaut sind,und rotierende Motoren, die sowohl als Genera-toren als auch als Pumpen in unseren Zellmem-branen arbeiten, von einer ungeheueren Komple-xität, die synthetisch bisher nicht nachgeahmtwerden kann. Technologisch wird man dahermöglicherweise zunächst den Weg der Erzeu-gung von Hybridstrukturen gehen, d.h. biologi-sche Grundstrukturen und Motoreinheiten mitkünstlichen Stellgliedern versehen, die schließ-lich in großen Mengen, z.B. auf flachen Trägernangeordnet, bestimmte Pump- oder sonstige Ak-tuatorfunktionen übernehmen könnten. Nochsteckt dieses Gebiet in seinen Anfängen, und esist unabsehbar, wann aus diesen ersten Gehver-suchen praktische Produkte werden können. Ausder Betrachtung der molekularen Struktur von

Flagellenmotoren von Bakterien wird jedochschnell klar, daß der Aufbau von Nanoroboternauf synthetischer Basis heute überhaupt nichtdenkbar ist. Das Gefahrenpotential aus dieserRichtung, auf welches interessierte Einrichtun-gen publikumswirksam immer wieder versuchenhinzuweisen, ist als sehr gering einzustufen.

7. Gefahrenpotentiale?

Wie jede neue Technologie birgt auch die Nano-technologie ein gewisses Risiko, z.B. im Zusam-menhang mit der Herstellung von lungengängi-gen nanoskaligen Materialien und Stäuben, derenlangfristige Wirkung im Einzelnen jeweils unter-sucht werden muß. Dabei erscheint die Gesetzes-grundlage zur Freigabe von neuen Materialienund chemisch aktiven Stoffen zunächst ausrei-chend, da nach diesen Vorgaben jeder neue che-misch aktive Stoff nach sehr strengen Kriterienin toxikologischen Labors geprüft werden muß.Im Bereich der nanoskaligen Materialien wirdein besonderes Augenmerk auf die potentiell er-höhte chemische Aktivität dieser Stoffe gerichtetsein müssen, da bekannt ist, daß durch den er-höhten Oberflächen-zu-Volumen-Anteil derarti-ger Stoffe die katalytische Wirkung im Vergleichzu ausgedehnten Stoffen des gleichen Materialserhöht sein kann. Dieses wird, zumeist ohne gro-ße publikumswirksame Aktivität, bereits sehr in-tensiv in einer Reihe von Forschungsanstaltenweltweit geprüft. Es ist erstaunlich, daß lungen-gängige Nanoteilchen, die als Nebenprodukte,z.B. im Abgas von Dieselmotoren oder durchReifenabrieb entstehen, über viele Jahre gesell-schaftlich geduldet wurden und erst in jüngererZeit industrielle Maßnahmen ergriffen wurden,um diese ultrafeinen Partikel, die tonnenweisepro Jahr entstehen, nicht in die Umwelt gelangenzu lassen. Über die möglichen Langzeitwirkun-gen ist bis heute noch wenig bekannt. Nach jetzi-gem Wissensstand scheint jedoch eine kurzfristi-ge akute Bedrohung von diesen Teilchen nichtauszugehen. Diese unerwünschten Nebenpro-dukte sind keine gezielt hergestellten Produkteder Nanotechnologie. Diese hat jedoch entschei-dend dazu beigetragen, mit neuen analytischenMethoden die chemischen und physikalischenEigenschaften dieser Teilchen überhaupt unter-suchen und einschätzen zu können.

8. Nanoanalytik

Die wichtigste Voraussetzung zur Einschätzungvon Gefahrenpotentialen im Bereich der Nano-materialien liefert die in den letzten Jahren inten-siv gewachsene Nanoanalytik, die es erlaubt,Strukturen auf molekularer und atomarer Skalasichtbar zu machen, mechanische Eigenschaftenvon Nanoteilchen zu messen, aber auch ihre che-mische Zusammensetzung zu identifizieren. Aus

53

Akademie-Journal 1/2004

Abb. 3Schema eines Ra-stertunnelmikro-skops das zur Unter-suchung von ato-maren Strukturenauf Oberflächen denquantenmechani-schen Tunneleffektausnützt

all diesen Daten kann ein Gesamtbild der Eigen-schaften derartiger Teilchen gewonnen werden,was dazu beiträgt, mögliche Gefahrenpotentialequantitativ einzuschätzen.Die Nanoanalytik wurde wie die gesamte Nano-technologie und die Nanowissenschaften wesent-lich durch die Erfindung des Rastertunnelmikro-skops 1981 durch G. Binnig und H. Rohrer amIBM-Forschungslabor in Zürich geprägt. Damitgelang es zum ersten Mal, Strukturen auf ato-marer Skala sichtbar zu machen und sie spektro-skopisch zu charakterisieren.Inzwischen gibt es eine Vielzahl von Derivatendieser Technik, die unterschiedlichste Oberflä-chen und Grenzflächeneigenschaften zu untersu-chen gestatten. Gleichzeitig konnte mit diesen In-strumenten der von dem amerikanischen PhysikerRichard Feynman Ende der 50er Jahre gemachteVorschlag erstmals realisiert werden, atomare undmolekulare Strukturen auf Oberflächen gezielt inihrer Position zu verändern und sogar chemischeReaktionen zwischen Molekülen gezielt auszulö-sen. Dies ist eine wichtige Voraussetzung für dieErzeugung neuer Speicherkonzepte auf atomarerund molekularer Skala.

9. Ausbildung

Bereits heute und verstärkt in der Zukunft, wirddie Nanotechnologie dazu beitragen, die klassischgetrennten naturwissenschaftlichen DisziplinenPhysik, Chemie, Biologie, aber auch große Teileder Medizin und der Ingenieurwissenschaften zu-sammenzuführen und daraus eine neue Qualitätentstehen zu lassen, die man als Transdisziplinari-

tät1 bezeichnet. Dies erfordert u. a. neue Studien-und Ausbildungsgänge, aber auch die Vorberei-tung junger Menschen auf ein neues faszinieren-des Gebiet der Naturwissenschaften bereits in derSchule. Daher haben die Nanotechnologen auchdie Aufgabe übernommen, im Bereich der Aus-und Weiterbildung neue Lehrkonzepte dieserQuerschnittstechnologie zu entwickeln. In Schu-len können inzwischen mit einfachsten MittelnMikroskope aufgebaut werden, die einen erstenfaszinierenden Blick in die Nanowelt gestatten(http://sxm4.uni-muenster.de).

10. Vernetzung

Ein Querschnittsgebiet wie die Nanotechnologiekann nicht mehr umfassend an einer einzigenForschungsstelle oder von einer einzigen Firmabetrieben werden. Da viele Konzepte in unter-schiedlichsten Bereichen anwendbar und über-

Abb. 4Heutige und zukünf-tige Anwendungsfel-der der Nanotechno-logie. Die horizonta-le Zeitachse reicht(von rechts nachlinks) von heutigenbis zu zukünftigen(10-15 Jahre) An-wendungen (orange-farbende Felder).Die türkisfarbenenFelder rechts weisenauf die heute be-kannten wichtigstenTechnologien derNanotechnologiehin. (Quelle: VDI-TZ, Düsseldorf)

54

Akademie-Journal 1/2004

tragbar sind, ist es notwendig, Netzwerke zumWissenstransfer und zum Austausch von Know-how aufzubauen. Dies geschieht sowohl auf na-tionaler Ebene, z.B. durch das Bundesministeri-um für Bildung und Forschung, die DFG und dieVW-Stiftung (www.nanonet.de), als auch injüngster Zeit verstärkt durch die EU innerhalbdes 6. Rahmenprogramms. Auch das in Vorbe-reitung befindliche 7. Rahmenprogramm wirddem Bereich der Nanotechnologie und insbeson-dere dem Bereich der Nano-Biotechnologie gro-ße Aufmerksamkeit widmen. Ähnliche umfang-reiche Programme, z.T. mit erheblich höheren fi-nanziellen Mitteln werden in den USA und in Ja-pan durchgeführt. Hierbei geht es jeweils um dieErreichung eines Wissens- und Technologievor-sprungs, der durch entsprechende Patentanmel-dungen wirtschaftlich abgesichert werden kann.Dies ist von größter Bedeutung, weil die Nano-technologie nicht auf ein einzelnes Technologie-feld, wie beispielsweise die Elektronik oder dieAutomobilindustrie beschränkt ist, sondern auf-grund ihres Querschnittscharakters in allen wich-tigen Bereichen, beispielsweise der Materialwirt-schaft, Umwelt und Energie, Medizin und Bio-wissenschaften sowie der Präzisionsverarbeitungvon Oberflächen eine zentrale Rolle spielenwird.Ausgehend von Konzepten der Oberflächen undProduktveredelung, der Herstellung von speziel-len Membranen, organischen Leuchtdioden undspeziellen magnetischen Sensoren sind in Zu-kunft neue Konzepte zu erwarten, wie etwa der

magnetischen Hyperthermie für die Krebsbe-handlung, Nanoelektronik auf der Basis vonKohlenstoffnanoröhren und in fernerer Zukunftvielleicht Gewebedesign und Spintronik. Daherkann im Gesundheitswesen bei der Herstellungvon biokompatiblen Oberflächen für künstlicheOrgane oder Gefäße und im Bereich des Um-weltschutzes ein erheblicher Nutzen von der Na-notechnologie erwartet werden. Was davon tat-sächlich erzeugt, angewandt und verkauft wer-den kann – darüber muß die Gesellschaft insge-samt entscheiden.

Anschrift des Verfassers:Prof. Dr. Harald FuchsWestfälische Wilhelms-UniversitätPhysikalisches InstitutCentrum für Nanotechnologie (CeNTech)Wilhelm-Klemm-Straße 1048149 Münster

Anmerkung

1 Der Ansatz geht über das übliche Verständnis wissenschaftlicher

Zusammenarbeit hinaus. Der Konstanzer Philosoph J. Mittelstraß

definierte den Begriff der ‘Transdisziplinarität‘ wie folgt: „Wäh-

rend wissenschaftliche Zusammenarbeit allgemein die Bereitschaft

zur Kooperation in der Wissenschaft und Interdisziplinarität in der

Regel in diesem Sinne eine konkrete Zusammenarbeit auf Zeit be-

deutet, ist mit Transdisziplinarität gemeint, daß Kooperation zu ei-

ner andauernden, die fachlichen und disziplinären Orientierungen

selbst verändernden wissenschaftssystematischen Ordnung führt.

Dabei stellt sich Transdisziplinarität sowohl als eine Forschungs-

und Arbeitsform der Wissenschaft dar, wo es darum geht, außer-

wissenschaftliche Probleme... zu lösen, als auch ein innerwissen-

schaftliches, die Ordnung des wissenschaftlichen Wissens und der

wissenschaftlichen Ordnung selbst betreffendes Prinzip.“ [8]

Literatur

[1] H. J. Queisser, Kristalline Krisen, Mikroelektronik – Wege d. For-

schung, Kampf um Märkte, München ; Zürich: Piper, 1985. – ISBN 3-

492-02947-7

[2] N. Boeing, Nano?! Die Technik des 21. Jahrhunderts, Rowolt,

2004

[3] G. Schmid, M. Decker, H. Ernst, H. Fuchs, W. Grünwald, A.

Grunwald, H. Hofmann, M. Mayor, W. Rathgeber, U. Simon, D.

Wyrwa, Small dimensions and materials properties – A definition of

nanotechnology. Europäische Akademie, Graue Reihe, Nr. 35, ISSN

1435-487 X (2003)

[4] H. Fuchs, Die Welt im Kleinen: Potenziale der Nanotechnologie.

Das Magazin, Wissenschaftszentrum Nordrhein-Westfalen, 1/2001

[5] N. Nestle, H. Fuchs, Rastersondenmikroskopie. Lexikon der Phy-

sik, ISBN 3-86025-294-1, Spektrum Akademischer Verlag GmbH

Heidelberg, Bd. 4, 414-416 (2000)

[6] A. Schirmeisen, B. Anczykowski, H. Fuchs, Dynamic force mi-

croscopy. Springer Handbook of Nanotechnology, ISBN 3-540-

01218-4, 449-473 (2004)

Abb. 5Siehe Nachrichten-seite 73f.

55

Akademie-Journal 1/2004

Komplexität in Technik und Biologie

Ernst Dieter Gilles

Viele Veränderungen unseres täglichen Lebens sind dadurch bedingt, daß die Komplexi-tät technischer Prozesse weiter zunimmt. Typisch dafür ist das Internet, das die traditio-nellen Lebensgewohnheiten mit seinen vielfältigen Möglichkeiten nachhaltig verändert.Weitere Beispiele sind Verkehrssysteme und hochautomatisierte industrielle Produk-tions- und Fertigungsprozesse. Deren zunehmende Komplexität stellt neue und erhöhteAnforderungen an die Ingenieur- und Systemwissenschaften. Es sind Methoden undWerkzeuge zu entwickeln, die es gestatten, komplexe technische Prozesse so zu gestalten,daß sie bestimmte strukturelle Eigenschaften aufweisen. Besonders wichtig als Struktur-eigenschaft ist die Robustheit. Der Entwurf eines komplexen Systems muß sicherstellen,daß dessen erwünschte Funktionalität möglichst auch dann aufrecht erhalten wird, wennsowohl Fehlerquellen im Innern als auch Störungen in der Umgebung wirksam werden.Bei der Sicherstellung einer robusten Funktionalität haben die Sensortechnik, die Signal-übertragung und vor allem die Regelung zentrale Bedeutung.

Zu den wichtigsten Konzepten, die Komplexitättechnischer Prozesse zu beherrschen, gehören:

• Modularisierung,• Hierarchische Strukturierung der Regelungen,• Redundanz und Diversität.

Beispiele für nichttechnische komplexe Systemesind in der Biologie in zahlreichen Formen zufinden. Betrachtet man z.B. das Verhalten einerprokaryotischen oder eukaryotischen Zelle etwasgenauer, so gewinnt man den Eindruck, daß dieForderungen, denen man bei der Gestaltungkomplexer technischer Prozesse zu genügen ver-sucht, im Falle biologischer Zellen in vorbildli-cher Weise erfüllt sind. Allerdings sind die Kon-zepte, die dem ganzheitlichen Verhalten zellulä-rer Systeme zugrunde liegen, heute noch wenigverstanden. Klar scheint zu sein, daß diese Syste-me eine natürliche Modularität besitzen. Dies be-deutet, daß sie aus interagierenden Funktionsein-heiten des Stoffwechsels, der Signaltransduktionund der Regulation aufgebaut sind, die deutlichvoneinander abgegrenzt werden können und ei-nen gewissen Grad an Autonomie besitzen. Ty-pisch für diese Systeme ist, daß ihre Regulatio-nen einen hierarchischen Aufbau besitzen. ImBereich des Stoffwechsels gibt es redundant an-gelegte Stoffwechselwege. Bei der Erfassungsensorieller Informationen wird ein breites Spek-trum an Möglichkeiten eingesetzt, Reize in Si-gnale umzusetzen (Diversität).Abgesehen vom deutlichen Unterschied im Gradihrer Komplexität besteht zwischen biologischenSystemen und komplexen technischen Prozessenein gewisses Maß an Ähnlichkeit. Aus diesemGrunde darf man erwarten, daß die in den Sy-

stemwissenschaften entwickelten Methoden undWerkzeuge für die Analyse und Gestaltung kom-plexer technischer Prozesse auch zum besserenVerständnis biologischer Systeme wichtige Bei-träge liefern können.Betrachtet man den gegenwärtigen Stand derForschung in der Molekularbiologie, so mußman die großen Fortschritte bewundern, die dieseDisziplin in den letzten Jahren erzielt hat. DieAufklärung des menschlichen Genoms ist sicher-lich der spektakulärste einer Vielzahl von Mei-lensteinen, die immer tieferen Einblick in diemolekularen Prozesse zellulärer biologischer Sy-steme ermöglichen. Dennoch ist das heute ver-fügbare biologische Wissen noch immer vorwie-gend qualitativer und beschreibender Natur. DieForschung ist primär auf ein besseres Verständ-nis des molekularbiologischen Details ausgerich-tet. Wichtig ist die Aufklärung der individuellenWechselwirkungen dieser Komponenten bei derzellulären Regulation und Signaltransduktion.Stark vernachlässigt wurde bisher die Analyseganzheitlicher Verhaltensmechanismen komple-xer Netzwerke, die sich aus dem Zusammenwir-ken vieler miteinander vernetzter molekularerKomponenten (Gene, Proteine, Metabolite) erge-ben. Rein gedanklich sind diese Verhaltensme-chanismen nicht mehr nachvollziehbar. Hierbraucht man die mathematische Modellierung alsHilfsmittel. Nur mit ihr läßt sich das heute ver-fügbare biologische Wissen mit einer systemwis-senschaftlich orientierten Denkweise verbinden.Allerdings muß mit dieser system- und signal-orientierte Betrachtung von zellulären Systemenauch der Weg hin zu einer stärker quantitativorientierten Biologie beschritten werden. DieserWeg wird durch neue Analysemethoden erleich-

56

Akademie-Journal 1/2004

tert, die in der Biologie entwickelt wurden. Mitder DNA-Chip-Technologie ist es z.B. möglich,das Expressionsprofil mehrerer tausend Geneparallel und rasch zu bestimmen. Diese Informa-

über 4.800 Gene und verfügt über etwa 50 Stoff-wechseleinheiten, bis zu 100 genetisch gesteuerteRegulationsnetzwerke, ca. 2500 Proteine und En-zyme und ca. 50-70 Sensoren einschließlich derzugehörigen signalverarbeitenden Elemente [1, 2,3]. Aus einer systemtheoretischen Sicht läßt sichdas ganzheitliche Verhalten einer solchen bakte-riellen Zelle durch das Zusammenwirken dreiersehr komplexer Netzwerke, eines Stoffwechsel-netzwerks, eines Regulationsnetzwerks und einesNetzwerks der Signaltransduktion beschreiben(Abb. 2). In ihrem Zusammenwirken bilden diesedrei Netzwerke eine autonome Einheit, die sich insehr effizienter Weise veränderten Umgebungsbe-dingungen anpassen [4, 5, 6].

StoffwechselnetzwerkBetrachten wir das Stoffwechselnetzwerk etwasdetaillierter. Es umfaßt viele vorwiegend enzy-matischer Reaktionsschritte, die, ausgehend vonden Substraten, zur Bildung zellulärer Strukturenführen. Bei der Zellteilung werden diese Struktu-ren zu einer Tochterzelle zusammengesetzt. Zu-sätzlich entstehen bestimmte Produkte, die in dieUmgebung ausgeschleust werden. Ordnet mandie Reaktionen des Stoffwechselnetzwerks ent-sprechend ihrer Funktion im Metabolismus, soläßt sich dieses Netzwerk wie in Abb. 3 gezeigt,in kleinere Stoffwechseleinheiten zerlegen:• Die Transportreaktionen ermöglichen die

Aufnahme und Rückhaltung von Nährstoffensowie das Ausschleusen von Produkten.

• Durch die Reaktionen des Katabolismus wer-den die Substrate in kleinere Moleküle, diePrecursor zerlegt. Darüber hinaus dienen die-se Reaktionen der Gewinnung von Energieund Reduktionskraft.

• Durch die Monomersynthese werden die Pre-cursor transformiert in Zellbausteine wie Nu-kleotide, Aminosäuren, Zucker und Fettsäu-ren.

• Durch die Polymerisationsreaktionen wer-den, ausgehend von Zellbausteinen, Makro-moleküle wie z.B. DNA, RNA und Proteinegebildet.

• Durch die Assembly-Reaktionen werden Ma-kromoleküle chemisch modifiziert, zu vorbe-stimmten Stellen in den Zellen transportiertund dort zu zellulären Strukturen wie z.B.Membranen, Polysomen und Nukleoid ver-knüpft.

• Alle Metabolite, die Energie und Reduktions-kraft repräsentieren, werden ebenso wie dieAlarmone und Coenzyme einer eigenenStoffwechseleinheit zugeordnet. Damit wirdberücksichtigt, daß diese Metabolite (im Ge-gensatz zu den übrigen Metaboliten) als Re-aktand oder als Katalysator an den Reaktio-nen beteiligt sind.

Betrachtet man nun den Katabolismus, so läßtsich dieser Block wie in Abb. 4 gezeigt, in noch

tion ist wichtig, um komplexe Regulationsstruk-turen analog zum reverse engineering aufklärenzu können.

Modulare Strukturierung

Das Beispiel einer bakteriellen Zelle (Abb. 1) er-läutert ein Strukturierungskonzept, das – im Sinneeiner Nachbildung der natürlichen Modularität –der Modellierung zellulärer Systeme zugrunde ge-legt werden kann. Dieses Konzept ist die Basis,um den hohen Stellenwert, der der Regelung inbiologischen Systemen zukommt, verdeutlichenzu können. Der bekannteste Vertreter einer proka-ryotischen Zelle ist das Darmbakterium Escheri-chia coli, das sich in der molekularbiologischenund genetischen Forschung einer großen Beliebt-heit erfreut. Dieses „einfache“ Bakterium besitzt

Abb. 1Bakterielle Zelle

Abb. 2SignalorientierteDarstellung einerbakteriellen Zelle

57

Akademie-Journal 1/2004

kleinere Untereinheiten wie z.B. die Glykolyse,den Pentose-Phosphat-Weg (PPW) und den Zi-tronensäurezyklus (TCA) zerlegen. Die Zerle-gung der Glykolyse führt auf die Ebene elemen-tarer struktureller Modellbausteine. Zwei unter-schiedliche Klassen dieser Bausteine sind für ei-ne Dekomposition der Glykolyse erforderlich:• Stoffspeicher, als elementare Komponenten,• Stoffwandler, als elementare Verknüpfungs-

elemente in Form enzymkatalysierter Reak-tionsschritte.

RegulationsnetzwerkBetrachtet man das in Abb. 5 dargestellte Regula-tionsnetzwerk, so verfügt dieses über eine großeAnzahl von Enzymen und Regulatorproteinen, de-ren Aufgabe darin besteht, die Stofflüsse desStoffwechselnetzwerks unabhängig von sich än-dernden Umgebungsbedingungen auf eine Selbst-reproduktion der Zelle auszurichten [7]. Um ge-eignete Stellsignale z.B. in Form von Enzymmen-gen und Enzymaktivitäten zu generieren, stehendem Regulationsnetzwerk Sensorsignale zur Ver-fügung, die Informationen über den aktuellen Zu-stand des Stoffwechselnetzwerks und des Netz-werks der Signaltransduktion geben. Die Darstel-lung des Regulationsnetzwerks als Pyramide inAbb. 5 verdeutlicht die hierarchische Strukturie-rung bakterieller Regulationen. Auf der untersten,der metabolischen Ebene erfolgen die Stelleingrif-fe durch allosterische oder kovalente Modifikatio-nen der Enzymaktivitäten innerhalb von Millise-kunden. Die Zelle ist damit in der Lage, ohne Ver-zögerung auf Veränderungen ihrer Substratversor-

Abb. 3Stoffwechselnetz-werk

gung und auf Reize aus der Umgebung zu reagie-ren. Die Regulationsvorgänge dieser Ebene habenprimär lokalen Charakter und beschränken sich je-weils auf sehr begrenzte Bereiche des Stoffwech-selnetzwerks.Der metabolischen Regulationsebene übergeord-net ist die Ebene der genetischen Regulation. Hiererfolgt die koordinierte Produktion von Enzymenund Regulatorproteinen durch die im Minutenbe-reich verhältnismäßig langsam ablaufenden Pro-zesse der Genexpression. Der Zeithorizont der Re-gulation ist auf der genetischen Ebene deutlichlänger als derjenige der metabolischen Ebene.Wichtig ist, daß die genetische Ebene in sichselbst bereits hierarchisch strukturiert ist. Die Ba-siseinheit der Genexpression ist das Operon. Meh-rere Operons werden durch ein übergeordnetesRegulatorprotein, ein Regulon, koordiniert ge-steuert. Eine hierarchisch noch höhere Einheit istdas Modulon. Dieses Regulatorprotein faßt meh-rere Regulons zu einer bereits sehr komplex struk-turierten Regulationseinheit zusammen. EinemModulon läßt sich in der Regel eine bestimmtephysiologische Aufgabenstellung zuordnen. Es istin der Lage, die untergeordneten Expressionsein-heiten koordiniert zu aktivieren oder zu inhibie-ren. Der Graph in Abb. 5 zeigt, daß die Informa-tionsübertragung in einer solchen Regulationsein-heit nicht nur vom Modulon ausgehend von obennach unten erfolgt, sondern daß Rückführungenauch eine Signalübertragung in umgekehrterRichtung bewirken.Die oberste Ebene des Regulationsnetzwerkskann man als Leitebene interpretieren. Sie ist

58

Akademie-Journal 1/2004

Abb. 4Katabolismus undGlykolyse

Abb. 5Regulationsnetzwerk

entscheidend durch das Verhalten des Zellzyklusbestimmt. Der Zellzyklus hat die Funktion einerperiodisch arbeitenden Programmablaufsteue-rung der zellulären Prozesse. Ziel dieser Ablauf-steuerung ist die Herstellung möglichst exakterKopien einer Zelle durch Mitose (Zellteilung).

Der bakterielle Zellzyklus besteht aus drei dis-kreten Phasen (Abb. 5). In der B-Phase erfolgtdas Massenwachstum der Zelle. Ist ein bestimm-ter Reifezustand erreicht, so beginnt mit demUmschalten in die C-Phase die Replikation derDNA. Die Mitose selbst, also die Zellteilung, er-

59

Akademie-Journal 1/2004

folgt in der D-Phase. Die Übergänge von einerPhase zur nächsten hängen strikt von der korrek-ten Beendigung aller Funktionen der gerade exi-stierenden Phase ab und sind immer irreversibel.Charakterstisch ist, daß in Richtung höhererHierarchieebenen der Regulation eine Verdich-tung der Meßinformationen erfolgt und daß inumgekehrter Richtung die Steuersignale immerstärker detailliert werden. Während für die Ebenedes Zellzyklus im Wesentlichen diskrete Ent-scheidungsprozesse bestimmend sind, haben dieSteuersignale der unteren Regulationsebenen pri-mär zeitkontinuierlichen Charakter.

Netzwerk der SignaltransduktionDer Informationsaustausch zwischen der Zelleund ihrer Umgebung erfolgt über das Netzwerkder Signaltransduktion. Reize aus der Umgebungwerden über membrangebundene Rezeptoren auf-genommen, verarbeitet und an das Regulations-netzwerk weitergegeben, das dann entsprechendeStelleingriffe z.B. in das Stoffwechselnetzwerkvornimmt. Diese Stelleingriffe führen zu Ant-wortsignalen der Zelle an ihre Umgebung. Auchdas Netzwerk der Signaltransduktion ist durch ei-ne modulare Strukturierung gekennzeichnet. Einewichtige Frage ist, ob dieses Netzwerk aus einembegrenzten Satz immer wiederkehrender Grund-bausteine der Signaltransduktion aufgebaut ist,die durch elementare Formen ihres Übertragungs-verhaltens gekennzeichnet sind.Ein schon etwas komplexerer Grundbaustein derSignaltransduktion ist das in Abb. 6 dargestellteZweikomponentensystem. Es ist aus den beidenKomponenten „Sensor“ und „Antwortregulator“aufgebaut. Dem Sensor entspricht in der Regelein membrangebundenes Sensorprotein, das auszwei Domänen aufgebaut ist. Die Inputdomäneragt durch die Zellmembran, so daß extrazellulä-re Reize aufgenommen werden können. DieWahrnehmung eines Reizes durch den Sensorführt zu einer Konformitätsänderung des Pro-teins, welches die Transmitterdomäne zur Auto-phoshorylierung befähigt. Die Signaltransduk-tion erfolgt durch Phosphorylierung des Ant-wortregulators. Dabei handelt es sich um ein imZytoplasma gelöstes diffusibles Protein, das häu-fig als Aktivator oder Repressor an die DNA bin-det. Eine Dephosphorylierung des Antwortregu-lators entspricht einer Signallöschung.

Zelluläre FunktionseinheitenVerschaltet man eine Untereinheit des Stoff-wechselnetzwerks mit der ihr zugeordneten Un-tereinheit des Regulationsnetzwerks und verfährtman in gleicher Weise mit einer Untereinheit desNetzwerks der Signaltransduktion, so erhält mandie in Abb. 7 dargestellten beiden Klassen gere-gelter zellulärer Funktionseinheiten. Bei geeig-neter Abgrenzung sind diese Einheiten durch eingewisses Maß an Autonomie ihres Verhaltensgegenüber ihrer Umgebung gekennzeichnet. Erstaufgrund dieser begrenzten Autonomie ist essinnvoll, ein solches Teilsystem als autarke zel-luläre Funktionseinheit weitgehend unabhängigvom Rest einer Zelle zu untersuchen. Der in die-sem Sinne richtigen Abgrenzung einer Funk-tionseinheit kommt damit eine entscheidendeBedeutung zu. Da zur Zeit noch keine system-theoretischen Methoden und Werkzeuge zurVerfügung stehen, um eine Zelle in geeigneterWeise in zelluläre Funktionseinheiten zu zerle-gen, muß man sich mit den folgenden intuitivenAbgrenzungskriterien begnügen:• Physiologische Funktion: Komponenten einer

Funktionseinheit erfüllen durch Zusammen-wirken eine physiologische Funktion (Nah-rungsaufnahme, Atmung, Sporulation, Streß-bewältigung).

• Genetische Struktur: Gene einer Funktions-einheit werden koordiniert exprimiert (Oper-on, Regulon, Modulon).

• Regulation: Funktionseinheit enthält ge-schlossene Regelkreise, die im Sinne einerVerhaltensreduktion ihr Eigenverhalten prä-gen.

• Signaltransduktion: Komponenten einerFunktionseinheit bilden ein Netzwerk vonÜbertragungsgliedern zur Verarbeitung undIntegration von Signalen.

Um zelluläre Verhaltensmechanismen ganzheit-lich zu untersuchen, kann man zunächst mit derModellierung verhältnismäßig einfacher Funk-tionseinheiten beginnen, um diese dann zu höherstrukturierten Funktionseinheiten zu vernetzen.Die mit dieser Vernetzung verbundene Zunahmeder strukturellen Komplexität muß sich aller-dings nicht in einer entsprechenden Zunahme derVerhaltenskomplexität äußern. Der Grund dafürsind meist übergeordnete Regulationen, die mitder fortschreitenden Vernetzung zur Wirkung

Abb. 6Schematische Dar-stellung vom Aufbaueines Zweikompo-nentensystems

60

Akademie-Journal 1/2004

Abb. 7Klassen zellulärerFunktionseinheiten

kommen und auf diese Weise zu einer Eingren-zung und Fokussierung der möglichen Verhal-tensmechanismen führen. Diese Wirkung der Re-gulation läßt erwarten, daß zelluläres Verhaltenauch bei zunehmender struktureller Komplexitätmit überschaubaren reduzierten Modellen be-schrieben werden kann. Die mit der fortschrei-tenden Vernetzung wirksam werdenden Regula-tionen sind die Ursache dafür, warum das Ver-halten detaillierter Modellstrukturen oft eine ho-he Robustheit gegenüber Veränderungen ihrerParameter aufweist. Der Versuch zelluläres Ver-halten ganzheitlich zu modellieren, muß deshalbnicht an der Bestimmung der vielen reaktionski-netischen und thermodynamischen Parameterscheitern, die für molekularbiologisch detaillierteStrukturen zellulärer Funktionseinheiten benötigtwerden. Stattdessen wird es wichtig sein, diejeni-gen Schlüsselparameter zu identifizieren, die fürdie Beschreibung der ganzheitlichen Verhaltens-mechanismen bestimmend sind.

Schlußfolgerungen

Die bisherigen Ausführungen verdeutlichen, daßzwischen dem Aufbau zellulärer biologischerSysteme und dem Aufbau komplexer technischerProzesse Ähnlichkeiten bestehen. Abb. 8 zeigtdie Analogien zwischen einer bakteriellen Zelleund einem technischen Produktionsprozeß. DieKonzepte, die sich einerseits im Laufe der Evolu-tion zellulärer biologischer Systeme herausgebil-det haben und die andererseits von Ingenieurenangewendet werden, um komplexe technischeProzesse so zu gestalten, daß diese trotz ihrerKomplexität beherrschbar bleiben, sind durchausähnlich. Modularität, hierarchische Strukturie-rung der Regulationen, Redundanz und Diversi-tät gehören offensichtlich zu den unverzichtba-ren Gestaltungsmerkmalen der Systeme und Pro-zesse in beiden Bereichen.Zelluläre Funktionseinheiten sind dadurch ge-

kennzeichnet, daß sie eine Vielzahl molekular-biologischer Komponenten enthalten, die inkomplexer Weise miteinander vernetzt sind. DasZusammenwirken dieser Komponenten könntenicht auf eine bestimmte physiologische Funk-tion ausgerichtet sein und müßte im Chaos en-den, wenn nicht auf der Basis sensorieller Infor-mationen hoch effiziente Regulationsvorgängeeine zielgerichtete Funktionsweise nicht nur er-möglichen, sondern trotz Störeinflüssen auchaufrecht erhalten. Die komplexen molekularbio-logischen Strukturen müssen auch leistungsfähi-ge Signaltransduktionen und Regulationen um-fassen, um ihre Funktion überhaupt wahrnehmenzu können. Will man biologische Systeme in ih-rem Verhalten verstehen, ist eine Erforschungaus rein molekularbiologischer Sicht nicht hin-reichend. Die zentrale Bedeutung, die der Signal-transduktion und Regulation für die Funktionali-tät zellulärer Funktionseinheiten zukommt, ver-langt eine Analyse ihres dynamischen Verhaltensaus systemtheoretischer Sicht. Insbesondereganzheitliche Verhaltensmechanismen lassensich nur dann wirklich verstehen, wenn sie aufder Grundlage molekularbiologischer Modelleeiner systemtheoretischen Analyse unterzogenwerden. Hier gibt es heute noch erhebliche Defi-zite, die darin gründen, daß sich die Biologie nurzögernd einer quantitativen Betrachtungsweiseöffnet. Unter den Begriffen „Systembiologie“und „Biosystemtechnik“ wird aber in jüngsterZeit ein Prozeß des Umdenkens deutlich erkenn-bar.Vor diesem Hintergrund erweist sich eine inter-disziplinäre Zusammenarbeit der Biologie mitdem System- der Technikwissenschaften im Hin-blick auf ein verbessertes Verständnis zellulärerFunktionseinheiten als außerordentlich lohnend.Vor allem trägt das system- und regelungstheore-tische Gedankengut zum besseren Verständnisganzheitlichen Verhaltens biologischer Systemebei. So führt die Anwendung system- und rege-

61

Akademie-Journal 1/2004

Abb. 8

lungstheoretischer Methoden und Werkzeugeauch in der Biologie zu neuen Einsichten in diePrinzipien, die der Gestaltung zellulärer Systemezugrunde liegen. Besonders nützlich erscheintdie Entwicklung eines virtuellen biologischenLabors, dessen interdisziplinärer Aufbau ausAbb. 9 hervorgeht. Mittels computergestützterModellierung und Simulation kann man in einemsolchen Labor in ähnlicher Weise experimentie-ren wie mit biologischen Systemen der realenWelt. Die in Abb. 8 dargestellten Analogien zwi-schen einer Zelle und einem chemischen Produk-tionsprozeß legen es nahe, auch darüber nachzu-denken, ob die zellulären Regulationskonzeptenicht geeignet sind, die Leittechnik technischerProduktionsanlagen wesentlich zu verbessern.

Anschrift des Verfassers:Prof. Dr.-Ing. Ernst Dieter GillesMax-Planck-Institut für Dynamik komplexertechnischer SystemeSandtorstraße 139106 Magdeburg

Abb. 9Systembiologie –InterdisziplinärerCharakter

Literatur

[1] J.W. Lengeler. Metabolic Networks: a signal oriented approach to

cellular models. Biol.Chem. 381: 911-920, 2000.[2] F.C. Neidhardt, J.L. Ingraham, M. Schaechte. Physiology of the

bacterial cell: A molecular approach. Sinauer Associates, Inc.,

1990.[3] J.W. Lengeler, G. Drews, H.G. Schlegel. Biology of the Prokaryo-

tes. Georg Thieme Verlag, 1999.[4] A. Kremling, K. Jahreis, J.W. Lengeler, and E.D. Gilles. The or-

ganization of metabolic reaction networks: A signal oriented ap-

proach to cellular models. Metabolic Engineering, 2(3):190-200,

2000.

[5] A. Kremling and E.D. Gilles. The organization of metabolic reac-

tion networks: II Signal processing in hierarchical structured

functional units. Metabolic Engineering, 3(2): 138-150, 2001.[6] A. Kremling, K. Bettenbrock, B. Laube, K. Jahreis, J.W. Lengeler,

and E.D. Gilles. The organization of metabolic reaction networks:

III. Application for diauxic growth on glucose and lactose. Metabo-

lic Engineering, 2001. 3(4): 362-379, 2001.[7] J. Stelling, A. Kremling, M. Ginkel, K. Bettenbrock, and E.D. Gil-

les. Towards a Virtual Biological Laboratory. In H. Kitano, editor,

Foundations of Systems Biology, chapter 9, pages 189-212, MIT

Press. 2001.

62

Akademie-Journal 1/2004

Tand, Tand ist das Gebilde von Menschenhand?Technik im Wertewandel

Hans Poser

Als 1879 ein Sturm die Brücke am Tay zum Einsturz brachte, warnte Fontane vormenschlicher Hybris. Als in der Weihnachtszeit des vergangenen Jahres 20.000 Men-schen bei einem Erdbeben im Iran unter den Lehmziegelhäusern von Bam ihr Leben ver-loren, wurde von Fachleuten darauf verwiesen, daß dank neuer Bautechniken bei einemErdbeben gleicher Stärke in einem Landstrich ähnlicher Bevölkerungsdichte in den USAnur drei Menschen den Tod fanden. Technischer Fortschritt also? Hätte man die traditio-nellen Lehmziegelgebäude ’rechtzeitig’ abreißen sollen, um eine zum Weltkulturerbezählende Anlage, die schon die Jahrtausende überdauert hat, aufzugeben? Oder solltenwir den Autoverkehr unterbinden, weil allein in Deutschland seit dem 2. Weltkrieg einehalbe Million Verkehrstote zu beklagen waren, während Kernkraftwerke, die hierzulandenoch niemanden haben sterben lassen, stillgelegt werden müssen? Bewertung von Tech-nik ist offensichtlich ein schwieriges Unterfangen.

Technik bestimmt unser Leben und Überlebennicht erst heute, sondern seit Menschengeden-ken. Alle Schritte der kulturellen Entwicklungwaren mit Technik verbunden – nicht im Sinneeiner einseitigen kausalen Voraussetzung, son-dern in Gestalt einer Wechselwirkung, teils alsErmöglichung neuer kultureller Formen, teils alstechnisches Produkt neuer geistiger Sichtweisen– von der Steinzeit bis ins Plastik- und Compu-terzeitalter. Doch wohin mag dieser Weg führen,welcher Herausforderungen müssen wir ange-sichts des spannungsvollen Verhältnisses unter-schiedlichster Werte und ihres Wandels gewärtigsein? Seit der Renaissance bis in die Mitte des20. Jhs. wurden technische Entwicklungen vollerOptimismus als Fortschritt gesehen – ein keines-wegs selbstverständlicher Gedanke, denn tradi-tionell zielen alle Kulturen, auch Hochkulturenwie China, ganz im Gegenteil auf Stabilität dergesellschaftlichen Strukturen; die aber wäre ge-fährdet gewesen durch eine positive Wertung desNeuen als Fortschritt.Spätestens seit Hiroshima ist uns jener Optimis-mus verlorengegangen, Technik und Technikent-wicklung werden in ihrer Janusköpfigkeit gese-hen: Die Nukleartechnik, von der noch in den60er Jahren trotz ihrer militärischen Anwendungdie Lösung aller Energieversorgungsproblemeerwartet wurde, ist heute in Deutschland fastgänzlich in den Hintergrund getreten; auch dieFrage, ob durch Steuerung der Zerfallskettenoder durch Fusionsprozesse eine weniger gefah-renträchtige Sicherung der Energieversorgungauf nuklearer Basis möglich sei, wurde kaumaufgenommen – doch geblieben ist das nicht al-lein technisch zu lösende Problem einer Lage-rung. Einen Salzstock suchen und ein Schild auf-stellen: „Endlagerung! Für 10.000 Jahre Buddeln

verboten“ reicht nicht, schon weil der Inhalt derWarnung, in sprachgeschichtlichen Dimensionenbetrachtet, kaum über einen solchen Zeitraumverständlich weitergegeben werden kann; unddies auch ohne eine babylonische Sprachverwir-rung als Strafe für himmelsstürmende Technik-hybris. Hier ist ablesbar, wie sich Hoffnungen,Prognosen und Beurteilungen wandeln und wiejede neue Technologie neue Folgeprobleme ge-neriert.

Das Oktogon der technischen Werte

Zunächst ist zu klären, wie sich Technik zu Wer-ten verhält. Dabei ist unter einem Wert im Ge-gensatz zu einer Deskription ein gedanklichesGebilde zu verstehen, das ein Handeln sinnvollmacht, weil es das Ziel des Handelns bestimmt:Dem als Ziel intendierten Sachverhalt wird einWert zugeschrieben. Damit sind keineswegs nurethische Werte gemeint; vielmehr ist alles Han-deln und mit ihm jede technische Hervorbrin-gung in einem grundsätzlichen Sinne werteba-siert. Jede Zweck-Mittel-Relation erfährt ihrenSinn allein über die jeweils vorausgesetztenWerte. Dies sei anhand der Technikbewertungnäher erläutert.Immer schon wurde Technik bewertet – vomsteinzeitlichen Obsidianmesser als Werkzeug bishin zu den Artefakten und Prozessen heutigerTechniksysteme. Die erste und notwendigeGrundbedingung aller Technik besteht darin,(richtig) zu funktionieren; doch Funktionsfähig-keit ist – wie Brauchbarkeit, Wirksamkeit, Per-fektion – keine Sachverhaltsbeschreibung, son-dern bereits ein Wert: Gemeint ist nämlich allein,daß eine Technik, ein Artefakt, den vorausge-setzten Zweck erfüllt; das aber ist eine wertende

63

Akademie-Journal 1/2004

und wertbasierte Feststellung (eine Maschinekann weiterhin kausal funktionieren, jedoch’Ausschuß’ produzieren – was eine Bewertungdes Resultats ist). – Eine andere Wertung zieltseit alters auf Wirtschaftlichkeit; anders würdesich der Aufwand zur Herstellung des Artefaktsoder zur Realisierung eines Prozesses nicht loh-nen. Dabei ist keineswegs nur eine monetäreSkala und ökonomischer Gewinn gemeint, viel-mehr muß sich allgemein der Produktionsumweglohnen: man denke an das Durchbohren einerSteinaxt statt des einfachen Schäftens. Der Bauvon Tempeln, Pyramiden und Kathedralen hatdagegen nichts mit materiellem Gewinn zu tun,sondern mit dem Ziel, über solche Bauwerke dieGötter gnädig zu stimmen, ein ewiges Lebennach dem Tode sicherzustellen beziehungsweiseder Transzendenz näher zu kommen. Daß derTransrapid in Schanghai wirtschaftlicher sei alsin Deutschland, wäre eine unsinnige Annahme;vielmehr zählt als Wert auch der Prestigegewinn,im Reich der Mitte über die erste Magnetschwe-bebahn im Normalbetrieb zu verfügen. Dieszeigt, wie komplex allein diese Wertungsebeneist. – Seit der zweiten Hälfte des 19. Jhs. kam alsWert die Sicherheit des Arbeiters an der Maschi-ne hinzu, teils aus humanitären Gründen gefor-dert, teils ökonomisch begründet, weil es galt, er-fahrene und eingearbeitete Kräfte nicht zu verlie-ren. Dies führte weiter zur Forderung nach Ge-sundheit und Umweltqualität auf der einen Seite,

nach Werten der Sozial- und Gesellschaftsquali-tät auf der anderen Seite. Diese Wertebenen sindin der VDI-Richtlinie „Technikbewertung“ zu-sammengefaßt (Abb. 1).1 Sie lassen sich nichtnur weiter differenzieren – sie sind vor allem invielen Fällen antagonistisch: erhöhte Sicherheitvermindert die Wirtschaftlichkeit; unterneh-mensorientierte Wirtschaftlichkeit kann dem ge-meinwirtschaftlichen Wohlstand zuwiderlaufenetc. Damit zeichnet sich ein erstes Dilemma ab:Der Bereich der Wertungen, die doch die Grund-voraussetzung für eine Zielbestimmung sind, läßtsich nicht in einem einfachen, schon gar nicht ineinem quantitativen Modell erfassen; die jeweili-ge Problemlösung beruht auf hochdifferenziertenabwägenden Einzelentscheidungen, die weitmehr an Kompetenz verlangen als ein bloß tech-nisches Know how.

Neue Technologien –neue Wertprobleme

In den letzten zwei Jahrzehnten haben neueTechniken zu gänzlich neuen Sichtweisen derWelt, neuen Lebensformen und neuen Verant-wortungsproblemen geführt. An drei Schlüssel-technologien sei vor allem der letzte Punkt ver-deutlicht.Die Informationstechnik ist insofern ein neuerTechniktyp, als eine Technik hier nicht nur für ei-nen bestimmten Zweck entwickelt wurde, sondern

Abb. 1Wertebenen im tech-nischen Handeln.Werteoktogon nachVDI-Richtlinie 3780

64

Akademie-Journal 1/2004

auch als eine Bereitstellung von Möglichkeiten zurformalen Bearbeitung von Zeichenstrukturen, dieAusdruck geistiger Gehalte sind. Mit dieser Tech-nik lagern wir nicht nur unser Gedächtnis aus –das begann schon mit der Schrift und wurde mitdem Buchdruck potenziert –, sondern mit ihr ge-lingt die Verarbeitung formalisierter geistiger In-halte. Dies führt zu gänzlich neuen Verantwor-tungsproblemen und Wertfragen: (a) Wird Infor-mationsverarbeitungstechnik zur automatischenSteuerung von Großsystemen eingesetzt, so istdies nicht mehr mit der Drosselung einer Dampf-maschine durch einen Fliehkraftregler vergleich-bar, weil die Überschaubarkeit des Systems nichtmehr gewährleistet ist. Eine Automatik ist keinePerson, kann also keine Verantwortung für denKatastrophenfall tragen. Ist es dann zu verantwor-ten, die Steuerung an eine Automatik zu delegie-ren? (b) Die Informationstechnik hat in ihrer Ver-netzung eine Globalisierung erzwungen, die vielweiter reicht als Edisons E 27-Glühbirnensockel,denn nicht nur technische Artefakte werden glo-bal, sondern mit ihnen die Informationen, die siezu verbreiten und zu verarbeiten gestattet. Dochist die jeweilige Information eine bloße Meinungoder eine Erkenntnis (mit Platon: doxa oder epi-steme)? Erkenntnis setzt im Unterschied zur Mei-nung eine Begründung des Wahrheitsanspruchsvoraus: Um also falsche, verzerrte, ideologischeInhalte von Wahrem unterscheiden zu können,muß, wer sich einer Information bedient, gelernthaben, ihre Begründetheit zumindest im Grund-satz abschätzen zu können. (c) Dies wird um sowichtiger, je mehr wir mit Information überschüt-tet werden, denn diese scheinbar segensreicheTechnik läßt uns mit Massen an Informationsmüllalleine, weil keine Suchmaschine und kein Hyper-link Informationen nach Sinn und Bedeutung,Wichtigkeit und Nichtigkeit zu bewerten vermag.Das aber wird tiefgreifende Auswirkungen auf dieBildungsanforderungen der Gesellschaft haben.Neue Inhalte der Biotechnologie stellen heute al-les in Frage, was früher über diese Technik ge-dacht und geschrieben wurde – geht es dochnicht mehr um Harnstoff und Bierhefe; denn dieheutige Technik ist auf dem Wege, Homunkulus-Phantastereien in die Nähe der Verwirklichbar-keit zu rücken: Der Mensch schafft nicht nur einezweite materiell-technische Natur, sondern erwird zum Schöpfer auch im Biotischen: von neu-en Viren, die andere Viren vernichten sollen, undBakterien zur Beseitigung organischer Umwelt-schäden über genmanipulierten Mais bis zumKlonen. Gewiß gehört der gentechnisch gestylteMensch ins Reich der Fabel – aber die Stamm-zellenforschung etwa öffnet nicht nur Wege, weilsie neue Hoffnung im Kampf gegen Parkinsonund Alzheimer weckt und Erbkrankheiten einzu-dämmen verspricht, sondern sie provoziert tief-greifende Wertprobleme, weil sie den Menschenzum Mittel werden läßt, statt ihn, wie Kant for-

derte, als Zweck an sich zu begreifen. Nirgendswird deshalb die Frage der Verantwortbarkeitvon Technik und Technikwissenschaft so kontro-vers diskutiert wie in diesem Felde.Die Nanotechnik steht im völligen Gegensatzzur gigantomanischen Technikentwicklunghöchster Gebäude, tiefster Bohrlöcher oder lei-stungsfähigster Großsysteme. Sie erscheint zu-nächst als bloße Miniaturisierung vertrauterTechnologien – gewissermaßen als Analogiedes Weges von der Kirchturmuhr zur Nürnber-ger Eieruhr; und populärwissenschaftliche Ab-bildungen nähren diese Illusion. Doch bei ge-nauerem Zusehen zeigen sich aufgrund der Mi-niaturisierung Erweiterungen des Bereiches desWissens, der Modellbildung geradeso wie derAnwendung: In Verbindung mit der Biotechno-logie werden Blutbahnen zu Transportwegenund Zellen zu außengesteuerten chemischen La-boratorien, neue Materialien ungeahnter Pak-kungsdichten erlauben bislang unvorstellbareMaterialeigenschaften. Doch was die Nanotech-nik für unsere Lebensvorgänge und unsere Um-welt bedeutet, ist heute kaum besser abschätzbarals einst im Falle der Fluorchlorkohlenwasser-stoffe (FCKW), die als Wundermittel gefeiertworden waren. Das aber liegt angesichts derNeuartigkeit der Werkstoffe am lückenhaftenWissen um ihre Eigenschaften, an der Komple-xität ihres Zusammenwirkens (das mit additivenMerkmalskombinationen gänzlich unzurei-chend erfaßt wäre) und an der Breite und Viel-gestaltigkeit technischer Anwendungsbereiche.Dem aber steht zugleich das Erfordernis einerKomplexitätsreduktion gegenüber, die zu lei-sten wäre, um sich dieser Technik wertend undbewertend nähern zu können. Die Befürchtung,die Nanotechnologie werde in Verbindung mitder Robotik bald zu autonomen, intelligentenund sich selbst vermehrenden und verbessern-den Robotern führen, ist gewiß vollkommenüberzogen – und mit ihr die Forderung, alle For-schung in diesen Bereichen einzustellen. Einesallerdings ist sicher: ’Small is beautiful’ versagtals Garant der Risikominimierung; stattdessensind jeweils spezifische Wertungskriterien ge-fordert.

Neue Strukturen technischen Wissens –neue Herausforderungen

Bedeutsam ist im Zusammenhang mit der Wert-problematik die heute gängige Beschreibung derStruktur der Technikdynamik als Technikevolu-tion. Daß Technikwissenschaften nicht als ange-wandte Naturwissenschaften gesehen werdendürfen, ist mittlerweile unbestritten;2 denn dieNaturwissenschaften zielen auf allgemeineTheorien, Technik hingegen auf effiziente Lö-sungen praktischer Probleme. Technikwissen-schaftler denken und argumentieren – anders als

65

Akademie-Journal 1/2004

Naturwissenschaftler – in Modellen, die nichtModelle einer Theorie oder Mittel der Hypothe-sengenerierung sind (auch nicht materielle Mo-delle, wie sie im 17. und 18. Jh. gebaut wurden,um die Funktionstüchtigkeit einer Maschine zubelegen und um dann als Vorlage für die Reali-sierung im Großen zu dienen), sondern Vorstel-lungen von effektiven Verknüpfungen von Mit-teln zur Erreichung einer effizienten Lösung. Einsolches Vorgehen und die Tauglichkeit seinerangebotenen Lösungen sind aber nur bedingtvoraussagbar und darum auch nur bedingt einerprognostischen Bewertung zugänglich. Ver-schärft wird dies durch ein neues Verständnisvon Komplexität, das sich den klassischen Ver-fahren der Hypothesenüberprüfung durch dasExperiment entzieht. Deutlich tritt uns dies be-reits in Evolutionsmodellen der Biologie entge-gen: Sie enthalten als zentrales Element die Mu-tation als eine grundsätzlich nicht vorhersagbareVeränderung – grundsätzlich, d.h. nicht wegeneines Mangels an Wissen, sondern weil es hierfürkeine Parameter gibt. Die Mutation ist damit we-der hinsichtlich ihres Zeitpunktes noch in ihremInhalt vorhersagbar; sie verstößt also in traditio-neller Sicht gegen alle klassischen Limitierungenwissenschaftlicher Hypothesenbildung. Wenn siedennoch in Theorien Eingang findet, so auf eineganz andere Weise: Mutationen werden einfachals empirisches Datum einbezogen! Damit wirdeine Theoriebildung möglich, obwohl die Vor-hersagbarkeit der Mutation nicht gegeben ist.Nun bedienen sich die unterschiedlichsten Wis-senschaften – genauer, all diejenigen, die ge-schichtliche Prozesse behandeln – evolutionärerModelle, von der biologischen über die sozialeund die Wirtschaftsevolution bis hin eben zurTechnikevolution. Damit werden völlig neueSchritte der Technikentwicklung nicht prognosti-sierbar, weil für eine neue Technologie Kreativi-tät die Vorbedingung ist – und deren Inhalte sindgrundsätzlich nicht vorhersehbar (wäre demnicht so, bedürfte es keiner Entwicklungslabors,sondern nur der Deduktion aus Bekanntem).Doch das Evolutionsschema birgt die Gefahr, inder Technikentwicklung eine urwüchsige Eigen-dynamik zu sehen, die zur Folge hätte, daß jederVersuch, wertend einzugreifen, sinnlos ist. Demmuß entgegengehalten werden, daß erstens jedesEvolutionsmodell ein menschliches Deutungs-schema ist, das wie jedes Modell seine Grenzenhat, und daß zweitens die Quelle aller Technik-dynamik in menschlichen Entscheidungen undHandlungen wurzelt – und dies auch im Fallenichtintendierter Nebenwirkungen (BeispielFCKW). Evolutionsmodelle sind also immerdann unangemessen, wenn der absichtsvoll-ge-zielte und vorausschauende Eingriff des Men-schen berücksichtigt werden soll; das aber giltfür alle technische Forschung und Entwicklung.In dieser Perspektive wird es geradezu zur Auf-

gabe, Technikbewertung auf allen Ebenen be-wußt und mit dem Ziel der Steuerung zu ermög-lichen.

Wertdifferenzen, Wertewandel undWerterelativismus

Zwar lassen sich heute viele technische Vorgän-ge mit Hilfe mathematischer Modelle simulierenund damit vorhersagen – „Crash-Simulationenvon Fahrzeugen, kontaminierende Versickerun-gen von Schadstoffen im Boden, Langzeitschädi-gungen von Beton durch atmosphärische Ag-gressivität, Strömungs- und Temperaturfeldervon in die Atmosphäre eintauchenden Raumfahr-zeugen, Bewegungen der Erdkrustenplatten, aufTumorbereiche beschränkte Temperaturerhöhun-gen durch Schwingungswellen in der Krebsthe-rapie“;3 aber weder Erfindungen noch die sie lei-tenden Intentionen noch gar die ihnen zugrunde-liegenden Wertvorstellungen sind in ihrem Wan-del vorhersehbar oder gar mathematisch model-lierbar. Damit aber bleibt der aller Technik vor-ausliegende Horizont der Werte und Normengrundsätzlich unerfaßbar. Um ein Beispiel einertechniknahen Wertung zu geben: In den 50erJahren wurde von der Ehrlichkeit des Sichtbe-tons geschwärmt – heute wird mit Beton diekrasseste Abwertung des ’Zubetonierens’ assozi-iert.Die Schwierigkeiten potenzieren sich, weil Wer-te – entgegen allen platonischen Vorstellungenvon einer ewigen und unwandelbaren Idee desSchönen-Wahren-Guten – auch durch kulturelleDifferenzen und den Wertewandel in der Ge-schichte bestimmt werden. Beides ist von be-trächtlicher Brisanz, denn kulturelle Differenzenstehen in einem Spannungsverhältnis zu der mitTechnik und Wissenschaft verbundenen Globali-sierung, während die Geschichtlichkeit allerWerte einen Relativismus zu stützen scheint, derjede normative Überlegung zu unterlaufen droht.Die kulturell begründeten Unterschiede scheinendurch die weltweite Ausdehnung von Wissen-schaft und Technik aufgehoben zu werden; dochder Schein trügt, denn was für wissenschaftlicheTheorien gelten mag, trifft keineswegs für dieTechnik zu; die nämlich setzt einen auf die Arte-fakte bezogenen Wertehorizont voraus. Dennwenn auch die Artefakte verschiedener Kulturenähnlich sein mögen – die dahinterstehenden In-tentionen, die ihrerseits wertgegründet sind, blei-ben kulturspezifisch gebunden, solange wir nichtweltweit eine Sprache sprechen, ein Einheitskli-ma besitzen, unsere Sitten und Gebräuche stan-dardisiert und unsere Geschichte als Träger unse-rer Tradition von allem Individuellen, Regiona-len und Nationalen ’gereinigt’ haben – also nie.Damit stehen wir vor dem Problem, dennoch kul-turübergreifende Regulativa nicht etwa nur derunmittelbaren technischen Normung von Gewin-

66

Akademie-Journal 1/2004

den etc., sondern – viel wichtiger und schwieri-ger – der Umwelt- und Ressourcenschonung so-wie der Sicherheitsstandards zu erarbeiten undumzusetzen. Am Beispiel der Stammzellenfor-schung und der damit verbundenen Biotechnolo-gie zeigt sich, wie schwierig dies sein kann,wenn wie in Japan zwar das Transplantierenfremden Gewebes abgelehnt wird, die Gewin-nung eigener Stammzellen hingegen als gerade-zu geboten erscheint, während solche Forschungbei uns starken Restriktionen unterliegt. Den-noch sollte es gelingen, zu einem stets fortzu-schreibenden Konsens zu gelangen; als Vorbildund Beispiel kann die Pharmaforschung dienen,die gemäß der immer wieder überarbeiteten De-klaration von Helsinki des Weltärztebundes in al-len Staaten mit Pharmaforschung nach einer ge-setzeskräftigen Richtlinie verfährt, die u.a. alsein tragendes Element interdisziplinäre Ethik-Kommissionen vorschreibt.4

Betrachten wir nun den Fall des geschichtlichenWertewandels. Alle hierfür entwickelten Evolu-tionsmodelle stellen nur retrospektive Deutungenbereit, während die Änderungen selbst als Fakteneingehen. Doch gerade weil künftige Wertungen –von der Mode über Bedürfnisse bis in die Ethik –nicht vorhersehbar sind, stößt alle technische Pla-nung an jene unüberwindlichen Grenzen, dieHans Jonas das Prinzip der Verantwortung hatteformulieren lassen: „Handle so, daß die Wirkun-gen deiner Handlung verträglich sind mit der Per-manenz echten menschlichen Lebens auf Erden“;5

denn dieses Prinzip beinhaltet die Verpflichtung,kommenden Generationen die Handlungsmög-lichkeiten, und damit die Freiheit zur eigenen Ent-scheidung auch unter veränderten Wertsetzungennicht zu beschneiden. Da dieses Prinzip, dem ka-tegorischen Imperativ Kants nachgebildet, bis aufden Wert ’echt’ formaler Natur ist, läßt es denWerterelativismus hinter sich und erhebt den An-spruch, daß ihm so alle Menschen zustimmen

Anmerkungen

1 Technikbewertung – Begriffe und Grundlagen. Erläuterungen und

Hinweise zur VDI-Richtlinie 3780 (= VDI Report 15), Düsseldorf :

VDI 1991, S. 78.2 Mario Bunge: „Technology as Applied Science“, in: Technology

and Culture 7 (1966) 329-347; revidierter Nachdruck u.a. in Fried-

rich Rapp (ed.): Contributions to a Philosophy of Technology. Stu-

dies in the Structure of Thinking in the Technological Sciences,

Dordrecht/Boston: Reidel 1974 , S. 19-39. Vgl. auch Hans Poser:

„Technikwissenschaften im Kontext der Wissenschaften“, in:

Technik und Technikwissenschaften. Selbstverständnis – Gesell-

schaft – Arbeit. Arbeitssymposium des Konvents für Technikwis-

senschaften der Berlin-Brandenburgischen Akademie der Wissen-

schaften und der Nordrhein-Westfälischen Akademie der Wissen-

schaften, Berlin – Düsseldorf, Januar 1999 [unpag., 9 S.].3 Heinz Duddeck: „Modelle der Technik –Wie Ingenieure die Real-

welt in Entwurfsmodelle umsetzen“. Akademie-Journal 1/2001, 2-

6, hier S. 5.4 Helsinki 1964; letzte Fassung Edinburgh 2000.5 Hans Jonas: Das Prinzip Verantwortung. Versuch einer Ethik für

die technologische Zivilisation. Frankfurt a.M.: Suhrkamp 1984, S.

36.

können. Was aber ’echtes’ menschliches Lebenist, läßt sich nie ein für allemal ausmachen, son-dern ist in jeder Gesellschaft und in jeder Zeit neuzu umreißen – gewiß nicht allein von Ingenieurenund Technikwissenschaftlern, gewiß nicht arbeits-teilig von Philosophen, sondern in immer neuenAnläufen interdisziplinärer Zusammenarbeit, umden Tand vom Sinnvollen und Notwendigen, vomkulturell Wünschenswerten und ethisch Gebote-nen zu scheiden.

Anschrift des Verfassers:Prof. Dr. Hans PoserTechnische Universität BerlinInstitut für Philosophie, Wissenschaftstheorie,Wissenschafts- und TechnikgeschichteErnst-Reuter-Platz 710587 Berlin

67

Akademie-Journal 1/2004

Aus der ArbeitsgemeinschaftElektronisches Publizieren

Kurt Gärtner/Ralf Wolz

Im Mai 2003 wurde vom Präsidium der Union eine AG Elektronisches Publizieren neu ge-gründet. Sie fungiert als ein Beratungsgremium des Präsidiums. Neben ihren Sitzungstreffenfördert die Arbeitsgruppe auch die Präsentation von Akademieprojekten, die ihre Arbeitser-gebnisse mit elektronischer Unterstützung erarbeiten und publizieren. Von einer Vernach-lässigung der modernen Informations-Technologien und von methodischer Antiquiertheitder Akademieforschung wird man daher nicht sprechen können. Einige der Vorhaben, diedies belegen, werden hier exemplarisch vorgestellt. Die Akademien möchten gerne in nochweitergehendem Maße ihre Forschungsergebnisse in den neuen Medien allgemein zugäng-lich machen. Die technischen Voraussetzungen sind vorhanden, um die in den Akademiengeschaffenen und noch entstehenden wissenschaftlichen Grundlagenwerke, die großen Wör-terbücher und die historisch-kritischen Editionen, zu digitalisieren und in digitale Bibliothe-ken einzustellen, in denen sie über das Internet weltweit zugänglich sind. In den Akademienexistiert ein entschiedener Wille zur Nutzung der neuen Technologien, nur fehlt es an finan-ziellen Mitteln. Bund und Länder sollten sich daher aufgerufen fühlen, das Innovationspo-tential der Akademien und den Weg in die Wissensgesellschaft zu förderen.

Informations- und Kommunikations-technologien in der Akademie der Wis-senschaften und der Literatur, Mainz

In der Mainzer Akademie wurden kürzlich Vor-haben präsentiert, die elektronische Publikatio-nen zum Ziel haben und mit Drittmittelsummendurch die DFG gefördert werden. Sie sind ein re-präsentativer Querschnitt der zahlreichen Main-zer Akademievorhaben, die die EDV als Werk-zeug und Medium intensiv nutzen.

Hethiter Portal MainzDas Hethitische ist die ältestbezeugte indoger-manische Sprache und ist in Originaldokumentenüberliefert. Die auf Keilschrifttafeln erhaltenenSchriftzeugnisse (17. – 13. Jh. v. Chr.) stellen dieForschung vor besonders schwierige Dokumen-tationsprobleme. Die für das Portal entwickeltedreidimensionale Wiedergabe von Keilschriftta-feln demonstriert überzeugend das Potential derneuen Technologien, die die bisherigen fotogra-phischen und printmedialen Darstellungs- undPublikationsverfahren weit übertreffen. Außer-dem werden in internationaler ZusammenarbeitTexteditionen, Glossare, Konkordanzen, Biblio-graphien, und spezielle Keilschriften on-line pu-bliziert und damit der internationalen Forschungzur Verfügung gestellt. (Gernot Wilhelm, Würz-burg/Mainz, http://www.hethiter.net).

Regesta Imperii OnlineAls komplettes Inventar der Urkunden und Ge-schichtswerke der römisch-deutschen Könige bis

Maximilan I. sowie der Päpste des frühen undhohen Mittelalters gehören die „Regesta“ zu dengroßen Quellenwerken der deutschen und euro-päischen Geschichtswissenschaft. In dem vonder DFG geförderten und in Kooperation mit derBayerischen Staatsbibliothek durchgeführtenProjekt werden diese für die geisteswissenschaft-liche Forschung zentralen Ressourcen digitali-siert und dadurch direkt am Arbeitsplatz desWissenschaftlers zugänglich gemacht. Die bishererschienenen Druckbände wurden retrodigitali-siert und sind als elektronische Volltexte wie alsAbbildungen der Buchseiten im Internet frei zu-gänglich. Die neuen Regestenbände werdenkünftig von vornherein auch als elektronischeVolltexte vorgehalten, die Wort-für-Wort durch-suchbar sind. Diese Publikationsstrategie, diedurch eine umfassende „Verlinkung“ mit digita-len Parallelangeboten zum Kern eines mediävi-stischen Netzwerks tendiert, ist exemplarisch fürden Weg, den die Langzeitvorhaben der Akade-mie einschlagen. (Paul-Joachim Heinig, DieterRübsamen, Andreas Kuczera, Gießen/Mainz,http://www.regesta-imperii.de)

Deutsches Wörterbuch der Brüder Grimm aufCD-ROM und im InternetDas nun retrodigitalisierte Wörterbuch wurde inseiner Erstausgabe von 1854 bis 1971 ausgear-beitet und ist mit seinen 33 Foliobänden mit rund300 Mio. Zeichen und etwa 320.000 Stichwör-tern das umfassendste Wörterbuch zur deutschenSprache. Seine elektronische Publikation ist mitSuchmöglichkeiten ausgestattet; sie erlauben es,

68

Akademie-Journal 1/2004

diesen gewaltigen Informationsspeicher derdeutschen Sprache in einer Weise zu nutzen, dieweit über das hinausgeht, was der bei einem ge-druckten Wörterbuch übliche Zugriff über dieAlphabetstruktur bietet. Die Wörterbücher, diemit den Editionen zu den charakteristischen Aka-demievorhaben gehören, erhalten durch den Ein-satz moderner Datenbanktechnologien für ihreDigitalisierung eine neue Qualität. Sie tragen zurWeiterentwicklung neuer Sprachtechnologienbei. (Thomas Burch, Kurt Gärtner, Trier/Mainz,http://www.DWB.uni-trier.de).

Russisch-deutsches WörterbuchDas neue, in Ausarbeitung befindliche Wörter-buch ist ein Projekt, für dessen Konzeption undBelegsammlung von Anfang an der Computereingesetzt wurde. Das auf 200.000 Stichwörterausgerichtete und damit umfangreichste Wörter-buch der russischen Sprache, das den russischenAllgemeinwortschatz des 20. Jhs. repräsentiert,wendet sich an einen breiten Benutzerkreis undist für Wissenschaft wie Wirtschaft von größterBedeutung. Es wird in einer Offline-Version pu-bliziert, die auch im Verfahren des Publishing-on-Demand (PoD) erhältlich ist. Bisher sind dieWortstrecken A bis E publiziert. Die digitale wieprintmediale Version werden vom selben Daten-bestand aus erzeugt. Die Publikation auf CD-ROM nutzt das Medium durch ständige Aktuali-sierung, denn die jährliche Publikation einer neu-en Wortstrecke umfaßt zugleich auch ein Updateder bereits erschienenen Buchstabenstrecken.(Renate Belentschikow, Magdeburg).Die Software für die beiden vorgestellten Wör-terbücher wurde an dem 1998 in Kooperation mitder Mainzer Akademie gegründeten „Kompe-tenzzentrum für elektronische Erschließungs-und Publikationsverfahren in den Geisteswissen-schaften“ an der Universität Trier entwickelt.

Digitale Projekte an der Berlin-Branden-burgischen Akademie der Wissenschaften

Zwei BBAW-Projekte haben in diesem Jahr er-hebliche Anstrengungen unternommen, ihre Be-stände besser recherchierfähig der Öffentlichkeitzu präsentieren.

Digitales Wörterbuch der deutschen Sprache des20. JahrhundertsDas Digitale Wörterbuch hat sein Textcorpusspeziell für die linguistische Forschung auf einer

neuen Webseite aufbereitet und mit einer eige-nen Suchmaschine versehen. Recherchierbarsind im Volltext über 2.200 bibliographischeEinheiten (dabei umfaßt z.B. die Einheit „Berli-ner Tageblatt 1901 bis 1933“ ca. 8.000 vollstän-dige Zeitungsartikel). Umfangreiche Suchmög-lichkeiten sind implementiert. Die Ergebnisaus-gabe kann gefiltert und auch statistisch ausge-wertet werden. Über tausend Anmeldungen ausüber 40 Ländern waren in den ersten Wochennach Freischaltung im Januar 2004 zu verzeich-nen. Seitdem steigen die Anmeldezahlen stetigan. (www.dwds-corpus.de).

Jahresberichte für deutsche GeschichteDie Jahresberichte haben ihr elektronisches An-gebot erheblich erweitert. Die Verknüpfung derüber 220.000 bibliographischen Datensätze mitden bibliothekarischen Erschließungssystemenwurde erheblich ausgebaut. Gleichzeitig werdenonline verfügbare Rezensionen oder Abstracts inden jeweiligen Titelaufnahmen nachgewiesenund verknüpft. Für den Bereich der Zeitschriften-aufsätze ist die Verlinkung der in den Jahresbe-richten nachgewiesenen Beiträge mit der Zeit-schriftendatenbank (ZDB) realisiert.Vom Datensatz – sei es Monographie, Sammel-band oder Aufsatz – bis in die elektronischen Bi-bliothekskataloge bedarf es quasi nur noch einesKlicks. Die Integration in das DFG-gefördertegeschichtswissenschaftliche Fachportal Clio-On-line gewährleistet die kontinuierliche Rückbin-dung an die aktuelle Forschung. Auch historischeBestände wurden aufbereitet. Gemeinsam mitdem Kompetenzzentrum Trier (http://ger-ma83.uni-trier.de/JB/) wurden die Jahresberich-te aus der Zwischenkriegszeit digitalisiert undonline aufbereitet.

Anschriften der Verfasser:Prof. Dr. Kurt GärtnerUniversität TrierFachbereich II – GermanistikUniversitätsring 1554276 Trier

Ralf WolzBerlin-Brandenburgische Akademie der Wissen-schaftenReferat AkademienvorhabenJägerstraße 22-2310117 Berlin

69

Akademie-Journal 1/2004

Nachrichten aus der Union

Unionsbüro in BerlinDie Union ist jetzt auch in Berlin präsent: Sie un-terhält seit Mitte 2003 in der Bundeshauptstadtunter der Leitung des Redaktionsbüros MyriamHönig eine Außenstelle. Frau Hönig kümmertsich um eine Intensivierung der Kontakte zu denZielgruppen der Union in Berlin aus Politik,Wissenschaft, Kultur und den Medien und hatdie Pressearbeit der Union übernommen. FrauHönig hat u.a. bereits mehrere Pressekonferen-zen organisiert und Pressemitteilungen verfaßt.Das Berliner Unionsbüro befindet sich im Wis-senschaftsforum, das direkt am Gendarmenmarktin der Stadtmitte gelegen ist. Sie erreichen unserBüro unter der Adresse: Union der deutschenAkademien der Wissenschaften, Büro Berlin,Markgrafenstr. 37, 10117 Berlin, Telefon/Fax:030 206 329-65/-67, Mail: [email protected]

Arbeitsgemeinschaft GesellschaftsberatungDie Union hat eine Arbeitsgemeinschaft Gesell-schaftsberatung/Zukunftsfragen gegründet, dieden Nationalökonomen Helmut Hesse, Universi-tät Göttingen, Vizepräsident der Mainzer Akade-mie, zu ihrem Vorsitzenden gewählt hat.Ziel der AG ist es, Zukunftsfragen der Gesell-schaft zu formulieren und die politisch Handeln-den sowie die Öffentlichkeit bei der Suche nachAntworten zu unterstützen.Die AG wird von sechs Akademien getragen undzählt derzeit zwölf Mitglieder aus dem geistes-und sozialwissenschaftlichen sowie aus dem na-turwissenschaftlich-medizinischen Bereich. Siesollen Themen identifizieren und wissenschaftli-che Fachexperten mit der Aufarbeitung einzelnerThemenaspekte beauftragen. Die Arbeitsgemein-schaft wird zunächst das Thema Beschleunigungdes Wirklichkeitswandels bearbeiten mit demZiel, dazu eine Denkschrift zu erarbeiten, diedem Präsidium der Union vorgelegt werden soll(analog der Berichte an den Club of Rome). Eineaus vier Personen bestehende Kernmannschafthat die zu bearbeitenden Einzelthemen festge-legt. Unter ihrer Leitung soll bis Anfang 2005 dieDenkschrift fertiggestellt sein.Mit der Gründung der AG Gesellschaftsbera-tung/Zukunftsfragen will sich die Union noch in-tensiver als bisher und auf breiterer Basis mitelementaren Zukunftsfragen der Gesellschaft be-fassen. Die Wissenschaftsakademien setzen da-mit den Sachverstand ihrer Mitglieder verstärktfür eine unabhängige wissenschaftliche Gesell-schaftsberatung ein.

Arbeitsausschuß Nationale AkademieDie Präsidenten der Unions-Akademien habenauf die Empfehlungen des Wissenschaftsrates,

eine Nationale Akademie der Wissenschaften zugründen, reagiert und am 20. Februar 2004 einenAusschuß eingesetzt. Ihm obliegt die Aufgabe,ein Modell auszuarbeiten, welches vor allem dievom Wissenschaftsrat formulierten Desiderateeiner effizienteren Außenvertretung der deut-schen Wissenschaft sowie der Gesellschaftsbera-tung berücksichtigen soll. Dem Ausschuß gehö-ren Unionspräsident Gerhard Gottschalk, Vize-präsident Helmut Sies und der Präsident der Hei-delberger Akademie, Peter Graf Kielmansegg,an. Das Präsidium der Union und die Leopoldinahaben dem vorgelegten Modell zugestimmt undden Präsidenten der Union beauftragt, damit andie in der Allianz zusammengeschlossenen For-schungsorganisationen heranzutreten.

Israelisch-Palästinensische Wissenschaftsorga-nisationDie Union unterstützt die kürzlich gegründeteIsraelisch-Palästinensische Wissenschaftsorgani-sation (Israeli-Palestinian Science Organisation)und wird sich künftig für IPSO einsetzen. Die bi-nationale, gemeinnützige und unpolitische Orga-nisation wurde mit dem Ziel gegründet, die wis-senschaftliche Zusammenarbeit zwischen Israe-lis und Palästinensern wiederzubeleben und fi-nanziell zu unterstützen. Ihren Sitz wird die Ein-richtung sowohl in West- als auch in Ost-Jerusa-lem haben.Die Akademienunion geht wie IPSO davon aus,daß die Gemeinschaft der Universitäten eineSchlüsselrolle für die soziale und ökonomischeEntwicklung im Nahen Osten darstellt. Ziel istes, ein Umfeld zu schaffen, in dem sich israeli-sche und palästinensische Wissenschaftler tref-fen und gemeinsame Forschungsprojekte undKonferenzen durchführen können. Zunächstplant IPSO, 30 Forschungsprojekte pro Jahr imUmfang von insgesamt 2,25 Mio $ zu finanzie-ren. Finanzielle Unterstützung zugesagt habenbislang die Rothschild Stiftung, die BronfmanPhilanthropen, der Präsident der Al-Quds-Uni-versität und die National Academy of Sciences,Washington, USA. Dort fand am 22. April 2004eine Sitzung zur weiteren Konkretisierung derArbeit von IPSO statt, bei der auch eine Studieüber israelisch-palästinensische Zusammenarbeitvorgestellt und diskutiert wurde. (Dr. DieterHerrmann, Telefon: 06131/21852812, Mail:[email protected])

Bücher für den IrakDie Union hat rund 500 Bücher für die währenddes Irakkrieges zerstörte Germanistische Fakul-tät der Universität Bagdad gespendet. Bei denBüchern im Wert von weit über 10.000 Eurohandelt es sich in erster Linie um Publikationen

70

Akademie-Journal 1/2004

zur Sprach- und Literaturwissenschaft. Dochauch Publikationen aus den akademischen For-schungsprojekten zur Altorientalistik gehen anden Fachbereich Archäologie in Bagdad. DieSpendenaktion erfolgte im Rahmen der vomAuswärtigen Amt ins Leben gerufenen Initiative„Bücher für den Irak“, deren Ziel darin besteht,eine dauerhafte und partnerschaftliche Zusam-menarbeit zwischen irakischen und deutschenBibliothekaren, Verlegern und Wissenschaftlernzu entwickeln. Die Sammlung der Union wurdeneben den Akademien auch unterstützt von derAlexander von Humboldt-Stiftung, dem Akade-mie-Verlag, dem Harrassowitz Verlag, dem In-stitut für Buchwissenschaft, Mainz und dem In-stitut für deutsche Sprache, Mannheim, das 100Bände seiner Forschungsberichte und Studienzur deutschen Sprache der Gegenwart gespendethat. Außerdem befinden sich unter den gespen-deten Büchern alle 98 Bände der „Mainzer Rei-he“, in der die Mainzer Akademie der Wissen-schaften und der Literatur u.a. biographischeFundstücke zu Schriftstellern wie Hans ErichNossack und Walter Hasenclever publiziert hat.Über die aktuelle Buchspendenaktion hinaus bie-tet die Akademienunion an, künftige irakischeBücherwünsche aus den Publikationen der Aka-demien durch kostenlose Abgabe aus den Be-ständen der Akademieverlage oder aus eigenenBeständen zu erfüllen. (Dr. Katharina Weisrock,Telefon: 06131-21852814, Mail: [email protected])

Akademienprogramm 2004/2005Am 17. 11.2003 hat die Bund-Länder-Kommis-sion für das Akademienprogramm 2004 ein Ge-samtvolumen von 42,9 Mio. Euro beschlossen.Zum 31.12.2003 wurden sechs Vorhaben desAkademienprogramms planmäßig bzw. vorzeitigabgeschlossen; folgende Neuvorhaben wurdenzum 1. Januar 2004 ins Akademienprogrammaufgenommen:– Edition literarischer Keilschrifttexte aus As-

sur (Heidelberger Akademie)– Preußen als Kulturstaat (BBAW)– Das Sächsisch-Magdeburgische Recht in Ost-

europa (Sächsische Akademie)– Biotische Struktur von Stauseen

(Sächsische Akademie).– Grundlagen, Normen und Kriterien der ethi-

schen Urteilsbildung in den Biowissenschaf-ten-Referenzzentrum (Nordrhein-Westfäli-sche Akademie)

Weiterhin wurden zum 1.1.2004 zwei Vorhabenaus der Förderung der DFG übernommen:– L' Europe des Humanistes (Heidelberger Aka-

demie)– Funde der älteren Bronzezeit (Akademie

Mainz).Die Union hat dem Ausschuß „Forschungsförde-rung“ am 18. Mai 2004 die Planungen für das

Akademienprogramm 2005 vorgelegt. Demnachsollen zum Jahresende 2004 vier Vorhaben plan-mäßig beendet werden und zwei bzw. drei Neu-vorhaben sowie ein Vorhaben aus der DFG-För-derung ins Akademienprogramm aufgenommenwerden. Für die laufenden Vorhaben wird einleichter Aufwuchs beantragt, um einen Teil derKostensteigerungen auffangen zu können. DerAusschuß „Forschungsförderung“ wird über denHaushalt des Akademienprogramms auf der Sep-tember-Sitzung erneut beraten und beschließen.

Zukunft und Perspektiven des Akademienpro-grammsDer Wissenschaftsrat hat am 1. Juni 2004 seineEmpfehlungen zu dem von der Union koordi-nierten Akademienprogramm veröffentlicht. Erplädiert für eine Beibehaltung und Fortführungdieses Programms, das für die geistes- und kul-turwissenschaftliche Grundlagenforschung “vonzentraler Bedeutung“ sei. Der Wissenschaftsratspricht sich ferner für eine Erweiterung des Pro-gramms in Richtung der sog. Kleinen Fächer inden Geistes-und Kulturwissenschaften und einerinterdisziplinär orientierten Wissenschaftsge-schichte aus. An die Zuwendungsgeber vonBund und Ländern gerichtet, weist das Gremiumauf die Notwendigkeit einer langfristig verläßli-chen Finanzierung des Programms hin.Im Gegenzug erwartet der Wissenschaftsratkünftig eine stärkere Öffnung des Programmsnach außen, eine noch intensivere Vernetzungmit der geisteswissenschaftlichen Universitäts-forschung, eine Optimierung der Evaluierungs-verfahren, eine Konzentrierung auf die Geistes-wissenschaften und eine nachhaltige Förderungdes wissenschaftlichen Nachwuchses.Die Union begrüßt die Empfehlungen des Wis-senschaftsrates, die es ermöglichen, das Akade-mienprogramm als eines der renommiertestenund ältesten geisteswissenschaftlichen For-schungsprogramme Deutschlands auf nunmehrverläßlicher Basis mit neuen Akzenten fortzu-führen. Sie hat bereits in den vergangenen beidenJahren Schritte in die jetzt vom Wissenschaftsratvorgegebene Richtung einer Weiterentwicklungdes Programms und einer Optimierung der Ver-fahren eingeleitet.

acatech – Konvent für Technikwissenschaften derUnion der deutschen Akademien der Wissen-schaften

acatech veranstaltet im Frühjahr turnusmäßig einArbeitssymposium. Nachdem 2003 das Leitthe-ma „Nachhaltiges Wachstum durch Innovation“im Mittelpunkt stand, widmete sich das diesjähri-ge Symposium der Innovationsfähigkeit, der Fra-ge nach den Voraussetzungen für Innovationen:Wie müssen beispielsweise Technikwissen-schaftler in Zukunft ausgebildet sein, damit die

71

Akademie-Journal 1/2004

Innovationsfähigkeit verbessert werden kann?Mit Referaten von führenden Vertretern aus Poli-tik, Wissenschaft und Wirtschaft, Vorträgen ausden acatech Arbeitskreisen zu den Themen Bil-dung, Forschung und Innovation sowie einer ab-schließenden Podiumsdiskussion wurde dieseFrage vor dem Hintergrund der Einführung vonBachelor- und Master-Abschlüssen im Zuge desBologna-Prozesses diskutiert.Alle Redner unterstrichen die Bedeutung derTechnikwissenschaften als Motor von Innovatio-nen und die zentrale Rolle einer erstklassigen In-genieurausbildung. Im Anschluß an die Einfüh-rung durch acatech Präsident Joachim Milbergerläuterten Bundesforschungsministerin Edel-gard Bulmahn und die thüringische Wissen-schaftsministerin Dagmar Schipanski die hieraufausgerichteten Maßnahmen der Politik auf Bun-des- und Landesebene. Berthold Leibinger(TRUMPF-Gruppe) skizzierte die Anforderun-gen der Wirtschaft an die Hochschulausbildungaus Sicht eines mittelständischen Unternehmens.Renate Köcher vom Institut für Demoskopie Al-lensbach stellte Untersuchungen vor, wonach dieDeutschen keineswegs generell innovations- undtechnikfeindlich eingestellt sind, jedoch wenigBewußtsein für die ökonomische Bedeutungtechnologischer Entwicklungen zeigen.Die Leiter der acatech Arbeitskreise Innovation,Ingenieurausbildung und Forschung, GünterSpur, Günter Pritschow und Reinhard Hüttl un-tersuchten detailliert die zentralen Faktoren inInnovationsprozessen, die Chancen, die derWandel zum Bachelor-/Master-System in sichbirgt und die notwendigen Veränderungen zurVerbesserung der Qualität der Hochschulfor-schung. Die abschließende Podiumsdiskussion,moderiert von Andreas Sentker (Die Zeit), brach-te noch einmal die unterschiedlichen Interessen-gruppen Wissenschaft, Wirtschaft und Politik zu-sammen. Der rheinland-pfälzische Wissen-schaftsminister Jürgen Zöllner, der Präsident derTU Darmstadt Dietrich Wörner, der Vorsitzendedes Fakultätentags für Maschinenbau und Ver-fahrenstechnik Wolfgang Marquardt und der Ge-schäftsführer von Bayer Innovation Fred RobertHeiker diskutierten vor allem Möglichkeiten derHochschulen, neu gewonnene Freiheiten zur Pro-filbildung und Qualitätsverbesserung zu nutzen.acatech wird ausgehend von dem erzielten Dis-kussionsstand in einem gemeinsamen Projekt mitdem Stifterverband für die deutsche Wissen-schaft, den bedeutendsten deutschen Techni-schen Hochschulen sowie dem Verband Deut-scher Maschinen- und Anlagenbau (VDMA)weiter an der Reform der ingenieurwissenschaft-lichen Ausbildung arbeiten.Mit der Veranstaltung setzte acatech sein Enga-gement für eine neue Innovationskultur inDeutschland fort. Seit seiner Gründung im Jahre

2002 bemüht sich der Konvent für Technikwis-senschaften um die Vermittlung des Zusammen-hangs von nachhaltigem Wachstum und techni-schen Innovationen. Folglich arbeitet acatechauch an der von der Bundesregierung ins Lebengerufenen Initiative „Partner für Innovation“ mit,in der Spitzenkräfte aus Wissenschaft und Wirt-schaft Konzepte zur Erschließung zentraler Zu-kunftsmärkte entwickeln. acatech Präsident Joa-chim Milberg hat die Leitung des koordinieren-den Lenkungskreises übernommen, weitere Mit-glieder von acatech arbeiten in den verschiede-nen Impulskreisen zu Sachthemen wie „Wissens-träger Mensch“, „Mobilität & Logistik“ oder„Energie“ mit.Auch die von acatech am 18. April auf der Han-nover Messe ausgerichtete Podiumsdiskussionwidmete sich dem Thema Innovation. Utz-Hell-muth Felcht (Degussa), Ekkehard Schulz (Thys-senKrupp), Ernst-Ludwig Winnacker (DFG) undJoachim Milberg diskutierten dort „Die Rolle zu-kunftsweisender Technologien für die Gesell-schaft“. Die von Gero von Randow (Die Zeit)moderierte Veranstaltung mit rund 100 gelade-nen Gästen aus Wissenschaft und Wirtschaft bil-dete den Auftakt zur offiziellen Eröffnung derMesse.acatech ist durch die Zuwahlen auf der Mitglie-derversammlung am 10. Mai 2004 auf nunmehr201 Mitglieder angewachsen. Vor dem Hinter-grund der ebenso erfolgten Zunahme der inhaltli-chen Arbeit und dem gestiegenen öffentlichenInteresse wird im Rahmen eines internen Pro-jekts derzeit an der Weiterentwicklung der inter-nen Strukturen acatechs gearbeitet. Ziel ist derAufbau einer effizienten Organisationsstruktursowie eine verstärkte Einbindung und Aktivie-rung der Mitglieder. Dabei wird acatech von derUnternehmensberatung McKinsey & Co. unter-stützt, die das Projekt pro bono begleitet.Auch die internationale Vernetzung von acatechschreitet voran. So wurde acatech VizepräsidentFranz Pischinger zum Vice President der euro-päischen Vereinigung technikwissenschaftlicherAkademien, Euro-CASE, gewählt. Die Aufnah-me acatechs in die weltweite Organisation tech-nikwissenschaftlicher Akademien, CAETS, wirddurch Reiner Kopp vorangetrieben.Die bisherigen Aktivitäten von acatech sind indem neu erschienen und ansprechend gestaltetenJahresbericht 2002/03 dokumentiert, der unterwww.acatech.de auch heruntergeladen werdenkann.Als weitere turnusmäßige Veranstaltung führtacatech im Herbst seine Festveranstaltung imKonzerthaus am Gendarmenmarkt in Berlin,diesmal am 27. Oktober 2004, durch. Wie im let-zen Jahr werden neben dem Bundeskanzler mehrals 500 hochrangige Persönlichkeiten aus Wis-senschaft, Wirtschaft und Politik erwartet.

72

Akademie-Journal 1/2004

Neuer Koordinator für die internationalenBeziehungen gewähltAuf seiner Sitzung am 5.12. 2003 hat das Präsi-dium der Union Herrn Prof. Dr. Dr. h.c. HelmutSies, Vizepräsident der Union und Präsident derNordrhein-Westfälischen Akademie der Wissen-schaften, zum Nachfolger von Herrn Prof. Dr.Heinrich Nöth, Präsident der Bayerischen Aka-demie der Wissenschaften, als neuen Koordina-tor gewählt.

XV. Amaldi-KonferenzVom 25.-27. September 2003 fand in Helsinkidie XV. Internationale Amaldi-Konferenz derAkademien der Wissenschaften und der Nationa-len Wissenschaftlichen Gesellschaften über wis-senschaftliche Probleme der Globalen Sicherheitstatt. Gastgeber waren die beiden finnischenAkademien der Wissenschaften. Wissenschaftlerund Wissenschaftlerinnen aus sechzehn Natio-nen nahmen daran teil, darunter sechs aus derBundesrepublik Deutschland, die auf Vorschlagder Union eingeladen worden waren. Auf der Ta-gesordnung standen aktuelle Fragen in den Be-reichen der nuklearen Rüstungskontrolle, dermodernen Kriegführung mit Präzisionswaffenund fortgeschrittener Informationstechnologie,der Chemiewaffenkontrolle und der Kriegfüh-rung mit leichten Waffen in Entwicklungslän-dern sowie völkerrechtliche Fragen im Zusam-menhang mit der Rolle internationaler Organisa-tionen (Vereinte Nationen, NATO, EU) bei be-waffneten Konflikten.Die Tagung wurde allgemein als sehr erfolgreichangesehen. Die Universität Helsinki und der Ge-neralstabschef der finnischen Streitkräfte gabenden Teilnehmern Empfänge. Die deutschen Teil-nehmer/innen konnten als Vortragende und alsVorsitzende von zwei der sechs Sitzungen wert-volle Beiträge leisten. Ein ausführlicher Konfe-renzbericht wird von den finnischen Gastgebernvorbereitet. Interessierte Stellen in der Bundesre-gierung und im Bundestag wurden von den deut-schen Teilnehmern über die Ergebnisse unter-richtet.(Prof. Dr. Klaus Gottstein, Delegierter der Unionfür die Amaldi-Konferenzen)

78. Jahressitzung der Union Académique Interna-tionale in BarcelonaVom 26. bis 31. Mai 2004 fand am Sitz des Insti-tuts für Katalanische Studien in Barcelona die78. Jahressitzung der UAI statt. Die Versamm-lung stand unter der Leitung des PräsidentenShaul Shaked, Jerusalem. Die Union war durchihre beiden Delegierten Ulrich Mölk (Göttingen)und Ernst Vogt (München) vertreten. Ulrich Mölkwar Mitglied der Kommission für Innere Angele-genheiten und referierte über das Projekt ’Corpusdes Troubadours’, Ernst Vogt wirkte in der Fi-nanzkommission sowie in der Kommission für

das neue Projekt ’Encyclopaedia of Indian Poe-tics’ mit und gab den Bericht über das Projekt’Katalogisierung der Orientalischen Handschrif-ten’.Die Arbeitsberichte aller deutschen Unterneh-mungen (Corpus Vasorum Antiquorum, Mün-chen; Mittellateinisches Wörterbuch, München;Averroes Latinus, Düsseldorf; Corpus VitrearumMedii Aevi, Mainz und Berlin; Thesaurus Cultuset Rituum Antiquorum, Heidelberg; Sanskrit-Wörterbuch der buddhistischen Texte aus denTurfan Funden, Göttingen; Katalogisierung derOrientalischen Handschriften in Deutschland,Göttingen) fanden die Anerkennung des Ple-nums. Auch das weiterhin in Kopenhagen erar-beitete Pali-Wörterbuch, das allerdings mit fi-nanziellen Schwierigkeiten zu kämpfen hat, wirdgegenwärtig von deutscher Seite (Mainz) betreut.Gewählt wurden: zum neuen Präsidenten derUAI Agostino Paravicini-Bagliani (Schweiz),zum neuen Vizepräsidenten (neben dem weiteramtierenden César A. Garcia Belsunce, Argenti-nien) Pasquale Smiraglia (Italien), zu weiterenMitgliedern des Bureaus (neben den weiter am-tierenden Mitgliedern Dias Farinha, Mundó iMarcet und Pawlikova-Vilhanova) Driss Khalil(Marokko), Richard Larivière (USA) und MiklósMaróth (Ungarn). Die nächste Jahressitzung derUAI soll vom 23. bis 28. Mai 2005 in Ankarastattfinden. (Ernst Vogt)

ALLEA (All European Academies)General Assembly 2004 in BrüsselDie alle zwei Jahre tagende Generalversamm-lung des europäischen AkademienverbundesALLEA – näher dazu unter www.allea.org – kamnach München 1998, Prag 2000 und Rom 2002nun vom 24. bis 26. März 2004 im Brüsseler Pa-lais des Académies zusammen, dem gemeinsa-men Sitz der gastgebenden Royal Flemish Aca-demy of Belgium for Science and the Arts sowieRoyal Academy of Sciences, Letters and Arts ofBelgium.Die Sitzungen waren unter die folgenden vierLeitthemen gestellt: „Intellectual PropertyRights“, „Science and the Media“, „Science andHumanities, Different Worlds?“, „Scientific Lin-gua Franca and National Languages“. Hervorge-gangen sind die durch Referate bestrittenen Ver-handlungen aus den Ständigen Ausschüssen undArbeitsgruppen, die ALLEA unterhält, um deninterakademischen europäischen Austausch zufördern und um aktuelle, auch praktische Fragenin einer weiten Spanne von der Wissenschafts-ethik bis zur Repräsentation von Wissenschaft inden Medien aus gesamteuropäischer Sicht anzu-gehen. In der Geschäftssitzung wurde beschlos-sen, ein neues Standing Committee zu „Scienceand Information Technology“ zu bilden.Während der Generalversammlung trafen inBrüssel zufälligerweise auch die Staats- und Re-

73

Akademie-Journal 1/2004

gierungschefs der EU zusammen – fünf Wochenvor deren Erweiterung von 15 auf 25 Staaten.Die Grenzen von ALLEA waren schon bisher –sei es bis Rußland, sei es bis Israel – weiter ge-steckt als die der EU. In Brüssel erweiterte sichder Zusammenschluß nun um die Akademien imKosovo, in Montenegro und Serbien sowie umdie Leopoldina. Damit ist Deutschland außerdurch die Unions-Akademien doppelt vertreten;der Vorsatz, jedes Land nur einmal repräsentiertzu sehen, wurde schon bisher wegen der in denmeisten Ländern vorherrschenden Fächergrup-penakademien nicht rigoros befolgt und er-scheint zudem durch die andere Mitgliederstruk-turierung der Leopoldina angezeigt.ALLEA wird gegenwärtig von Pieter J. D.Drenth geleitet, dem vormaligen Präsidenten derKöniglichen Niederländischen Akademie derWissenschaften (in Amsterdam befindet sichderzeit auch die Geschäftsstelle von ALLEA). Erkonnte der Versammlung eine imposante Listeseines rastlosen Einsatzes für den europäischenAkademienverbund vorlegen; neben den Fragender Beförderung von Wissenschaft und For-schung gehört dazu auch die Beratung der Politikin allen einschlägigen Fragen. Im Leitungsgremi-um, dem Steering Committee von ALLEA, gabes einen trurnusmäßigen Wechsel, es schiedenFinnland, Rumänien und Spanien zugunsten vonEstland, Italien und der Türkei aus (die Union istim Steering Committee durch Heinrich Nöth ver-treten). In das Gremium aufgenommen wurdeaußerdem die Polish Academy of Arts andSciences in Krakau, wo 2006 die nächste Gene-ralversammlung stattfinden wird.

(Albrecht Riethmüller)

Geisteswissenschaft im DialogIm Jahr der Chemie 2003 widmete sich die Reihespannenden Fragen der Menschheitsgeschichte,die durch den Beitrag neuester naturwissen-schaftlicher Methoden in der Archäologie beant-wortet werden. Am Beispiel zweier Sensations-funde, der Gletschermumie in den Ötztaler Alpen(Blütenpollen im Gletschereis – Wie lebte undstarb „Ötzi“ in der Steinzeit?, 2. Oktober 2003)und der bronzezeitlichen Himmelsscheibe(Sternstunde der Ureuropäer – Die Himmels-scheibe von Nebra, 11. Dezember 2003), disku-tierten Natur- und Geisteswissenschaftler ihreForschungsergebnisse mit dem Publikum. Stell-vertretend für den Schirmherrn der Reihe, Staats-sekretär im BMBF Wolf-Michael Catenhusennahm MinDir Reinhard Junker die Oktoberver-anstaltung zum Anlaß, auf „zehn Jahre fruchtba-re und angeregte Diskussion“ zurückzublicken.Das BMBF-geförderte Veranstaltungsprojektwird seit 1993 von der Union, seit 2001 gemein-sam mit der Leibniz-Gemeinschaft, durchge-führt. Das gesteckte Ziel, so hielt Reinhard Jun-ker als Zwischenergebnis fest, ein aktuelles Dis-

kussionsforum für Fragen aus Wissenschaft,Kultur und Gesellschaft einzurichten, sei er-reicht. Entstanden sei ein permanenter Dialogzwischen Vertretern der Geisteswissenschaftenund der Naturwissenschaften. Ein stets interes-siertes, fragendes und mitdiskutierendes Publi-kum bestätige den öffentlichen Diskussionsbe-darf gesellschaftsrelevanter Fragestellungen ineinem interdisziplinären Dialog zwischen Wis-senschaft und Gesellschaft.

Als Auftakt zum Jahr der Technik 2004 luden dieUnion und die Leibniz-Gemeinschaft am 12. Fe-bruar ein zu einem Diskussionsabend über dieChancen und Risiken, die sich mit dem Einsatzneuester Technologien verbinden. Auf dem Ge-biet der Nanowissenschaften beginnt der Traumder Naturwissenschaften, Materie auf molekularerund atomarer Skala untersuchen und gezielt ver-ändern zu können, Realität zu werden. Damit er-öffnen sich ungeahnte neue technologische Mög-lichkeiten in nahezu allen Technologiebereicheneinschließlich der Medizin und der Umwelttech-nik. Oberflächenveredelung, intelligente nanoska-lige Materialien, schnellere Elektronik, Optik,Sensoren und Nanomotoren sind Beispiele diesesinterdisziplinären Gebietes. Noch steckt die Na-notechnologie in den Kinderschuhen, erste Ergeb-nisse und Anwendungen lassen jedoch ein enor-mes Potential erwarten. Führende Nanotechnolo-gen und ein Philosoph stellten die wissenschaftli-chen und gesellschaftlichen Aspekte der Nano-technologie vor. Ralf Wehrspohn (Institut für Phy-sik, Nanophotonische Materialien, Paderborn),fragte: „Ist die Zukunft nano?“. Über die „Nano-technologie – Chance oder Risiko?“ diskutiertenHarald Fuchs (Physikalisches Institut, Centrumfür Nanotechnologie, Münster) und HelmutSchmidt (Leibniz-Institut für Neue Materialen,Nanokompetenzzentrum „chemische Nanotech-nologien“, Saarbrücken): „Chancen nutzen – Risi-ken vermeiden: Nanowerkstoffe für Oberflächen-technik und Life Science“. Über die Notwendig-keit der Risikominimierung und neuer Wertekrite-rien sprach Hans Poser (Institut für Philosophie,Wissenschaftstheorie, Wissenschafts- und Tech-nikgeschichte, TU Berlin): „Tand, Tand ist dasGebilde von Menschenhand?“. Heinz Duddeck(acatech, BBAW) führte in den Abend ein.

Die Reihe wird im Jahr der Technik mit zweiAbenden im Kunstmuseum Bonn fortgesetzt:

14. Oktober 2004, 19.00 hZukunft der Mobilität –Welche Technik bewegt uns morgen?u.a. mit: Weert Canzler (WissenschaftszentrumBerlin für Sozialforschung), Klaus Kornwachs(Institut für Technikphilosophie, TU Cottbus),Reinhart Kühne (DLR in der Helmholtz-Gemein-schaft, Institut für Verkehrsforschung, Berlin)

74

Akademie-Journal 1/2004

9. Dezember 2004, 19.00 hSurfen statt Büffeln? – Netzbasierte Wissensme-dien in der Schule von morgenu.a. mit: Jose Luis Encarnacao (Fraunhofer-Insti-tut für Graphische Datenverarbeitung, Darm-stadt), Friedrich W. Hesse (Institut für Wissens-medien, Tübingen), Eckhard Klieme (DeutschesInstitut für Internationale Pädagogische For-schung, Frankfurt am Main)Infos und Anmeldung: www.gidialog.de

Wissenschaftssommer im Jahr der Chemie, Mainzund im Jahr der Technik, StuttgartAls Beitrag zum Jahr der Chemie 2003 hatten dieUnion und die Leibniz-Gemeinschaft gemeinsammit lokalen Partnern ein Symposion für archäo-logisch Interessierte im Wissenschaftssommer inMainz ausgerichtet, das mit weit über 500 Teil-nehmern regen Zuspruch fand. Das Symposionzeigte die komplexen Zusammenhänge und dieinterdisziplinäre Zusammenarbeit von Natur-und Geisteswissenschaften auf dem weiten For-schungsgebiet der Archäologie. Experten der Ar-chäometrie informierten darüber, wie kulturhi-

storische Fragen der Menschheitsgeschichte mitHilfe natur- und ingenieurwissenschaftlicherMethoden beantwortet werden können. Beglei-tend zum Symposion präsentierten sich auch dreiAkademieprojekte mit Postern und Exponaten.(Kurzstatements: www.gidialog.de)

Wie bereits im Wissenschaftssommer Bremen2002 werden die Union und die Leibniz-Gemein-schaft im Wissenschaftssommer 2004 in Stutt-gart Themen der Reihe Geisteswissenschaft imDialog aufgreifen und zwei Technikdialoge imForum der Landesbank Baden-Württemberg aus-richten:

28. September, 19.30 UhrWird die Zukunft nano?u.a. mit den Referenten der Veranstaltung vom12. Februar 2004 in Bonn

29. September, 19.30 hWelche Technik bewegt uns morgen?u.a. mit den Referenten der Veranstaltung vom14. Oktober in Bonn

Nachrichten aus den Akademien

Bayerische Akademie derWissenschaften

Neues Mitglied des VorstandesDie Mathematisch-naturwissenschaftliche Klassehat den Ingenieur Gottfried Sachs zu ihrem 2. Se-kretar gewählt. Der Ordinarius für Flugmechanikund Flugregelung an der TU München ist somitMitglied des Vorstandes der Akademie. Er löst indieser Funktion Hubert Ziegler, em. o. Professorfür Botanik an der TU München, ab, der diesesAmt elf Jahre ausgefüllt und nun aus persönlichenGründen niedergelegt hat.Der Vorstand der BAdW besteht aus dem Präsi-denten, seinem Vorgänger im Amt und je zweigewählten Vertretern (Sekretaren) der Philoso-phisch-historischen und der Mathematisch-natur-wissenschaftlichen Klasse.

Erhöhte UV-Strahlung – die Folgen für Menschund UmweltDie Kommission für Ökologie organisierte imFebruar das Rundgespräch zum Thema „ErhöhteUV-Strahlung: Folgen und Maßnahmen“. Prä-sentiert wurden die Ergebnisse von BayForUV,

einem Netzwerk von bayernweit dreizehn Ar-beitsgruppen an Universitätsinstituten und freienForschungseinrichtungen. Dieser Forschungsver-bund untersuchte seit 1999 die Auswirkungenvon ultravioletter Strahlung auf den Menschenund seine Umwelt. Als Grundlage für die Wir-kungsforschung erfaßten Meteorologen und At-mosphärenforscher die derzeitige UV-Strah-lungsintensität in Bayern und prognostiziertenihre künftige Entwicklung. In Fachgruppen vonMedizinern, Biologen und Chemikern wurdendie möglichen Folgen von erhöhter UV-Strah-lung untersucht, wie z.B. Hautkrebs beim Men-schen, Schädigung von Agrarprodukten oderEntstehung und Abbau bodennaher Luftschad-stoffe. Der Tagungsband erschien im Pfeil-Ver-lag, München.

BAdW Forum TechnologieDie BAdW hat einen Ausschuß für Ingenieur-und Angewandte Naturwissenschaften gegrün-det: Das BAdW Forum Technologie dient alsSchnittstelle von Wissenschaft und Öffentlich-keit der stärkeren Vernetzung von universitärerund außeruniversitärer Forschung, und stellt Fak-

75

Akademie-Journal 1/2004

tenwissen für Politik und Gesellschaft bereit.Mit der Gründung dieser fachübergreifenden Ar-beitsgruppe verfolgt die BAdW drei Ziele:

1. Der Kontakt zu acatech – Konvent für Tech-nikwissenschaften der Union der deutschenAkademien der Wissenschaften, dessen Basisin der Bayerischen Akademie dieser Aus-schuß bildet, wird gefestigt. Auf diese Weisekönnen die Belange der BAdW in den Kon-vent hineingetragen und die Aktivitäten so-wie die Ergebnisse des Konvents für dieBAdW nutzbar gemacht werden.Auch zu den Klassen für Technik- oder Inge-nieurwissenschaften anderer Akademien wiesie in Deutschland zur Zeit an der Berlin-Brandenburgischen, der Nordrhein-Westfäli-schen und der Sächsischen Akademie beste-hen, wird der Kontakt intensiviert.

2. Der Ausschuß dient im Bereich der Ingeni-eurwissenschaften und der Angewandten Na-turwissenschaften als Bindeglied der BAdWzu den Behörden einschließlich der Ministe-rien, den Gymnasien, der Industrie sowie zuden Universitäten und Hochschulen. Hierzugehört auch die fachliche Beratung oder dieVermittlung einer fachlichen Beratung. DerAusschuß bietet seine Mitwirkung bei derLösung einschlägiger übergreifender Aufga-ben oder Probleme an.

3. Das BAdW Forum Technologie ist Ort desAustausches: Wissenschaft und Öffentlich-keit kommen zusammen bei öffentlichen In-formations- und Diskussionsveranstaltungenüber Themen von gleichermaßen wissen-schaftlichem wie allgemeinem Interesse.

Die erste Veranstaltung des BAdW-Forum Tech-nologie fand am 29. April 2004 statt. Das ge-meinsam mit dem Lehrstuhl für Nachrichten-technik der TU München und acatech organisier-te Symposium „Mobilfunk: Fakten, Nutzen,Ängste“ zog mehr als 300 Interessierte aus ganzBayern an, u.a. auch einige Schulklassen. Dielebhafte Podiumsdiskussion wurde von demWissenschaftsjournalisten Christopher Schrader,Süddeutsche Zeitung, moderiert. Das Publikumstellte viele Fragen an die anwesenden Mobil-funk-Spezialisten auf dem Podium, das nebenden Wissenschaftlern, die vorher kurze Einfüh-rungsvorträge gehalten hatten, auch mit Vertre-tern von NGOs, wie dem Bund Naturschutz, undBehörden, wie dem Bundesamt für Strahlen-schutz, besetzt war.

Neubau Leibniz-Rechenzentrum in GarchingDer Bayerische Staatsminister für Wissenschaft,Forschung und Kunst, Dr. Thomas Goppel, legteam 26. März 2004 den Grundstein für den Neu-bau des Leibniz-Rechenzentrums der BAdW(LRZ) auf dem Forschungscampus in Garching

(bei München). Fertiggestellt wird das Gebäude2005/2006. Die Kosten von ca. 42 Mio. Euro tra-gen je zur Hälfte der Bund und der FreistaatBayern.Der neue „Super-Computer“ wird 15- bis 20-malleistungsfähiger als der derzeitige Höchstlei-stungsrechner des LRZ sein und weltweit wahr-scheinlich zu den zehn leistungsstärksten Rech-nern gehören. Höchstleistungsrechner sind einentscheidender Standortfaktor im internationalenWettbewerb. Die Kosten für den neuen Höchst-leistungsrechner von ca. 38 Mio. EUR werdenvom Bund und vom Freistaat Bayern getragen.

Konservierung einer Tapisserie aus dem16. JahrhundertDer Wandteppich „Herkules besiegt die Lernäi-sche Hydra“ ist mit Unterstützung der Messer-schmitt-Stiftung konserviert worden. Die Rück-kehr dieses Prunkstücks aus dem 16. Jh. in ihreRäume beging die BAdW am 10. Mai 2004 miteiner kleinen Feier. Die kostbare Tapisserie wur-de nach einer Vorlage von Frans Floris in derManufaktur von Michiel de Bos in Antwerpengewirkt und gehört zu der sog. „Herkules-Fol-ge“, die Herzog Albrecht V. für die Ausstattungdes Festsaales im Dachauer Schloß um 1565 inAuftrag gab. Weitere Teppiche der „Herkules-Folge“ waren bis 1992 im Herkulessaal derMünchner Residenz zu sehen. Sie mußten auf-grund ihres schlechten Erhaltungszustandesdurch Reproduktionen ersetzt werden. Nach derKonservierung ist die Tapisserie „Herkules be-siegt die Lernäische Hydra“ die letzte aus der„Herkules-Folge“, die derzeit öffentlich zugäng-lich ist.

Berlin-Brandenburgische Akademie derWissenschaften

Wissenschaftliche Politikberatung –neue Arbeitsgruppe der AkademieDie Frage nach einer verantwortlichen Praxiswissenschaftlicher Politikberatung in der Bun-desrepublik Deutschland bildete einen zentralenPunkt im Verhältnis von Wissenschaft und Poli-tik in den letzten Jahrzehnten. Der Vertrauens-schwund in eine politisierte Politikberatung, beider die wissenschaftliche Expertise von Parteienund Interessengruppen direkt aus dem politi-schen Prozess heraus rekrutiert wird, macht dasFehlen klarer Regeln, gesetzlicher Grundlagenund Strukturen institutionalisierter Beratungdurch die Wissenschaft besonders deutlich. Ähn-liche Probleme lassen sich im Hinblick auf dieQualitätssicherung und Rechenschaftslegungwissenschaftlicher Beratung und ihre Wirkungauf politische Entscheidungsprozesse beschrei-ben. Vor dem Hintergrund dieser Probleme hatsich die im Februar 2004 unter der Federführungvon Peter Weingart eingerichtete AG der Erfor-

76

Akademie-Journal 1/2004

schung der Prozesse wissenschaftlicher Experti-sen sowie die Erstellung eines Leitfadens mitKriterien „guter Politikberatung“ zum Ziel ge-setzt.

Wissen für Entscheidungsprozesse –Forschung zum Verhältnis von Wissenschaft,Politik und GesellschaftAn die Wissenschaft wird zunehmend die Anfor-derung gestellt, politik- und handlungsrelevantesWissen bereitzustellen. Gleichzeitig wird in derÖffentlichkeit ein Rückgang an Vertrauen in dieWissenschaft beklagt und die Forderung nach ri-sikosensibler sowie problem- und nutzenorien-tierter Forschung erhoben.Die Förderinitiative des BMBF „Wissen für Ent-scheidungsprozesse“ hat zum Ziel, durch die Un-terstützung entsprechender Forschungsvorhaben,die vielfältigen Wechselwirkungen zwischen Po-litik, Wissenschaft und Gesellschaft zu untersu-chen. Durch die Forschungsprojekte soll nichtnur die (sozial-)wissenschaftliche Beratungs-kompetenz für forschungspolitische Entschei-dungen gestärkt, sondern auch Strategien zur Er-höhung der Leistungsfähigkeit und Glaubwür-digkeit der Wissenschaft sowie Instrumente undKriterien zur Qualitätssicherung wissenschaftli-cher Expertise erarbeitet werden. Des weiterensollen bereits existierende internationale Modelleder Forschungssteuerung (governance ofscience) untersucht und für die nationale Wissen-schaftspolitik nutzbar gemacht werden. WeitereZiele sind die Anregung eines Diskurses inner-halb der Wissenschaft über Voraussetzungen undFormen der Wissensproduktion, sowie die Ver-besserung der Kommunikation zwischen Wis-senschaft und Öffentlichkeit.Die an der BBAW angesiedelte Steuerungsgrup-pe und die ihr zugeordnete Geschäftsstelle habendie Einzelprojekte wissenschaftlich zu begleiten,zu koordinieren und in regelmäßigen Abständengemeinsame Workshops und Diskussionsforenzu einschlägigen Themen zu veranstalten. Einwesentliches Ziel dabei ist es, die Wissenschafts-forschung in Deutschland zu stärken und dieKommunikation zwischen Wissenschaft und Öf-fentlichkeit zu unterstützen.

Politik, Wissenschaft und Gesellschaft –Science Policy StudiesDas BMBF hatte im Herbst 2001 eine Förderin-itiative „Politik, Wissenschaft und Gesellschaft“initiiert, deren Ziel es war, der Wissenschaftsfor-schung in Deutschland neue Impulse zu geben.Mit der Initiative war die Absicht verbunden,thematische Schwerpunktbildungen in der Wis-senschaftsforschung zu fördern. Die wissen-schaftlich-inhaltliche Betreuung und Moderationder BMBF-Förderinitiative lag in den Händen ei-ner kleinen Geschäftsstelle an der BBAW, dievon Rainer Hohlfeld geleitet wurde. Das Vorha-

ben wurde im September 2003 abgeschlossen.Das neue Vorhaben „Wissen für Entscheidungs-prozesse – Forschung zum Verhältnis von Wis-senschaft, Politik und Gesellschaft“ baut auf des-sen Ergebnissen auf.

AG Not- und Hilfsbüchlein für Optionen einerzukunftsorientierten Nutzung ländlicher RäumeIm Jahr 1788 gab die Königlich Preußische Sozie-tät ein „Noth- und Hilfsbüchlein für Bauersleute“heraus, das auf vielfältige nationale und internatio-nale Einsendungen im Rahmen einer von der Aka-demie gestellten Preisaufgabe zurückging.An die Intentionen dieser Preisaufgabe will die2004 eingerichtete interdisziplinäre AG anschlie-ßen. Sie eröffnet Vertretern der Technik-, Natur-,Wirtschafts-, Rechts- und Sozialwissenschaftendie Möglichkeit, fachübergreifend Vorschläge zuerarbeiten, welche Optionen uns für eine zukünf-tig tragfähige Nutzung peripherer Räume offen-stehen. Anhand einer Situationsdiagnose derNutzung ländlicher Räume im NordostdeutschenTiefland und ihrer Einbindung in die Stadt-Um-land-Verflechtung Berlin-Brandenburg sowiemit Blick auf andere Länder sollen Handlungs-notwendigkeiten und -möglichkeiten sowie Kri-terien einer „dauerhaft-umweltgerechten und zu-kunftsfähigen Landnutzung“ (best practice) mitkonkreten Vorschlägen für Institutionen und Ak-teure entwickelt werden.

Preußen als KulturstaatSeit Januar 2004 widmet sich die BBAW imRahmen des Neuvorhabens „Preußen als Kultur-staat“ dem vieldeutigen Bild Preußens in der Ge-schichte. Die Spannweite der Interpretationenreicht dabei vom militärisch organisierten Obrig-keitsstaat über den toleranten Aufklärungsstaatbis hin zum multi-ethnischen Integrationsstaat.Das Neuvorhaben wendet sich mit der Fokussie-rung auf die Kulturstaatsproblematik einem wis-senschaftlich noch nicht ausgeleuchteten unddennoch zentralen Aspekt der preußischen Ge-schichte zu. Ganz allgemein gesehen geht es umdas Verhältnis von Staatsbildung, Kultur und Ge-sellschaft. Das Vorhaben wird in einer Kombina-tion von editorischer Arbeit und monographi-scher Forschung ausgewählte Themen preußi-scher Kultur-, Religions-, Mentalitäts-, Wissen-schafts- und Geschichtspolitik bearbeiten. Es istmodulartig aufgebaut und bedient sich der fürdas Thema einzigartig in Berlin-Brandenburg ge-gebenen Archivlandschaft.

AG Gesundheitsstandards/Health StandardsDie AG „Gesundheitsstandards“, 1999 initiiert,beendete ihre Tätigkeit im Dezember 2003. IhreArbeitsergebnisse erscheinen Mitte 2004: „Ge-sundheit nach Maß – Eine transdisziplinäre Stu-die zu den Grundlagen eines dauerhaften Ge-sundheitssystems?“

77

Akademie-Journal 1/2004

Die AG hat die Formen und Wirkungen von Ge-sundheits- bzw. Krankheitsstandards interdiszi-plinär untersucht, von elementaren begrifflichenExplikationen über die Analyse des konventio-nellen Charakters von Krankheitsverständnissenbis zu Empfehlungen für Lösungswege ange-sichts gesundheitspolitischer Kontroversen. ImWS 2003 hat die AG ihre Ergebnisse im Rahmender Akademievorlesung und in einer von Infora-dio RBB, Alfred Eichhorn, moderierten Podi-umsdiskussion, an der neben den Arbeitsgrup-penmitgliedern Axel Börsch-Supan, Carl Fried-rich Gethmann und Hanfried Helmchen der Vor-sitzende der Kassenärztlichen Bundesvereini-gung und der Kassenärztlichen Vereinigung Ber-lin, Dr. med. Manfred Richter-Reichhelm sowieder Staatssekretär im Bundesministerium für Ge-sundheit und Soziale Sicherung, Dr. Klaus TheoSchröder teilgenommen haben, vorgestellt.

Berliner-KlassikDie interdisziplinäre Arbeitsgruppe BerlinerKlassik versuchte, die kulturelle Blütezeit Ber-lins zwischen 1786 und 1815 als genuine Alter-native zu Weimar-Jena und als erste und bedeu-tendste deutsche Großstadtkultur zu rekonstruie-ren. Zur Eigenart der Berliner Epoche gehört ei-nerseits die bekannte Vielzahl großer Persönlich-keiten aus Literatur, bildender Kunst, Musik,Philosophie, Wissenschaft und Politik, anderer-seits ein proto-demokratisches Intellektuellenmi-lieu und eine kaum erforschte institutionelle undkommunikative Vernetzung verschiedenster Gei-stesrichtungen in einer zweisprachigen und poly-ethnischen Stadt. Im Vordergrund des Interessesstanden deshalb zunächst die urbanen Lebensfor-men, Traditionen, Symbiosen und Kontroversen,aus denen die großen Werke einer synchronenAufklärungs-Klassik-Romantik-Kultur hervor-treten. Das Projekt Berliner Klassik wird seit2004 als „Akademienvorhaben“ fortgeführt.

GEGENWORTEIm Dezember 2003 erschien Heft 12 Der Mythosund die Wissenschaft – Eine dialektische Affäre.Im Zentrum stehen Mißverständnisse, Umbautenund die ungeklärten Haß- und Liebesbeziehun-gen zwischen Mythos und Wissenschaft, Glaubeund Vernunft, Mathematik und Eleganz. MitBeiträgen von u.a Martin Aigner, PeterDeuflhard, Hans Magnus Enzensberger, Han-fried Helmchen, Nikolaus Lohse, ChristophMarkschies, Dunja Melèiæ, Olaf B. Rader, Hans-Jörg Rheinberger, Alexander Schuller, GünterSpur, Jürgen Trabant, Fernando Vidal und UweWesel.Im Juni erschien das 13. Heft. Ausgehend vonGentechnik, Ethik und aktuellen Definitions-streits über ’das Leben’ haben wir Wissenschaft-ler und Praktiker unterschiedlicher Provenienznach ihrem Umgang mit Komplexität gefragt.

Mit Beiträgen von u.a. Hartmut Böhme, MartinKnechtges, Martin Korte, Martin Lindner, UlrichSchollwöck.Die Themen der nächsten Hefte sind: 'Wissen-schaftler-Biographien – Karrieren und Margina-lisierungen' (Herbst 2004) und ’Modell Einstein’anläßlich des Einstein-Jahres 2005.

Tagung „Die Welt als Bild“Weltbilder sind zentral für Weltwahrnehmungund damit für die Lebens- und Handlungsorien-tierung von Menschen. Dies wird sowohl an derSchärfe deutlich, mit der Auseinandersetzungenum Weltbilder geführt werden, als auch an derBedeutung, die implizite Weltbildannahmen fürnatur- und geisteswissenschaftliche Forschunghaben, selbst wenn dies gar nicht explizit ge-macht wird. Im Rahmen der von ChristophMarkschies federführend initiierten Veranstal-tung wurde vom 6. – 8. Februar 2004 der beste-hende enge Zusammenhang zwischen „Weltbil-dern“ und wissenschaftstheoretischen Fragen be-handelt.

Zukunftsmodell NationalakademieSeit mehr als einem Jahrzehnt diskutiert dasdeutsche Wissenschaftssystem über Notwendig-keit und Nützlichkeit einer deutschen National-akademie. Ende Januar 2004 hat nun der Wissen-schaftsrat eine Empfehlung zur Errichtung einerNationalen Akademie in Deutschland verab-schiedet. Am 25. Februar veranstaltete dieBBAW eine Podiumsdiskussion, um die Mög-lichkeiten der Umsetzung dieser Empfehlung zudiskutieren und lud dazu ins Atrium der Deut-schen Bank. Auf dem Podium: Wolf-Michael Ca-tenhusen, Staatssekretär des BMBF, GünterStock, Vorstandsmitglied der Schering AG undVorsitzender der AG „Nationale Akademie“ desWissenschaftsrates, Jürgen Kaube von der FAZund BBAW-Präsident Dieter Simon. Die Frage,wie diese neue Institution geschaffen werdensollte, wurde auch an diesem Abend nicht beant-wortet. Eine Institution, die unabhängig gesell-schaftliche Zukunftsthemen bearbeitet und die inDeutschland tätigen Wissenschaftler und wissen-schaftlichen Einrichtungen in internationalenGremien vertritt, hielten jedoch die Podiumsteil-nehmer und das diskutierende Publikum mehr-heitlich für unverzichtbar.

Kalkül – Szenische Lesung – nach einem Stückvon Carl DjerassiIn ihrer Programmreihe „Neue Wege zur Wis-senschaft“ zeigte die Schering Stiftung am 8.März 2004 in Zusammenarbeit mit der BBAWdas Theaterstück „Kalkül“ von Carl Djerassi. DieAufführung fand im Leibniz-Saal der BBAWstatt. In dem Stück geht es um den Prioritätsstreitzwischen Sir Isaac Newton und Gottfried Wil-helm Freiherr von Leibniz, wer der eigentliche

78

Akademie-Journal 1/2004

Erfinder der Differentialrechnung sei. 1710 er-hebt Newton gegen Leibniz den Vorwurf desPlagiates. Der heftige Streit endet in einem dergrößten Skandale der Wissenschaft. Schauplatzdes Streites ist die Royal Society in London, eineVersammlung der angesehensten Wissenschaft-ler ihrer Zeit. Doch die Mitglieder der Royal So-ciety werden zu machtlosen Zuschauern, vonNewton geschickt manipuliert.

Texte des Mittelalters zwischen Handschriften-nähe und RekonstruktionBei der Internationalen Tagung „Die Editiondeutscher Texte des Mittelalters zwischen Hand-schriftennähe und Rekonstruktion“ (1.- 3. April2004) wurden in Beiträgen, deren Spanne vomAlthochdeutschen bis zum spätmittelalterlichenFastnachtspiel reichte, Fragen der Textkonstitu-tion und des Stellenwerts der Handschriftenzeug-nisse erörtert und ein breites Spektrum der an-hand des jeweiligen Überlieferungsbefunds zuwählenden Editionstypen aufgefächert. Ergänztwurden die Projektbeiträge durch Beiträge zurPaläographie, zu den editorischen Paratexten undzu elektronischen Editionsformen. In angeregtenDiskussionen wurde die Position des Editors um-rissen – zwischen den Verpflichtungen zur Treuegegenüber der varianten Überlieferung und zurHerstellung eines lesbaren linearen Texts, zwi-schen solider philologischer Arbeit und Öffnungzum Publikum.

Telota-Tag an der BBAWAm 21. Juni 2004 fand ein „Telota-Tag“ für dieMitarbeiter/innen der BBAW statt. Er stellt„elektronische“ Arbeitsergebnisse der letztenJahre aus dem Umfeld der Telota-Initiative vor(http://www.bbaw.de/initiativen/telota/intern/).Werkstattberichte wurden präsentiert und disku-tiert. Standpräsentationen der Projekte fördertenden konkreten Erfahrungsaustausch am elektro-nischen Gegenstand, um die Vernetzung zwi-schen den Projekten voranzutreiben. Das Pro-gramm setzte drei Schwerpunkte: „Datenbankenins Netz“, „Elektronische Edition“, „Materialer-schließung und -verknüpfung“.Vorgestellt wurden die Datenbanklösungen derVorhaben Berliner Klassik und Prosopographieder mittelbyzantinischen Zeit sowie der Arbeits-gruppe Digitales Wörterbuch der deutschenSprache des 20. Jahrhunderts. Der Blick in dieWerkstatt stand im Vordergrund, vor allem diepraktischen Umsetzungsprobleme, wie sie z.B.beim Wechsel der Plattformen auftreten. DieKonzeption von Feldstrukturen oder die Ent-scheidung für paßgenaue Datenbanklösungenkann durch den Austausch mit erfahreneren Pro-jekten mit ähnlichen Datenbeständen erheblichvereinfacht werden.Die Vorhaben Leibniz-Edition Reihe VIII, Marx-Engels-Gesamtausgabe und Jean-Paul-Edition

diskutierten Probleme der digitalen Aufbereitungihrer Quellen und deren digitaler Edition. Die an-gesprochenen Themen reichten vom Umgangmit elektronischen Abbildungen bis hin zu Mög-lichkeiten mehrstufiger Annotation und verteil-ten wissenschaftlichen Arbeitens. Wichtiger Ge-sichtspunkt war auch das Verhältnis zwischenDruckausgabe und elektronischer Edition.Anhand der beispielhaften Verknüpfung von In-dizes zweier Vorhaben (Berliner Klassik undPreußen als Kulturstaat) wurde vorgestellt, wiedurch die Verknüpfung elektronischer struktu-rierter Daten, schnell erhebliche Effekte erzieltwerden. Die Personendatenbank der BerlinerKlassik und das Personenregister der Preußi-schen Staatsprotokolle ergeben zusammen dieVorstufe eines biographischen Informationssy-stems für die erste Hälfte des 19. Jhs. Der über-schaubare Aufwand hierfür wurde von Telota an-gestoßen. Die Präsentation lenkt den Blick aufdie in vielen Vorhaben der BBAW vorhandenenErschließungsdaten, die häufig bereits in hervor-ragender Qualität digital vorliegen, nach der Ab-gabe des Druckmanuskripts jedoch selten weiter-genutzt werden. Einfache Aufbereitungsabläufekönnen bereits genügen, um für die wissen-schaftliche Öffentlichkeit interessante Recher-chetools zu erhalten. Die derzeitige Überarbei-tung der gesamten Webarchitektur der BBAW,wird erlauben, solcherart Ergebnisse schnell on-line nutzbar zu machen.Der Tag sollte allen Beteiligten Anstöße geben,weitere Ideen für Aufbereitungs- und Nutzungs-konzepte für die vielfachen hervorragendenQuellen- und Wissensbestände der Vorhabenund Arbeitsgruppen zu entwickeln.

16. – 19. September 2004Unter dem Thema Das Europa der Diktatur.Vichy und das Recht“, findet vom 16. – 19. Sep-tember 2004 ein internationaler Workshop in derTagungsstätte der BBAW in Blankensee statt.Diskutiert und analysiert werden die Rechtspre-chung und Gesetzgebung im Vichy-Frankreich.

17. – 18. September 2004Die Alexander-von-Humboldt-Forschungsstelleder BBAW veranstaltet am 18. September 2004,den fünften Alexander-von-Humboldt-Tag, indessen Mittelpunkt ein Vortrag von EberhardKnobloch zum Thema „Naturgenuß und Weltge-mälde – Gedanken zu Humboldts Kosmos“ ste-hen wird. Am Tag zuvor wird ein Symposiumunter dem Titel „Alexander von Humboldt’s tra-vels through Russia“ stattfinden.

28. September 2004Am 28. September 2004 veranstaltet die Akade-mie ein Symposion zu Ehren Werner Albring ausAnlaß seines 90. Geburtstages. Die Akademiewürdigt die Lebensleistung des international

79

Akademie-Journal 1/2004

anerkannten Strömungsmechanikers, mit der ersich um die Wissenschaft und ihre Anwendungin besonderer Weise verdient gemacht hat. Wer-ner Albring wird die Ehrenmitgliedschaft derAkademie verliehen.

22. – 23. Oktober 2004Internationales Symposium: Identität und Plura-lismus in der globalen Gesellschaft – LudwigFeuerbach zum 200. Geburtstag

2. November 2004Ernst-Mayr-Lecture mit Peter und RosemaryGrant (Princeton): „An Ecological view of theEvolution of Darwin’s Finches“

Akademievorlesungen„Eliten – ein Problem als Lösung“Mit Vorträgen von:

4. November 2004Herfried Münkler „Vom gesellschaftlichen Nut-zen und Schaden der Eliten“

11. November 2004Jürgen Kocka „Elite und Mittelstand. Das deut-sche Bürgertum im 19. und 20. Jahrhundert“

2. Dezember 2004Paul B. Baltes „Eine Wissenschaft der Weisheit:Königs- oder Holzweg?“

13. Januar 2005Wolfgang Streeck „Nach dem Korporatismus:Neue Konflikte, neue Eliten?“

20. Januar 2005Karl Ulrich Mayer „Warum sind unsere Elitenungebildet?“

26. – 27. November 2004Ein Ostwald-Symposium unter der Federführungvon Wolfgang Fratzscher, Jürgen Mittelstraß undEberhard Heinrich Knobloch führt die BBAWgemeinsam mit der SAW, der Lettischen Akade-mie der Wissenschaften und der Estnischen Aka-demie der Wissenschaften zum interdisziplinärenWirken von Wilhelm Ostwald durch. Ziel ist es,aus der Sicht inter- und transdisziplinärer Wech-selwirkungen eine Einschätzung und Wertungder Arbeiten von Wilhelm Ostwald vorzuneh-men.

29. November - 3. Dezember 2004Akademiewoche an Brandenburger SchulenDie Akademiemitglieder wollen sich im Rahmender 4. Akademiewoche in ihren Bemühungen,das Verständnisses der Öffentlichkeit für dieWissenschaft zu fördern, an Jugendliche in Bran-denburger Schulen wenden.

Akademie der Wissenschaften zuGöttingen

Gemeinsame Ringvorlesung der Akademie derWissenschaften zu Göttingen und derUniversität Göttingen im SS 2004’Amerika und Deutschland’ –Ambivalente Begegnung

13. April 2004»Man sieht nur, was man zu wissen glaubt«: Maxund Marianne Weber im Amerika der Jahrhun-dertwendeProf. Dr. Dirk Kaesler – Soziologe, Marburg

18. April 2004Die amerikanische Kolonie an der Georg-Au-gust-Universität Göttingen Dr. Reimer Eck, SUBGöttingenJohn Pierpont Morgan als Förderer der GöttingerUniversitätsbibliothek Dr. Helmut Rohlfing, SUBGöttingen

20. April 2004»We Never Cared for the Money«: Geld und dieFrage kultureller Identität in der amerikanischenLiteraturProf. Dr. Frank Kelleter – Amerikanist, Göttingen

27. April 2004Deutschland und die amerikanische (Popu-lär)Kultur: Amerikanisierung als Selbstamerika-nisierungProf. Dr. Winfried Fluck – Amerikanist, FU Ber-lin

4. Mai 2004Anti-Amerikanismus – Tradition und aktuelleDiskussionProf. Dr. Gesine Schwan – Politikwissenschaftle-rin, Frankfurt (Oder)

11. Mai 2004Deutsch-amerikanische Beziehungen. Krise oderNeuanfang?Karsten D. Voigt, Koordinator für die deutsch-amerikanische Zusammenarbeit – AuswärtigesAmt, Berlin

19. Mai 2004Europe and America: Partnership, Amicable Se-paration, or Nasty Divorce?Prof. Dr. Charles Kupchan – Senior Fellow,Council on Foreign Relations – Former Memberof National Security Council, USA – George-town University

25. Mai 2004Intellectual Transfer. Die amerikanische Erfah-rung in der Kritischen TheorieProf. Dr. Detlev Claussen – Soziologe, Hannover

80

Akademie-Journal 1/2004

1. Juni 2004Von Foreign Affair zu Toxi:Zur Kulturgeschichte der BesatzungszeitProf. Dr. Werner Sollors – History of AmericanCivilization and African-American Studies, Har-vard University, USA

8. Juni 2004Der Onkel aus Amerika: Als Jazz und Rockmu-sik nach Deutschland kamenKonrad Heidkamp – Musikkritiker, u.a. Die Zeit

15. Juni 2004Deutschland, USA und das Bauhaus. Vom Ex-portschlager zum Medium des kulturellen Aus-tauschesProf. Dr. Omar Akbar, Direktor der Stiftung Bau-haus, Dessau

22. Juni 2004Politainment – Chancen und Grenzen der Ameri-kanisierung der Politik in den MassenmedienProf. Dr. Harald Wenzel – Soziologe, UniversitätErfurt

29. Juni 2004Jenseits des Zivilisationsprozesses?Die Gewalt, die Moderne und AmerikaProf. Dr. Wolfgang Knöbl – Soziologe, Göttingen

6. Juli 2004Das doppelte Gesicht Amerikas in der WeimarerRepublikProf. Dr. Bernd Weisbrod – Historiker, Göttingen

13. Juli 2004Unsere amerikanische SpiritualitätGeorg Klein – Schriftsteller

Rom, Germanien und die Ausgrabungen vonKalkrieseVom 10. bis 12. Juni 2004 fand die Tagung desFaches Alte Geschichte der Universität Osna-brück in Verbindung mit der Kommission „Im-perium und Barbaricum: Rom, Germanien unddie Ausgrabungen von Kalkriese“ der GöttingerAkademie, in Osnabrück und Göttingen statt.

Internationales Kolloquium„Jahrhundertwende“Am 4. Oktober 2004, 18 Uhr, findet in der Aulader Universität Göttingen, unter der Leitung vonHerrn Professor Ulrich Mölk, das internationaleKolloquium „Jahrhundertwende“ statt.

Vortragsabend in der Niedersächsischen Land-tagsvertretung BerlinAm 5. Oktober 2004 findet ein Vortragsabend inder Niedersächsischen Landesvertretung Berlinzu dem Thema „Gesetz und Recht in Geschichteund Gegenwart“ statt.

Öffentliche SitzungAm 8. Oktober 2004, 17 Uhr c.t., findet eine öf-fentliche Sitzung der Akademie in der Aula derUniversität Göttingen statt. Herr Professor Rai-ner G. Ulbrich hält einen Vortrag mit dem Titel„Vom Abakus zum Quantenbit“.

Kolloquium „Neuhochdeutsches Wörterbuch“Vom 13. bis 15. Oktober 2004 findet das Kollo-quium der Kommission „NeuhochdeutschesWörterbuch“ der Akademie in Göttingen statt

Jahresfeier 2004Am 12. November 2004, 17 Uhr, findet die öf-fentliche Jahresfeier der Akademie in der Aulader Universität Göttingen statt.

Vortragsabend der Akademie im Niedersächsi-schen LandtagAm 18. November 2004 hält Herr ProfessorSamuel James Patterson den diesjährigen Land-tagsvortrag mit dem Titel „Carl Friedrich Gaußund einige seiner Zeitgenossen“.

Heidelberger Akademie derWissenschaften

Vortragsreihe „Kennt die Wissenschaft dieZukunft?“Den Fragen, inwieweit die Wissenschaft überhauptimstande ist, verläßliches Wissen über die Zukunftzu erarbeiten und wie mit dem Wissen umgegan-gen wird, möchte die Akademie in einer öffentli-chen Vortragsreihe nachgehen. Fünf sehr verschie-dene Disziplinen stellen sich exemplarisch der Her-ausforderung, über ihr Zukunftswissen Auskunftzu geben: die Biologie, die Demographie, die Was-serwirtschaft, die Physik und die Soziologie. HansMohr: „Biologische Grenzen der Medizin“(12.11.03), Herwig Birg: „Bevölkerungsprognosenfür Deutschland und für die Welt als Ganzes: Standder Wissenschaft und Konsequenzen für die Poli-tik“ (21.1.04), Hermann Hahn: „Ressource Was-ser“ (4.2.2004), Achim Richter: „DeterministischesChaos in der Physik – Beispiele für Strukturen imUnvorhersagbaren“ (2.6.2004), Wolfgang Schluch-ter: „Geschichtsgesetz oder Entwicklungstendenz?Über die begrenzte Prognosefähigkeit der Sozial-wissenschaften“ (7.7.2004).

Akademieabend im LandtagZu einem Akademieabend des Landtags von Ba-den-Württemberg und der Heidelberger Akade-mie luden am 29. Januar 2004 der Präsident desLandtags, Peter Straub, und der Akademiepräsi-dent, Peter Graf Kielmansegg, ins StuttgarterAbgeordnetenhaus ein. Zum Thema „Die Zu-kunft der Tarifautonomie“ sprachen die Mitglie-der Eduard Picker (Tübingen) und Manfred G.Schmidt (Heidelberg).

81

Akademie-Journal 1/2004

Vortragsreihe der Mitarbeiter „Wir forschen fürSie“Aktuelle Arbeiten und neue Erkenntnisse aus denForschungsstellen präsentieren Mitarbeiter derHAW im Sommersemester 2004 im Rahmen ei-ner öffentlichen Vortragsreihe: „Mit Sir JohnMandeville unterwegs nach India“, Dr. Eva-Ma-ria Güida, Forschungsstelle „Wörterbuch desmittelalterlichen Spanisch“ (20.4.2004), „Op-tisch stimulierte Lumineszenz an Sedimenten.Kaltes Leuchten aus Mineralen erhellt die Land-schaftsgeschichte“, Dr. Annette Kadereit, For-schungsstelle „Archäometrie“ (11.5.2004), “Ne-met zu hilff, wen yrkundt, das yrs leset, ich kan nitbaß. Martin Bucer, ein europäischer Reformator.Die Edition seiner Werke“, Dr. Stephen E. Buck-walter/Dr. Thomas Wilhelmi, Forschungsstelle„Martin Bucers Deutsche Schriften“ (8.6.2004),„Wahrheit und Information. Dokumentation undErschließung der mathematischen Logik“, Dr.Wolfgang Lenski, Forschungsstelle Mathemati-sche Logik (22. 6. 2004)

JahresfeierDie Jahresfeier der Heidelberger Akademie fandam 15. Mai 2004 in der Alten Aula der Universi-tät Heidelberg statt. Nach der Begrüßung unddem Bericht des Präsidenten Peter Graf Kiel-mansegg hielt der Ministerpräsident des LandesBaden-Württemberg, Erwin Teufel, eine Anspra-che. Für ihre wissenschaftlichen Arbeiten wur-den Dr. Andreas Deutsch mit dem Walter-Wit-zenmann-Preis und Dr. Blanche Schwappach so-wie PD Dr. Jürgen Berges mit dem Karl-Freu-denberg-Preis ausgezeichnet. Den anschließen-den Festvortrag hielt das Mitglied Heinz Häfnerzum Thema „Ein unzurechnungsfähiger(?) Kö-nig an einem Wendepunkt deutscher Geschichte– Ludwig II. von Bayern“.

Akademie der Wissenschaften und derLiteratur, Mainz

Poetikdozentur/AutorenseminarIm Sommersemester 2003 war Anne Weber Gast-dozentin des Autorenseminars. Ihr Vortrag mitdem Titel „Im Schreiben steckt Schrei“ ist alsEssay zusammen mit dem Vortrag „Die Verfesti-gung der Eitelkeit beim Schreiben“ von AndreasMaier, dem Gastdozenten des vergangenen Win-tersemesters, in den Akademie-Abhandlungenerschienen.

Geowissenschaften und die ZukunftDas interakademische Symposium als Resümeedes Jahres der Geowissenschaften 2002 fandvom 3. bis 5. September 2003 in der Akademiestatt. Die Themen „Die Zukunft der Umwelt“(Leitung J. Thiede, Bremerhaven), „Globale Er-wärmung?“ (Leitung H. Graßl, Hamburg und E.

Seibold, Freiburg), „Rohstoffe aus der festen Er-de in der Zukunft“ (Leitung M. Kosinowski, Han-nover), „Unser ruheloser Planet: Eine sichereHeimat der Menschheit in der Zukunft?“ (Lei-tung H.-P. Harjes, Bochum) wurden von zahlrei-chen Vorträgen mit anschließenden Diskussio-nen behandelt. Beim öffentlichen Abendvortragrefererierte H. Graßl im Naturhistorischen Mu-seum über „Globale Erwärmung: Mensch vs. Na-tur“; eine Podiumsdiskussion zur Rolle der Geo-wissenschaften in der Gesellschaft fand statt. Alszusammenfassendes Ergebnis des Symposiumswurden die zehn Mainzer Thesen entwickelt(www.adwmainz.de/geosymposium/index.html).

Internationales Wilhelm Heinse-SymposiumVom 25. bis 27. September 2003 fand unter derLeitung von Norbert Miller ein Symposium zuWilhelm Heinse statt. Neben allgemeinen Vor-trägen stellten die Mitarbeiter der Nachlaß-Aus-gabe Probleme und Aspekte ihrer Editionstätig-keit vor. Die ersten beiden Textbände der Ausga-be erschinen im Hanser-Verlag, die beiden Kom-mentarbände folgen im Herbst 2004. Zum Rah-menprogramm der gut besuchten Tagung gehörteunter anderem ein öffentlicher Festvortrag imErthaler Hof in Mainz, bei dem Ernst Osterkampüber Heinses Verhältnis zu Raffael sprach. DieTagungsbeiträge werden veröffentlicht.(www.adwmainz.de/heinse/symp.htm)

Symposium zum Gedenken an Pascual Jordan(1902 –1980)Pascual Jordan gehört zu den Begründern derQuantenmechanik. Neben überragender fachwis-senschaftlicher Exzellenz war sein Leben durchdas Bemühen gekennzeichnet, die Grenzen des ei-genen Faches zu überschreiten. Das Symposiumunter Leitung der von Jürgen Ehlers (Golm) undDieter Hoffmann (Berlin) verdeutlichte in zahlrei-chen wissenschaftlichen Beiträge die Vielfalt undKomplexität von Pascual Jordans Wirken undwürdigte insbesondere seine herausragende Rollein der Geschichte der modernen Physik.(www.adwmainz.de/AkademieHomePage/jordan031029.htm)

Erinnerung an Ernst Kreuder und ReinholdSchneiderIm Rahmen einer öffentlichen Lesung im Hausam Dom fand am 6. November 2003 ein Abendzum Gedenken an Ernst Kreuder und ReinholdSchneider statt, zwei der ersten Mitglieder derLiteraturklasse, die in diesem Jahr ihren 100. Ge-burtstag gefeiert hätten. Nach Einführungen vonAlbert von Schirnding und Dieter Hoffmann lasenWalter Helmut Fritz, Harald Hartung, Uwe Pörk-sen und Hans Dieter Schäfer aus Werken undBriefen der beiden Schriftsteller.Am 3. Juli 2003 las Elisabeth Borchers eigeneGedichte unter dem Thema „Vom Morgen zum

82

Akademie-Journal 1/2004

Abend“. Am 12. Februar 2004 fand eine Auto-renlesung mit Albert von Schirnding statt, betitelt„Nach dem Erwachen“.

Jahresfeier 2003Im Rahmen der 4. Plenarsitzung fand am Abenddes 7. November die öffentliche Jahresfeier statt.Eröffnet wurde die Veranstaltung mit Anspracheund Bericht des Akademiepräsidenten(www.adwmainz.de/AkademieHomePage/jf2003redepraes.htm).Den Festvortrag „Mit den Augen der Sphinx – li-terarische Endzeitvisionen“ hielt das MitgliedNorbert Miller, Berlin. Mit der Leibniz-Medaillewurde der Oberbürgermeister der Stadt Mainz,Jens Beutel, ausgezeichnet. Den Walter Kalkhof-Rose-Gedächtnispreis erhielt Privatdozent Dr.Jochen Kaiser, den Meimberg-Preis ProfessorDr. Jens Halfwassen, den Biodiversitätspreis Dr.Herbert Nickel.

Musikalischer Nachwuchs stellt sich vorAm 11. November 2003 fand im Plenarsaal desLandtags ein Wagner-Abend statt. Anlaß des Ge-sprächskonzerts war die Fertigstellung der Dop-peledition von Richard Wagners „Tannhäuser“(Paris 1861/Wien 1875), die in der MünchenerArbeitsstelle der Richard Wagner-Gesamtausga-be erarbeitet wurde. Es wurden Ausschnitte ausder Pariser und Wiener Fassung in französischerund deutscher Sprache von Studentinnen undStudenten der Hochschule für Musik und TheaterMünchen präsentiert. Das Gesprächskonzert wareine gemeinsame Veranstaltung der beiden Rei-hen „Musikalischer Nachwuchs stellt sich vor“und „Musik im Landtag“, die vom LandtagRheinland-Pfalz, von der Akademie der Wissen-schaften und der Literatur und vom Landesmu-sikrat Rheinland-Pfalz entwickelt wurden. DieEinführung des Abends hatte Dr. Egon Voss,Editionsleiter der Richard Wagner-Gesamtaus-gabe, übernommen. Dr. Peter Jost, Herausgeberder Edition „Tannhäuser“ moderierte das Pro-gramm.

Im Gedenken an Hans-Heinrich Eggebrecht1999 hat die Musikwissenschaft einen ihrer pro-filiertesten, eigenständigsten und eigenwilligstenVertreter der Zeit nach dem 2. Weltkrieg verlo-ren. Sein wissenschaftliches Werk und die darinenthaltenen Denkanstöße standen im Zentrum ei-nes Kolloquiums, das vom 4. – 6. Januar 2004unter dem Leitthema „Musik: Begriff und Kon-zepte“ Musikwissenschaftler aus dem In-undAusland zusammenführte. Die Tagung wurdeunter der Leitung von Professor Dr. AlbrechtRiethmüller durch das musikwissenschaftlicheSeminar der FU Berlin zusammen mit der Aka-demiekommission für Musikwissenschaft veran-staltet. (www.adwmainz.de/AkademieHomePage/04-01-04.htm)

Musik im LandtagMusikalische Neuentdeckungen aus dem 16. undfrühen 17. Jh. wurden am 3. Februar 2004 vonStudierenden der Hochschule für Musik undDarstellende Kunst, Frankfurt am Mainz, vorge-stellt. Die Studierenden hatten das Notenmaterialinnerhalb eines Quellenkundeseminars recher-chiert aus den Datenbeständen der Zentralredak-tion Frankfurt des Internationalen Quellenlexi-kons der Musik, einem Vorhaben der MainzerAkademie. Die zum Teil anonymen Komponi-sten waren in bekannten Musikzentren tätig,standen dort aber nicht in der ersten Reihe. Dasvon Dr. Harald Heckmann und Klaus Keil mode-rierte Gesprächskonzert der Reihe „Musik imLandtag“ war eine gemeinsame Veranstaltungvom Landtag Rheinland-Pfalz, von der Akade-mie und vom Landesmusikrat Rheinland-Pfalz.

Kolloquium „Transkription und Fassung“Auf Einladung des Ausschusses für musikwis-senschaftliche Editionen fand am 5. und 6. März2004 ein Kolloquium zum Thema „Transkriptionund Fassung“ statt, bei dem die Musik des 20.Jhs. im Vordergrund stand. Über 20 Wissen-schaftler referierten und diskutierten zu folgen-den Themen: „Notation, Text und offene Form inder Avantgarde-Musik des 20. Jhs. als editori-sche Herausforderung“, „Fassungen zwischenTranskriptivität und Performativität“ und „Fas-sungen in der Musik des 20. Jahrhunderts alsProblem editorischer Praxis“. Im Zentrum desKolloquiums standen Fragen nach dem Verhält-nis von Schrift, Text und Unbestimmtheit in derAvantgarde-Musik sowie im Zusammenhang mitdem Offenen, Unabgeschlossenen und Projekt-haften der Musik des 20. Jhs. bzw. mit ihremProzeßcharakter. Eine Publikation der Beiträgewird vorbereitet. Infos: http://www.adwmainz.de.

Zukunftsfragen der GesellschaftMit ihrem diesjährigen Symposium „Zukunftsfra-gen der Gesellschaft“ (13. Februar 2004) griff dieAkademie unter der provokanten Überschrift„Knappheit der Gesundheit aus Knappheit der Mit-tel im Gesundheitswesen“ ein höchst aktuelles undin der der Gesellschaft kontrovers diskutiertes The-ma auf. Die Referenten J.-Matthias Graf von derSchulenburg (Hannover), Klaus-Dirk Henke (Ber-lin), Axel Börsch-Supan (Mannheim) und ErnstMutschler (Mainz) kommentierten zugleich aus derSicht ihrer Wissenschaftsdisziplin das zum 1. Janu-ar 2004 in Kraft getretene Gesundheitssystem-Mo-dernisierungsgesetz (GMG). Die Beiträge werdenpubliziert. (www.adwmainz.de/AkademieHome-Page/04-02-13.htm)

Buchpräsentation: Die Inschriften des Rhein-Hunsrück-KreisesUnter großer öffentlicher Anteilnahme konntedie Inschriftenkommission der Akademie am 2.

83

Akademie-Journal 1/2004

April 2004, in der Bundesakademie für Öffentli-che Verwaltung in Boppard die von Dr. Eber-hard J. Nikitsch gesammelten und bearbeitetenInschriften des Rhein-Hunsrück-Kreises mit ins-gesamt 465 Katalognummern vorstellen. DerBand unterstreicht die historische und kulturelleBedeutung des im Jahr 2002 in die Liste derUNESCO-Weltkulturerbestätten aufgenomme-nen Mittelrheintals. (www.adwmainz.de/Akade-mieHomePage/04-04-02.htm)

Nordrhein-Westfälische Akademie derWissenschaften

JahresfeierAm 19. Mai 2004, fand im Karl-Arnold-Haus derWissenschaften in Düsseldorf die Jahresfeier derAkademie statt. Nach der Begrüßung und demBericht des Präsidenten Helmut Sies und einemGrußwort des Finanzministers des Landes Nord-rhein-Westfalen Jochen Dieckmann wurde Dr.Thomas Brockmann, Bayreuth, für seine Disser-tation „Die Konzilsfrage in den Flug- und Streit-schriften des deutschen Sprachraumes 1518 –1563“ mit dem Karl-Arnold-Preis der Akademieausgezeichnet.Den Festvortrag hielt Juergen B. Donges, Köln,zum Thema „Über die Wechselbeziehung zwi-schen Wirtschaftspolitik und Wirtschaftswissen-schaft“.Den Hendrik Casimir-Karl-Ziegler-Forschungs-preis 2004 erhielt Dr. Ute Spiekerkötter, Düssel-dorf. Die Verleihung findet in der Königlich Nie-derländischen Akademie der Wissenschaften inAmsterdam statt. Frau Dr. Spiekerkötter wird einProjekt über Störungen der Oxidation langketti-ger Fettsäuren bei R.J.A. Wanders, UniversitätAmsterdam, durchführen.

Veranstaltungen der Klasse für Naturwissen-schaften und MedizinAm 9. Juli 2004 erfolgt ein Symposium unterdem Thema: „Kardio-Vision in NRW“. Am 29.September 2004 wird eine öffentliche Vortrags-veranstaltung über „Therapeutisches Klonen:Kann die Naturwissenschaft Wege aus dem ethi-schen Dilemma aufzeigen?“ mit Professor Dr.Schöler durchgeführt.

Öffentliche Veranstaltung der Klasse für Geistes-wissenschaftenAm 7. September 2004, 16.00 Uhr, wird dieKlasse für Geisteswissenschaften eine öffentli-che Veranstaltung unter dem Thema „Föderalis-musreform“ durchführen. Vortragende sind: DerPräsident des Verfassungsgerichtshofes Nord-rhein-Westfalen, Dr. Michael Bertrams, KlausStern, Köln und Johannes Kunisch, Köln, beideMitglieder der Akademie.

Leo-Brandt-VortragAm 13. Oktober 2004, 17.00 Uhr, wird Herr Pro-fessor Dr. Fritz Ossenbühl, Bonn, über das The-ma „Die deutschen Akademien der Wissenschaf-ten als Körperschaften des Öffentlichen Rechts“sprechen.

Sächsische Akademie der Wissenschaf-ten zu Leipzig

Neues PräsidiumAm 10. Oktober 2003 hat das Plenum der SAWein neues Präsidium (Amtszeit: 1.1.2004-31.12.2007) gewählt. Es wurden gewählt zumPräsidenten Volker Bigl, Professor für Neuroche-mie, seit 1993 Direktor des Paul-Flechsig-Insti-tuts für Hirnforschung der Universität Leipzig,1997 – Januar 2003 Rektor der Universität Leip-zig. Zum Vizepräsidenten Ernst Schlegel, Profes-sor für Bindemittel und Baustoffe, 1997-2000Rektor der TU Bergakademie Freiberg, seit 2001Sekretar der Technikwissenschaftlichen Klasse;zum Sekretar der Mathematisch-naturwissen-schaftlichen Klasse Uwe-Frithjof Haustein, Pro-fessor für Dermato-Venerologie, 1975-2002 Di-rektor der Klinik und Poliklinik für Hautkrank-heiten der Universität Leipzig, 1994-2000 Stellv.Sekretar, seit 2001 Sekretar der Mathematisch-naturwissenschaftlichen Klasse; zum Sekretarder Philologisch-historischen Klasse HeinerLück, Professor für Bürgerliches Recht undRechtsgeschichte an der Martin-Luther-Univer-sität Halle-Wittenberg, seit 2001 Stellv. Sekretarder Philologisch-historischen Klasse; zum Sekre-tar der Technikwissenschaftlichen Klasse Hart-mut Worch, Professor für Werkstoffwissenschaftund Biomaterialien, seit 1994 Direktor des Insti-tuts für Werkstoffwissenschaft an der TU Dres-den. Zum Stellv. Sekretar der Mathematisch-na-turwissenschaftlichen Klasse Heiner Kaden, Ho-norarprofessor für Grenzflächen- und Kolloid-chemie an der TU Bergakademie Freiberg,Stellv. Direktor am Kurt-Schwabe-Institut fürMeß- und Sensortechnik Meinsberg, seit 2001Stellv. Sekretar der Mathematisch-naturwissen-schaftlichen Klasse; zum Stellv. Sekretar derPhilologisch-historischen Klasse Manfred Ru-dersdorf, Professor für Geschichte der FrühenNeuzeit an der Universität Leipzig. Zum Stellv.Sekretar der Technikwissenschaftlichen KlasseDagmar Hülsenberg, Professorin für Glas- undKeramiktechnologie an der TU Ilmenau.

Öffentliche AkademievorlesungenDie Reihe der Öffentlichen Akademievorlesun-gen wurde am 16. September 2003 fortgesetztmit dem Vortrag von Dr. Fausto Brunetti, Gene-ralkonsul der Republik Italien, über „Die Akade-mien in Italien – ein historischer Abriß und die

84

Akademie-Journal 1/2004

aktuelle Situation“. Am 14. Oktober 2003 sprachDr. Lutz Schiffer, Arbeitsstelle Technikfolgenab-schätzung der SAW, über „Nutzungspräferenzenan Bergbaurestseen“.

Rechts- und Sprachtransfer in Mittel- und Osteu-ropaEin zentraler Aspekt der Integration mehrererostmitteleuropäischer Staaten in die EU ist dieAngleichung ihrer nationalen Rechtsordnungenan jene der EU-Staaten. Da es sich hierbei sämt-lich um historisch gewachsene Rechtsordnungenhandelt, besitzen Kenntnisse über deren Quellenund Genesis eine hohe Aktualität. Vor diesemHintergrund lud die SAW vom 30. Oktober bis 2.November 2003 zu einer internationalen und in-terdisziplinären wissenschaftlichen Konferenz„Rechts- und Sprachtransfer in Mittel- und Ost-europa: Sachsenspiegel und MagdeburgerRecht“ nach Leipzig ein. Im Mittelpunkt der Ta-gung standen Untersuchungen zur Ausbreitungdes Normenkomplexes des sächsisch-magdebur-gischen Rechts, zu sprachlichen Problemen beider Übernahme und Redaktion deutschsprachi-ger Rechtsquellen in den slavischsprachigenRaum sowie die später daraus hervorgegangenenÜbersetzungen.

Öffentliche HerbstsitzungAm 14. November 2003 führte die SAW im Kon-zertsaal der Hochschule für Musik und Theater„Felix Mendelssohn Bartholdy“ ihre ÖffentlicheHerbstsitzung 2003 durch. Referenten waren OMKlaus Arnold („Knorpelstruktur und Abbauprozes-se – Ist Rheuma bald heilbar?“) und OM PirminStekeler-Weithofer („Was ist denken?“).

Wörterbuch der obersächsischen MundartenIm Rahmen der Leipziger Buchmesse präsentier-te die SAW am 26. März 2004 mit dem letztenBand das komplette „Wörterbuch der obersächsi-schen Mundarten“ der Öffentlichkeit. Festrednerwar Wulf Kirsten, Weimar.

Leipziger Buchmesse 2004Die SAW präsentierte sich auch dieses Jahr ge-meinsam mit der Universität Leipzig, der Martin-Luther-Universität Halle-Wittenberg und derHochschule für Wirtschaft, Technik und Kultur,Leipzig, auf der Leipziger Buchmesse (25.-28.03.2004). Außerdem bot das Haus der Akade-mie den Rahmen für mehrere Veranstaltungender Reihe „Leipzig liest“.

Regionalsitzung der Kommission für LandeskundeDie Kommission für Landeskunde führte vom15.-17.04.2004 in Greiz/Thüringen ihre X. Re-gionalsitzung durch. Thema der Fachtagung war„Die Stadt Greiz und das nördliche Vogtland.Zum Wandel einer Kulturlandschaft als Teilraumeines historischen Territoriums“.

Öffentliche Frühjahrssitzung 2004Die Öffentliche Frühjahrssitzung fand am 23.April 2004 im Großen Senatssaal des Bundesver-waltungsgerichts statt. Den Festvortrag „Härterals Diamant? Die Suche nach dem Stein der Wei-sen heute“ hielt OM Peter Paufler. Dr. DagmarHelm (Leipzig) erhielt den Theodor-Frings-Preis2004. Mit der Wilhelm-Ostwald-Medaille 2004wurde KM Janis Stradins (Riga) ausgezeichnet.Staatsminister Dr. Matthias Rößler führte das neugewählte Präsidium offiziell in sein Amt ein.

Veranstaltungen

20.- 23.5.2004Inschriften und europäische Schatzkunst. X.Fachtagung für mittelalterliche und neuzeitlicheEpigraphik in Halberstadt, veranstaltet von derInschriftenkommission und der ArbeitsstelleDeutsche Inschriften des Mittelalters und der frü-hen Neuzeit der SAW.

11. 6. 2004Verleihung der Ehrenmitgliedschaft an Staatsmi-nister a.D. Prof. Dr. Hans Joachim Meyer. DenFestvortrag „Geist und Macht. Menschen zwi-schen Wissenschaft und politischer Verantwor-tung“ hält OM Karlheinz Blaschke.

7. – 9.10.2004Universitätsgeschichte als Landesgeschichte.-Die Universität Leipzig in ihren territorialge-schichtlichen Bezügen. Tagung der HistorischenKommission der SAW.

23.10.2004Johann Christian Poggendorff und das Handwör-terbuch der exakten Naturwissenschaften. Kollo-quium aus Anlaß des Abschlusses eines Jahrhun-dertwerkes veranstaltet von der SAW und derDeutschen Akademie der Naturforscher Leopol-dina.

26. – 27.11.2004, BerlinOstwald-Symposium, veranstaltet von derBBAW und der SAW (unter Beteiligung der Est-nischen Akademie der Wissenschaften und derLettischen Akademie der Wissenschaften).

27.10. – 1.12.2004Garten der Erkenntnis. Ausstellung der SAW imLandtag von Sachsen-Anhalt sowie im Sächsi-schen Landtag vom 28.2.-24.3.2005. Der Terminim Thüringer Landtag ist noch offen.

27.10. – 1.12.2004Akademische Wochen in der Landeshauptstadt.Vortragsprogramm zur Präsentation der SAW imMagdeburger Landtag.

85

Akademie-Journal 1/2004

Nachrichten aus anderen Akademienund wissenschaftlichen Gesellschaften

Braunschweigische WissenschaftlicheGesellschaft

Gauß-Medaille 2004In ihrer Jahresversammlung am 7. Mai 2004 ver-lieh die Braunschweigische Wissenschaftliche Ge-sellschaft die Gauß-Medaille an Joachim Milberg,BMW München. Sie würdigt damit seine besonde-ren Verdienste in der Forschung auf dem Gebietdes Maschinenbaus und der Produktionstechnik,insbesondere der automatisierten Montagetechnik.Joachim Milberg wurde 1981 auf den Lehrstuhlfür Werkzeugmaschinen und Betriebswissen-schaften der TU München berufen. Mit seinenwissenschaftlichen Arbeiten trug er entscheidendbei zur Entwicklung der Produktionstechnik imZusammenwirken von Mensch – Organisation –Technik, zur Systematisierung der Montagetech-nik, der sensorisierten Nutzung von Roboternund der rechnerintegrierten Fertigung im Ma-schinenbau, speziell im Fahrzeugbau.Er erhielt den Leibniz-Preis der DFG (1989), dieVDI-Grasshoff-Denkmünze und mehrfach dieEhrendoktorwürde. Er wechselte 1993 zu BMW,war hier 1999 Vorsitzender des Vorstandes undist seit 2002 im Aufsichtsrat. Der 2002 neu ge-gründete Konvent für Technikwissenschaften derUnion der Akademien der Wissenschaften e. V.– acatech – wählte ihn zu seinem ersten Präsi-denten. Die Gauß-Medaille wird seit 1949 anverdiente Wissenschaftler der Natur-, Technik-oder Geisteswissenschaften verliehen.

Von der Stammzellenforschung zur Stammzellthe-rapie?Stammzellen sind Hoffnungsträger der Medizin undStreitpunkt zugleich. Kaum ein Thema aus der me-dizinischen Forschung wird so heftig in Politik,Wissenschaft und Öffentlichkeit national und inter-national kontrovers diskutiert und so wenig verstan-den. Die Braunschweigische Wissenschaftliche Ge-sellschaft und die deutsche Akademie für Ethik inder Medizin e.V. brachten am 29. Januar 2004 Ex-perten zu einem interdisziplinären öffentlichenSymposium zusammen. Der Bogen war weit ge-spannt: von der Grundlagenforschung bis zu denmoralphilosophischen Aspekten. Es trugen vor unddiskutierten: A. M. Wobus, Gatersleben (Grundla-genforschung, Entwicklungsbiologie), G. Kemper-mann, Berlin-Buch (Forschung mit adulten Stamm-zellen), J. Hescheler, Köln (Anwendungsforschungmit Herzmuskelzellen), R. Merkel*, Hamburg

(Rechtsproblematik), P. Lange, Bonn (derzeitigeRechtslage in Deutschland aus Sicht des BMBF), B.Schöne-Seifert*, Münster (Medizinethik), E. Schok-kenhoff*, Freiburg (katholische Moraltheologie)(*Mitglieder des Nationalen Ethikrates). Die aktu-ellen Vorträge, die engagierte Diskussion und derErnst um eine sachgerechte, auch die Würde desMenschen achtende Wertung dieser Forschung imBlick auf die Behandlung schwerer chronischerLeiden zeichneten dieses Symposium aus.

Akademie gemeinnütziger Wissen-schaften zu Erfurt

250 Jahre Akademie gemeinnütziger Wissen-schaften zu Erfurt

25. März 2004„Klimawandel – vom Menschen verursacht“,8. Symposion Mensch – UmweltWiss. Leitung: Prof. Dr. D. Möller, Berlin/Cottbus

26. März 2004„Die Akademiegründung 1754 im europäischenKontext“, Öffentliche Tagung. Vortrags-Sitzungder Geisteswissenschaftlichen Klasse und derMathematisch-Naturwissenschaftlichen Klasseder Akademie gemeinnütziger Wissenschaftenzu Erfurt, Wiss. Leitung: Prof. Dr. K. Manger,Jena; Prof. Dr. H.-Pl. Klöcking, Jena/Erfurt

3.- 5. Juni 2004„Zeit – das Rätsel der 4. Dimension“Internationaler Wissenschaftlicher Kongreß.Wiss. Hauptleitung: Prof. Dr. P. Scharff, Ilmenau

4. Juni 2004Festsitzung 250 Jahre Akademie gemeinnützigerWissenschaften zu Erfurt, Organisation: Priv.-Doz. Dr. J. Kiefer, Erfurt/Jena; Prof. Dr. Dr. W.Köhler, Jena

15. Oktober 2004„Gedächtnis in natur- und geisteswissenschaftli-cher Dimension“Öffentliche Tagung. Vortrags-Sitzung der Gei-steswissenschaftlichen Klasse und der Mathema-tisch-Naturwissenschaftlichen Klasse der Akade-mie gemeinnütziger Wissenschaften zu Erfurt,Wiss. Leitung: Prof. Dr. K. Manger, Jena; Prof.Dr. Dr. H.-P. Klöcking, Jena/Erfurt

86

Akademie-Journal 1/2004

Personalia aus den Akademien

Es verstarben:

Beckert, Herbert, o. Mitglied der Sächsischen Aka-demie der Wissenschaften zu Leipzig (Mathema-tisch-naturwissenschaftliche Klasse), em. Professorfür Mathematik (Analysis) in Leipzig, † 24. März2004Benedum, Jost, o. Mitglied der Akademie der Wis-senschaften und der Literatur, Mainz (Geistes-undsozialwissenschaftliche Klasse), Professor für dieGeschichte der Medizin in Giessen, † 23. Dezember2003Busch, Karl-Franz, o. Mitglied der SächsischenAkademie der Wissenschaften zu Leipzig (Mathe-matisch-naturwissenschaftliche Klasse), em. Pro-fessor für Wasserversorgung und Abwasserbehand-lung in Dresden, † 29. Dezember 2003Chuaqui, Benedicto, korr. Mitglied der Heidelber-ger Akademie der Wissenschaften (Mathematisch-naturwissenschaftliche Klasse), em. Professor derPathologie in Santiago de Chile, Chile, † 20. Juni2003Cramer, Friedrich, o. Mitglied der Akademie derWissenschaften zu Göttingen (Mathematisch-Physi-kalische Klasse), korr. Mitglied der HeidelbergerAkademie der Wissenschaften (Mathematisch-natur-wissenschaftliche Klasse), Professor für Biochemiein Göttingen, † 24. Juni 2003Elsässer, Hans, o. Mitglied der Heidelberger Aka-demie der Wissenschaften (Mathematisch-natur-wissenschaftliche Klasse), em. Professor für Astro-nomie in Heidelberg, † 10. Juni 2003von Fischer, Kurt, korr. Mitglied der Akademie derWissenschaften und der Literatur, Mainz (Geistes-und sozialwissenschaftliche Klasse), Professor fürMusikwissenschaft in Bern, Schweiz, † 27. Novem-ber 2003Franges, Ivo, korr. Mitglied der Akademie derWissenschaften zu Göttingen (Philologisch-Histori-sche Klasse), Professor für Neuere Kroatische Lite-ratur in Zagreb, Kroatien, † 29. Dezember 2003Hermes, Hans, o. Mitglied der Heidelberger Aka-demie der Wissenschaften (Mathematisch-natur-wissenschaftliche Klasse), und korr. Mitglied derNordrhein-Westfälischen Akademie der Wissen-schaften (Klasse für Naturwissenschaften und Me-dizin), em. Professor für Mathematik in Freiburg, †10. November 2003Himmelheber, Hans, o. Mitglied der HeidelbergerAkademie der Wissenschaften (Philosophisch-hi-storische Klasse), em. Professor für Ethnologie inHeidelberg, † 27. November 2003Julesz, Bela, korr. Mitglied der Akademie der Wis-senschaften zu Göttingen (Mathematisch-Physikali-

sche Klasse), Professor der Psychophysik in NewJersey, USA, † 31. Dezember 2003Kneser, Martin, o. Mitglied der Akademie der Wis-senschaften zu Göttingen (Mathematisch-Physikali-sche Klasse), Professor für Mathematik in Göttin-gen, † 16. Februar 2004Krings, Hermann, o. Mitglied der BayerischenAkademie der Wissenschaften (Philosophisch-hi-storische Klasse), em. Professor für Philosophie inMünchen, † 19. Februar 2004Malkowski, Rainer, o. Mitglied der Akademie derWissenschaften und der Literatur, Mainz (Klasseder Literatur), Schriftsteller, Brandenburg, † 1. Sep-tember 2003Meissner, Boris, o. Mitglied der Nordrhein-Westfä-lischen Akademie der Wissenschaften (Klasse fürGeisteswissenschaften), em. Professor für Ostrechtin Köln, † 10. September 2003Menze, Clemens, o. Mitglied der Nordrhein-West-fälischen Akademie der Wissenschaften (Klasse fürGeisteswissenschaften), em. Professor für histori-sche und systematische Pädagogik in Köln, † 12.Oktober 2003Pirson, André, o. Mitglied der Akademie der Wis-senschaften zu Göttingen (Mathematisch-Physikali-sche Klasse), Professor für Botanik in Göttingen, †7. Februar 2004Reichert-Facilides, Fritz, korr. Mitglied der Aka-demie der Wissenschaften und der Literatur, Mainz(Geistes- und sozialwissenschaftliche Klasse), Pro-fessor für Versicherungsrecht und internationalesPrivatrecht in Innsbruck, Österreich, † 23. Oktober2003Roloff, Jürgen, o. Mitglied der Bayerischen Akade-mie der Wissenschaften (Philosophisch-historischeKlasse), em. Professor für Neues Testament in Er-langen-Nürnberg, † 21. Februar 2004Schmidt, Carl Gottfried, o. Mitglied der Nordrhein-Westfälischen Akademie Wissenschaften (Klassefür Naturwissenschaften und Medizin), em. Profes-sor für Innere Medizin/Tumorforschung in Essen, †20. Dezember 2003Schneemelcher, Wilhelm, o. Mitglied und Altprä-sident der Nordrhein-Westfälischen Akademie derWissenschaften, (Klasse für Geisteswissenschaf-ten), em. Professor für Neues Testament und Ge-schichte der Alten Kirche in Bonn, † 6. August2003Skalweit, Stephan, o. Mitglied der Nordrhein-Westfälischen Akademie der Wissenschaften(Klasse für Geisteswissenschaften), em. Professorfür Mittlere und Neuere Geschichte in Bonn, † 9.September 2003

87

Akademie-Journal 1/2004

Bayerische Akademie derWissenschaften

Die Akademie hat sich wie folgt ergänzt:

Ordentliche Mitglieder

Philosophisch-historische KlasseBürge, Alfons, Professor für Römisches Recht, Pri-vatrechtsgeschichte der Neuzeit und BürgerlichesRecht in MünchenMaier, Hans, Professor für Christliche Weltan-schauung, Religions- und Kulturtheorie in Mün-chenMoulines, Carlos Ulises, Professor für Philosophie,Logik und Wissenschaftstheorie in MünchenSchönberger, Rolf, Professor für Philosophie inRegensburg

Mathematisch-naturwissenschaftliche KlasseGruss, Peter, Professor für Biologie, Präsident derMax-Planck-Gesellschaft in MünchenHartl, Franz-Ulrich, Professor für Biochemie, Di-rektor am MPI für Biochemie, Martinsried beiMünchen

Korrespondierende Mitglieder

Philosophisch-historische KlasseChadwick, Henry, Professor für Patristik in Cam-bridge, EnglandFeldman, Gerald D., Professor für Geschichte inBerkeley, USAGouron, André, Professor für Rechtsgeschichte inMontpellier, Frankreich

Berlin-Brandenburgische Akademie derWissenschaften

Die Akademie hat sich wie folgt ergänzt:

Ordentliche Mitglieder

Sozialwissenschaftliche KlasseAllmendinger, Jutta, Professorin für Soziologie,MünchenLeibfried, Stephan, Professor für Sozialpolitik undSozialverwaltung in Bremen

Biowissenschaftlich-medizinische KlasseHeinze, Hans-Jochen, Professor für Neurologie,Magdeburg

Technikwissenschaftliche KlasseBergmeister, Konrad, Professor für Bauingenieur-wesen, Wien, Österreich

Renn, Ortwin, Professor für Risiko- und Umwelt-soziologie, Stuttgart

Außerordentliche Mitglieder

Technikwissenschaftliche KlasseLichtfuß, Hans-Jürgen, Professor für Strömungs-maschinen/Strömungsmechanik, BerlinMayr, Peter, Professor für Werkstoffwissenschaf-ten in Bremen

Akademie der Wissenschaften zuGöttingen

Die Akademie hat sich wie folgt ergänzt:

Ordentliche Mitglieder

Philologisch-Historische KlasseRexroth, Frank, Professor für Mittlere und NeuereGeschichte in Göttingen

Mathematisch-Physikalische KlasseEschenhagen, Thomas, Professor für Experimen-telle und Klinische Pharmakologie in HamburgSamwer, Konrad, Professor für Physik in Göttingen

Korrespondierende Mitglieder

Philologisch-Historische KlasseBeschi, Luigi, Professor für Klassische Archäologiein Florenz, ItalienBohnenkamp-Renken, Anne, Doktor für DeutscheLiteratur und allgemeine und vergleichende Litera-turwissenschaften in Frankfurt/MainBrandt, Reinhardt, Professor für Philosophie inMarburgDulièenko, Aleksandr Dmitrieviè, Professor fürSlawischen Philologie in Tartu (Estland)Gall, Lothar, Professor für Mittlere und Neuere Ge-schichte in Frankfurt/MainMeckenstock, Günter, Professor für SystematischeTheologie in KielSchmidt-Glintzer, Helwig, Professor für Sinologiein WolfenbüttelTerwiel, Barend Jan, Professor für Sprachen undKulturen Thailands und Laos in HamburgWiesehöfer, Josef, Professor für Alte Geschichte inKiel

Mathematisch-Physikalische KlasseFujisaki, Hiroya, Professor für Elektronik in Tokio,Japan

88

Akademie-Journal 1/2004

Heidelberger Akademieder Wissenschaften

Die Akademie hat sich wie folgt ergänzt:

Ordentliche Mitglieder

Philosophisch-historische KlasseKnapp, Fritz Peter, Professor für Ältere DeutschePhilologie in Heidelberg

Mathematisch-naturwissenschaftliche KlasseAltherr, Rainer, Professor für Mineralogie in Hei-delbergBatyrev, Victor, Professor für Mathematik in Tü-bingenHo, Anthony, Professor für Innere Medizin in Hei-delberg

Korrespondierende Mitglieder

Philosophisch-historische KlasseMarkschies, Christoph, Professor für HistorischeTheologie in Berlin

Akademie der Wissenschaften und derLiteratur, Mainz

Die Akademie hat sich wie folgt ergänzt:

Ordentliche Mitglieder

Geistes- und sozialwissenschaftliche KlasseCarrier, Martin, Professor für Philosophie in Biele-feldSchweickard, Wolfgang, Professor für Romanisti-sche Sprachwissenschaft in Saarbrücken

Mathematisch-naturwissenschaftliche KlasseMaier, Joachim, Professor für Physikalische Che-mie in StuttgartRöckner, Michael, Professor für Mathematik inBielefeldWriggers, Peter, Professor für Baumechanik undNumerische Mechanik in Hannover

Klasse der LiteraturDamm, Sigrid, Schriftstellerin in BerlinDetering, Heinrich, Professor für Literaturwissen-schaft in Kiel

Korrespondierende Mitglieder

Mathematisch-naturwissenschaftliche KlasseCarstensen, Carsten, Professor für Mathematik inWien, ÖsterreichClaußen, Martin, Professor für Klimasystemfor-schung in PotsdamStocker, Thomas, Professor für Klima- und Um-weltphysik in Bern, Schweiz

Nordrhein-Westfälische Akademie derWissenschaften

Die Akademie hat sich wie folgt ergänzt:

Ordentliche MitgliederKlasse für Naturwissenschaften und MedizinFürstner, Alois, Professor für Organische Chemiein Mülheim a.d.R.Häussinger, Dieter, Professor für Innere Medizin inDüsseldorfMezger, Klaus, Professor für Geochemie in MünsterTautz, Diethard, Professor für Genetik in Köln

Korrespondierende Mitglieder

Klasse für Naturwissenschaften und MedizinLohse, Martin J., Professor für Pharmakologie undToxikologie in Würzburg

Sächsische Akademie der Wissenschaftenzu Leipzig

Die Akademie hat sich wie folgt ergänzt:

Ordentliche Mitglieder

Mathematisch-naturwissenschaftliche Klasse:Mögel, Hans-Jörg, Professor für Physikalische Che-mie an der TU Bergakademie FreibergPääbo, Svante, Direktor am Max-Planck-Institutfür evolutionäre Anthropologie, Honorarprofessorfür Genetik und Evolutionsbiologie in Leipzig

Philologisch-historische KlasseHaustein, Jens, Professor für Germanistische Me-diävistik in JenaLentz, Sebastian, Direktor des Leibniz-Instituts fürLänderkunde, Professor für Regionale Geographiein LeipzigStreck, Bernhard, Professor für Ethnologie in Leip-zig

Technikwissenschaftliche KlasseStark, Jochen, Professor für Baustoffkunde in Wei-marWiesmeth, Hans, Professor für Volkswirtschafts-lehre, insb. Allokationstheorie, Dresden

Korrespondierendes Mitglied:

Technikwissenschaftliche KlasseMartin, Ullrich, Professor für Eisenbahn- und Ver-kehrswesen in Stuttgart

Ehrenmitglied:

Staatsminister a.D. Prof. Dr. Hans JoachimMeyer

89

Akademie-Journal 1/2004

acatech – Konvent für Technikwissen-schaften der Union der deutschen Akade-mien der Wissenschaften

Der Konvent hat sich wie folgt gergänzt:

Krollmann, Franz Gustav, Professor em. für Ma-schinenbau und Maschinen in MünchenKowalsky, Wolfgang, Professor für Hochfrequenz-technik in BraunschweigKümmerling, Rolf, Leiter Zentralabteilung Prozes-se, Vallourec & Mannesmann Tubes DeutschlandGmbH in DüsseldorfRammig, Franz J., Professor für Mathematik/ In-formatik in Paderborn

Reimers, Ulrich, Professor für Nachrichtentechnikin BraunschweigSchwärtzel, Heinz G., Professor für Informatik inMünchenWriggers, Peter, Professor für Baumechanik undnumerische Mechanik in HannoverWucherer, Klaus, Mitglied Zentralvorstand Sie-mens AG in ErlangenZimmerli, Walther Ch., Professor für Philosophie,Präsident Volkswagen AutoUni in Wolfsburg

Akademie-JournalMagazin der Union der deutschen Akademien der Wissenschaften

Die Themenschwerpunkte früherer Ausgaben:

Bewahrung des kulturellen Erbes, Heft 1/1996Erdwissenschaften, Heft 1/1998Geisteswissenschaften und EDV, Heft 2/1998Neurowissenschaften, Heft 1/1999Kultur-/Geistes-/Humanwissenschaften in derDiskussion, Heft 1/2000

Zentralasien, Heft 2/2000Technikwissenschaften, Heft 1/2001Sprachen in Europa, Heft 2/2001Grüne Gentechnik, Heft 1/2002Rechtswissenschaft, Heft 2/2002Chemie, Heft 1/2003

90

Akademie-Journal 1/2004