5 Mathematisch-Naturwissenschaftliche Fakultät

March 24, 2018 | Author: Anonymous | Category: N/A
Share Embed


Short Description

Download 5 Mathematisch-Naturwissenschaftliche Fakultät...

Description

Berichte der Institute und Fachbereiche

5

85

Mathematisch-Naturwissenschaftliche Fakultät

Auszug aus der Homepage der Mathematisch-Naturwissenschaftlichen Fakultät: http://www.uni-koeln.de/math-nat-fak/

Jahresbericht 2003

86

5.1

Berichte der Institute und Fachbereiche

Mathematisches Institut

Homepage Mathematisches Institut: http://www.mi.uni-koeln.de/

5.1.1

Bericht über die Kooperative Informationsverarbeitung

Die Datenverarbeitung im Mathematischen Institut basiert einerseits auf mehreren zentralen Sun Solaris-Servern (Sparc-CPUs), einem Itanium 2-basierten HP Integrity Server sowie andererseits auf zentralen Microsoft Windows 2000/NT-Terminalservern (Intel-CPUs), die als File-, Anwendungs- und Compute-Server für die im Haus vorhandenen Arbeitsplatzrechner eingesetzt werden. Die großen Systeme stehen in einem klimatisierten Maschinenraum, in dem auch die BackupSysteme, eine USV sowie die zentralen Netzwerkkomponenten (Cisco-Switch Catalyst 4006) untergebracht sind. Die wichtigsten Server des Instituts sind durch diesen Switch mit Gigabit-Ethernet auf Lichtwellenleiter-Basis versorgt. Die UKLAN-Anbindung erfolgt zurzeit über einen Router im Philosophikum (newphil-gw). Die Einrichtung einer zweiten redundanten Verbindung zum UKLAN ist geplant. Als Arbeitsplatz-/Client-Rechner werden in den Mitarbeiterzimmern überwiegend PCs eingesetzt, des Weiteren existiert ein zwei Bildschirmräume umfassender PC-Pool für Studenten und Diplomanden. Auf den als Dual-Boot-Systeme eingerichteten Klienten stehen den Anwendern Windows 2000 und Linux zur Verfügung. Außerdem werden an einigen Lehrstühlen Macintosh-Rechner und X-Terminals eingesetzt. Die Windows 2000- und Unix-Server werden zum Teil auch dem ZAIK im Rahmen der gemeinsamen Zusammenarbeit zur Verfügung gestellt. Auf den Unix-Workstations erfolgt eine Mitbenutzung des vom ZAIK/RRZK exportierten /vol-Dateibaums. Ausbildungsschwerpunkte mit starkem EDV-Anteil im Institut sind Numerik-Programmierung in den Sprachen C++, Fortran und Matlab, des Weiteren symbolische Formelmanipulation und Behandlung von Problemen aus der Computeralgebra mit Maple und Mathematica sowie Statistik mit S-PLUS. In der Forschung werden vorrangig Fragestellungen aus den Gebieten Numerische Mathematik, Differentialgleichungen, Differentialgeometrie, Zahlentheorie, Algebra, Kombinatorik, Topologie, Stochastik, Versicherungsmathematik, Kommunikationsnetze und Kombinatorische Optimierung bearbeitet. Die personelle Betreuung erfolgt durch die u.a. Autoren. (Dr. Jörg Behrend, E-Mail: [email protected], Dipl.-Ing. Holger Körber, E-Mail: [email protected])

5.1.2

Beispielhaftes Projekt des MI: Mathematische Bildverarbeitung

Mathematische Bildverarbeitung macht beispielsweise aus unscharfen Satellitenaufnahmen oder aus verrauschten Ultraschallaufnahmen relativ klare Bilder mit deutlichen Konturen. Die dabei benutzten Verfahren sind bisher mathematisch wenig fundiert. Sitzt der Tumor oder der Marsbrocken wirklich dort, wo man ihn zu erkennen glaubt, oder hat er bei seiner Berechnung eine Veränderung erfahren? Das möchte man gerne mit mathematischer Gewissheit beweisen. Eine der verwendeten Methoden benutzt Diffusionsfilter und Analogien aus der mathematischen Beschreibung von Ausbreitungsvorgängen. Man denkt sich dazu (im einfachsten Fall eines Schwarzweißbildes) die Graustufenwerte als Höhen eines Gebirges, wobei der Wert für Schwarz

Jahresbericht 2003

Berichte der Institute und Fachbereiche

87

hoch und der für Weiß niedrig ist. Diese Höhenverteilung u0(x) interpretiert man als Temperaturverteilung im zugrundeliegenden Gebiet. Wärmeleitung hat die Tendenz, räumliche Temperaturschwankungen im Laufe der Zeit abzubauen. Wenn ich daher das vorliegende Graustufenprofil der Wärmeleitung unterwerfe, und das kann man mit gewissem Knowhow am Rechner, dann sollten erratische Oszillationen in den Graustufenwerten sozusagen „abgeschmolzen“ werden. Dies ist das Prinzip der Diffusionsfilter. Unter Abschmelzen werden aus deutlichen Helligkeitskonturen allerdings auch verschwommene Bilder, daher werden diese Verfahren nur bis zu einer gewissen Stopzeit gerechnet. Durch Wahl der Stopzeit lässt sich die Qualität des Bildes wie beim Fokussieren eines Fernglases beeinflussen. Außerdem wird der Diffusionseffekt an solchen Stellen herabgesetzt, wo das Helligkeitsprofil echte Unstetigkeiten aufzuweisen scheint. Dabei kommt es zu sogenannter Vorwärts-Rückwärts-Diffusion nach Perona-Malik. Diese Art der Diffusion ist ein mathematisch „schlecht gestelltes Problem“, denn kleine Änderungen in den Anfangsdaten können (wie der inzwischen legendäre und umfallende Sack Reis in China) im Laufe der Zeit große Änderungen im globalen Lösungsverhalten nach sich ziehen. Eine andere Methode geht von Optimierungsverfahren und sog. Variationsmethoden aus. Dabei soll das gestörte Bild durch eine Helligkeitsverteilung ersetzt werden, die einerseits einfachere Gestalt hat, andererseits aber Ähnlichkeiten mit dem gestörten Bild u0(x) aufweist. Man sucht also eine Graustufenfunktion u(x), welche eine Art Kostenfunktional, konkret das sogenannte MumfordShah Funktional, minimiert. Dieses Kostenfunktional hat seinerseits mathematisch unschöne Eigenschaften. Es enthält einen Term, der die Länge von Unstetigkeitsstellen misst, und letztere ist numerisch auf einem strukturierten Gitter gar nicht zu ermitteln, geschweige denn neben anderen Kriterien zu minimieren. Daher approximiert man das ursprüngliche Funktional durch ein besser handhabbares. Die Approximation geschieht dabei im Sinne der sogenannten Gamma-Konvergenz von Funktionalen. Wenn eine Folge En von Funktionalen gegen ein Grenzfunktional E Gammakonvergiert, dann konvergieren auch die Minimierer un der Funktionale En gegen einen (von möglicherweise mehreren) Minimierern u(x) des Grenzfunktionals. Das Wort Konvergenz muss dabei jeweils durch Festlegung der richtigen Topologien konkretisiert werden. Es ist gelungen nachzuweisen, dass beide Verfahren auf diskretem Niveau, d.h. bei ihrer Verarbeitung durch Rechner, im wesentlichen dasselbe leisten und dass wesentliche Charakteristika des Ausgangsbildes trotz Rauschens und ähnlicher Störungen erhalten bleiben. In der ersten gezeigten Bildsequenz ist eine fiktive Graustufenfunktion u0(x,y) = sin(x) sin(y) und deren Evolution unter der Perona-Malik Diffusion abgebildet. Man sieht eine deutliche Kantenbildung. Die zweite Bildsequenz startet mit einer realistischen, aber verrauschten Schwarzweißaufnahme des Kölner Doms. Der Diffusionsfilter führt zunächst zu einer Kantenverschärfung, später zu einer Segmentierung oder Vergröberung des Bildes. Dies illustriert die Bedeutung der richtigen Stopzeit. In der dritten Bildsequenz sind die vom „edge-detector“ ermittelten Kanten dargestellt. Bei zu vielen Kanten wirkt das Bild unruhig, und bei zuwenig Kanten gehen wesentliche Informationen verloren.

Jahresbericht 2003

88

Berichte der Institute und Fachbereiche

Bildsequenz 1 (oben): eine fiktive Graustufenfunktion u0(x,y) = sin(x) sin(y) und deren Evolution unter der Perona-Malik Diffusion. Man sieht eine deutliche Kantenbildung. Bildsequenz 2 (nächste Seite): eine realistische, aber verrauschte Schwarzweißaufnahme des Kölner Doms. Der Diffusionsfilter führt zunächst zu einer Kantenverschärfung, später zu einer Segmentierung oder Vergröberung des Bildes. Bildsequenz 3 (übernächste Seite): es sind die vom „edge-detector“ ermittelten Kanten dargestellt. Bei zu vielen Kanten wirkt das Bild unruhig, und bei zuwenig Kanten gehen wesentliche Informationen verloren.

Jahresbericht 2003

Berichte der Institute und Fachbereiche

89

Jahresbericht 2003

90

Jahresbericht 2003

Berichte der Institute und Fachbereiche

Berichte der Institute und Fachbereiche

91

Literatur •

B. Kawohl, From Mumford-Shah to Perona-Malik in image processing, Math. Methods Appl. Sci, 15 p., erscheint demnächst. Ein Preprint ist erhältlich unter http://www.mi.unikoeln.de/~kawohl/)



B. Kawohl & N. Kutev, Image processing and anisotropic diffusion, in: Progress in partial differential equations, Pont à Mousson 1997, Volume I, eds.: H. Amann, C. Bandle, M. Chipot, F. Conrad & I. Shafrir, Pitman Res. Notes in Math. Sci. 383, Addison Wesley Longman, Essex (1998) p. 191–199.



M. Mester, Mathematische Methoden zur Bildverarbeitung, Dissertation, Universität zu Köln (2004)

(Prof. Dr. Bernd Kawohl, E-mail [email protected], Dr. Markus Mester, E-mail [email protected])

5.2

Zentrum für Angewandte Informatik: Arbeitsgruppe Faigle/Schrader

Homepage: http://www.zaik.uni-koeln.de/AFS/ (Hinweis: Die Arbeitsgruppe ist sowohl im Institut für Informatik als auch im Mathematischen Institut angesiedelt.)

Bericht über die kooperative, verteilte Datenverarbeitung Hardware-Ausstattung Server 1

Sun Enterprise 4000 (8 Proz.)

1

Sun Enterprise 3500 (2 Proz.)

1

Sun Enterprise 450 (4 Proz.)

1

Compaq AlphaStation ES40 (4 Proz.) mit RAID Array 3000

2

PCs als Windows 2000 Server

1

PC als Linux-Server

Arbeitsplatzrechner und Terminals ca. 10 Sun Workstations (von Classic bis Ultra 10) ca. 40 PCs als Arbeitsplatzrechner ca. 15 X-Terminals

Jahresbericht 2003

92

Berichte der Institute und Fachbereiche

Netzwerk 1

Cisco Catalyst 5500 RSM Workgroup Switch/Router (Gigabit-Ethernet, FastEthernet, Ethernet)

1

Cisco Catalyst 2924 Fast Ethernet Switch

2

Magnum/Synoptics Ethernet Hubs

Backup, Unterbrechungsfreie Stromversorgung, Sonstiges 1

ATL ACL 2640 Tape Roboter

1

Datapower 330 USV (30 kVA, 15 Min.)

1

Marquec 9000 Video-Projektor

Art der Vernetzung Gigabit-Ethernet: Anschluss zum Universitäts-Backbone Ethernet, Fast-Ethernet: Workstations, lokale Arbeitsplätze, PC-Server Räume Maschinenraum 1: Workstation-Cluster, Netzwerkinfrastruktur (Router, Switches), Datapower USV Maschinenraum 2: Sun Enterprise 450 & 3500 & 4000, Tape-Roboter, Compaq ES40 Personelle Betreuung Koordination: Dipl.-Inform. Martin Olschewski Anzahl der Nutzer Server Workstations PCs

Studierende ca. 150 ca. 50 ca. 50

Wissenschaftler ca. 100 ca. 50 ca. 50

Zusammenarbeit Interdisziplinäre Nutzung (Mathematik, Informatik, Physik, Meteorologie, Chemie, Wirtschaftsinformatik, Linguistik und DLR) der Sun Compute-Server sowie des Workstation-Clusters. Jahresbericht 2003

Berichte der Institute und Fachbereiche

93

Ausbildungsschwerpunkte Kombinatorische Optimierung: Entwurf und Implementierung effizienter Algorithmen Forschungsschwerpunkte Allgemein: Kombinatorik, Fachinformation, Kommunikationsnetze, Kombinatorische Optimierung, Bioinformatik, Simulation Sun Enterprise 4000: Multimediale Anwendungen in der Hochschullehre, Stauforschung, Kryptographie, Simulation (Bausparkollektive) Compaq AlphaStation ES 40: Entwicklung von Verfahren zur Genomanalyse Workstations: Multimediale Anwendungen in der Hochschullehre, Drittmittelprojekte im Banken- und Versicherungsbereich, Tourenplanung PCs: Multimediale Anwendungen in der Hochschullehre, Anwendungsprogramme im Rahmen von Drittmittelprojekten im Banken- und Versicherungsbereich, Tourenplanung Engpässe, Probleme und Schwierigkeiten Personelle Unterbesetzung Die personelle Unterbesetzung im Infrastrukturbereich führt leider immer wieder zu erheblichen Verzögerungen bei der praktischen Umsetzung der Projekte. Rechenkapazität Speicher (Plattenplatz und RAM) Es gibt insbesondere Engpässe bei den Data-Mining-Applikationen im Bereich der Landesbausparkassen. (Martin Olschewski, E-Mail: [email protected])

Jahresbericht 2003

94

Berichte der Institute und Fachbereiche

5.3

Institut für Informatik

5.3.1

Bericht über die Kooperative Informationsverarbeitung

Homepage: http://www.informatik.uni-koeln.de/ Neuanschaffungen in 2003 Pentium IV Celeron 2.6 Ghz, 512 MB RAM, Linux 2 Pentium IV 2.8Ghz, 1GB RAM, Linux CPU Upgrade für Linux Server 8-Port Gbit Switch Notebook Dell Latitude D600, Pentium-M 1.7Ghz, 1GB RAM Pentium IV 2.6Ghz, 1GB RAM Software: Vampir 4.0 für Linux x86 Ausstattung (nur Workstation) 1 Sparc-Server Ultra Enterprise 450, 4 CPU's 300Mhz, 1 GB RAM, 50GB Platte 6 Sun Ultra 5/10 11 Ultra 1/170E Creator3D, 128 RAM 1 Sparcstation 10 3 Sparcstation 4/110 1 Sparcstation 5/70 1 Linux Server AMD Athlon 2.0 Ghz, 1.5GB RAM 1 Linux Cluster, bestehend aus: 8 Dual-Prozessor Pentium II-400 MHz Rechnern mit je 256 MB RAM, 8 Dual-Prozessor Athlon MP1800 mit je 256 MB RAM 1 Cisco 24 Port Switch Die Systembetreuung wird von einem hauptamtlichen Techniker und zwei halben SHKs übernommen. Das Linux-Cluster wird von SHKs betreut. Benutzer unserer Workstations: ca. 30 Wissenschaftliche Mitarbeiter ca. 40 Studenten Kooperation mit dem Rechenzentrum Die Lehrstühle kooperieren wie folgt mit dem ZAIK/RRZK: - Möglichkeit, Meldungen über interne Mailinglisten an verschiedene Benutzer einer Gruppe simultan versenden zu können, wobei die gesamte Verwaltung vom ZAIK/RRZK übernommen wird. Dies wird genutzt für Graduiertenkolleg, Vorlesungen, Praktika und einige Softwarepakete. Jahresbericht 2003

Berichte der Institute und Fachbereiche

95

Weiterhin wird die Möglichkeit genutzt, archivierte Mailinglisten über das WWW lesen zu können. - Anbindung an das Internet und Unterstützung aller dazugehörenden Dienste (Mail, News, WWW, DNS, Proxy). - Bereitstellung von großen nicht kommerziellen (z.B gnu, X11R5, tex, graphic) und auch kommerziellen Softwarepaketen via AFS als Quelltext oder Binary. Dies ist ein nicht zu unterschätzender Dienst. Dadurch entfällt die zeitraubende Arbeit, neue Versionen von vielen Programmen immer wieder zu installieren. Somit kann sich der für die Systembetreuung verantwortliche Mitarbeiter auf wichtigere Aufgaben konzentrieren. - Unterstützung bei der Beschaffung von kommerziellen Softwarepaketen, Betriebssystemupdates und Patches, insbesondere durch kostengünstige Campusverträge. - Sicherung von Benutzerdaten mit TSM, ein sehr guter Service des Rechenzentrums. - Hilfe bei Soft- und Hardwareproblemen. Mit dem Know-How, das die Mitarbeiter des Rechenzentrums haben, werden die Administratoren vor Ort unterstützt. - Die Pflege der Software im Vol-Baum hat sich im Laufe des Jahres verbessert, nachdem sie einige Jahre sehr vernachlässigt wurde. Es ist zu hoffen, dass dieser Dienst noch verbessert wird und dann auf Dauer gut gepflegt wird. Die WWW-Seiten der Lehrstühle sind zu finden unter: http://www.informatik.uni-koeln.de/ls_juenger http://www.informatik.uni-koeln.de/ls_speckenmeyer (Thomas Lange, E-Mail: [email protected])

5.3.2

Fahrplanoptimierung und -simulation im ÖPNV

Der Fahrplan bildet ein zentrales Element der Verkehrsplanung. Er legt die Ankunfts- und Abfahrtszeiten der einzelnen Linien im Streckennetz fest. Die bislang verwendete Software hilft bei der manuellen Erstellung am Bildschirm und ermöglicht die Visualisierung und Simulation von Fahrplänen. Zur besseren Unterstützung des Planers fehlen jedoch Systeme zur automatischen Generierung zulässiger und in Hinblick auf die Zielvorstellung optimierter Fahrpläne. Das Projekt "Computer Aided Tram Scheduling“ verfolgt das Ziel, die computerunterstützte Erstellung von Fahrplänen zu ermöglichen, um so schnell viele gute Fahrplanalternativen erzeugen zu können, sie in Simulationen zu testen - um unterschiedliche Störungsszenarien zu analysieren und schließlich einen geeigneten Fahrplan auswählen zu können. Das der Fahrplangestaltung zu Grunde liegende Streckennetzwerk besteht aus einer Menge von Stationen und Linien, denen Takte zugeordnet sind. Den Streckenabschnitten zwischen den Stationen sind Fahrzeiten zugeordnet. Das Ziel der Fahrplanoptimierung, die betrachtet wurde, besteht darin, die Abfahrtszeiten der Linien an den Anfangsstationen so festzulegen, dass die Ankunftszeiten an den einzelnen Stationen möglichst gleichmäßig verteilt sind. Damit soll erreicht werden, dass kleine Störungen, wie sie häufig bei Nahverkehrssystemen auftreten, nur geringe, zeitlich begrenzte Auswirkungen auf den Linienverkehr haben. Um das Fahrplan-Problem exakt zu lösen, wurde ein Branch-and-Bound-Algorithmus entwickelt. Insgesamt liefert der Branch-and-Bound-Ansatz bereits nach kurzer Zeit gute Fahrpläne für die Jahresbericht 2003

96

Berichte der Institute und Fachbereiche

untersuchten Instanzen der KVB. Im Weiteren wurden Zerlegungen und Reduktionen des Streckennetzes untersucht, um optimale Fahrpläne für größere Streckennetze schneller berechnen zu können. Dieser neue Ansatz der Fahrplanoptimierung ermöglicht es, zuverlässigere Fahrpläne zu erzeugen. Die Pünktlichkeit spielt eine herausragende Rolle, da Unpünktlichkeit von den Fahrgästen nur begrenzt akzeptiert wird. Ein Simulationssystem für Fahrpläne des ÖPNV bestehend aus den drei Komponenten standardisiertes Datenmodul, Simulationsmodul und browsergestützte grafische Benutzeroberfläche (GUI) wird seit einiger Zeit am Lehrstuhl Prof. Dr. Speckenmeyer entwickelt. Im Zentrum der Betrachtungen steht hierbei die Robustheit untersuchter Fahrplanalternativen, gemessen als Summe aller Verspätungen von Bahnen, die aus in den Tagesablauf eingebrachten Störungen des Betriebsablaufs resultieren. Die ursprüngliche Simulation mittels Zellularautomaten wurde verfeinert auf eine Auflösung von 10 Metern pro Zelle. Ferner wurden die Wahrscheinlichkeitsverteilungen für Haltezeiten an Haltepunkten und Ampeln realitätsnäher modelliert, wodurch der relative Einfluss der unterschiedlichen Störgrößen realistischere Resultate liefert. Genauere Erkenntnisse über Staubildung und auflösung, Auswirkungen erhöhten Fahrgastaufkommens und Konsequenzen von in Szenarien zusammengefassten Störungen können bis auf die Ebene einzelner Linien und Haltepunkte analysiert werden. Durch Performance-Tuning konnte die Rechenzeit trotz einer wesentlich erhöhten Anzahl von zu protokollierenden Ereignissen teilweise sogar gesenkt werden. Ferner wurden die Datenbasis verfeinert und die neuen Angaben automatisiert auf Konsistenz geprüft und bereinigt. Eine detailliertere Simulationsmethodik, die Geschwindigkeitsvergleiche mehrerer Implementationen von Priority Queues in einem realen Anwendungsszenario gestattet, wird derzeit programmiert. (Zülfükar Genc, E-Mail: [email protected], Gero Lückemeyer, E-Mail: [email protected])

5.3.3

Das Satisfiability Problem (SAT)

Im Rahmen unserer Forschungsarbeiten beschäftigen wir uns mit verschiedenen Varianten eines zentralen Problems der Informatik - dem Satisfiability Problem (SAT): zu einer gegebenen Booleschen Formel eine erfüllende Belegung zu finden. Das SAT-Problem hat viele praktische Anwendungen, beispielsweise beim Schaltkreisentwurf, der Testmustergenerierung, im Bereich der Künstlichen Intelligenz und der logischen Programmierung. Darüber hinaus ist das SAT-Problem von signifikanter Bedeutung für die Klasse der NP-vollständigen Probleme. Es war das erste Problem, dessen NP-Vollständigkeit gezeigt wurde. Ein NP-vollständiger Spezialfall von SAT ist NAESAT: man betrachtet Boolesche Formeln, für die sowohl die Formel als auch deren komplementäre Formel eine erfüllende Belegung haben. Für SAT kann man, indem man die Anzahl vorkommender Klauseln zu der Anzahl vorkommender Variablen in Beziehung setzt, eine Wahrscheinlichkeit für die Existenz einer erfüllenden Belegung angeben. In ähnlicher Weise haben wir experimentell Schranken für die Erfüllbarkeit von NAESAT-Formeln bestätigen können. Weiterhin haben wir das Problem der Kreuzungsminimierung in Levelgraphen mit Hilfe von SAT untersucht: Ein Graph wird in eine äquivalente SAT-Formel überführt, wobei jede Kreuzung im Graphen einer Klausel in der SAT-Formel entspricht. Durch Berechnung einer maximalen erfüllenJahresbericht 2003

Berichte der Institute und Fachbereiche

97

den Belegung der Formel (MaxSAT) wird die Anzahl der Kreuzungen minimiert. Als Verfahren wurden das bewährte, komplett randomisierte WalkSat-Verfahren und das neuere, komplett deterministische TabuSat-Verfahren untersucht. Durch experimentelle Studien ermittelten wir Parameter für diese Problemklasse, mit denen TabuSat schneller und bessere Ergebnisse liefert als WalkSat. Die experimentellen Studien wurden auf Rechnern des Lehrstuhls, insbesondere einem PC-Cluster mit 8 Athlon-MP 1800+ Dual-Prozessoren und 2 GB Hauptspeicher je Knoten, durchgeführt. Eine Benutzung der Sun-Server des RRZK (z.B. suns15k), um speicheraufwändigere Tests durchzuführen, ist beabsichtigt. (Mattias Gärtner, E-Mail: [email protected], Jens Rühmkorf, E-Mail: [email protected], Ewald Speckenmeyer, E-Mail: [email protected])

5.3.4

Weitere Berichte

Ein weiterer Bericht über Bestimmung exakter Grundzustände von Spingläsern im Isingmodell ist in Kapitel C Abschnitt 3 nachzulesen.

5.4

I. Physikalisches Institut

Homepage: http://www.ph1.uni-koeln.de

5.4.1

Bericht über die Kooperative Informationsverarbeitung

Spezielle Rechner- und Netzwerksysteme am I. Physikalischen Institut: •

lokale AFS Zelle ph1.uni-koeln.de: - 4 AFS Datenbank- / Fileserver mit insgesamt 28 registrierten Benutzern und 1,25 TB OnlineFestplattenkapazität, wovon 720 GB als Raid Level 1 realisiert sind - vollautomatisches wöchentliches Datenbackup auf die TSM Bandroboter des ZAIK/RRZK - 18 AFS Client Workstations - lokales DVD und DDS-4 DAT Laufwerk



Rechnersystem für numerische Simulationen von astrophysikalischen Fragestellungen: - Intel Xeon Doppelprozessor-System 3,06 GHz Taktfrequenz 6 GB Hauptspeicher 70 GB SCSI Ultra-160 Festplattenkapazität - Intel Xeon 4-Prozessor-System 2,8 GHz Taktfrequenz 16 GB Hauptspeicher 60 GB Festplattenkapazität Jahresbericht 2003

98

Berichte der Institute und Fachbereiche

Wartung und Administration des Netzwerks und der Rechnerhardware: Die Administration und Betreuung der Netzwerkdienste (IP, WWW, FTP, AFS), sowie der zentralen Server und Drucker des I. Physikalischen Instituts wird von einer Gruppe aus Post-Docs und Doktoranden durchgeführt. (Ansprechpartner: Dr. C. Straubmeier, E-Mail: [email protected])

5.4.2

Projekt zur Visualisierung von Galaxiensimulationen in Kooperation mit dem ZAIK/RRZK: Astrophysikalische Forschung mit Galaxiensimulationen

Seltsam geformte Galaxien sind ein häufig beobachtetes Phänomen im Universum. In vielen Fällen lässt die ungewöhnliche Form auf Wechselwirkungen mit Nachbargalaxien schließen. Derartige Kollisionen und Verschmelzungen von Galaxien haben weitreichende Auswirkungen auf die Gasund Sternkomponenten der Galaxien und werden als Ursache für die Entstehung von Quasaren diskutiert. Am I. Physikalischen Institut werden numerische Simulationen zu Galaxienkollisionen durchgeführt. Diese stellen ein wichtiges Hilfsmittel bei der Interpretation von Beobachtungsdaten dar, die lediglich ein unvollständiges Bild von Galaxien vermitteln können. So liefern Teleskopaufnahmen nur Informationen über die zweidimensionale Himmelsprojektion einer Galaxie und - falls Spektrallinien messbar sind - über die eindimensionale Geschwindigkeitsverteilung im Galaxiengas oder in den Galaxiensternen entlang der Beobachtungssichtlinie. Erschwerend kommt hinzu, dass Galaxien aufgrund ihrer langen Entwicklungszeiten nur in Momentaufnahmen beobachtet werden können. Die dreidimensionale Struktur und die Entwicklungsgeschichte von Galaxien kann in Computersimulationen rekonstruiert und damit die Frage nach vergangenen Wechselwirkungen untersucht werden. Visualisierung der Simulationsdaten mit dem Open Data Explorer Da die Strukturen, die bei Wechselwirkungen oder sogar Verschmelzungen einzelner Galaxien entstehen, sehr komplex sind, ist eine räumliche visuelle Darstellung der Simulationsergebnisse von großem Vorteil. Der IBM Research Open Visualization Data Explorer (OpenDX) liefert einfache Lösungen, um Simulationsdaten zu importieren, räumlich drehbar und farbkodiert darzustellen sowie Zeitreihen wiederzugeben (http://www.uni-koeln.de/themen/Graphik/Visualization/ DataExplorer). Der Open Data Explorer bietet zahlreiche Module mit festgelegten Aufgaben von der Datenmanipulation bis hin zur Visualisierung. Die Programmierung erfolgt durch den interaktiven Entwurf von Datenablaufplänen (so genannten Netzwerken) unter Verwendung jener Module. Ist das Netzwerk einmal aufgebaut, kann die Steuerung der Visualisierung in graphische Benutzeroberflächen (Abb. 1) eingebaut werden, so dass beim Anwender keine Kenntnis der Skript- und Modulsprache vorausgesetzt werden muss.

Jahresbericht 2003

Berichte der Institute und Fachbereiche

99

Abbildung 1: Beispiel einer graphischen Benutzeroberfläche zum Einlesen und Darstellen der Daten aus Galaxiensimulationen Im Rahmen der Visualisierung von Galaxiensimulationen hat sich eine effiziente Kooperation zwischen dem I. Physikalischen Institut und dem ZAIK/RRZK herausgebildet. Gemäß den speziellen Anforderungen bei den Galaxiendaten stellte Herr Volker Winkelmann vom ZAIK/RRZK Visualisierungsnetzwerke zusammen, die im I. Physikalischen Institut anhand der graphischen Oberflächen bequem verwendet werden können. Visualisierungsmöglichkeiten am Beispiel jüngster wissenschaftlicher Ergebnisse Die Ergebnisse des Visualisierungsprojekts lassen sich am Beispiel der Simulationen für die Wirtsgalaxie des Quasars 3C 48 verdeutlichen. Für diese Galaxie konnte erfolgreich gezeigt werden, wie sich bisherige Vorbehalte gegen die Theorie einer vorangegangenen Wechselwirkung ausräumen Jahresbericht 2003

100

Berichte der Institute und Fachbereiche

lassen. Um das momentane Aussehen der 3C 48 Galaxie zu reproduzieren, wurde im Computer eine Verschmelzung zweier gegeneinander gekippter Scheibengalaxien simuliert (Abb. 2).

Abbildung 2: Zeitreihe einer Verschmelzung von zwei Scheibengalaxien dargestellt mit dem Open Data Explorer. Während der Kollision bilden sich durch Gezeitenkräfte zwei starke Spiralarme. Die Simulationen basieren auf einer numerischen Methode, bei der Galaxien entsprechend ihrer Massenverteilung durch eine Vielzahl von Teilchen modelliert werden. In Form von Listen werden bei dieser Vielteilchenmethode jedem einzelnen Teilchen eine Masse, eine Position und ein Geschwindigkeitsvektor zugeordnet. Da Galaxien in erster Näherung als stoßfreies System aus Sternen betrachtet werden können, ist ihre Dynamik hauptsächlich durch die Gravitationskraft zwischen den einzelnen Sternen bestimmt. Dementsprechend ergibt sich die zeitliche Entwicklung der Vielteilchensimulation aus der Beschleunigung, die jedes Teilchen aufgrund der Massenanziehung aller anderen Teilchen erfährt. In regelmäßigen Zeitabständen werden Momentaufnahmen der Simulation wiederum als Teilchenlisten mit Massen, Positionen und Geschwindigkeiten ausgegeben. Zur Klärung der Frage, ob die angenommene Startsituation zweier kollidierender Scheibengalaxien tatsächlich zum beobachteten Aussehen der 3C 48 Galaxie führen kann, muss jede Momentaufnahme unter allen Projektionswinkeln untersucht werden. Das von Herrn Winkelmann programmierte Netzwerk erlaubt, die Momentaufnahmen in den Data Explorer einzulesen und die verschmelzenden Galaxien mit Hilfe der graphischen Benutzeroberfläche in beliebige Richtungen zu drehen. Um die Entwicklung der ursprünglichen Einzelgalaxien nachzuvollziehen, können Intervalle der Teilchenlisten einzeln angesprochen werden und mit unterschiedlichen Farben versehen werden. Zudem kann per Benutzeroberfläche eine Darstellung mit Bildzeichen („Glyphs“) gewählt werden, in der die Teilchen entweder als Kugeln oder entsprechend ihrer Geschwindigkeit als Vektorpfeile repräsentiert werden (Abb. 3, Abb. 4). Alternativ erlaubt „Volumen-Rendering“ eine Visualisierung der Teilchendichte. Werden statt der Positionsdaten der Teilchen die Geschwindigkeitsdaten weiter verarbeitet, können Absolutgeschwindigkeiten berechnet und in Intervallen dargestellt werden, um einen ersten Eindruck über die Gesamtdynamik der verschmelzenden Galaxien zu gewinnen. Mit Hilfe des programminternen Sequenzer-Moduls können Rotationen um vorgegebene Achsen abgespielt und als Bildreihe aufgenommen werden. Der Sequenzer kann ebenfalls benutzt werden, um Serien aufeinander folgender Momentaufnahmen zu importieren und in einem Film über den Ablauf der Galaxienkollision abzuspeichern. Jahresbericht 2003

Berichte der Institute und Fachbereiche

101

Abbildung 3: Glyph-Darstellung der Galaxien unter Verwendung von Kugelbildzeichen

Abbildung 4: Glyph-Darstellung mit Vektorpfeilen für das Geschwindigkeitsfeld. Die Farbkodierung gibt die Absolutgeschwindigkeit wieder. Anwendung bei der Präsentation wissenschaftlicher Ergebnisse Die Möglichkeiten der Visualisierung mit dem Data Explorer wurden bisher vor allem für einen Workshop-Vortrag genutzt, in dem die Simulationen zur 3C 48 Galaxie in einer Powerpoint-Präsentation vorgestellt wurden. Insbesondere liefern die Simulationen neue Ergebnisse in Bezug auf einen zweiten Spiralarm, der bei der Verschmelzung zweier Galaxien zu erwarten ist (Abb. 2) und dessen Fehlen bei 3C 48 als ein Argument gegen die Verschmelzungstheorie gewertet wird. Wie sich nun zeigt, kann dieser Arm aber durch die entsprechende Projektion vor die Hauptgalaxie gedreht werden, so dass er in Teleskopaufnahmen unsichtbar ist. Die komplexe räumliche Struktur, die diesen Effekt möglich macht, lässt sich schnell und instruktiv in einem Film vermitteln, der die räumliche Drehung der verschmolzenen Galaxien zeigt. Die eindrucksvollen Bilder aus Galaxiensimulationen eignen sich insbesondere zur Präsentation vor fachfremdem Publikum. Am Tag der offenen Tür der Physikalischen Institute am 14. Februar Jahresbericht 2003

102

Berichte der Institute und Fachbereiche

2004 wurden Bilder von Simulationen gezeigt, und es bestand für Besucher die Möglichkeit, am Bildschirm simulierte Galaxien zu drehen. Zunehmend soll die neue Visualisierungsmethode auch zur Präsentation der Galaxiensimulationen im Internet genutzt werden. (Ansprechpartnerin: Julia Scharwächter, E-Mail: [email protected], Dr. C. Straubmeier, E-Mail: [email protected])

5.5

II. Physikalisches Institut

Homepage: http://www.ph2.uni-koeln.de Einleitung Der Forschungsschwerpunkt des II. Physikalischen Instituts liegt auf dem Gebiet der experimentellen Festkörperphysik. EDV wird vor allem für die Erfassung und Auswertung von Messdaten eingesetzt, daneben zum Erstellen von Publikationen, Postern und sonstigen Präsentationen. Dafür steht ein heterogener Cluster aus Windows- und Linux-Arbeitsplatz- und Messrechnern, NT/ W2003-Servern und 2 Sun-Ultra Servern, einer unter Solaris, der andere unter Linux, zur Verfügung. Das System ist durch Glasfaserkabel vernetzt. Der Solaris-Server ist mit einem RAID-Festplattensystem ausgestattet und dient als Mailserver und zur zentralen Ablage und Sicherung von Messdaten. Er erlaubt Mitgliedern des Instituts, die z.B. an Großgeräten außerhalb der Universität Messungen durchführen, die dort gewonnenen Messdaten nach Köln zu übertragen und auf die dort abgelegten Daten zuzugreifen. Der Linux Server beherbergt die Webseite des Instituts. Zusätzlich zu den Rechnern in den Büros und Labors stehen Arbeitsplätze in zwei Computerräumen zur Nutzung durch Studenten und Gäste zur Verfügung; in diesen Räumen befinden sich auch zentral genutzte Geräte wie Drucker und Scanner. Für die Textverarbeitung werden TeX/LaTeX und Office-Programme (Microsoft, StarOffice) eingesetzt. Zur Datenauswertung werden neben selbst geschriebener Software Standard-Pakete wie Origin, Maple und Matlab verwendet. Besonders rechenintensiv ist die Auswertung von Röntgenbeugungs-Experimenten, bei der sehr umfangreiche Datenmengen verarbeitet werden müssen (siehe unten Beispiel 1). Begleitend zu der experimentellen Arbeit werden im Institut auch theoretisch/numerische Arbeiten durchgeführt (siehe unten Beispiel 2); dafür wird ein eigener unter Linux laufender PC genutzt. Für umfangreiche und speicherintensive Berechnungen wird zusätzlich die Kapazität des Rechenzentrums genutzt. Im Sommersemester 2004 wird zum ersten Mal eine Lehrveranstaltung zur Simulation der elektronischen Struktur von Festkörpern stattfinden. Für das Praktikum zu dieser Vorlesung steht ein weiterer Rechner unter Linux zur Verfügung, auf den die Teilnehmer an der Lehrveranstaltung zugreifen können um ihre selbst geschriebenen Simulationen auszuführen und zu testen. In dem vom II. Physikalischen Institut angebotenen Praktikum für Fortgeschrittene werden mehrere PCs und eine digitale Kamera zur Messdaten-Erfassung eingesetzt. Für das Praktikum wird auch die Homepage des Instituts genutzt, auf der Informationen zu den Versuchen abgerufen werden können. In der feinmechanischen Werkstatt des Instituts wird AutoCAD zur Konstruktion von Werkstücken und Messapparaturen genutzt und für die Ausbildung eingesetzt.

Jahresbericht 2003

Berichte der Institute und Fachbereiche

103

Abb. 1: Röntgenbild von einem LaTiO3 Einkristall. Oben: Graustufendarstellung des Kamerabildes, unten 3D Darstellung der Intensitäten. Beispiel 1: Kristallstrukturbestimmung Die meisten Experimente im II. Physikalischen Institut werden an Kristallen durchgeführt. Viele der untersuchten Kristalle sind im Institut gezüchtet worden. Die im Institut vor allem untersuchten Übergangsmetall-Oxide haben aufgrund ihrer Struktur eine große Anzahl von Möglichkeiten, von der idealen Kristallstruktur durch Verzerrung oder Verkippung abzuweichen. Diese Abweichungen haben einen direkten Einfluss auf wichtige physikalische Eigenschaften und werden daher sehr sorgfältig mit Röntgenbeugung untersucht. Bei dieser Methode macht man sich zu Nutze, dass die Wellenlänge von Röntgenlicht in etwa dem Abstand von zwei Atomen in einem Kristall entspricht. Deshalb wirkt ein Kristall auf Röntgenlicht wie ein optisches Gitter auf sichtbares Licht: die Lichtintensität wird in bestimmte Richtungen in so genannte Röntgenreflexe gebündelt. Aus der Lage dieser Reflexe lässt sich die Kristallstruktur bestimmen. Für eine zuverlässige Strukturuntersuchung müssen viele hundert, oft mehrere tausend dieser Reflexe vermessen werden. Dafür stehen eine Reihe von Röntgendiffraktometern zur Verfügung, von denen das leistungsfähigste, ein Bruker X8 Apex, ein komplexes Messprogramm im wesentlichen automatisiert durchführen kann. Als Detektor für die Röntgenreflexe dient eine Röntgen-CCD Kamera, die einen großen Winkelbereich erfasst. Abb. 1 zeigt ein Beispiel für eine einzelne Kameraaufnahme von einem LaTiO3 Einkristall. Der obere Teil der Abbildung zeigt direkt das Kamerabild in Graustufen, die schwarzen Flecken sind die einzelnen Röntgenreflexe. Im unteren Teil von Abb. 1 ist die Intensität der Reflexe als Höhe aufgetragen. Jahresbericht 2003

104

Berichte der Institute und Fachbereiche

Abb. 2: Aus den Daten in Abb. 1 bestimmte Kristallstruktur von LaTiO3.

Intensity (arb. units)

CoO L2-edge

T= 400K T= 300K T= 200K T= 150K T= 100K T= 77K

theory

experiment 793 794 795 796 797 798 Photon energy (eV) Abb. 3: Berechnete und gemessene Röntgenabsorptions-Spektren von CoO. Die Gesamtmessung eines Kristalls besteht aus einigen tausend solcher Aufnahmen und dauert mehrere Tage. Dabei fallen etwa 1 GB Rohdaten an, die dann von der Software des Diffraktometers reduziert und integriert werden. Diese Prozedur dauert auf einem Pentium 4 mit 2,8 GHz und 1 GB Arbeitsspeicher etwa 30 Minuten. Darauf folgt die wesentlich zeitaufwändigere interaktive StrukturJahresbericht 2003

Berichte der Institute und Fachbereiche

105

verfeinerung, die schließlich zur Aufklärung der Struktur führt. In Abb. 2 ist die Kristallstruktur gezeigt, wie sie aus den oben gezeigten Daten ermittelt wurde. Blau sind die Sauerstoff-Ionen, grün die Titan-Ionen. Lanthan sitzt in der Mitte der Ti-Würfel und ist hier nicht zu sehen. Gut zu erkennen ist das komplizierte Verkippungs-Muster der Sauerstoff-Oktaeder. (M. Cwik, W.-D. Stein, M. Braden) Beispiel 2: Simulation von Röntgenabsorptions-Spektroskopie Röntgenabsorptions-Spektroskopie ist eine besonders leistungsfähige Methode, um die elektronische Struktur von Übergangsmetall-Oxiden zu untersuchen. Man misst dabei, wie stark Röntgenlicht unterschiedlicher Energie in einer Probe absorbiert wird. An modernen Synchrotronstrahlungsquellen wie der ESRF in Grenoble, BESSY in Berlin oder NSRRC in Hsinchu, Taiwan, die intensive Röntgenstrahlung mit variabler Energie zur Verfügung stellen, können solche Messungen durchgeführt werden. Die Stärke der Absorption ändert sich dramatisch, wenn die Energie des Röntgenlichts gerade eine elektronische Anregung in der Probe verursacht. Man erhält ein kompliziert aussehendes Spektrum, das eine Fülle an Informationen über die magnetischen Eigenschaften der Probe, die Wertigkeit der Ionen, die Besetzung einzelner Orbitale usw. enthält. Zur quantitativen Auswertung der Spektren wird eine Cluster-Rechnung verwendet, deren theoretische Grundlagen zwar schon länger bekannt sind, die aber erst mit der Rechenleistung moderner Computer effektiv zur Simulation von Spektren nutzbar ist. Typischerweise muss für eine einzelne dieser Berechnungen eine Matrix von 200.000 mal 200.000 Werten diagonalisiert werden, was für moderne PCs aber kein besonderes Problem darstellt. Ein Beispiel für ein so gewonnenes Ergebnis ist die in Abbildung 3 gezeigte Temperaturabhängigkeit der 2p1/2 nach 3d Anregung von CoO. Die unteren Kurven sind die Messdaten, die oberen Kurven sind berechnet und reproduzieren das experimentell beobachtete Verhalten sehr gut. Aus den Modellparametern, die die beste Übereinstimmung mit dem Experiment liefern, kann man z.B. erkennen, dass die Eigenschaften von CoO stark von Spin-Bahn-Kopplung beeinflusst werden. (M. Haverkort, Z. Hu, L. H. Tjeng) Hardwareausstattung 1 Sun Ultra Enterprise (Solaris; Fileserver, Mailserver) 1 Sun Ultra 60 (Linux; Apache Webserver) diverse PCs mit Windows NT 4.0 Domänenserver, Clients: Windows 95/98/NT/2000/2003/XP, Linux 3 Netzwerk-Laserdrucker (ca. 6000 Seiten pro Monat) 4 Tintenstrahldrucker Art der Vernetzung Glasfasernetzwerk, TCP/IP Protokoll. Räumliche Unterbringung der Geräte Überwiegend in Arbeitsräumen und Büros, zwei zentrale Rechnerräume mit einigen Arbeitsplätzen, Druckern, Scannern. Jahresbericht 2003

106

Berichte der Institute und Fachbereiche

Personelle Betreuung 3 Teilzeit-Administratoren. (Dr. Christian Schüßler-Langeheine, E-mail: [email protected])

5.6

Institut für Theoretische Physik

Homepage: http://www.thp.uni-koeln.de/

5.6.1

Weltrekord bei Perkolations-Theorie

„Perkolation“ ist nicht ein „obscure branch of applied mathematics“, wie es das amerikanische Nachrichtenmagazin „Newsweek“ zum Jahreswechsel 2003/4 behauptete, sondern wurde 1941 vom späteren Chemie-Nobelpreisträger Paul Flory erfunden, um Gelierung von Polymeren und Vulkanisierung von Gummi zu erklären. Computersimulationen macht man am besten auf einem regulären Gitter: Jeder Gitterplatz ist zufällig entweder besetzt oder frei. Cluster sind Mengen benachbarter besetzter Plätze. Wieviele Cluster gibt es, die von einem Ende des Gitters bis zum anderen reichen? Bis 2003 war der Konsens, dass für sechs und mehr Dimensionen die Zahl dieser durchreichenden Cluster gegen unendlich geht, wenn die Gittergröße gegen unendlich geht. In fünf und weniger Dimensionen war dagegen nur eine endliche Zahl solcher Cluster erwartet. Neue Simulationen zeigen aber bereits in fünf Dimensionen einen Anstieg der Zahl der durchreichenden Cluster proportional zu log (L), wenn L die Kantenlänge des simulierten Würfels ist. Die Kantenlänge L ging bis 201, was wohl die bisher größten fünfdimensionalen Systeme darstellt, die Platz für Platz simuliert wurden: 328 Milliarden Plätze. Kölner Computer wurden dabei durch größere in Jülich und Haifa unterstützt. Das Beispiel macht auch klar den Vorteil von ComputerExperimenten gegenüber Labor-Experimenten: Im Labor können ein, zwei und drei Raumdimensionen untersucht werden, nicht aber fünf. Damit können Computer einen größeren Bereich von Theorien überprüfen als Labors. Und wenn eine Theorie in fünf Dimensionen nicht stimmt, kann man sie auch für drei Dimensionen bezweifeln. (Prof. D. Stauffer, Theoretische Physik, E-Mail:[email protected])

5.6.2

Weitere Berichte

Ein weiterer Bericht über Untersuchungen stark korrelierter Systeme mittels Flussgleichungen ist in Kapitel C Abschnitt 4 nachzulesen.

5.7

Institut für Anorganische Chemie

Homepage: http://www.uni-koeln.de/math-nat-fak/anorgchem/ Drei Berichte über Einfluss elektronenziehender Substituenten auf die Chemie des Phosphors, Theoretische Untersuchung zur Bildung von Oxadisulfan (HSOH) bzw. Mikrowellenspektroskopische Charakterisierung unbekannter Moleküle sind in Kapitel C Abschnitt 5 nachzulesen.

Jahresbericht 2003

Berichte der Institute und Fachbereiche

5.8

107

Institut für Organische Chemie

Homepage: http://www.oc.uni-koeln.de

5.8.1

Bericht über die Kooperative Informationsverarbeitung

Allgemeines Das Institut für Organische Chemie arbeitet in sieben Forschungsgruppen hauptsächlich auf dem Gebiet der synthetischen Organischen Chemie. Darüber hinaus sind drei größere analytische Servicezentren (Massenspektrometrie, Kernresonanzspektroskopie und Röntgenstrukturanalyse) vorhanden, die sowohl mit ihren spezifischen Dienstleistungen die synthetisch arbeitenden Gruppen unterstützen, als auch eigene Forschung betreiben. Zahlreiche typische Arbeitsabläufe in der heutigen chemischen Forschung sind in vielfältiger Weise auf die "IT-Technologie" angewiesen, wobei insbesondere die Bereiche Gerätesteuerung, Meßwerterfassung und -auswertung, Datenbankanwendungen, Literaturbeschaffung ("elektronische Zeitschriften"), "Computational Chemistry" (vgl. hierzu auch Beitrag in Teil C), Kommunikation, Antragsstellung und Berichtserstattung sowie Verwaltung zu nennen sind. All diese Aufgabenbereiche sind in besonderer Weise auf eine Vernetzung angewiesen, die teilweise über das Institutsnetzwerk oder, insbesondere im Bereich der Meßtechnik, über kleine lokale Netzwerke realisiert wird. Im Bereich der Datenbanknutzung sind im wesentlichen SciFinder Scholar, MDL CrossFire (Beilstein), ISI Web of Science und die Cambridge Structural Database zu nennen. Da diese Produkte, ebenso wie die sehr wichtigen elektronischen Zeitschriften ("Online Journals"), extern bereitgestellt werden, ist damit auch eine hochverfügbare Internetanbindung unverzichtbar. Ohne Zugriffsmöglichkeit auf diese und weitere Datenbanken ist eine hochwertige, international konkurrenzfähige chemische Forschung heute nicht mehr realisierbar. Neben ihrem unverzichtbaren Einsatz in der Forschung wird die IT-Technologie auch maßgeblich im Bereich der Lehre in unserem Institut eingesetzt. Diesbezüglich sind vor allem die Projektion in den Hörsälen, die direkte Nutzung neuer Medien (z.B. ECTN: http://www.cpe.fr/ectn) und die Ausbildung der Studenten in den oben genannten forschungsbezogenen Anwendungen zu nennen. Hardwareausstattung Die eingesetzte Hardware ist durch das vielfältige Aufgabenspektrum sehr heterogen. Neben zahlreichen PCs (Windows XP, 2000 und NT) werden verschiedene Linux-Rechner (teilweise als Cluster), Silicon Graphics Computer (Octane, O2 und Indy) sowie DEC-Computer verwendet. Netzwerk Das Netzwerk ist im gesamten Gebäude zu den zentralen Switches auf Twisted-Pair-Basis ausgeführt, der Uplink ist über Glasfaser (1 GBit/s) realisiert. Insgesamt werden ca. 300 Maschinen in zwei Class C Subnetzen betrieben.

Jahresbericht 2003

108

Berichte der Institute und Fachbereiche

Kooperation mit dem Rechenzentrum Das Institut für Organische Chemie kooperiert mit dem RRZK in verschiedenen Bereichen. Insbesondere nutzen wir stark die Compute-Server des RRZK, hauptsächlich zur quantenchemischen (QC) Berechnung von Molekülen (vgl. dazu auch Beitrag in Teil C). Eng damit verbunden, aber nicht nur auf die QC-Programme beschränkt, ist die Beschaffung und Bereitstellung von Programmen und Datenbanken, an der sich das Institut auf unterschiedliche Weise beteiligt. In diesem gesamten Zusammenhang ist insbesondere die sehr wichtige Funktion des RRZKFachbereichsbetreuers Chemie (Dr. Lars Packschies) hervorzuheben, dessen Tätigkeit sowohl bei der Koordinierung der Beschaffungen sowie der Bereitstellung und dem effizienten Einsatz der Software unverzichtbar ist. Neben diesem engen Kontakt, der über die genannten technischen Belange hinaus auch wissenschaftliche Aspekte betrifft, sind die in jedem Semester von Dr. Packschies angebotenen Chemiesoftware-Kurse im CIP-Raum der Chemischen Institute für Studenten, Diplomanden und beginnende Doktoranden eine wertvolle Einstiegshilfe für spätere wissenschaftliche Arbeiten. Eine enge Zusammenarbeit zwischen unserem Institut und dem RRZK besteht darüber hinaus im Bereich der Internetanbindung und -sicherheit. (Dr. Dirk Blunk, E-Mail: [email protected])

5.8.2

Weitere Berichte

Zwei weitere Berichte über Quantenchemische Studien zu Diels-Alder-Reaktionen bzw. Theoretische Untersuchungen zur Arsonsäure-katalysierten Epoxidierung terminaler Olefine mit Wasserstoffperoxid sind in Kapitel C Abschnitt 6 nachzulesen.

5.9

Institut für Physikalische Chemie Professur für Statistische Thermodynamik

Homepage: http://www.uni-koeln.de/math-nat-fak/phchem/ Arbeitsgruppe Prof. Dr. Deiters — Homepages: http: //www.uni-koeln.de/math-nat-fak/fgchemie/group/deiters.htm http: //www.uni-koeln.de/math-nat-fak/phchem/deiters/index.html

5.9.1

Bericht über die Kooperative Informationsverarbeitung

Austattung: • 7 Hewlett-Packard RISC-Workstations (verschiedene Modelle von 715/64 bis zu C3000) • 3 Linux-Rackserver (Dual Xeon 2,4 GHz), über Gigabit-Switch verbunden • diverse Peripherie: Scanner, mehrere Laserdrucker, Backup-Systeme (DDS- und MO-Laufwerke), Switches, USV

Jahresbericht 2003

Berichte der Institute und Fachbereiche

109

Administration Die Administration der Rechner wird von den Benutzern wahrgenommen. Besonderheiten Die Workstation stthd0.pc.uni-koeln.de dient als sekundärer Nameserver für das Institut. Nutzung der Rechner Quantenmechanische Rechnungen werden wegen ihrer speziellen Anforderungen auf den LinuxServern der Arbeitsgruppe sowie auf den großen Servern des Rechenzentrums durchgeführt (z.B. Sunfire). Für die Computersimulationen werden im wesentlichen die Linux-Server und die neueren HP-Workstations verwendet; die anderen Maschinen dienen als Benutzer-Arbeitsplätze bzw. steuern Peripheriegeräte. Auf den Linux-Servern wird ferner das Computeralgebra-Programm Maple zur Verfügung gestellt. Alle Rechner der Arbeitsgruppe können untereinander Dateien per NFS austauschen. AFS ist nur auf einigen Workstations installiert, weil es sehr oft Anlass zu Störungen gibt. Backups werden lokal erzeugt. Da die Arbeitsgruppe aktiv Computerprogramme für Simulationen und Mischphasenthermodynamik entwickelt, ist es wichtig, dass auf den Servern des Rechenzentrums eine geeignete Programmierumgebung zur Verfügung steht.

5.9.2

Projekt: Globale Simulation unpolarer Flüssigkeiten

Warum sammelt sich Wasser normalerweise spontan am Boden eines Gefäßes und bildet einen zusammenhängenden Körper, eine sogenannte flüssige Phase? Offensichtlich wirken zwischen den Molekülen von Flüssigkeiten Kräfte, die für einen Zusammenhalt sorgen. Durch genügend große Energiezufuhr in Form von Wärme kann man sie überwinden: Die Flüssigkeit verdunstet oder siedet, und der Dampf verbreitet sich — ohne einen erkennbaren Zusammenhalt — im ganzen zur Verfügung stehenden Raum. Die Stärke dieser Kräfte kann von Substanz zu Substanz stark variieren, und entsprechend unterschiedlich sind die Siedetemperaturen. So findet man z.B. für Heptan (Bestandteil von Benzin) unter Normaldruck eine Siedetemperatur von 98,3 °C, für Butan (Bestandteil von sog. Flüssiggas, Arbeitsmedium in modernen Kühlanlagen) -0,5 °C, für Stickstoff -195,8 °C, oder für das Edelgas Neon -246,1 °C. Warum eigentlich? Und welche Kräfte sind hier am Werk? Wenn unser derzeitiges Weltbild richtig ist, lassen sich alle Naturphänomene auf vier Wechselwirkungen zurückführen: Gravitation, starke und schwache Kraft, elektromagnetische Wechselwirkung. Von diesen ist aber nur die letztere für Kräfte zwischen Atomen oder Molekülen von Bedeutung. Das physikalische Gesetz, das die elektromagnetische Wechselwirkung charakterisiert (genauer: die elektrostatische Wechselwirkung; magnetische Phänomene spielen hier keine Rolle) wurde bereits im 19. Jahrhundert von Coulomb gefunden. Damit ist eigentlich schon alles Wesentliche bekannt, und man sollte einzig und allein aus den Werten einiger Naturkonstanten (Vakuum-Dielektrizitätskonstante ε0, Ladungen und Massen der Jahresbericht 2003

110

Berichte der Institute und Fachbereiche

Elektronen und der Atomkerne, usw.) z.B. den Siedepunkt von Stickstoff berechnen können! Diese Erkenntnis ist schon mindestens 50 Jahre alt. Ihre Umsetzung erweist sich aber als extrem schwierig. Zunächst einmal ist festzustellen, dass die Berechnung der Elektronenbewegungen um die Atomkerne nach den Gesetzen der Quantenmechanik erfolgen muss, was schon in sich eine erhebliche Komplikation bedeutet. Wenn man auf diese Weise die Gestalt und Ladungsverteilung der eingangs genannten Moleküle berechnet, stellt man fest, dass sie keine oder nur sehr schwach ausgeprägte elektrische Partialladungen tragen, die auf keinen Fall die beobachteten intermolekularen Anziehungskräfte erklären können. Das Geheimnis der Wechselwirkungen zwischen diesen unpolaren Molekülen sind Dispersionskräfte — Kräfte, die auf Kopplungen zwischen zufälligen Fluktuationen der Ladungsverteilungen der Moleküle zurückzuführen sind. Die quantitative Ab-initio-Berechnung solcher Dispersionskräfte ist erst seit kurzem möglich. Wir verwenden hierfür die coupled cluster-Methode, die u.a. im Quantenmechanik-Programm Gaussian® implementiert ist, in Verbindung mit sehr diffusen Basissätzen. Die Rechnungen erfordern extrem viel Rechenzeit sowie Speicherplatz für Zwischenergebnisse in der Größenordnung von einigen Dutzend GB. Sie müssen für eine große Zahl von Molekülabständen und -orientierungen durchgeführt werden. Ein erster Test für die Qualität berechneter Paarpotentiale ist die Voraussage des 2. Virialkoeffizienten. Für die von uns untersuchten Edelgase liegen die Abweichungen der Voraussagen nahe an den experimentellen Fehlerschranken, wie Abb. 2 zeigt. Die so gewonnenen Tabellen der Wechselwirkungsenergien (eine graphische Darstellung bietet Abb. 1) werden dann mit geeigneten analytischen Funktionen interpoliert. Diese Funktionen können dann in klassischen Monte-Carlo-Computersimulationen verwendet werden, um thermodynamische Daten zu berechnen. Hierbei werden Proben von einigen hundert oder tausend Molekülen betrachtet; die Teilchen werden nach bestimmten Regeln zufällig bewegt (daher der Name Monte Carlo), um möglichst viele repräsentative Konfigurationen zu erhalten, aus denen dann die makroskopischen Eigenschaften hochgerechnet werden. Wir setzen speziell die sog. Gibbs-EnsembleMonte-Carlo-Technik [1] ein, um direkt Dampf–Flüssigkeit-Phasengleichgewichte zu bestimmen und damit schließlich Siedepunkte sowie die Dichten und inneren Energien von Dampf und Flüssigkeit zu erhalten. Die Interpolationsfunktion beschreibt nur Wechselwirkungen zwischen Molekülpaaren. Es stellt sich aber heraus, dass diese Wechselwirkungen nicht exakt additiv sind; man muss also sog. Dreikörper-Korrekturen berücksichtigen. Die hier angewandte Methode der Globalen Simulation, d.h. einer Kombination von Ab-initioBerechnungen von Wechselwirkungspotentialen mit thermodynamischen Computersimulationen, lässt sich auch auf Mischungen erweitern. Abb. 3 zeigt ein Hochdruck-Siedediagramm für das Mischsystem (Argon + Krypton). Es handelt sich um die weltweit erste quantitativ gelungene Voraussage eines solchen Mischungs-Phasendiagramms ohne die Verwendung experimenteller thermodynamischer Daten. Es wurden lediglich die Werte der universellen Konstanten benötigt (Plancksches Wirkungsquantum, Lichtgeschwindigkeit, Elementarladung, Vakuum-Dielektrizitätskonstante usw.) [2-6].

Jahresbericht 2003

Berichte der Institute und Fachbereiche

111

106φ(r)/Eh

Ar–Ar

800

Ar–Kr

Kr–Kr

400

0

–400

–800

0

0.2

0.4

0.6

0.8

r/nm

Abb. 1: Paarpotentiale der Dimere Argon–Argon, Argon–Krypton und Krypton–Krypton, angegeben in Hartree-Energieeinheiten. —: experimentelle Ergebnisse, °, ∆ : Ab-initio-Berechnung. Die beiden äußeren Paarpotentiale wurden der besseren Übersichtlichkeit wegen um 0,2 nm verschoben. Für das Argon–Krypton-Potential konnten experimentelle Werte nur für die Lagen des Minimums und des Nulldurchgangs gefunden werden. Die Computersimulationen der hier verwendeten Art werden bei Annäherung an den kritischen Punkt (das Maximum in Abb. 3) systematisch ungenauer. Auch lassen sich nicht alle thermodynamischen Funktionen gleich gut allein durch Simulationen ermitteln. Als Abhilfe kann man eine thermische Zustandsgleichung an die Simulationsdaten anpassen und mit ihr die Zustandsbereiche berechnen, in denen die Computersimulationen unzuverlässig oder zu zeitaufwendig werden [7]. Das Ergebnis ist sehr ermutigend. Nun mag man sich fragen, warum man sich die Mühe machen sollte, ein solches Phasendiagramm zu berechnen, wenn es doch offensichtlich schon gute Messdaten gibt. Aber hier kann man zwei Gründe anführen: • Ob unsere Hypothesen stimmen — alleinige Berücksichtigung elektrostatischer Kräfte, quantenmechanischer Ansatz, coupled cluster-Theorie, usw. — kann man ja nicht a priori wissen; man muss sie überprüfen. Wir können erst jetzt, nach der Beendigung der Rechnungen, feststellen, dass unsere Ergebnisse im Rahmen der derzeit erzielbaren Rechengenauigkeit mit den experimentellen Daten übereinstimmen und daher nichts gegen unsere Annahmen spricht. • Es gibt viele, sehr viele Substanzen und Substanzgemische, für die es keine Messdaten gibt, weil sie z.B. toxisch, korrosiv, explosiv oder chemisch instabil sind. In solchen Fällen könnte sich die Globale Simulation als die Methode der Wahl erweisen, um thermodynamische Daten dieser Systeme zu ermitteln. Jahresbericht 2003

112

Berichte der Institute und Fachbereiche B/cm3mol−1

0

Kr –100

Ar–Kr –200

Ar –300

–400

–500

0

100

200

300

400

500

600

700

T/K

Abb. 2: Virialkoeffizienten von Argon und Krypton sowie Kreuz-Virialkoeffizienten der beiden Gase. —: Ab-initio-Voraussage, °: exp. Daten. Noch vor wenigen Jahren war uns ein Antrag auf Rechenzeit für Globale Simulationen am VonNeumann-Institut in Jülich mit der Begründung abgelehnt worden, so etwas sei aussichtslos. Dass wir diese und noch weitere Rechnungen trotzdem erfolgreich durchführen konnten, verdanken wir der großzügigen Bewilligung von Rechenzeit durch das RRZK/ZAIK sowie dem exzellenten Support. Entscheidend für den Erfolg des Projekts waren der Ideenreichtum, der Enthusiasmus und die Ausdauer der daran beteiligten Mitarbeiter: Matthias Hloucha, Kai Leonhard, Afshin Eskandari Nasrabad und Rozita Laghaei.

Jahresbericht 2003

Berichte der Institute und Fachbereiche

113

p/MPa 7

6

5

4

3

2

1

0

0

0.2

0.4

xAr

0.6

0.8

Abb. 3: Siedediagramm des Mischsystems (Argon + Krypton) bei 158 K. +: °: •: —:

exp. Daten, Globale Simulation ohne Berücksichtigung von Dreikörper-Kräften, mit Dreikörper-Kräften, Extrapolation der Simulationsdaten mit einer Zustandsgleichung.

Literatur [1]

A. Z. Panagiotopoulos, J. Phys. Condensed Matter 12, R25–52 (2000).

[2]

U. K. Deiters, M. Hloucha, and K. Leonhard, Experiments? — no, thank you! , in T. M. Letcher, editor, Chemistry for the 21st Century: Chemical Thermodynamics, IUPAC Monograph Series, pages 187–195. Blackwell Science, Oxford, 1999.

[3]

K. Leonhard and U. K. Deiters, Mol. Phys. 98, 1603–1616 (2000).

[4]

K. Leonhard and U. K. Deiters, Mol. Phys. 100, 2571–2585 (2002).

[5]

A. E. Nasrabad and U. K. Deiters, J. Chem. Phys. 119, 947–952 (2003).

[6]

A. E. Nasrabad, Global simulation of noble gases and their binary mixtures, PhD thesis, University of Cologne, 2003.

[7]

U. K. Deiters, Chem. Eng. Technol. 23, 581–584 (2000).

(Prof. Dr. U. K. Deiters; E-Mail: [email protected])

Jahresbericht 2003

114

5.10

Berichte der Institute und Fachbereiche

Institut für Theoretische Chemie

Ein Bericht über Quantum Chemical Calculation for Organometallic Template ist in Kapitel C Abschnitt 7 nachzulesen.

5.11

Institut für Biochemie

Homepage: http://www.uni-koeln.de/math-nat-fak/biochemie/

Datenbank BRENDA: Enzyme und Metabolismus BRENDA (BRaunschweig ENzyme DAtabase) ist die weltweit größte Sammlung von Daten zu Enzymen und Stoffwechselwegen. Sie wird am Institut für Biochemie der Universität zu Köln in der Arbeitsgruppe von Prof. Dietmar Schomburg in Kooperation mit der Enzymeta GmbH geführt und weiterentwickelt. Zu den Nutzern der Datenbank gehören Biologen, Bioinformatiker, Pharmakologen, Mediziner und Chemiker. Die Datenbank ist für nicht-kommerzielle Anwender frei zugänglich (www.brenda.uni-koeln.de), hat mehr als 10.000 registrierte akademische Nutzer und bearbeitet jeden Monat mehr als 350.000 Anfragen. Enzyme sind Eiweißmoleküle, die sich in allen Zellen des Körpers finden lassen. Dort bewirken sie als Biokatalysatoren eine Beschleunigung der chemischen Reaktionen. Enzyme sind für den Stoffwechsel unverzichtbar, da ohne sie viele Reaktionen gar nicht oder nur in geringem Umfang ablaufen würden. Für verschiedene Ausgangsstoffe (Substrate) und verschiedene chemische Reaktionen gibt es jeweils verschiedene Enzyme. In den meisten Zellen werden weit über tausend Reaktionen durch verschiedene Enzyme katalysiert.

Startseite der Enzymdatenbank BRENDA und Übersicht der verfügbarer Module Die BRENDA-Datenbank beinhaltet umfangreiche Daten zu allen bisher klassifizierten Enzymen. Beispielsweise findet man Informationen zu katalysierten Reaktionen, Funktion, Spezifität, Struktur, Stabilität, sowie zu ihren technischen oder medizinischen Anwendungen, aber auch zu Krankheiten, die durch Enzymdefekte ausgelöst werden. Jahresbericht 2003

Berichte der Institute und Fachbereiche

115

oben: Quick Search bietet einen einfachen und übersichtlichen Zugang zur Enzymdatenbank BRENDA, unten: Das Ergebnis einer Suche in der Ligandendatenbank zeigt einen Link zu einem Bild sowie die Funktion des entsprechenden Liganden an.

Jahresbericht 2003

116

Berichte der Institute und Fachbereiche

oben: Eine Suche in allen chemischen Strukturen kleiner Moleküle erlaubt es, die Struktur, nach der gesucht wird, als Teilstruktur anderer Moleküle zu finden. mitte: Das Ergebnis der Sequenzsuche zeigt die Enzyme, welche die gesuchte Abfolge an Aminosäuren enthält. Aminosäuren sind die Bausteine alle Enzyme. unten: Das Reaktionsdiagramm zeigt die Reaktion, die von einer Enzymklasse katalysiert wird.

Jahresbericht 2003

Berichte der Institute und Fachbereiche

117

Die benutzerfreundliche Oberfläche ermöglicht eine gezielte Suche nach den gewünschten Details. Man kann nach einzelnen Begriffen suchen, oder auch mehrere Begriffe miteinander kombinieren. Ein völlig neues Werkzeug für die Recherche ist die interaktive Suche nach chemischen Verbindungen. Hiermit kann der Nutzer auf dem Bildschirm ein Molekül zeichnen und in der Datenbank nach Enzymen suchen, die mit diesem Molekül in Wechselwirkung treten können. Auf diese Weise lassen sich zum Beispiel Substrate, Hemmstoffe oder Cofaktoren (z.B. Vitamine) suchen. (Prof. Dr. Dietmar Schomburg, E-Mail: [email protected])

5.12

CIP-Raum der Chemischen Institute

Hardwareausstattung Arbeitsplätze 2

Windows-NT Server

:

Dual Pentium, 450 Mhz, 256 MB RAM, 30/50 GB Festplatte

27 Arbeitsplätze

:

Pentium, 400 Mhz, 128 MB, 8 GB Festplatte, ZIP-Drive davon 25 unter Windows2000 2 unter Linux Suse 8.2

1

:

Toshiba tecra T8000DVD/8,2

3 Drucker

:

1 Hewlett Packard 4000, 20 MB, s/w 1 Hewlett Packard 8000 N, 32 MB, s/w 1 Hewlett Packard 4550 N 64 MB, Farbe

2

:

Hewlett Packard 6200C

Notebook

Peripherie

Scanner

Netzwerk 1 Switch vom Typ Catalyst 5505 mit 2x24 Ports 10/100 MBit Präsentation Beamer NEC MultiSync MT1030, Auflösung : 1024 x 768 Software Textverarbeitung Compiler

: MSOFFICE 2000, WordPerfect Suite, TeXLive : Visual C++

Jahresbericht 2003

118

Berichte der Institute und Fachbereiche Grafik Desk-Top-Publishing Mathematische Anwendungssoftware Chemische Editoren, etc. X-Terminal Emulator Chemische Anwendungssoftware

Datenbanken

: : : : : :

CorelDraw PageMaker, FrameMaker, Photoshop Mathematica, Maple ChemOffice Ultra HCL-Exceed, WinaXe Origin,HyperChem, Diamond Gaussian98W, GaussView SpartanPlus, Bruker XWIN-NMR, TopSpin ACD/HNMR /ACD/CNMR Predictor 3.5 : Beilstein, SCI-Finder Scholar

Der zu Beginn des Jahres 1999 neu konzipierte CIP-Raum basiert auf zwei Windows-NT Servern, an die 25 Windows2000 PCs angeschlossen sind. Diese werden ergänzt durch zwei Linux-PCs (SUSE 8.2), so dass die StudentInnen praktische Erfahrungen mit 2 wichtigen Betriebssystemen sammeln können. Die beiden Server dienen als Netzwerk- und Software-Server, wobei der Netzwerk-Server als Primärer Domänen Controller (PDC) und der Software-Server als Backup-Domänen-Controller (BDC) eingerichtet wurde. Auf dem Netzwerk-Server liegen die Server-basierten Accounts, die individuellen Profiles und die Home-Directories der User, sowie ein großer tmp-Bereich. Vernetzung Der CIP-Raum verfügt über ein eigenes Sub-Netz innerhalb des Universitäts-Netzes (UKLAN). Alle Rechner, Server und Drucker sind über FastEthernet an den Switch angeschlossen. Räumliche Unterbringung der Geräte Seit Oktober 2001 ist der CIP-Pool in die Fachbibliothek Chemie integriert, jedoch abgetrennt durch eine verglaste Wand, so dass einerseits die Benutzer der Bibliothek nicht gestört werden und der CIP-Raum andererseits auch für Lehrveranstaltungen genutzt werden kann. Die Öffnungszeiten des CIP-Pools entsprechen denen der Bibliothek. Der CIP-Pool steht somit den StudentInnen täglich von 9.00 - 18.45 Uhr zur Verfügung und wird intensiv genutzt. Anzahl der Nutzer Der CIP-Raum hat momentan ca. 300 studentische Nutzer. Hinzu kommen ca. 50 Mitarbeiter aus den einzelnen Instituten, die auf den CIP-Rechnern Übungen und Seminare vorbereiten und die chemische Anwendungssoftware pflegen. Ausbildungsschwerpunkte der genannten Geräte Schwerpunkt im Ausbildungsprogramm ist die Vorstellung von und die Einführung in vielgenutzte und teilweise aufwendige Chemische Anwendungen aus den Bereichen

Jahresbericht 2003

Berichte der Institute und Fachbereiche

119

• der Quantenchemie

(z. B. GAMESS, Gaussian, Gaussview, Mopac93, Spartan (dieses versehen mit einem graphischen Interface)), • der Strukturanalyse (z. B. IREFL, SHELX97, XTAL) für die Röntgenstrukturanalyse, • der Spektrensimulation (z.B. XWIN-NMR, DNMR5 für die Simulation von NMR Spektren), • Datenbankrecherchen (z.B. CSD, ICSD, Beilstein, SciFinder Scholar). Die verwendeten Programmpakete sind teilweise lokal auf den Rechnern des CIP-Raumes selber installiert, zum anderen stehen sie über das Netz der Universität zu Köln auf den zentralen Servern zur Verfügung. Hierbei sind die zentrale Beschaffung über Campuslizenzen und die kompetente Unterstützung des RRZK bei der Installation und Pflege von großem Nutzen für die Chemischen Institute. Die im Frühjahr und im Herbst abgehaltenen mehrtägigen Kurse eines am Rechenzentrum angestellten Chemikers zur Vorstellung sowohl der lokal installierten Anwendungssoftware als auch der auf den Servern des RRZK zur Verfügung stehenden Software sind gut besucht und fester Bestandteil des Kursprogramms. Die während der Seminare und Übungen im CIP-Raum erlangten Kenntnisse über die verfügbaren Programmpakete bilden eine gute Grundlage, auf der die Studenten im Verlaufe Ihrer Diplom- und Doktorarbeiten aufbauen können. Dies bringt einen erheblichen Zeitgewinn für den weiteren Ausbildungsweg. Weiterhin eröffnet die Ausstattung des CIP-Raumes jedem Studierenden den Zugriff auf internationale Datenbanken und bietet die Möglichkeit zur computergestützten Literaturrecherche. Ausblick Der im Jahre 1999 installierte CIP-Pool erreicht mittlerweile zunehmend die Grenzen seiner Einsatzfähigkeit. Dies gilt sowohl für die Hardware als auch für die Software. Die Rechner laufen nicht mehr stabil und werden immer reparaturanfälliger, Ersatzteile sind kaum noch verfügbar; Speicher und Rechenleistung der PCs reichen nicht mehr aus, um aktuelle Softwarepakete mit akzeptablen Laufzeiten auszuführen. Deshalb werden wir im Jahre 2004 einen CIP-Antrag stellen um das Equipment des CIP-Pools komplett zu erneuern. (Birgitt Börsch-Pulm, E-Mail: [email protected])

5.13

Botanisches Institut

Ein Bericht über Molekulare Phylogenie und Systematik der Gattung Cryptomonas ist in Kapitel C Abschnitt 9 nachzulesen.

5.14

Geologisches Institut: Abteilung Erdbebengeologie

Homepage: http://www.erdbebenstation.de sowie http://www.seismo.uni-koeln.de

Messdatenerfassung Die Abteilung Erdbebengeologie betreibt in den nördlichen Rheinlanden ein Messnetz zur seismologischen Überwachung. Um Erdbeben im Untersuchungsgebiet lokalisieren zu können, sind Messungen an Außenstationen erforderlich. Den gegenwärtigen Status des Netzwerkes zeigt Bild 1. Bei den α-Stationen handelt es sich um kurzperiodische, empfindliche Stationen, die über digitale Jahresbericht 2003

120

Berichte der Institute und Fachbereiche

Bild 1: Stationsnetz der Abteilung Erdbebengeologie mit dem Stand Feb. 2004.

Bild 2: Die MitarbeiterInnen der Abt. Erdbebengeologie im Februar 2004 vor dem Stationsgebäude in Bensberg (C.Fleischer, B.Weber, J.Mackedanz, Dr. K.-G. Hinzen, Dr. S. K. Reamer, R.Simon, K.Weber, W. Rolshofen) Jahresbericht 2003

Berichte der Institute und Fachbereiche

121

Telefonleitungen an der Zentralstation in Bensberg angeschlossen sind. Die β-Stationen haben nur analoge Telefonanschlüsse. Die strong-motion Stationen dienen im Falle starker Beben der verzerrungsfreien Messung von Bodenbeschleunigungen. Ein Sub-Netz von 11 Stationen dient speziell der Erfassung möglicher bergbau-induzierter Beben im Bereich der rheinischen Braunkohlentagebaue. Mit Ausnahme der strong-motion-Stationen wird an allen Messorten mit einem selbst entwickelten PC-basierten Datenaquisitionssystem gearbeitet, das auf einem kommerziellen 24 Bit AD-Wandler beruht. Bei den PC’s handelt es sich um Industrie PC’s (DSM München). Sie verfügen über einen 700 MHz Prozessor und 128 MB RAM. Zusätzlich eingebaut wurden eine ISDN Karte und eine Meinberg DCF-Funkuhr, die regelmäßig die Systemzeit synchronisiert. Die analogen Messsignale der Dreikomponentenseismometer jeder Station werden mit einer Abtastrate von 125 Samples pro Sekunde digitalisiert. Ein Treiberprogramm erstellt Rohdatenfiles in einer temporären Datei. Diese Rohdaten werden mit dem Zeitstempel versehen und in ein gängiges seismologisches Datenformat gewandelt. Die Daten werden kontinuierlich in einen Ringspeicher mit einem Monat Kapazität geschrieben. Zusätzlich werden für jeden Tag Datenfiles mit reduzierter Abtastrate gespeichert, die später für die Erstellung von Übersichtsplots verwendet werden. Ein automatischer Kurzzeit/Langzeit-Detektor sucht nach transienten Signalen und füllt eine Detektionsliste. Routineauswertung Während der Nachtstunden werden die Übersichtsdateien und die Detektionslisten aller Stationen in die Zentrale übertragen. Anhand dieser Daten lassen sich Zeitfenster festlegen, für die komplette Wellenformdaten übertragen werden. Eine Übertragung aller Messdaten ist aus Kostengründen nicht möglich. Die Übertragung wird über eine speziell erstellte Benutzeroberfläche, die das kommerzielle Programm pcAnywhere steuert, realisiert. Nach der Klassifikation der übertragenen Ereignisse in Erdbeben mit natürlicher Ursache, bergbaulich induzierte Beben, Sprengungen und sonstige Ereignisse werden die Beben lokalisiert und die Stärke nach der Richterskala ermittelt und anschließend in die BENS-Datenbank eingebracht. Die Ergebnisse der Routineauswertung werden täglich auf der Webseite veröffentlicht und die Details der Ortungen den FachkollegInnen zur Verfügung gestellt. Im Falle stärkerer Beben, die gespürt werden, etwa ab der Magnitude 3, werden die Beben sofort ausgewertet und die entsprechenden Lagezentren des Katastrophenschutzes und Medien informiert. Zur Zeit wird ein System erprobt, das eine automatische Alarmmeldung erstellt. Bild 3 zeigt die Breitbandregistrierung des Iran-Erdbebens am 26.12.03 um 1:56:56 Uhr UTC. 29.01°N, 58.27°E, Tiefe: 33 km, Magnitude: 6.7 Die ersten Erdbebenwellen erreichten die Seismometer in Bensberg um 2:04:48 Uhr UTC, ca. 8 Minuten nach der Herdzeit.

Netzwerk und Anbindung der Zentralstation Die Zentrale in Bensberg ist seit Anfang 2002 mit einem DSL Anschluss und über einen kombinierten Router, VPN-Concentrator mit ISDN-Backup an das Universitätsnetz angeschlossen. Nach anfänglichen Schwierigkeiten ist mittlerweile ein stabiler Betrieb mit guter Performance gewährleistet. An das hausinterne Netzwerk, das durch einen Fast-Ethernet- und ein Ethernet-Switch vernetzt ist, sind vierzehn Workstations, die unter WIN 2000 und NT betrieben werden, angeschlossen. Die Daten werden auf einem File- und Printserver gespeichert, der über ein Hardware Raid

Jahresbericht 2003

122

Berichte der Institute und Fachbereiche

level 1 verfügt und zwei Laserdruckern als Spooler dient, sowie Faxe empfängt. Ein A3-Farbdrucker ist lokal an den Auswerterechner angeschlossen, auf dem im Wesentlichen das seismische Auswertesystem SeisAn läuft. Ein dritter Laserdrucker ist auch lokal angeschlossen. Zwei seismische Stationen in der Zentrale werden über TCP/IP angesprochen. Das Datenübertragen wird von zwei reinen „Datensaugern“ erledigt. Außerdem sind drei PCs mit SuSe Linux ins Netz integriert. Bild 4 zeigt ein Blockdiagramm des Rechnernetzwerkes an der Abt. Erdbebengeologie.

Bild 3: Dreikomponentenseismogramme des Iran-Erdbebens vom 26.12.03 Datenmengen Die Tagesübersichten haben eine Größe von 2102 KB pro Station, also ca. 42 MB pro Tag für das Netz. Im Jahr entspricht das etwas mehr als 15 GB für die Übersichten. Dazu kommen die Wellenformdaten der ausgewählten Ereignisse, die pro 2 Minutenfile 180 KB groß sind. Die zu archivierenden Wellenformdaten machen etwa 2-3 GB pro Jahr aus. Zusätzlich zu den eigenen Daten werden für Beben der nördlichen Rheinlande auch Daten benachbarter Stationsnetze, insbesondere aus Belgien und den Niederlanden, gespeichert. Die Archivierung der Daten erfolgt auf DVD+RW im Wechsel.

Jahresbericht 2003

Berichte der Institute und Fachbereiche

123

Bild 4: Blockschaltbild des Rechnernetzwerkes an der Zentralstation in Bensberg und der angeschlossenen Außenstationen.

(Dr. Klaus-G. Hinzen, Claus Fleischer, E-Mail: [email protected])

Jahresbericht 2003

124

Berichte der Institute und Fachbereiche

5.15

Geographisches Institut

Homepage des Geographischen Instituts (http://www.geographie.uni-koeln.de) Hardware-Ausstattung (CIP-Raum des Geographischen Instituts) Arbeitsplätze: · 2 Windows-NT Server: Dual Pentium 500 MHz, 256 MB RAM, 20 GB · 12 studentische Arbeitsplätze: Pentium III, 600 MHz, 512 MB RAM, 20 GB, Windows-NT, 1 Dozentenrechner Peripherie · · · · ·

2 Drucker A0 Digitalisierstation Summagraphic (incl. Rechner) A0 Plotter (incl. Rechner) A0 Scanner (incl. Rechner) 1 Touchboard mit Beamer

Software · MS Office 2000 · ArcGIS 8.2 Jahresbericht 2003

Berichte der Institute und Fachbereiche · · · · ·

125

ArcView 3.2 Photoshop Freehand TNT-Lite FAP (Bildverarbeitung / Eigenentwicklung)

Die CIP Arbeitsplätze wurden im Jahre 2001 komplett ersetzt. Sie dienen der grundlegenden EDVAusbildung insbesondere im Bereich computer-gestützter geographischer Arbeitsmethoden (GIS, Statistik, grundlegende Bildverarbeitungsverfahren). Hardware-Ausstattung in den Arbeitsgruppen In den Arbeitsgruppen im geographischen Institut stehen Windows-NT PC-Systeme unterschiedlichster Ausstattung zur Verfügung. Diese reichen von einfachen Office-Systemen (Pentium II und älter für Textverarbeitung, Tabellenkalkulation etc) über Pentium III-Rechner mit 800/850 MHz Prozessor und 256 MB Speicher bis hin zu 5 Pentium IV-Systemen für die digitale Bildverarbeitung (2 GHz, 512 MB RAM, 80GB). Räumliche Unterbringung Die CIP Arbeitsplätze sind in einem zentralen Rechnerraum, die Server und gemeinsam genutzte Peripherie in besonderen Arbeitsräumen untergebracht. Die weiteren Bildschirmarbeitsplätze befinden sich in den Arbeitsräumen der jeweiligen Arbeitsgruppe. Alle Rechner sind vernetzt. Personelle Betreuung Die personelle Betreuung des CIP-Labors erfolgt durch einen wissenschaftlichen Mitarbeiter (mit einem Teil seiner Arbeitszeit) und durch studentische Hilfskräfte, die Betreuung der Arbeitsgruppenrechner wird durch die Mitarbeiter der jeweiligen Arbeitsgruppe realisiert. Anzahl der Nutzer Z. Zt. sind ca. 500 Studenten sowie 25 Mitarbeiter eingetragene Nutzer des CIP-Raums Zusammenarbeit innerhalb der Kooperativen Informationsverarbeitung Kooperation mit dem ZAIK/RRZK · · · ·

Backup durch die ADSM-Server des ZAIK / RRZK Beratung in Soft- und Hardwarefragen Nutzung der schnellen Datenleitungen zum Download von Umweltdaten Unterstützung bei WAP-Antrag

Ausbildungsschwerpunkte im Bereich EDV · Geographische Informationssysteme · Statistische Verfahren Jahresbericht 2003

126

Berichte der Institute und Fachbereiche · Umweltmodelle · Fernerkundungsmethoden · Luftbildauswertung

Forschungsschwerpunkte · · · · · · · ·

Quartärforschung Paläoklimatologie Geographie der Trockengebiete Hydrogeographie Umweltmodelle Metropolenforschung umweltbezogene Wirtschafts- und Industriegeographie Stadt- und Regionalentwicklung

(Prof. Dr. Karl Schneider, E-Mail: [email protected])

5.16

Institut für Geophysik und Meteorologie

5.16.1

Bereich Geophysik

5.16.1.1

Bericht über die Kooperative Informationsverarbeitung

Homepage: http://www.geophysik.uni-koeln.de/ Im Bereich Geophysik sind zur Zeit ca. 20 Mitarbeiter und ca. 30 Diplomanden/SHKs beschäftigt. Ihnen steht folgende Rechnerausstattung zur Verfügung: Hardware und Betriebssysteme • 1 Compute-Server Compaq ES40 (SMP Architektur mit 4 Alpha-CPUs), 10 GB Hauptspeicher, ca. 160 GB Netto-Plattenplatz, davon ca. 100 GB auf RAID, Betriebssystem: Compaq Tru64 Unix 4.0F • 1 Compute-Server Compaq DS20E (2 Alpha-CPUs), 2.25 GB Hauptspeicher, ca. 70 GB NettoPlattenplatz, Gigabit-Ethernet, Betriebssystem: Compaq Tru64 Unix 5.1 • 2 Digital Alpha Workstations, Betriebssystem: Compaq Tru64 Unix 4.0E • 1 Sun Sunfire V240, 8 GB RAM, Gigabit-Ethernet, Betriebssystem: Solaris 9 • 2 Sun Enterprise 220R, Gigabit-Ethernet, Betriebssystem: Solaris 8 • 3 Sun Workstations, Betriebssystem: Sun Solaris 2.6 • 2 DEC-Alpha/DECstations, Betriebssystem: NetBSD 1.6.2 • ca. 20 PCs (Pentium-III, Pentium-IV), 128 - 768 MB Hauptspeicher, 10 - 120 GB Plattenplatz, Betriebssystem: NetBSD 1.6.2, desweiteren ca. 5 PCs (Pentium-III) mit Microsoft Windows NT/ 2000/XP als Betriebssystem für Office-Anwendungen Der Compute-Server und die Workstations sind in einem klimatisierten Raum untergebracht, die PCs an den Arbeitsplätzen sowie in einem den Studenten zugänglichen Raum. Jahresbericht 2003

Berichte der Institute und Fachbereiche

127

Netzwerk Das Gebäude ist vollständig mit UTP Cat 5 verkabelt. Das LAN basiert auf 100 MBit/s Ethernet (Altgeräte: 10 MBit/s Ethernet), die wichtigsten Server sind via Gigabit-Ethernet angeschlossen. Personal Die Rechner- und Netzwerkadministration erfolgt durch eine Rechnergruppe, bestehend aus einem festangestellten Wissenschaftler (leitend), einem Ingenieur, zwei Doktoranden (welche jeweils nur einen kleinen Teil ihrer Arbeitszeit der Systemadministration widmen) und einer SHK. Außenstelle Die Arbeitsgruppe „Explorationsgeophysik“ hat ihre Diensträume in einer Außenstelle in der Godesberger Straße. Dort sind 4 wissenschaftliche Mitarbeiter sowie 8 SHKs/Diplomanden tätig. Die Rechnerausstattung besteht aus einem als Compute-Server betriebenen Linux-Cluster, bestehend aus 4 Knoten (Athlon XP 1800 mit jeweils 512 MB RAM) und einem Mail- und File-Server. Desweiteren werden 8 PCs unterschiedlicher Leistungsstufen als Arbeitsplatzrechner (unter Windows und Linux) betrieben, zusätzlich gibt es einige Laptops und Feld-PCs. Das Netzwerk besteht aus einem Thin-Wire-Ethernet (10 MB/s), an das mehrere geswitchte 100 MB/s Segmente angeschlossen sind. Die Anbindung an das UKLAN erfolgt über eine leider viel zu schmalbandige ISDN-Standleitung. Forschungsschwerpunkte Die Forschungsgebiete des Bereichs Geophysik teilen sich auf zwei Schwerpunkte auf: Angewandte Geophysik und Extraterrestrische Geophysik. Im Schwerpunkt Angewandte Geophysik werden folgende Forschungsthemen bearbeitet: • Umwelt- und Ingenieurgeophysik mit Radiomagnetotellurik (RMT) und Geo-Radar • Induzierte Polarisation im Zeitbereich • Transientenelektromagnetik mit der Central-Loop Anordnung • Elektromagnetische Tiefenerkundung mit LOTEM (in der Außenstelle Explorationsgeophysik) Im Schwerpunkt Extraterrestrische Geophysik liegt das Hauptinteresse bei folgenden Forschungsthemen: • Interplanetares Plasma und Sonnenwind • Magnetosphäre der Erde • Magnetosphären anderer Planeten (Jupiter, Saturn, Uranus, Neptun) • Kometenplasmaphysik • Wechselwirkungen der Galileischen Monde mit der Jupitermagnetosphäre • Plasmawechselwirkungen der Eissatelliten des Saturn und des Titan mit ihrer Umgebung • Physik extraterrestrischer Atmosphären Zusammenarbeit innerhalb der kooperativen, verteilten Informationsverarbeitung Der Bereich Geophysik betreibt eine eigene AFS-Zelle (geo.uni-koeln.de), eigene (redundant ausgelegte) eMail-Server, FTP-Server, DNS-Server (secondary), etc.

Jahresbericht 2003

128

Berichte der Institute und Fachbereiche

Vom Rechenzentrum wird vor allem die via Vol-Baum bzw. AFS zur Verfügung gestellte Software benutzt. Beim Rechenzentrum zentralisierte Dienste, wie z. B. die des Hostmasters werden laufend in Anspruch genommen. Als Backup-System wird das vom Rechenzentrum betriebene ADSM verwendet, mit dem wir sehr gute Erfahrungen gemacht haben. Der Gebäudeverantwortliche für die Zülpicher Str. 49 (Dr. Wennmacher) ist im Bereich Geophysik angesiedelt und übernimmt bestimmte Servicefunktionen (v. a. die Netzwerkadministration im Haus) für die anderen im Hause befindlichen Geo-Institute Geographie und Geologie.

5.16.1.2

Anwendungen der LOTEM-Methode in der Explorationsgeophysik

In der Gruppe „Explorationsgeophysik“ des Institutes für Geophysik und Meteorologie wird hauptsächlich die Long-Offset-Transient ElectroMagnetics (LOTEM) Methode weiterentwickelt. Dabei handelt es sich um ein Messverfahren, mit dem die elektrische Leitfähigkeit im Untergrund in einer Tiefe von 200-5000 m erkundet werden kann. Das Verfahren wurde ursprünglich für die Kohlenwasserstoffexploration eingesetzt. Hierbei sucht man Zonen niedriger Leitfähigkeit (Öl) in einem ansonsten gut leitenden Medium. Allerdings kann die LOTEM-Methode auch auf eine Vielzahl anderer Fragstellungen angewandt werden. In den letzten Jahren wurde z. B. damit eine Grundwasserfragestellung in Israel („Wo befindet sich gut leitendes Salzwasser?“), eine Messkampagne am Vulkan Merapi in Indonesien („Wie ist die Verteilung gut leitenden Magmas?“) sowie eine Untersuchung der Krustenstruktur in Jordanien angegangen. Bei einer Messung wird dazu ein Sender in der Form eines etwa einen Kilometer langen, geerdeten Dipols aufgebaut. Über diesen wird Strom in den Boden eingespeist, der in regelmäßigen Abständen umgepolt wird. Dieses Umpolen erzeugt im Untergrund sekundäre Ströme, die von der Verteilung der elektrischen Leitfähigkeit (bez. ihrem reziproken Wert, dem spezifischen Widerstand) in der Erde abhängig sind. Die von diesen sekundären Strömen erzeugten elektromagnetischen Felder werden an der Erdoberfläche an Empfängerstation, die sich in einigen Kilometern Entfernung vom Sender befinden, aufgezeichnet. Diese „Transienten“ genannten Signale tragen die Informationen über den Aufbau des Untergrundes mit sich. Die elektromagnetischen Felder werden in bis zu fünf Komponenten registriert und zwar die elektrischen Felder senkrecht und parallel zum Sender sowie die magnetischen Felder in allen drei Raumrichtungen. Nach den Messkampagnen stehen umfangreiche EDV-Arbeiten an. Zunächst müssen die aufgezeichneten Daten (typischerweise 5 GB) für die Interpretation aufbereitet werden. Als erstes wird eine Analyse der Störungen durch natürliches und anthropogenes elektromagnetisches Rauschen durchgeführt. Speziell die sinusförmigen Störungen durch die Stromversorger (50 Hz und höhere Harmonische) und das Stromnetz der Deutschen Bahn (16 2/3 Hz) sind meist um mehrere Größenordnungen stärker als das eigentliche Messsignal. Vor der weiteren Verarbeitung müssen sie daher aus den aufgezeichneten Zeitreihen entfernt werden. Dies geschieht mit in der Arbeitsgruppe entwickelten, speziell auf das Sendesignal abgestimmten digitalen Filtern. Weitere wichtige Arbeitsschritte sind eine Gleichspannungswertkorrektur, die selektive Mittelung der einigen tausend Einzelmessungen, sowie eine wiederum auf das Signal abgestimmte Glättung der Daten. Der nächste Schritt ist, aus den gemessenen Transienten Leitfähigkeitsmodelle zu erstellen. Es ist nicht möglich, aus den gemessenen Kurven direkt die Widerstandsverteilung in der Erde abzuleiten. Statt dessen wird eine Inversion durchgeführt. Dabei wird ein Erdmodell gesucht, über dem man den Messdaten entsprechende Transienten messen würde. Dazu wird ein Vorwärtsalgorithmus benötigt, ein Programm, das bei gegebener Leitfähigkeitsverteilung und Messgeometrie entspreJahresbericht 2003

Berichte der Institute und Fachbereiche

129

chende Transienten simuliert. Für eindimensionale Modelle (dies sind in den meisten Fällen Modelle, bei denen mehrere horizontal gelagerte Schichten übereinanderliegen) existieren seit vielen Jahren Programme, die die Inversion automatisch durchführen. Dazu muss der Benutzer ein Startmodell vorgeben, das dann vom Programm selbstständig iterativ verbessert wird, idealerweise bis mit dem Modell Daten erzeugt werden, die mit den gemessenen im Rahmen der Fehlerabschätzungen übereinstimmen. Dazu sind - je nach Methode - viele hundert bis tausend Vorwärtsrechnungen nötig. Für den einfachen Fall eines geschichteten Halbraums sind diese aber wenig rechenintensiv. In der Arbeitsgruppe werden derzeit Programme entwickeln, die eine automatische Inversion auch für komplexere Modelle durchführen können, bei denen sich die Leitfähigkeit in zwei oder drei Raumrichtungen ändern kann (2D- bzw. 3D-Inversion). Dazu wird der Untergrund meist in viele Quader eingeteilt, in denen eine konstante Leitfähigkeit angenommen wird.

Die obige Abbildung zeigt ein Beispiel für eine Testinversion mit einem synthetischen Datensatz. Im oberen Teil der Abbildung ist das ursprüngliche Erdmodell abgebildet. In einem Schichtmodell ist jeweils ein gut (links) und ein schlecht leitender Block (rechts) eingebettet. Das schwarze Dreieck kennzeichnet die Lage des senkrecht zur Bildebene laufenden Dipolsenders. Auf beiden Seiten des Senders befinden sich insgesamt 22 Empfängerstationen. Dabei wurden hier sowohl Daten für die vertikale magnetische Komponente (pinke Dreiecke) als auch die elektrische Komponente parallel zum Sender (grüne Dreiecke) simuliert. Die Transienten wurden verrauscht und invertiert. Das Startmodell war ein homogener Halbraum mit 15 Ohm-Metern, der in insgesamt 1.034 Zellen eingeteilt wurde. Im unteren Teil der Abbildung wird das Ergebnis der Inversion nach 22 Iterationsschritten gezeigt. Die Grenzen der Diskretisierung des Ursprungsmodells sind weiß Jahresbericht 2003

130

Berichte der Institute und Fachbereiche

gekennzeichnet. Man sieht, dass die ersten beiden Schichten sehr gut wiedergefunden werden. Auch der gut leitende Block wird reproduziert, während sich der schlecht leitende nur schwach abzeichnet. Auch die unteren beiden Schichten werden nicht aufgelöst. Da die sich für dieses Modell ergebenden Transienten aber gut mit den ursprünglich simulierten übereinstimmen, scheinen sich diese Bereiche des Erdmodells nicht deutlich in den Transienten niederzuschlagen. Dementsprechend hat der Inversionsalgorithmus in diesem Fall seine Aufgabe gut erfüllt, ein Modell zu finden, das die „gemessenen“ Daten gut reproduziert. Obwohl das Grundproblem der mehrdimensionalen Inversion das gleiche wie im eindimensionalen Fall ist und auch mit den gleichen Strategien gelöst werden kann, ergeben sich einige Probleme. Die dazu benötigten 3D-Vorwärtsalgorithmen sind weitaus rechenintensiver. Die Inversionsprogramme sind daher so ausgelegt, dass die Vorwärtsrechnungen parallel von verschiedenen Prozessoren eines Multiprozessorrechners oder eines Clusters bearbeitet werden können. Weiterhin werden in der Gruppe Strategien entwickelt, um die Anzahl der benötigten Vorwärtsrechnungen möglichst klein zu halten. Auch sind die Modellparameter so zahlreich (1.000-100.000), dass die zu bearbeitenden Matrizen enorme Größen aufweisen können. Derzeit werden die Programme an kleinen Problemen mit bis zu 1.500 Parametern am arbeitsgruppeninternen Cluster mit vier PCs (jeweils 512 MB RAM) erprobt. Mittelfristig sollen jedoch auch größere Probleme angegangen werden. Diese würden Maschinen mit 2 GB Hauptspeicher oder mehr erfordern. Daher wurden die Programme für die Verwendung auf den Compute-Servern des Instituts und des Rechenzentrums portiert. (Dr. Lex Wennmacher, E-Mail: [email protected])

5.16.1.3

Weitere Berichte

Zwei weitere Berichte über 3D-Modellierung und Inversion von Radiomagnetotellurik Daten sowie Assimilation von Spurengasmessungen in ein Chemie-Transport-Modell nach der Variationsmethode sind in Kapitel C Abschnitt 8 nachzulesen.

5.16.2

Bereich Meteorologie

5.16.2.1

Bericht über die Kooperative Informationsverarbeitung

Homepage: http://www.meteo.uni-koeln.de/ Beschaffungen 2003 1 Notebook 5 PCs für Linux 1 Hardware-RAID Art der Vernetzung Ein geswitchtes 100Base-T Ethemet mit Anschluss an den UKLAN-Backbone über den phiIgwRouter (Catalyst 4006).

Jahresbericht 2003

Berichte der Institute und Fachbereiche

131

Räumliche Unterbringung der Geräte Die Rechner, sowie Peripheriegeräte (wie z.B. Drucker, Scanner, DAT-Laufwerke) sind in insgesamt 20 Arbeitsräumen mit maximal je 6 Arbeitsplätzen dezentral untergebracht. Zusätzlich existiert ein Serverraum, in dem sich die lokalen Server des Instituts befinden. Personelle Betreuung Das lokale Netz wird von einem wissenschaftlichen Mitarbeiter sowie von 2 SHKs betreut. Nutzer 20 wissenschaftliche Mitarbeiter und 60 Studenten Zusammenarbeit innerhalb der Kooperativen Informationsverarbeitung Besonders die zentrale Softwarebereitstellung mit Hilfe des Andrew-File-Systems wird vom Institut für Geophysik und Meteorologie intensiv genutzt. Die Meteorologie verwendet dafür OpenAFS und unterhält eine eigene AFS-Zelle (meteo.uni-koeln.de). Neben den gängigen Betriebssystemen (Sun Solaris 9, Windows 2000) und Programmiersprachen (Fortran 77, Fortran 90, C, C++) kommt auch Spezialsoftware, wie z. B. die geophysikalischen Grafiktools Vis5d, GMT, GrADS, und NCARGraphics zu einem vielfältigen Einsatz. Aufgrund des intensiven Informations- und Datenaustausches innerhalb der Meteorologie sind die beteiligten Wissenschaftler im hohen Maße von einem leistungsfähigen und zuverlässigen Netzwerk, sowie dem weiterführenden Anschluss an das Internet abhängig. Dies wird zum einen durch die im Jahre 1997 durchgeführte Neuverkabelung des Instituts, sowie durch die hervorragende Betreuung und Instandhaltung des Netzes durch die Mitarbeiter des RRZK gewährleistet. Die wissenschaftlichen Berechnungen werden zum größten Teil auf den institutseigenen Workstations und PCs erstellt. Besonders rechenintensive Programme werden auf leistungsstarke Computer, wie z. B. die Sun Compute Server des RRZK, ausgelagert. Die Sicherung und Archivierung anfallender Daten erfolgt zum überwiegenden Teil in dem ADSMBackup- und Archivsystem des Rechenzentrums. Es ist geplant, am Institut Linux einzuführen, zusätzlich zu den bereits verwendeten Systemen Solaris und Windows. Dabei hilft das Rechenzentrum beratend mit. Forschung- und Ausbildungsschwerpunkte unter Einsatz der genannten Geräte Am Institut für Geophysik und Meteorologie werden vielfältige Aktivitäten im Rahmen atmosphärischer Umwelt- und Klimaforschung initiiert und durchgeführt. Hierbei wird besonderer Wert auf nationale und internationale Kooperation gelegt. Die Forschungsschwerpunkte umfassen hierbei folgende Themen: • Tropenmeteorologie • Meteorologie der mittleren Breiten • Ozon in der Troposphäre (Troposphärisches Ozon; Austausch Stratosphäre-Troposphäre; Tropopausenfaltungen; Austausch freie Troposphäre-Grenzschicht) • WITRAK - Prognose und Diagnose anthropogener Klimamodifikationen in der Mikro- und Mesoskala Neben dem wissenschaftlichen Arbeiten erlernen die Studenten während ihres Studiums den Umgang mit verschiedenen Betriebssystemen, Programmiersprachen und Anwendungssoftware. Jahresbericht 2003

132

Berichte der Institute und Fachbereiche

Veröffentlichungen Eine Auflistung der jährlichen Veröffentlichungen des Instituts befindet sich im WWW unter der URL: http://www.meteo.uni-koeln.de/meteo.php?show=De_Fo_Pu (Daniel Tiggemann, Email: [email protected])

5.16.2.2

Weitere Berichte

Ein weiterer Bericht über Lokale Modellierung sekundärer Schadstoffe im Großraum Köln mit Hilfe eines genesteten Modellsystems und dynamischer Verkehrssimulation ist in Kapitel C Abschnitt 8 nachzulesen.

5.16.3

Außenstelle EURAD

Homepage: http://www.eurad.uni-koeln.de

5.16.3.1

Bericht über die Kooperative Informationsverarbeitung

Rechner-Ausstattung Ende 2003 3 1 1 5 3 1 8

Sun Blade100, Solaris 8, SunPCI II-PC-Karte, Windows 2000 Professional Linux-Cluster bestehend aus 3 Dual Athlon MP Systemen, 1 Single Athlon PC (Master) Linux-Cluster bestehend aus 2 Dual Xeon Systeme, 2 Intel P4 PC, 1 Single Athlon PC (Master) Suse und Redhat Linux PC, Intel Celeron CPU Windows 2000 Professional PC, Intel Celeron CPU SGI Indigo 2 Sparc Workstations, Solaris 2.6

Durchgeführte Beschaffungen 2003 2 Dual Xeon Systeme 2 Intel P4 PC 1 Athlon PC 2 RAID-IDE Systeme mit jeweils 900 GB Kapazität Art der Vernetzung Der überwiegende Teil der Rechnersysteme und der Laserlink zum Rechenzentrum sind mit FastEthernet, ältere Systeme mit 10 MBit Ethernet verbunden. Ein Linux Cluster ist an einem GigabitSwitch angeschlossen. Räumliche Unterbringung Die meisten Rechner inklusive angeschlossener Peripherie und die beiden Linux Cluster befinden sich zentral in einem klimatisierten Rechnerraum. Die Bildschirmarbeitsplätze an den Sun WorkstaJahresbericht 2003

Berichte der Institute und Fachbereiche

133

tions sind in den Arbeitsräumen über Monitor- und Tastaturverlängerungen mit dem Rechnerraum verbunden. Die Linux Rechner sowie Windows 2000 Professional Systeme stehen dezentral an den Arbeitplätzen der Mitarbeiter. Personelle Betreuung Die Systemadministration erfolgt durch zwei wissenschaftliche Mitarbeiter (mit einem Teil ihrer Arbeitszeit) und einer studentischen Hilfskraft. Anzahl der Nutzer 15 Wissenschaftler u. Studenten. Zusammenarbeit innerhalb der kooperativen, verteilten Datenverarbeitung Das ZAIK/RRZK bietet mit dem Rechner uk-web2 als Webserver für das EURAD-Projekt bzw. RIU (Rheinisches Institut für Umweltforschung an der Universität zu Köln) seit Ende des Jahres 2001 die Möglichkeit, aktuelle Schadstoffvorhersagen und Wetterprognosen für Mitteleuropa, Deutschland und NRW sowie eine dazugehörige Prognosedatenbank im Internet unter der oben genannten Webadresse zu veröffentlichen. Dieser Service wird m Rahmen des Datenbank-Projekts intensiv genutzt. So wurde zum Beispiel Anfang August 2003 während einer Episode mit hohen Ozonkonzentrationen über Deutschland an mehreren Tagen mehr als 2000 Zugriffe auf unsere Webseite gezählt. Damit hängt das EURAD Projekt/RIU im großem Maße von einer funktionierenden Internetverbindung ab. Hier leistet das ZAIK/RRZK wertvolle Unterstützung im Netzwerkmanagment und in der Bereitstellung einer leistungsfähigen Netzwerkverbindung. Weiterhin wird auch das ADSM/TSM Backup durch das Rechenzentrum intensiv genutzt. Eine weitere Zusammenarbeit besteht durch die Nutzung der mittels AFS zur Verfügung gestellten Software und durch Betriebssystem Updates und Fortran Compiler im Rahmen des Sun Campus Vertrages. Simulationsrechnungen, die einen besonderes hohen Bedarf an Hauptspeicher haben, werden auf den Compute-Servern (z.B. suns15k) des ZAIK/RRZK ausgeführt. Ausbildungsschwerpunkte - atmosphärische Umweltforschung - Luftchemie - Numerik - Transportmechanismen - Parallelrechner, Scientific Computing Forschungsschwerpunkte - atmosphärische Umweltforschung - Simulation der Ausbreitung von Schadstoffen in der Atmosphäre - Entwicklung von Strategien zur Luftreinhaltung Jahresbericht 2003

134

Berichte der Institute und Fachbereiche

Veröffentlichungen Details können dem aktuellen Forschungsbericht der Universität zu Köln und den EURAD Webseiten entnommen werden. (Georg Piekorz, E-mail: [email protected])

5.16.3.2

Beispielhaftes Projekt: Beschreibung des EURAD/RIU Vorhersagesystems

Seit Anfang des Jahres 2001 wird am Rheinischen Institut für Umweltforschung an der Universität zu Köln ein System zur Vorhersage der Schadstoffkomponenten in der Atmosphäre getestet. Seit 1. Juni 2001 läuft dieses Vorhersagesystem täglich in einer quasi-operationellen Form. Ab dem 1. Januar 2004 wurde das System auf eine Prognose von 3 Tagen erweitert. Das Vorhersagesystem basiert auf dem EURAD Modellsystem. Lediglich werden die meteorologischen Anfangs- und Randgrößen von einer globalen numerischen Wettervorhersage vorgegeben. Die Prognose gliedert sich wie folgt: Meteorologische Anfangs- und Randbedingungen Zur Initialisierung des mesoskaligen meteorologischen Modells werden aktuelle vorhergesagte Felder der meteorologischen Größen benötigt. Dazu wird täglich die globale 00 UTC Vorhersage des GFS (vormals AVN) des National Center for Environmental Protection (NCEP) von einem anonymen FTP-Server auf den lokalen Rechner übertragen. Die globale GFS Vorhersage steht in der Regel um 03:30 UTC auf dem FTP-Server bereit. Diese Anfangs- und Randfelder, die auf Stan-

Abbildung 1: Modellkonfiguration für das EURAD Vorhersagesystem Jahresbericht 2003

Berichte der Institute und Fachbereiche

135

darddruckflächen mit einer horizontalen Auflösung von 1 Grad vorliegen, werden dann auf das regionale Gebiet des Vorhersagesystems interpoliert. Modellgebiet des Vorhersagesystems Die obige Abbildung1 zeigt die Modellkonfiguration für das EURAD Vorhersagesystem. Das Gebiet CO (DOMAIN1) überdeckt nahezu ganz Europa und hat in der horizontalen Ebene 35 x 33 Gitterpunkte mit einer Gitterlänge von 125 km. Darin ist ein Gebiet N1 (DOMAIN2) eingebettet, das zentrale Regionen Europas inklusive Deutschland überdeckt. Dieses Gebiet hat in der horizontalen 56 x 51 Gitterpunkte mit einer Gitterlänge von 25 km. Ein weiteres Gebiet N2 (DOMAIN3) mit einer Gitterlänge von 5 km, das das Bundesland Nordrhein-Westfalen überdeckt, wurde in das Prognosesystem eingebaut. Das Modell erstreckt sich in der vertikalen über 23 Schichten mit einer Schichtdicke von ca 40 m in der bodennahen Schicht. Die folgende Abbildung illustriert das gesamte Modellsystem mit seinen einzelnen Komponenten:

Abbildung 2: das gesamte Modellsystem mit seinen einzelnen Komponenten Außerdem wurde in das System die Vorhersage von Aerosolen aufgenommen. Damit ist es zum ersten Mal möglich, Staubpartikel in komplexer Form vorherzusagen. Besonders im Winter bei austauscharmen Wetterlagen führt der Feinstaub (Partikel mit Durchmesser kleiner als 10 µm; PM10) zu starken Belastungen der Atmosphäre in Ballungsgebieten. Jahresbericht 2003

136

Berichte der Institute und Fachbereiche

Das meteorologische Modell MM5 Mit den Eingangsdaten der GFS Vorhersage wird das mesoskalige meteorologische Modell MM5 (PennState/NCAR mesoscale model) angetrieben. Die Abbildung zeigt schematisch den Programmablauf des Modellsystems MM5 mit seinen Präprozessoren:

Abbildung 3: schematisch den Programmablauf des Modellsystems MM5 Im Präprozessor TERRAIN werden globale Orographie- und Landnutzungsdaten auf das jeweilige Modellgebiet interpoliert. Die folgenden Abbildungen zeigen als Beispiel die Orographie und die vorherrschende Landnutzungsart auf dem jeweiligen Gitterpunkt für das Gebiet N1 (DOMAIN2):

Abbildung 4: Orographie und vorherrschende Landnutzungsart auf dem jeweiligen Gitterpunkt für das Gebiet N1 (DOMAIN2) Jahresbericht 2003

Berichte der Institute und Fachbereiche

137

Im Präprozessor REGRID werden die globalen GFS Vorhersagedaten gelesen und auf das gewählte horizontale Gitter interpoliert. INTERP führt eine vertikale Interpolation von den Standarddruckflächen auf die geländefolgenden Sigma-Koordinaten des MM5 durch und stellt MM5 sämtliche Anfangs- und Randbedingungen im Abstand von 6 Stunden zur Verfügung. MM5 rechnet dann zuerst auf dem Gebiet CO (DOMAIN1) eine Vorhersage über 72 Stunden. Danach interpoliert das Programm NESTDOWN stündliche vorhergesagte meteorologische Größen in dem Gebiet CO (DOMAIN1) auf das Gebiet N1 (DOMAIN2), um danach MM5 auf dem Gebiet N1 (DOMAIN2) rechnen zu können. Die gleiche Prozedur wiederholt sich bei der Nestung des Gebietes N2 (DOMAIN3) in das Gebiet N1 (DOMAIN2). Das Chemie-Transport Modell EURAD-CTM Direkt im Anschluss an die Vorhersage der meteorologischen Felder wird der Transport, die chemische Umwandlung und die Deposition der atmosphärischen Konstituenten berechnet. Der Präprozessor PPC bereitet die meteorologischen Größen für das EURAD-CTM vor und berechnet zusätzliche wichtige Größen wie die Höhe der planetaren Grenzschicht, Depositionsgeschwindigkeiten der einzelnen Species etc. Die anthropogenen Emissionen wurden offline im Präprozessor EEM für die jeweilige Stunde berechnet. Dabei fand außerdem noch eine Unterscheidung zwischen Werktag- und Wochenendemissionen statt. Die biogenen Emissionen werden online im EURAD-CTM berechnet und hängen im wesentlichen von der Temperatur in der boden-nahen Schicht und vom Landnutzungstyp ab. Mit diesen Eingangsdaten startet dann das EURAD-CTM und prognostiziert die atmosphärischen Schadstoffkomponenten für einen Zeitraum von 72 Stunden sukzessive auf den Gebieten CO (DOMAIN1), N1 (DOMAIN2) und N2 (DOMAIN3). Die Prognose wird auf einem Cluster von 2 LINUX PCs (Intel Dual Xeon mit 2667 MHz) gerechnet. Täglicher Vorhersage-Zyklus Wie bereits erwähnt, stehen die globalen GFS Vorhersagen etwa um 3:45 UTC (4:45 MEZ) auf dem FTP-Server zur Verfügung. Der Prognose-Zyklus startet dann automatisch gegen 05:00 MEZ und ca 09:00 MEZ sind alle Vorhersagen fertig und werden dann graphisch aufbereitet. Die GraphikDateien werden anschließend in die Prognosedatenbank abgespeichert und sind seit 1. November 2001 für jeden Tag verfügbar. (Dr. Hermann Jakobs, E-Mail: [email protected])

Jahresbericht 2003

View more...

Comments

Copyright © 2020 DOCSPIKE Inc.