PIC-MC Plasmasimulation im D-Grid Von der Grid-Portierung bis hin zum Portal

Größe: px
Ab Seite anzeigen:

Download "PIC-MC Plasmasimulation im D-Grid Von der Grid-Portierung bis hin zum Portal"

Transkript

1 PIC-MC Plasmasimulation im D-Grid Von der Grid-Portierung bis hin zum Portal D-Grid Ergebniskonferenz , Wissenschaftszentrum Bonn Andreas Pflug, Jan Niemann, Christoph Schwanke, Michael Siemers 2002, Fraunhofer FEP PIC-MC Plasmasimulation im D-Grid Von der Grid-Portierung bis hin zum Portal 1. Das Particle-in-Cell Monte-Carlo Verfahren 2. Anpassung an die D-GRID-Infrastruktur Portierung (PVM MPI) Benchmarks am Cluster des Fraunhofer IST 3. Benchmarks zu parallelen PIC-MC Rechnungen im D-Grid Performance der Message-Passing Schnittstelle Gasfluss- und Plasmasimulation 4. Web-Portal: Benutzerschnittstelle und Job-Submit 5. Ausblick Nutzung von D-Grid Ressourcen in 2012

2 1 Das Particle-in-Cell Monte-Carlo - Verfahren Innerer Berechnungszyklus Parallelisierter Code in C++, Eigenentwicklung am Fraunhofer IST Partikelbasierter Lösungs-Ansatz für die Boltzmann-Gleichung Berücksichtigung der Lorentz-Kraft auf die Partikel Transport-Simulation ohne Plasma Partikel-Bewegung Zeitschritt δt Wand-Kollisionen - Absorption - Reflexion - Chem. Reaktion Elektrische Feldberechnung Erzeugung neuer Partikel Partikel-Kollisionen - Elastischer Stoß - Ionisation - Anregung -... M agnetfeld- Berechnung 1 Das Particle-in-Cell Monte-Carlo - Verfahren Simulationsbeispiel -> Magnetron-Sputtern Particle shield Physikalische Flächenfunktionen: Gaseinlass / Pumpe Wand-Temperatur Erzeugung von Sekundärelektronen Elektrische Randbedingungen Chamber wall Substrate Gas inlet Target 1 Target 2 Dark space shielding Magnetron 1 Magnetron 2

3 1 Das Particle-in-Cell Monte-Carlo - Verfahren Simulationsbeispiel -> Magnetron-Sputtern RF- und DC - Plasma Im RF-Fall: Erhöhte Ionization im freien Volumen durch Elektronen-Oszillation Dadurch erhöhtes Plasmapotential und höheres Ionenbombardement auf allen Flächen Das unterschiedliche Ionenbombardment hat i. d. R. Auswirkungen auf Schichteigenschaften DC Simulierte power, 1.0 Dichte Pa, 50 W/m, der 40% Ar + O - Ionen in Ar DC power, 1.0 Pa, 50 W/m, 40 % O 2 in Ar RF power, MHz RF power, MHz Ar + flux [1 / cm² s] Das Particle-in-Cell Monte-Carlo - Verfahren Motivation und Arbeiten im Projekt PT-GRID Motivation PIC-MC Simulationen sind sehr rechenintensiv. Viele Aspekte von Plasmaentladungen sind immer noch nicht vollständig verstanden. Hier können massiv-parallele Simulationsrechnungen weiterhelfen. Die Datenlage bzgl. der Plasmachemie (Wirkungsquerschnitte) und Wandreaktionen ist relativ dünn und uneinheitlich. Eine Vernetzung experimenteller und theoretischer Forschergruppen zur Datenerfassung und Simulation kann hier Vorschub bringen Arbeiten im Projekt PT-Grid Soll-Ist-Erfassung D-Grid Integration der PIC-MC Software Benutzeroberfläche / Portal-Schnittstelle Pilottests für parallele PIC-MC Simulationen im D-Grid

4 2 Anpassung an die D-Grid-Infrastruktur Durchgeführte Änderungen Portierung PVM MPI Die Wahl der MPI-Bibliothek fiel auf OpenMPI (Version >= 1.3.3). Bei der Portierung zeigten sich charakteristische Performance-Unterschiede zwischen PVM und MPI. Anpassung an Batch-Scheduler Bisher wurde die Anzahl benötigter CPUs im Simulationsparameter-File angegeben. Beim Simulationsstart via Grid-Engine wird die Anzahl der CPUs dagegen im Job-Submit-Aufruf vorgegeben. Die neue PIC-MC-Version ermittelt die Anzahl gestarteter Prozesse beim Start automatisch. Das Load-Balancing erfolgt nun automatisch anhand der Verteilung der Prozesse auf dem Cluster. Weitere Änderungen Iterativer, integrierter Poisson-Solver im Projekt COSMOS (Volkswagenstiftung) beseitigt weitere Abhängigkeiten von externen Bibliotheken (UMFPACK) und ist damit hilfreich für Grid-Nutzung. 2 Anpassung an die D-Grid-Infrastruktur PIC-MC Software vor PT-GRID (~ Mitte 2009)

5 2 Anpassung an die D-Grid-Infrastruktur PIC-MC Software nach den Änderungen (~ Juni 2010) 2 Anpassung an die D-Grid-Infrastruktur Entwicklungsstand Juni 2010 / Benötigte Libraries Library Anwendung Version Betr. Modul Lizenz libc6 (glibc) C-Library z. B Alle LGPL libstdc++ C++-Library z. B nicht zwingend erforderlich OpenMPI Parallelisierung Message-Passing >= Mit Deadlocks aufgetreten Alle GPL3 mit runtimeexception(!) New BSD ATLAS Lineare Algebra Für den neuen BSD integrierten PETSC Paralleler linearer BSD Poisson-Solver Solver (iterativ) nicht mehr UMFPACK Serieller, direkter Solver 5.1 erforderlich. LGPL GPL ab v. 5.2 Plasma-Simulation erfordert lediglich OpenMPI in Version >=

6 2 Anpassung an die D-Grid-Infrastruktur Kommunikation OpenMPI vs. PVM Kommunikations-Arten a) Master <-> Slaves (Ping-Pong) b) Tokenring CPU time [s] for communication cycles allocated 1 node with 8 CPU slots allocated 2 nodes with 16 CPU slots allocated 3 nodes with 24 CPU slots PVM (Master-Slave) MPI (Master-Slave) PVM (Slave-Slave) MPI (Slave-Slave) 0, Total number of processes Schwanke, C.; Pflug, A.; Siemers, M.; Szyszka, B.: Poster, PARA 2010, Reykjavik (2010). Schwanke, C.; Pflug, A.; Siemers, M.; Szyszka, B.: LNCS 7133 (2012), pp Anpassung an die D-Grid-Infrastruktur Benchmark mit DSMC-Strömungssimulation 200% higher communication load Performance M PI / PVM 150% 100% 50% Pump Inlet 0% 1 / 1.0 Pa / 0.5 Pa 12 / 1.0 Pa / 0.5 Pa 12 / 0.5 Pa / 0.1 Pa 12 / 0.1 Pa / 0.0 Pa Number of processes / Inlet- / Pre-Pressure Schwanke, C.; Pflug, A.; Siemers, M.; Szyszka, B.: Poster, PARA 2010, Reykjavik (2010). Schwanke, C.; Pflug, A.; Siemers, M.; Szyszka, B.: LNCS 7133 (2012), pp

7 3 Benchmarks im D-Grid Vorarbeiten Auswahl der Grid-Ressourcen Auswahl in Frage kommender D-Grid Ressourcen Testprogramm mpitest zur Messung der Message-Passing-Performance im Tokenring-Verfahren. Nicht alle Ressourcen seitens VO PT-GRID erreichbar Test-Cases Testcase für DSMC-Strömungssimulation Testcase für 3D PIC-MC Plasmasimulation motiviert aus öffentlich gefördertem Projekt COSMOS (Volkswagen-Stiftung) Starten paralleler Anwendungen im D-Grid Skripte für unterschiedliche Batch-Scheduler / Cluster-Layouts Verwendung von globusrun-ws (4.0.8) für parallele Anwendungen nicht trivial (<extensions>-tag zur Übergabe von Scheduler-Parametern). 3 Benchmarks im D-Grid mpitest Ergebnisse für Runden Tokenring Grid-Cluster Netzwerk- Schnittstelle Scheduler Anzahl Knoten Prozesse pro Knoten Prozesse insgesamt mpitest- Laufzeit [s] IST-Linux-Cluster GBit-Ethernet Uni-Mannheim (BWGrid) gtbw.grid.uni-mannheim.de HLRS Stuttgart (BWGrid) gridway.dgrid.hlrs.de Uni-Freiburg (BWGrid) globus.bfg.uni-freiburg.de Uni-Esslingen (BWGrid) grid01.hs-esslingen.de LRZ München lxgt2.lrz-muenchen.de Infiniband PBS Infiniband PBS Infiniband PBS GBit Ethernet PBS Myrinet SGE TU-Dortmund (GRID-Cluster) udo.gt01.grid.unidortmund.de TU-Dortmund (Testcluster für PT-Grid) ptgrid.it.irf.tu-dortmund.de 100 Mbit PBS Ethernet Gbit Ethernet PBS GBit Ethernet PBS

8 3 Benchmarks im D-Grid Testcase für DSMC - Strömungssimulation 3 Benchmarks im D-Grid DSMC Testcase Geometrie Rohrdurchmesser 5 cm, Länge 40 cm Angrenzende Buffer-Volumen mit Gaseinlass und Pumpe Gesamtvolumen 62 x 42 x 42 cm³ Zellvolumen 1 cm³ kubische Zellen Simulationsparameter Zeitraum: 0.4 s Schrittweite = 10-5 s insgesamt DSMC-Iterationen Gas-Spezies Argon, ca. 10 Simulationspartikel pro Zelle Gesamtlaufzeit in der Größenordnung 60 min

9 3 Benchmarks im D-Grid DSMC-Testcase: PBS-Skript für BW-Grid - Ressourcen #!/bin/bash #PBS -l nodes=2:ppn=8,walltime=06:00:00 #PBS -e $HOME/$PBS_JOBID.stderr #PBS -o $HOME/$PBS_JOBID.stdout module load compiler/gnu/4.3 module load mpi/openmpi/1.4.3-gnu-4.3 tar xjf picmc_grid.tar.bz2 WS=$(ws_find picmc) cp par.tar.bz2 $WS cd $WS tar xjf par.tar.bz2 export PICMCPATH=$HOME/picmc_GRID export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:$PICMCPATH/lib mpirun -x LD_LIBRARY_PATH -x PICMCPATH \ -np 1 $PICMCPATH/bin/rvm -i $PICMCPATH -l scr/master.r tube.par : \ -np 9 $PICMCPATH/bin/picmc cd $HOME rm -rf picmc_grid 3 Benchmarks im D-Grid DSMC-Testcase: Gemessene Laufzeiten Cluster URL Angef. CPU- Kerne picmc- Prozesse Laufzeit [min] IST-Cluster - 1x HLRS Stuttgart gridway.dgrid.hlrs.de 2x Uni Mannheim gtbw.grid.uni-mannheim.de 2x Uni Esslingen grid01.hs-esslingen.de 2x Uni Freiburg globus.bfg.uni-freiburg.de 2x TU Dortmund udo-gt01.tu-dortmund.de 4x3 (VMs) 9 78

10 3 Benchmarks im D-Grid PIC-MC: 3D-Simulation einer Sputter-Entladung Ring- Magnetsatz Ring-Plasma mit Fluktuationen Abschirmung (geerdet) Target Substrate Rechenzeiten: 50 µs mit 32 CPUs IST-Cluster: 45 h BW-Grid Uni Mannheim: 24 h 4 Web-Portal Benutzeroberfläche Entwicklungsumgebung: Eclipse (JAVA), JDK, Apache Tomcat, JSON, Google Web Toolkit, Liferay Testumgebung am IST-Cluster mit Anzeige des Berechnungsfortschritts und Einflussmöglichkeiten während der Berechnung Job-Submit optional auch via globus-basiertem IRF-Scheduler (TU-Dortmund) mit eingeschränkten Steuer- und Überwachungsfunktionen möglich Hochladen der Geometrie und editieren aller Parameter in GWT-Formularen Testbetrieb unter https://ptgrid.ist.fraunhofer.de:8443/portal

11 4 Web-Portal Benutzeroberfläche 4 Web-Portal Web-Schnittstelle zum Job Submit (GNS Systems) CGI-Formulardaten Umgebungsvariablen Liefert Dateien aus, wenn URL /results/ enthält Kommukation mit GWT-Portlet via https- Zugriffe Datei Parameters Datei Capabilities

12 4 Web-Portal Web-Schnittstelle zum Job Submit (GNS Systems) Bisher umgesetzte Adapter zum Submit von parallelen PIC-MC Jobs ptgrid ptgrid.it.irf.tu-dortmund.de via IRF-Scheduler bwgrid bwgrid-ressourcen via gsissh PBS Derzeitiger Entwicklungsstand Job-Submit an D-Grid-Ressourcen via Test-Portlet von ptgrid.ist.fraunhofer.de aus möglich Schnittstelle kommt im Portal des INP-Greifswald sowie an der Ruhr-Uni Bochum zum Einsatz. 5 Ausblick 3D Plasmarechnungen im D-Grid Hochauflösende 3D-Rechnung eines Magnetron-Ring-Plasmas (auf gtbw.grid.uni-mannheim.de gerechnet) Magnetron-Ring-Plasma mit Hochgeschwindigkeits-Kamera ( Ehiasarian, A. P.; Hecimovic, A.; de los Arcos, T. et al.: APL 100 (2012), )

13 5 Ausblick 3D-Plasmarechnungen im D-Grid Mit Ruhr-Uni Bochum wurde Informationsaustausch und gemeinsame Veröffentlichung zu Fluktuationen in Magnetron-Ring-Plasmen vereinbart Abstract zu PSE Sept eingereicht Abstract für NAFEMS-Konferenz Mai 2012 eingereicht (bis dahin sollten zumindest Vorabergebnisse zu diesem Thema vorliegen) Öffentliches Projekt auf IST-Seite: Cosmos (Serial Co-Sputtering for Functional Multicomponent Thin Films) zusammen mit Uni Uppsala, RWTH Aachen Ruhr-Uni Bochum (Prof. Winter, Dr. A. Hecimovic) assoziierter Partner seit Ende 2011 Weitere Grid-Nutzung im EU-Projekt ORAMA geplant, hier geht es um Ionenbombardment von Substraten in Magnetron-Plasmen (Stichwort: Plasmadamage von Halbleiter-Bauelementen) Nutzung des D-Grid / BW-Grid möglichst noch im ganzen Jahr 2012

Virtuelle Maschinen als Simulationsumgebungen im Grid

Virtuelle Maschinen als Simulationsumgebungen im Grid Virtuelle Maschinen als Simulationsumgebungen im Grid Dr. Andreas Spille-Kohoff M.Sc. Benoit Bosc-Bierne CFX Berlin Software GmbH März 2012 Inhalt Motivation Teilprojekt 1 im PT-Grid Virtuelle Infrastruktur

Mehr

Einführung in wiss. Software. bwgrid-cluster

Einführung in wiss. Software. bwgrid-cluster Einführung in wiss. Software auf dem bwgrid-cluster Dr. Heinz Kredel und Dr. Sabine Richling Inhalt bwgrid Cluster Java Programmierung Java Threads, Java OpenMP, TCP/IP Kommunikation, Java MPP, Strategien

Mehr

Cluster-Computing am Beispiel bwgrid. Dr. Heinz Kredel Rechenzentrum der Universität Mannheim

Cluster-Computing am Beispiel bwgrid. Dr. Heinz Kredel Rechenzentrum der Universität Mannheim Cluster-Computing am Beispiel bwgrid Dr. Heinz Kredel Rechenzentrum der Universität Mannheim Inhalt Grid bwgrid Cluster Cluster Administration und Betrieb Cluster Nutzung Grid The Grid is a system that:

Mehr

Nutzung von Grid- Ressourcen mittels Virtualisierung

Nutzung von Grid- Ressourcen mittels Virtualisierung Nutzung von Grid- Ressourcen mittels Virtualisierung Dr. Andreas Spille-Kohoff CFX Berlin Software GmbH November 2009 Inhalt CFX Berlin Software GmbH Plasma-Technologie-Grid Anforderungen an kommerzielle

Mehr

bw-grid Cluster in Mannheim

bw-grid Cluster in Mannheim bw-grid Cluster in Mannheim Dr. Heinz Kredel mit Helmut Fränznick, Rudi Müller, Steffen Hau, Andreas Baust Inhalt Grid und D-Grid BMBF Projekt bw-grid Cluster Stand: Aufbau und Inbetriebnahme Benutzung

Mehr

Vektorrechnersystem NEC SX-9

Vektorrechnersystem NEC SX-9 Ansprechpartner HPC-Support Team Benutzerberatung Dr. Gerd Hessler (hessler@rz.uni-kiel.de) Dr. Simone Knief (knief@rz.uni-kiel.de) Dr. Eva-Maria Zeidler (zeidler@rz.uni-kiel.de) Systembetreuung: Dr. Cebel

Mehr

Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur

Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur Das bwgrid High Performance Compute Cluster als flexible, verteilte Wissenschaftsinfrastruktur Marek Dynowski (Universität Freiburg) Michael Janczyk (Universität Freiburg) Janne Schulz (Universität Freiburg)

Mehr

Neues Lizenzserverkonzept für Grid- Computing D-Grid/PT-Grid Ergebniskonferenz 2012 Bonn

Neues Lizenzserverkonzept für Grid- Computing D-Grid/PT-Grid Ergebniskonferenz 2012 Bonn Neues Lizenzserverkonzept für Grid- Computing D-Grid/PT-Grid Ergebniskonferenz 2012 Bonn Vorstellung: ESI-Group PT-Grid, TP-2 Hans-W. Mindt 1 Plasma Technologie 2 1 Inhalt 1. Unternehmen 2. Idee des neuen

Mehr

Verkürzung von Entwurfszeiten

Verkürzung von Entwurfszeiten Verkürzung von Entwurfszeiten durch Matlab-basiertes HPC R. Fink, S. Pawletta Übersicht aktuelle Situation im ingenieurtechnischen Bereich Multi-SCEs als Konzept zur Verkürzung von Entwurfszeiten Realisierung

Mehr

GRID-Computing vom lokalen zum globalen Ressourcenmanagement

GRID-Computing vom lokalen zum globalen Ressourcenmanagement GRID-Computing vom lokalen zum globalen Ressourcenmanagement Lokal job Master Ressourcen Management Queue1 Queue2... Node 1 Node 2.. Benutzer Cluster Ressourcenmanager: LSF (load sharing facility) OpenPBS

Mehr

UBELIX University of Bern Linux Cluster

UBELIX University of Bern Linux Cluster University of Bern Linux Cluster Informatikdienste Universität Bern ID BEKO Grid Forum 7. Mai 2007 Inhalt Einführung Ausbau 06/07 Hardware Software Benutzung Dokumentation Gut zu wissen Kontakt Apple/Mac:

Mehr

science + computing ag

science + computing ag science + computing ag Evaluation der Integration von Windows HPC in eine bestehende Berechnungsumgebung Harry Schlagenhauf science + computing ag IT-Dienstleistungen und Software für anspruchsvolle Rechnernetze

Mehr

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz

MOGON. Markus Tacke HPC ZDV. HPC - AHRP Markus Tacke, ZDV, Universität Mainz MOGON Markus Tacke HPC ZDV HPC - AHRP Was ist Mogon allgemein? Das neue High Performance Cluster der JGU Ein neues wichtiges Werkzeug für Auswertung von Messdaten und Simulationen Beispiele Kondensierte

Mehr

High Performance Computing

High Performance Computing REGIONALES RECHENZENTRUM ERLANGEN [ RRZE ] High Performance Computing Systemausbildung Grundlagen und Aspekte von Betriebssystemen und System-nahen Diensten Michael Meier, RRZE, 01.07.2015 Agenda Was bedeutet

Mehr

Lattice Boltzmann Simulation bewegter Partikel

Lattice Boltzmann Simulation bewegter Partikel Lattice Boltzmann Simulation bewegter Partikel, Nils Thürey, Hans-Joachim Schmid, Christian Feichtinger Lehrstuhl für Systemsimulation Universität Erlangen/Nürnberg Lehrstuhl für Partikeltechnologie Universität

Mehr

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund

Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Zweite Umfrage zur Bedarfsermittlung von Ressourcen zum wissenschaftlichen Rechnen an der TU Dortmund Das Wissenschaftlichen Rechnen hat sich in Forschung und Lehre in den letzten Jahren zu einem wichtigen

Mehr

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO

High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO High Performance Computing Cluster-Lösung mit MOSIX im Einsatz bei VA-TECH HYDRO Anastasios Stomas SFI Technology Services AG 12. März 2003 anastasios.stomas@sfi.ch Seite 1 Hintergrund INHALT Cluster-

Mehr

MATCHING VON PRODUKTDATEN IN DER CLOUD

MATCHING VON PRODUKTDATEN IN DER CLOUD MATCHING VON PRODUKTDATEN IN DER CLOUD Dr. Andreas Thor Universität Leipzig 15.12.2011 Web Data Integration Workshop 2011 Cloud Computing 2 Cloud computing is using the internet to access someone else's

Mehr

Windows HPC Server 2008 aus der Betreiberperspektive

Windows HPC Server 2008 aus der Betreiberperspektive Windows HPC Server 2008 aus der Betreiberperspektive Michael Wirtz wirtz@rz.rwth aachen.de Rechen und Kommunikationszentrum RWTH Aachen WinHPC User Group Meeting 2009 30./31. März 09, Dresden Agenda o

Mehr

Entwicklung eines COW auf Basis einer SGE

Entwicklung eines COW auf Basis einer SGE Entwicklung eines COW auf Basis einer SGE B. Sc. Michael Schmidt HTWK Leipzig 14. Juni 2011 Inhalt 1 Einführung 2 Masterarbeit 3 Schluss Überblick 1 Einführung 2 Masterarbeit 3 Schluss Definition Cluster

Mehr

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen

Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem Christian Terboven Rechen- und Kommunikationszentrum RWTH Aachen Hochleistungsrechnen mit Windows Interaktive Benutzung und das Batchsystem hristian Terboven Rechen- und Kommunikationszentrum RWTH Aachen 1 Hochleistungsrechnen mit Windows enter omputing and ommunication

Mehr

Numerische Simulationen mit den Bordmitteln von Globus Toolkit

Numerische Simulationen mit den Bordmitteln von Globus Toolkit Numerische Simulationen mit den Bordmitteln von lobus oolkit Olaf Schneider Workshop: Numerische Simulationen im rid SEINBUCH CENRE FOR COMPUIN - SCC KI Universität des Landes Baden-Württemberg und nationales

Mehr

Smartphone Entwicklung mit Android und Java

Smartphone Entwicklung mit Android und Java Smartphone Entwicklung mit Android und Java predic8 GmbH Moltkestr. 40 53173 Bonn Tel: (0228)5552576-0 www.predic8.de info@predic8.de Was ist Android Offene Plattform für mobile Geräte Software Kompletter

Mehr

Perzentile mit Hadoop ermitteln

Perzentile mit Hadoop ermitteln Perzentile mit Hadoop ermitteln Ausgangspunkt Ziel dieses Projektes war, einen Hadoop Job zu entwickeln, der mit Hilfe gegebener Parameter Simulationen durchführt und aus den Ergebnissen die Perzentile

Mehr

Adaptive und fehlertolerante MPI-Varianten. Heiko Waldschmidt 05.02.2007

Adaptive und fehlertolerante MPI-Varianten. Heiko Waldschmidt 05.02.2007 Adaptive und fehlertolerante MPI-Varianten Heiko Waldschmidt 05.02.2007 Übersicht Einleitung Fehlertolerante MPI-Varianten Adaptives MPI Fazit Heiko Waldschmidt Adaptive und fehlertolerante MPI-Varianten

Mehr

Simulationsgrenzerfahrungen

Simulationsgrenzerfahrungen Simulationsgrenzerfahrungen Simulation hochkomplexer Modelle ohne FEM Christoph Bruns INNEO Solutions GmbH Agenda Innovative Produkte im 3D-Druck (kann man in CAD kaum modellieren) Motivation (warum ein

Mehr

Übung 6: Ein LBM Code

Übung 6: Ein LBM Code Übung 6: Ein LBM Code Dipl.-Inf. Domenic Jenz (jenz@hlrs.de) HLRS, Universität Stuttgart Übungen zur Vorlesung Molekulardynamik und Lattice Boltzmann Methoden Outline Einleitung Der Code Modell Dateiübersicht

Mehr

( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell

( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen. Kooperation mit Microsoft und Dell ( ZIH ) Zentrum für Informationsdienste und Hochleistungsrechnen Kooperation mit Microsoft und Dell Windows-HPC-Cluster von Dell Symbolische Übergabe auf der ISC 2008 Anlieferung im Juni 2008 Kooperation

Mehr

CAE in der Cloud. - Vorteile & Probleme - Wolfgang Gentzsch & Burak Yenier ISC @ CeBIT, 19. März 2015

CAE in der Cloud. - Vorteile & Probleme - Wolfgang Gentzsch & Burak Yenier ISC @ CeBIT, 19. März 2015 CAE in der Cloud - Vorteile & Probleme - Wolfgang Gentzsch & Burak Yenier ISC @ CeBIT, 19. März 2015 CAE in der Cloud - Vorteile & Probleme - Wolfgang Gentzsch & Burak Yenier ISC @ CeBIT, 19. März 2015

Mehr

Kleines Tutorial für die Nutzung des bwuniclusters. Sven Wehner Angela Cho

Kleines Tutorial für die Nutzung des bwuniclusters. Sven Wehner Angela Cho Kleines Tutorial für die Nutzung des bwuniclusters Sven Wehner Angela Cho Programm Hintergrund bwunicluster & Zugang Dateiensystem Skripte starten, Jobs ausführen, Logging Shell-Skript Hilfreiche Shortcuts

Mehr

Tag der Umweltmeteorologie 12.05.2015. Michael Kunz

Tag der Umweltmeteorologie 12.05.2015. Michael Kunz Tag der Umweltmeteorologie 12.05.2015 Michael Kunz Beschleunigung von Ausbreitungsmodellen durch Portierung auf Grafikkarten Einleitung Das GRAL/GRAMM-System Cuda-GRAL Ergebnisse Vergleich der Modellergebnisse

Mehr

PDF-AS Webanwendung Dokumentation

PDF-AS Webanwendung Dokumentation Dokumentation PDF-AS Webanwendung Dokumentation Dokumentation zur PDF-AS Webanwendung ab Version 4 Version 0.5, 10.10.2014 Andreas Fitzek andreas.fitzek@egiz.gv.at Tobias Kellner tobias.kellner@egiz.gv.at

Mehr

Parallelisierung von NIDS

Parallelisierung von NIDS Brandenburgische Technische Universität Cottbus Lehrstuhl Rechnernetze und Kommunikationssysteme Parallelisierung von NIDS René Rietz E-Mail: rrietz@informatik.tu-cottbus.de Inhalt I Motivation II Ansätze

Mehr

Performance und Bandbreitenmanagement Tests Version 10.01.2005. MuSeGa

Performance und Bandbreitenmanagement Tests Version 10.01.2005. MuSeGa Berner Fachhochschule Hochschule für Technik und Informatik HTI Performance und Bandbreitenmanagement Tests Version 10.01.2005 Diplomarbeit I00 (2004) MuSeGa Mobile User Secure Gateway Experte: Andreas

Mehr

GinLink Interface 1GHz RISC CPU M-RAM High-Speed Feldbus Controller RISC-CPU, 800MHz... 1GHz Bis zu 256 MByte SDRAM

GinLink Interface 1GHz RISC CPU M-RAM High-Speed Feldbus Controller RISC-CPU, 800MHz... 1GHz Bis zu 256 MByte SDRAM GinLink-News Feldbus-Controller GinLink Interface 1GHz RISC CPU M-RAM High-Speed Feldbus Controller RISC-CPU, 800MHz... 1GHz Bis zu 256 MByte SDRAM Technische Daten GIN-SAM3 610736800 Schnittstellen 2

Mehr

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim

Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Cloud-Computing Seminar Hochschule Mannheim WS0910 1/23 Cloud-Computing Seminar - Vergleichende Technologien: Grid-Computing Hochschule Mannheim Sven Hartlieb Fakultät für Informatik Hochschule

Mehr

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation

Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation 1 Centre of Excellence for High Performance Computing Erlangen Kompetenzgruppe für Supercomputer und Technisch-Wissenschaftliche Simulation Dr. G. Wellein, Regionales Rechenzentrum Erlangen Supercomputer

Mehr

Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation

Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Aktuelle Trends und Herausforderungen in der Finite-Elemente-Simulation Kai Diethelm GNS Gesellschaft für numerische Simulation mbh Braunschweig engineering software development Folie 1 Überblick Vorstellung

Mehr

CBT Training & Consulting GmbH

CBT Training & Consulting GmbH CBT Training & Consulting GmbH Security Awareness CHECK Die Herausforderung Die Planungen zum Kampagnenstart stellen Sicherheitsverantwortliche regelmäßig vor die gleichen Herausforderungen: 1. Messung

Mehr

Simulationsprojekte einfacher mit Subversion und Trac

Simulationsprojekte einfacher mit Subversion und Trac Simulationsprojekte einfacher mit Subversion und Trac Workshop Simulation in den Umwelt- und Geowissenschaften, Medizin und Biologie Stefan Schwarzer, SSchwarzer.com Mike Müller, IBGW GmbH Berlin, 2007-03-22

Mehr

Praktische Erfahrungen mit Hochgeschwindigkeitsfirewalls. 54. DFN-Betriebstagung

Praktische Erfahrungen mit Hochgeschwindigkeitsfirewalls. 54. DFN-Betriebstagung Praktische Erfahrungen mit Hochgeschwindigkeitsfirewalls Frank Brüggemann, Jens Hektor, Nils Neumann, Andreas Schreiber Rechen- und Kommunikationszentrum RWTH Aachen [brueggemann hektor neumann schreiber]@rz.rwth-aachen.de

Mehr

Intelligente Haustechnik per Knopfdruck. Clevere Automation für Ihr zu Hause.

Intelligente Haustechnik per Knopfdruck. Clevere Automation für Ihr zu Hause. Intelligente Haustechnik per Knopfdruck. Clevere Automation für Ihr zu Hause. Inhaltsangabe 2 Was ist? 4 im Einsatz! 6 Kinderleichte Installation! 7 Newsletter abonnieren und... 8 Die intelligente Steckdosenleiste

Mehr

Block IV Case Study: Beispiele aus der Praxis zur Integration der etracker Suite

Block IV Case Study: Beispiele aus der Praxis zur Integration der etracker Suite Block IV Case Study: Beispiele aus der Praxis zur Integration der etracker Suite 1 Case Studie:? 2 Spezielle Integrationsanforderungen / Problematiken, die Ihnen bisher begegnet sind:? 3 Beispiele aus

Mehr

CPM: A Deformable Model for Shape Recovery and Segmentation Based on Charged Particles. Stefan Fleischer, Adolf Hille

CPM: A Deformable Model for Shape Recovery and Segmentation Based on Charged Particles. Stefan Fleischer, Adolf Hille CPM: A Deformable Model for Shape Recovery and Segmentation Based on Charged Particles Stefan Fleischer, Adolf Hille Gliederung des Vortrags Motivation Physikalische Modellgrundlagen CPM im Einzelnen Resultate

Mehr

Schnelle und flexible Stoffwertberechnung mit Spline Interpolation für die Modellierung und Optimierung fortschrittlicher Energieumwandlungsprozesse

Schnelle und flexible Stoffwertberechnung mit Spline Interpolation für die Modellierung und Optimierung fortschrittlicher Energieumwandlungsprozesse Hochschule Zittau/Görlitz, Fakultät Maschinenwesen, Fachgebiet Technische Thermodynamik M. Kunick, H. J. Kretzschmar, U. Gampe Schnelle und flexible Stoffwertberechnung mit Spline Interpolation für die

Mehr

Grundlagen der Parallelisierung

Grundlagen der Parallelisierung Grundlagen der Parallelisierung Philipp Kegel, Sergei Gorlatch AG Parallele und Verteilte Systeme Institut für Informatik Westfälische Wilhelms-Universität Münster 3. Juli 2009 Inhaltsverzeichnis 1 Einführung

Mehr

Exascale Computing. = Exascale braucht Manycore-Hardware...und was für Software??? 46/58

Exascale Computing. = Exascale braucht Manycore-Hardware...und was für Software??? 46/58 Exascale Computing Die FLOP/s-Tabelle: Name Faktor erreicht heute Giga 10 9 1976 CPU-Kern Tera 10 12 1997 Graphikkarte (GPU) Peta 10 15 2009 Supercomputer Exa 10 18 2020(?) Der gegenwärtig schnellste Rechner

Mehr

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1

Ein kleiner Einblick in die Welt der Supercomputer. Christian Krohn 07.12.2010 1 Ein kleiner Einblick in die Welt der Supercomputer Christian Krohn 07.12.2010 1 Vorschub: FLOPS Entwicklung der Supercomputer Funktionsweisen von Supercomputern Zukunftsvisionen 2 Ein Top10 Supercomputer

Mehr

D-Grid Site Monitoring im Hinblick auf EGI

D-Grid Site Monitoring im Hinblick auf EGI D-Grid Site Monitoring im Hinblick auf EGI Foued Jrad KIT die Kooperation von Die Kooperation von www.kit.edu Agenda Site Functional Tests Ersatz für SFT in D-Grid Zukunft der Site Monitoring in D-Grid

Mehr

Kathodenzerstäubung bei Atmosphärendruck

Kathodenzerstäubung bei Atmosphärendruck Kathodenzerstäubung bei Atmosphärendruck Roland Gesche 1, Horia-Eugen Porteanu 1, Frank Niehardt 1, Reinhold Kovacs 2, Joachim Scherer 2 1 Ferdinand-Braun-Institut, Leibniz-Institut für Höchstfrequenztechnik,

Mehr

Fraunhofer Resource Grid

Fraunhofer Resource Grid Fraunhofer Resource Grid Fraunhofer Resource Grid Andreas Hoheisel (andreas.hoheisel@first.fraunhofer.de) Uwe Der (uwe.der@first.fraunhofer.de) Computing Grids Computing Grids Das Netz ist der Computer

Mehr

Monitoring der GEO600-Jobs Beispiel für Applikations- Monitoring

Monitoring der GEO600-Jobs Beispiel für Applikations- Monitoring Monitoring der GEO600-Jobs Beispiel für Applikations- Monitoring Alexander Beck-Ratzka Monitoring-WS, 28.11.2008 Alexander Beck-Ratzka Monitoring GEO600 Monitoring Workshop Agenda Was ist GEO600 und einstein@home?

Mehr

Userguide für den Linux Cluster des UZWR. the admins

Userguide für den Linux Cluster des UZWR. the admins Userguide für den Linux Cluster des UZWR the admins 12. April 2011 Inhaltsverzeichnis 1 Aufbau des Rechenclusters 1 2 Login 2 2.1 Windows........................................ 2 2.1.1 PuTTy......................................

Mehr

Liferay Setup an der Humboldt-Universität

Liferay Setup an der Humboldt-Universität 08.09.2010 Setup Aufbau des Liferay-Clusters an der HUB : Ausfallsicherheit, Performance Hardware: PowerEdge 1950, 8gb Ram, 2*1GB-Ethernet Setup Aufbau des Liferay-Clusters an der HUB : Ausfallsicherheit,

Mehr

MapReduce in der Praxis

MapReduce in der Praxis MapReduce in der Praxis Rolf Daniel Seminar Multicore Programmierung 09.12.2010 1 / 53 Agenda Einleitung 1 Einleitung 2 3 Disco Hadoop BOOM 4 2 / 53 1 Einleitung 2 3 Disco Hadoop BOOM 4 3 / 53 Motivation

Mehr

The role of user interaction and acceptance in a cloudbased demand response model

The role of user interaction and acceptance in a cloudbased demand response model The role of user interaction and acceptance in a cloudbased demand response model Judith Schwarzer Albert Kiefel Dominik Engel Josef Ressel Zentrum for User-Centric Smart Grid Privacy, Security and Control

Mehr

Neuerungen in Dymola 2015 FD01

Neuerungen in Dymola 2015 FD01 Neuerungen in Dymola 2015 FD01 Leo Gall 2015-01-14 2015-01-14 Neuerungen in Dymola 2015 FD01 1 Überblick 1. Compiler und Betriebssysteme 2. Beschleunigte Simulation Parallelisierung Verbesserte Behandlung

Mehr

Archive / Backup System für OpenVMS

Archive / Backup System für OpenVMS Archive / Backup System für OpenVMS DECUS Symposium 2002 Bonn Vortrag-Nr. 3C04 Günther Fröhlin Compaq Computer Corporation Colorado Springs, USA 1 Highlights V4.0 Auslieferung Januar 2002 Hauptversion

Mehr

Cloud Computing mit mathematischen Anwendungen

Cloud Computing mit mathematischen Anwendungen Cloud Computing mit mathematischen Anwendungen Vorlesung SoSe 2009 Dr. Marcel Kunze Karlsruhe Institute of Technology (KIT) Steinbuch Centre for Computing (SCC) KIT the cooperation of Forschungszentrum

Mehr

Electron cloud studies at TU Darmstadt and GSI

Electron cloud studies at TU Darmstadt and GSI Electron cloud studies at TU Darmstadt and GSI O. Boine-Frankenheim, O. Haas, F. Petrov Institut Theorie Elektromagnetischer Felder (TEMF) Computational Electromagnetics Laboratory December 15, 2013 TU

Mehr

Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun?

Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun? Super rechnen ohne Superrechner Oder: Was hat das Grid mit Monte Carlo zu tun? Marius Mertens 20.02.2015 Super rechnen ohne Superrechner? Warum? Algorithmik und Parallelisierung Wie? Alternative Architekturen

Mehr

Martin Knoblauch Tel.: 08161 85801 Wettersteinring 12 Mobile: 0171/8033948 D-85354 Freising knobi@knobisoft.de. Lebenslauf

Martin Knoblauch Tel.: 08161 85801 Wettersteinring 12 Mobile: 0171/8033948 D-85354 Freising knobi@knobisoft.de. Lebenslauf Lebenslauf Persönliche Daten Adresse Geburtstag Martin Knoblauch Wettersteinring 12 D-85354 Freising 27. Oktober 1958 in Düsseldorf Derzeitiger Arbeitgeber (seit Juli 2002) MSC.Software GmbH, D-81829 München

Mehr

ONET: FT-NIR-Netzwerke mit zentraler Administration & Datenspeicherung. ONET Server

ONET: FT-NIR-Netzwerke mit zentraler Administration & Datenspeicherung. ONET Server : FT-NIR-Netzwerke mit zentraler Administration & Datenspeicherung Motivation für die Vernetzung von Spektrometern Weiterhin wachsender Bedarf für schnelle Analysenmethoden wie NIR Mehr Kalibrationen werden

Mehr

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien

Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Orientierungsveranstaltungen 2009 Informatikstudien der Universität Wien Scientific Computing 07. Oktober 2009 Siegfried Benkner Wilfried Gansterer Fakultät für Informatik Universität Wien www.cs.univie.ac.at

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Divide et Impera. Prof. Wolfgang Polifke, Ph. D. Lehrstuhl für Thermodynamik Technische Universität München

Divide et Impera. Prof. Wolfgang Polifke, Ph. D. Lehrstuhl für Thermodynamik Technische Universität München Divide et Impera Kombinierter Einsatz von CFD, Systemidentifikation und linearen Systemmodellen zur Analyse thermo-akustischer Verbrennungsinstabilitäten Prof. Wolfgang Polifke, Ph. D. Lehrstuhl für Thermodynamik

Mehr

Loadbalancing und Clustering mit Tomcat 6

Loadbalancing und Clustering mit Tomcat 6 Loadbalancing und Clustering mit Tomcat 6 Java Forum Stuttgart 3. Juli 2008 Michael Heß ORDIX AG, Paderborn mhe@ordix.de www.ordix.de Agenda Zielsetzung des Vortrags Webserver Integration Loadbalancing

Mehr

Instant Grid Stand August 2006

Instant Grid Stand August 2006 Instant Grid Stand August 2006 Instant Grid Stand August 2006 Projekttreffen 22/23.08.2006 Göttingen Andreas Hoheisel (andreas.hoheisel@first.fraunhofer.de) Helge Rosé (helge.rose@first.fraunhofer.de)

Mehr

Zwischenbericht III der TU Dortmund

Zwischenbericht III der TU Dortmund D-Grid IaaS - Erweiterung der D-Grid Basis für die kommerzielle Nutzung Zwischenbericht III der TU Dortmund Datum 19. Januar 2012 Version 1.0.0 Status Referenz Final http://www.irf.tu-dortmund.de/cms/de/it/projekte/d-

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

internationalen Verbund

internationalen Verbund University of Applied Sciences 1 zur Optimierung der Wertschöpfungsketten Hochleistungsrechnen für Wissenschaft und Wirtschaft im internationalen Verbund Prof. Dr. rer. nat. Christian Schröder stellv.

Mehr

Grid-Aktivitäten an der RWTH-Aachen

Grid-Aktivitäten an der RWTH-Aachen Grid-Aktivitäten an der RWTH-Aachen M.Kirsch, M. Duda, M. Erdmann, G. Flügge, S. Kappler, Th. Kreß, A. Nowack Matthias.Kirsch@physik.rwth-aachen.de III. Physikalisches Institut A RWTH Aachen Frühjahrstagung

Mehr

3D-Convection Zwischen Systemsimulation und CFD

3D-Convection Zwischen Systemsimulation und CFD 3D-Convection Zwischen Systemsimulation und CFD Vitja Schröder 25.03.2015 3D Innenraummodell 1 Vitja Schröder Ladestraße 2 38442 Wolfsburg, Germany Tel: ++49-(0)5362-938 28 84 schroeder@xrg-simulation.de

Mehr

Von heiter bis wolkig Hosting am RRZE Physikalisch Virtuell in der Cloud. 2.2.2010 Daniel Götz daniel.goetz@rrze.uni-erlangen.de

Von heiter bis wolkig Hosting am RRZE Physikalisch Virtuell in der Cloud. 2.2.2010 Daniel Götz daniel.goetz@rrze.uni-erlangen.de Von heiter bis wolkig Hosting am RRZE Physikalisch Virtuell in der Cloud 2.2.2010 Daniel Götz daniel.goetz@rrze.uni-erlangen.de Übersicht Entwicklungen im (Web-)Hosting Physikalisches Hosting Shared Hosting

Mehr

Installation Guide. Installation Guide. Installationsanleitung für die anaptecs JEAF Plattform. Version 1.2 Letzte Änderung 05.

Installation Guide. Installation Guide. Installationsanleitung für die anaptecs JEAF Plattform. Version 1.2 Letzte Änderung 05. Installation Guide Thema Version 1.2 Letzte Änderung 05. Dezember 2011 Status Installationsanleitung für die anaptecs JEAF Plattform Freigegeben Inhaltsverzeichnis 1 Motivation... 4 1.1 Abgrenzungen...

Mehr

PVFS (Parallel Virtual File System)

PVFS (Parallel Virtual File System) Management grosser Datenmengen PVFS (Parallel Virtual File System) Thorsten Schütt thorsten.schuett@zib.de Management grosser Datenmengen p.1/?? Inhalt Einführung in verteilte Dateisysteme Architektur

Mehr

Hochverfügbarkeit mit MySQL: Eine Kartographie der Lösungen

Hochverfügbarkeit mit MySQL: Eine Kartographie der Lösungen Erkan Yanar (linsenraum.de) Hochverfügbarkeit mit MySQL: Eine Kartographie der Lösungen 20. November DOAG 2012 20121 / 24 Hochverfügbarkeit mit MySQL: Eine Kartographie der Lösungen DOAG 2012 Erkan Yanar

Mehr

Netztechnologien für GRID-Anwendungen

Netztechnologien für GRID-Anwendungen Netztechnologien für GRID-Anwendungen Ferdinand Hommes, Jochen Schon Fraunhofer Institut für Medienkommunikation (IMK) Schloss Birlinghoven 53754 Sankt Augustin Ferdinand.Hommes@imk.fraunhofer.de Jochen

Mehr

Neo4J & Sones GraphDB. Graph-Datenbanken. Von Toni Fröschke. Problemseminar NoSQL-Datenbanken (WS 2011/12)

Neo4J & Sones GraphDB. Graph-Datenbanken. Von Toni Fröschke. Problemseminar NoSQL-Datenbanken (WS 2011/12) Neo4J & Sones GraphDB Graph-Datenbanken Von Toni Fröschke Problemseminar NoSQL-Datenbanken (WS 2011/12) Gliederung Neo4J Überblick Neo4J-Komponenten Datenhaltung/ -verwaltung Verfügbarkeit & Recovery I/O

Mehr

Formulieren von Leistungsverzeichnissen

Formulieren von Leistungsverzeichnissen Formulieren von Leistungsverzeichnissen - typische Fehler - Jan Heichler System Architect www.clustervision.com 1 Product & Services Turnkey clusters Compute clusters Storage clusters GPU clusters Cluster

Mehr

Cloud OS. eine konsistente Plattform. Private Cloud. Public Cloud. Service Provider

Cloud OS. eine konsistente Plattform. Private Cloud. Public Cloud. Service Provider Cloud OS Private Cloud Public Cloud eine konsistente Plattform Service Provider Trends 2 Das Cloud OS unterstützt jedes Endgerät überall zugeschnitten auf den Anwender ermöglicht zentrale Verwaltung gewährt

Mehr

Das Lern-Management System (LMS) StudIP an der Universität Osnabrück

Das Lern-Management System (LMS) StudIP an der Universität Osnabrück Das Lern-Management System (LMS) StudIP an der Universität Osnabrück Technische Details Frank.Elsner@rz.uni-osnabrueck.de Andrea.Tschentscher@rz.uni-osnabrueck.de Version 1.2, September 2005 Seite 1 Nutzungsprofil

Mehr

ORGA 6000 in Terminalserver Umgebung

ORGA 6000 in Terminalserver Umgebung ORGA 6000 in Terminalserver Umgebung Sie möchten das ORGA 6000 in einer Windows (Terminal) Server Umgebung betreiben. Wie gehen Sie dazu am besten vor? Sie haben drei Möglichkeiten das ORGA 6000 in einer

Mehr

FVS Workshop 2000. TCO in Solarmodulen

FVS Workshop 2000. TCO in Solarmodulen 60 TCO-Schichten in CIGS- Dünnschichtsolarmodulen Michael Powalla*, Mike Oertel und Richard Menner Zentrum für Sonnenenergie und Wasserstoff-Forschung michael.powalla@zsw-bw.de 61 Die CIGS-Modul-Technologie

Mehr

Installationshandbuch. WeLearn Release 2.3.0. für Linux

Installationshandbuch. WeLearn Release 2.3.0. für Linux Installationshandbuch WeLearn Release 2.3.0 für Linux Oktober 2005 Das WeLearn-Team wünscht Ihnen viel Spaß und Erfolg im Arbeiten mit WeLearn. Bei Fragen und Anregungen können Sie uns unter info@welearn.at

Mehr

Computational Fluid Dynamics - CFD Overview

Computational Fluid Dynamics - CFD Overview Computational Fluid Dynamics - CFD Overview Claus-Dieter Munz Universität Stuttgart, Institut für Aerodynamik und Gasdynamik Pfaffenwaldring 21, 70550 Stuttgart Tel. +49-711/685-63401 (Sekr.) Fax +49-711/685-63438

Mehr

tubcloud und DFN-Cloud/TU Berlin Zentraler Datenspeicher im Mobilzeitalter

tubcloud und DFN-Cloud/TU Berlin Zentraler Datenspeicher im Mobilzeitalter tubcloud und DFN-Cloud/TU Berlin Zentraler Datenspeicher im Mobilzeitalter Thomas Hildmann tubit IT Dienstleistungszentrum ZKI AK Zentrale Systeme 2015 Agenda tubcloud owncloud an der TU Berlin DFN-Cloud

Mehr

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25 XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance

Mehr

Visuelle Simulation eines Radiosity Algorithmus und ihre Anwendung in Lernprozessen

Visuelle Simulation eines Radiosity Algorithmus und ihre Anwendung in Lernprozessen Visuelle Simulation eines Radiosity Algorithmus und ihre Anwendung in Lernprozessen Abschlussvortrag zur Diplomarbeit von Jörg Karpf Graphische Datenverarbeitung, Institut für Informatik 3. September 2009

Mehr

TSM-Client UNIX. Leibniz Supercomputing Centre Stephan Peinkofer peinkofer@lrz.de 1

TSM-Client UNIX. Leibniz Supercomputing Centre Stephan Peinkofer peinkofer@lrz.de 1 TSM-Client UNIX Leibniz Supercomputing Centre Stephan Peinkofer peinkofer@lrz.de 1 Agenda Allgemeines Installation Konfiguration Test Backup / Archive Restore / Retrieve Epilog 2 Allgemeines Unterstützte

Mehr

Netzwerkperformance 2.0

Netzwerkperformance 2.0 Netzwerkperformance 2.0 Die KPI`s als Schlüsselfaktoren der Netzwerke Andreas Dobesch, Product Manager DataCenter Forum 2014, Trafo Baden ISATEL Electronic AG Hinterbergstrasse 9 CH 6330 Cham Tel. 041

Mehr

:HE'DWHQEDQN$QELQGXQJ PLW-DYD6HUYOHWVEDVLHUHQG DXI$SDFKH-6HUY2UDFOHL

:HE'DWHQEDQN$QELQGXQJ PLW-DYD6HUYOHWVEDVLHUHQG DXI$SDFKH-6HUY2UDFOHL DNDGLD,QIRUPDWLRQ 7HFKQRORJ\ :HE'DWHQEDQN$QELQGXQJ PLW-DYD6HUYOHWVEDVLHUHQG DXI$SDFKH-6HUY2UDFOHL Authoren: Christoph Gächter / Martin Zahn Copyright 1999 Akadia AG All rights reserved $NDGLD$* Information

Mehr

Performance Zertifizierung

Performance Zertifizierung Performance Zertifizierung Alois Schmid alois.schmid@itf-edv.de www.itf-edv.de Copyright 2012 ITF-EDV Fröschl GmbH Inhalt Firma.... Kapitel 1 Gründe für die Zertifizierung der Massendatentauglichkeit.....

Mehr

Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth

Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth Cluster-Benutzerverwaltung: erste Schritte mit Shibboleth Steffen Hau, Reinhard Mayer, Sabine Richling, Tobias Kienzle, Heinz Kredel Rechenzentrum Universität Mannheim Universitätsrechenzentrum Heidelberg

Mehr

NEC HPC-System. SX-ACE Vektorrechnersystem u. HPC-Linux Cluster. Rechenzentrum

NEC HPC-System. SX-ACE Vektorrechnersystem u. HPC-Linux Cluster. Rechenzentrum SX-ACE Vektorrechnersystem u. HPC-Linux Cluster 1 Ansprechpartner HPC-Support Team Benutzerberatung Dr. Karsten Balzer Dr. Simone Knief Systembetreuung: Dr. Cebel Kücükkaraca Alfred Wagner Mailingliste:

Mehr

Rich Internet Applications Technologien. Leif Hartmann INF-M3 Anwendungen 2 - Wintersemester 2007/2008 08. Januar 2008

Rich Internet Applications Technologien. Leif Hartmann INF-M3 Anwendungen 2 - Wintersemester 2007/2008 08. Januar 2008 Rich Internet Applications Technologien Leif Hartmann INF-M3 Anwendungen 2 - Wintersemester 2007/2008 08. Januar 2008 Einleitung Inhalt Kategorisierung Technologien E c h o G o o g le W e b T o o lk it

Mehr

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht)

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Christian Haag, DATA MART Consulting Consulting Manager Oracle DWH Team

Mehr

Integrated Performance Analysis of Distributed Computer Systems

Integrated Performance Analysis of Distributed Computer Systems Integrated Performance Analysis of Distributed Computer Systems Benchmarks für verteilte Computer Systeme Dr. Heinz Kredel, Universität Mannheim ZKI AK Supercomputing 22./23. September 2005, Universität

Mehr

Auslegung, Entwurf und Nachrechnung von Hochleistungs-Kreiselpumpen mittels CFturbo und Ansys CFX

Auslegung, Entwurf und Nachrechnung von Hochleistungs-Kreiselpumpen mittels CFturbo und Ansys CFX 8. CFD Seminar Power Generation Auslegung, Entwurf und Nachrechnung von Hochleistungs-Kreiselpumpen mittels CFturbo und Ansys CFX Dr.-Ing. Oliver Velde CFturbo Software & Engineering GmbH Inhalt Intro

Mehr

R im Enterprise-Modus

R im Enterprise-Modus R im Enterprise-Modus Skalierbarkeit, Support und unternehmensweiter Einsatz Dr. Eike Nicklas HMS Konferenz 2014 Was ist R? R is a free software environment for statistical computing and graphics - www.r-project.org

Mehr