Computer Graphics
TU Braunschweig

Events


Talk XFlow - Declarative Data Processing in XML3D

15.02.2011 14:00
Informatikzentrum, Seminarraum G30

Our digital environment has become increasingly three-dimensional, but still the Web continues to remain comprised of two-dimensional elements. Several approaches exist to add 3D content to the Web, but none of them has found a widespread acceptance among web developers. XML3D is a new declarative approach that directly extends HTML5 to add interactive 3D graphics to the Web. The concept of XML3D follows a lightweight design and fully leverages existing web technologies, such as JavaScript, DOM, or CSS. As a joint research project of the Intel Visual Computing Institute (IVCI), the German Research Center for Artificial Intelligence (DFKI) and the Computer Graphics Lab of Saarland University, XML3D has recently spawned a W3C Incubator Group targeting the future of the 3D Web. With XFlow, a new dataflow-driven data processing mechanism was added to the XML3D specification. It further extends the scope of graphical effects achievable with XML3D. Simulating natural effects such as water surfaces, human skin, or vegetation requires mesh and image processing capabilities. In XML3D, meshes and shaders act as sinks for dataflow processes, allowing mesh and texture data to be the result of one or more data-processing scripts. XFlow introduces an implicit encoding of such processing graphs inside of HTML, considering various usability aspects. Due to the declarative approach, a transparent acceleration of the processing scripts can be achieved by offloading the actual calculations from the CPU onto available computing resources. As one of many applications, virtual avatars with realistic, animated faces embedded inside of a webpage have become possible.

Talk Air-Liquid Interaction with SPH

02.02.2011 11:00
Informatikzentrum, Seminarraum G30

Speaker(s): Julian Bader

Air bubbles are a natural phenomenon which appears in everyday life. Thus, modeling air-liquid interaction can significantly improve the realism of fluid simulations such as Smoothed Particle Hydrodynamics (SPH). However, handling the large density ratio of water and air with SPH is problematic. This is due to high pressure forces which result in numerical instabilities. In order to circumvent these instabilities, the proposed air-liquid approach computes the two phases separately. The interaction is modeled by employing a two-way drag force. The method is capable of simulating typical air bubble phenomena, such as merging, deformation and volume-dependent buoyancy. To not explicitly represent the air surrounding the water, air particles are generated on-the-fly during simulation. Here, a heuristic is used that creates air bubbles only where they are likely to appear.

Talk Very Low Power Graphics (or How to design a Mobile Graphics Chip)

25.01.2011 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Stefan Guthe

A variety of embedded systems require at least some kind of 3D graphics processing power. However, in a mobile setting power is the main constraint rather than features or performance alone. In this talk, we explore a very simple approach to design 3D graphics hardware tailored to the two mainstream 3D graphics APIs in the mobile market, OpenGL ES and DirectX. Besides achieving a functional low power 3D graphics implementation, we also need to take both hardware and software development requirements into account.

Talk CUDA Expression Templates

24.01.2011 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Paul Wiemann

Many algorithms require vector algebra operations such as the dot product, vector norms or component-wise manipulations. Especially for large-scale vectors, the efficiency of algorithms depends on an efficient implementation of those calculations. The calculation of vector operations benefits from the continually increasing chip level parallelism on graphics hardware. Very efficient basic linear algebra libraries like CUBLAS make use of the parallelism provided by CUDA-enabled GPUs. However, existing libraries are often not intuitively to use and programmers may shy away from working with cumbersome and errorprone interfaces. In this paper we introduce an approach to simplify the usage of parallel graphics hardware for vector calculus. Our approach is based on expression templates that make it possible to obtain the performance of a hand-coded implementation while providing an intuitive and math-like syntax. We use this technique to automatically generate CUDA kernels for various vector calculations. In several performance tests our implementation shows a superior performance compared to CPU-based libraries and comparable results to a GPU-based library.

Talk Multi-aperture imaging systems inspired by insect compound eyes

10.01.2011 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Alexander Oberdörster

Miniaturization of camera modules and reduction of their manufacturing cost is an important goal in many markets such as mobile phone cameras and automotive applications. Multi-aperture imaging systems inspired by insect compound eyes promise advances in both regards. A traditional optical system is a stack of lenses that images a certain field of view onto the image sensor. A multi-aperture-system consists of an array of microlenses (channels), each imaging a fraction of the total field of view onto its own small area on the image sensor, forming an array of microimages. With careful adjustment of the viewing directions of the channels, the focal lengths of the microlenses can be reduced to a fraction of the focal length of a single-aperture system. This decreases track length and increases depth of field. As each microimage spans only a small field of view, the optical systems can be simple. Because the microlenses are small -- they have a diameter of hundreds of microns and a sag of tens of microns -- they can be manufactured on wafer scale with microfabrication techniques. This makes production cost-effective and precise. To obtain a complete image from the partial images, they are combined electronically. For an accurate aligment of all pixels, the distortion of each microimage is derived from the optical design. Each pixel is treated as a measurement of radiance and placed on the image plane according to the viewing direction of the microlens, pixel position under the microlens, distortion at that position and parallax due to object distance. The final image is generated by interpolating between the known measurements.

Talk Stereo Video Perception (Topics from ICIP 2010, Hong Kong )

29.11.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Anita Sellent

Scanning the contribution to the ICIP 2010 in Hong Kong, it becomes obvious that stereo video is a topic in which many researchers currently are interested. This talk will focus on stereo perception. First issue is the observation that watching a stereo video can cause headache. What causes this headache and what points have to be considered for recording and projection setup to avoid it? Next issue is the perception of compression artifacts in stereo-video, an important point, as the amount of raw-data for a stereoscopic film is twice as high as for a monoscopic film, but the content is highly redundant. The final issue of the talk is an evaluation of viewing setups to measure the quality of the images, that finally reach our eyes. After the talk we will discuss the experiences with stereo video we made in our research group.

Talk Vorträge über das Dissertationsthema

01.11.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Martin Eisemann, Christian Linz, Anita Sellent

In den Vorträgen, die jeweils 45 Minuten dauern, stellen die Promotionskandidaten ihr Dissertationsthema vor und präsentieren ihre Forschungsergebnisse.

Martin Eisemann, Titel: Error-Concealed Rendering

Fotorealismus ist seit jeher eines der großen Ziele in der Computergrafik. Anstatt die Komplexität der Natur mit Standardmodellierungstools nachzubauen, gehen bildbasierte Ansätze den umgekehrten Weg und verwenden reale Aufnahmen zur Modellierung, da diese bereits per Definition fotorealistisch sind. Ein Nachteil dieser Variante ist jedoch, dass die Komposition oder Kombination mehrerer Quellbilder eine nichttriviale Aufgabe darstellt und häufig störende, sichtbare Artefakte im erzeugten Bild nach sich zieht. In dieser Dissertation verfolgen wir verschiedene Ansätze um Artefakte, welche durch die Komposition/ Kombination mehrerer Bilder in einer gemeinsamen Bilddomäne entstehen, zu verhindern oder zumindest abzuschwächen. Im Ergebnis liefern die vorgestellten Verfahren neue Bilder oder neue Ansichten einer Bildsammlung oder Videosequenz, je nachdem ob die Aufgabe dabei die Komposition mehrerer Bilder oder die Kombination mehrerer Videos verschiedener Kameras darstellt.

Christian Linz, Titel: Beiträge zur Virtuellen Videokamera: von symmetrischen, dichten Korrespondenzkarten zu qualitativ hochwertigen bildbasierten Spezialeffekten

3D-Video mit Blickpunktnavigation ist eine neues digitales Medium welchem die Forschung in den letzten 10 Jahren viel Aufmerksamkeit gewidmet hat. Die meisten Verfahren rekonstruieren dabei die Szenengeometrie und schränken sich somit auf Lambertsche Szenen und synchron aufgenommene Eingabedaten ein. In diesem Vortrag beschreiben wir Beiträge zur `Virtuellen Videokamera`, einem rein bildbasierten System zur Blickpunktnavigation, welches auf unsynchronisierten Eingabevideos arbeitet. Der Fokus liegt dabei auf der Schätzung dichter Korrespondenzkarten und auf der Synthese von Zwischenbildern. Das resultierende System eignet sich sowohl zur Produktion von räumlich-zeitlichen Spezialeffekten als auch zur Erzeugung stereoskopischer Sequenzen.

Anita Sellent, Titel: Akkurate Bewegungsfeldbestimmung anhand von alternativen Bildgegebenheiten

Projektionen der Szenenbewegung auf die Bildebene einer Kamera werden traditionell durch Betrachten von zwei aufeinanderfolgenden möglichst kurzen und scharfen Standbildern bestimmt. Die Modellierung von Bewegung durch die zeitliche Differenz zweier Bilder trifft allerdings einige Annahmen, die in realen Szenen nicht gegeben sind: so werden Szenenpunkte durch die unterschiedliche Bewegung von Objekten verdeckt oder aufgedeckt, Farbwerte verändern sich durch den Einfluß von Beleuchtung in der 3D Szene oder Bewegungen zwischen zwei Bildern umfassen mehrere Pixel. In dem Vortrag sollen die klassische Bewegungsformulierung, die Ursache des zeitlichen Aliasing und Ansätze zu dessen Vermeidung dargestellt werden.

Talk Python für Computergraphiker

26.10.2010 15:30
Informatikzentrum, Seminarraum G30

Speaker(s): Stephan Wenger, Thomas Neumann

Der Vortrag bietet eine Einführung in Python und SciPy sowie einige Live-Demos.

Talk Multi-Video Foreground Segmentation

22.10.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Julia Wolf

Im Forschungsfeld der Foto- und Videoverarbeitung wird unter anderem an der automatischen Segmentierung eines Bildes in seine Vorder- und Hintergrundanteile gearbeitet. Die Verfahren sind für Einzelbilder bereits sehr stabil und benötigen nur wenige Benutzerinteraktionen. Es ist möglich, viele dieser Algorithmen auf die Verarbeitung von Videos zu erweitern. Dort wird versucht, möglichst viele Bilder hintereinander automatisch zu segmentieren. Bei anspruchsvollen Szenen mit großen Bewegungen oder komplexem Hintergrund bleibt die automatische Segmentierung über mehrere Bilder jedoch unzuverlässig, so dass der Anwender oft manuelle Nachbesserungen vornehmen muss. Bei der Verwendung von mehreren Kameras in einer Szene, mit denen das Vordergrundobjekt aus verschiedenen Blickwinkeln aufgenommen werden kann, muss jedoch ein Vielfaches an Material ausgewertet und manuell angepasst werden. Entgegen des allgemeinen Ansatzes, jeden Videostrom getrennt voneinander zu bearbeiten, wird in dieser Arbeit ein Verfahren entwickelt, dass die Ergebnisse der einzelnen Bilder unterschiedlicher Videoströme miteinander kombiniert. Es soll durch den Informationsgewinn eine Verbesserung der Einzelbildergebnisse, der Gesamtbearbeitungszeit und folglich eine Verringerung der manuellen Korrekturen erreicht werden. Zusätzlich dazu wird ein Algorithmus entwickelt, der automatisch schlechte Segmentierungen detektiert und dem Benutzer zur manuellen Nachbesserung anbietet. Als Ergebnis dieser Arbeit ist ein Verfahren entstanden, das einen Algorithmus zur Trennung von Vorder- und Hintergrundinformationen für einen einzelnen Videostrom auf die Verwendung von mehreren Kameras adaptiert und in Verknüpfung mit der Detektion und Anpassung von schlechten Segmentierungen funktioniert. Der Algorithmus zur kameraübergreifenden Verwendung der Ergebnisse aus unterschiedlichen Videoströmen bringt einen deutlichen Vorteil gegenüber anderen Verfahren.

Talk Adapted Computations and Representations for Real-time Graphics

23.09.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Elmar Eisemann

Recent advances in computer graphics have contributed to a surprising increase in complexity with respect to geometry as well as the simulation of physical phenomena (such as shadows, refraction, or depth of field). Approximating and visualizing geometry consisting of tens of millions of polygons simultaneously tested for collision or visibility is becoming increasingly common. Involving the complete virtual environment poses a significant computational challenge. We will show how simplified representations, suitable approximations of physical effects, and perceptual findings can be exploited to push the boundaries of image synthesis and enable detailed, yet efficient rendering solutions.

Talk Enhanced Poisson Image Editing

13.09.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Daniel Gohlke

Mit Hilfe der Poisson-Gleichung, die vor allem in der Bildbearbeitung große Bedeutung erlangt hat, lassen sich Objekte nahtlos in andere Bilder einfügen. Für die erfolgreiche Anwendung der Gleichung sind jedoch bestimmte Vorbedingungen zu erfüllen. Das nahtlose Einfügen funktioniert am Besten, wenn die Farbdifferenz in den Randgebieten sehr ähnlich ist und die Objektkanten im Quell- und Zielbild sich möglichst gut überlagern. Im Zuge dieser Arbeit ist ein Verfahren entwickelt worden, das bestehende Konzepte für das nahtlose Einfügen umsetzt und erweitert. Dabei ist das "Poisson Image Editing" umgesetzt und um die Suche der optimalen Kontur mit Hilfe des "Drag-and-Drop Pasting" Verfahrens erweitert worden. Das Hauptaugenmerk dieser Arbeit liegt jedoch auf der überlagerung von starken Objektkanten. Es wird ein Verfahren vorgestellt, dass zum Finden und Zuordnen von Objektkanten im Quell- und Zielbild verwendet werden kann. Nach der erfolgreichen Zuordnung der Objektkanten wird die Verschiebung zwischen den Objektkanten ermittelt. Anschließend wird das Quellbild so verzerrt, dass die passenden Objektkanten sich überdecken. Da dies zu starken Verzerrungen am Rand führen kann, ist es außerdem möglich die Kanten in das Bild hinein zu verfolgen und die Verschiebungen entlang wichtiger Kanten festzulegen. Dies führt zur Erhaltung der Kantenform im Zielbild und zur Verbesserung des optischen Eindrucks in der Randregion. Zusätzlich wird das Verfahren für das nahtlose Einfügen von Objekten in andere Bilder in einen pyramidenbasierten Ansatz eingebettet. Dadurch können auch Bilder mit unterschiedlichen Schärfegraden ineinander eingef ügt werden. Die Korrespondenzfindung zwischen den Bildern wird durch die Verwendung von SIFT-Features automatisiert. Neben der Ermittlung von einer Korrespondenz zwischen den Bildern ist es möglich, für bestimmte Bildbereiche mehrere Korrespondenzen zu finden und somit ein Objekt an mehreren Stellen im Zielbild zu platzieren. Nach der Korrespondenzfindung erfolgt die Berechnung der optimalen Bilddimensionen für das Einfügen, so dass die Bilder möglichst gut für die Anwendung des Verfahrens geeignet sind. Das Einfügen erfolgt dann mit Hilfe des des oben genannten Verfahrens. Mit dem in dieser Arbeit entwickelten Programm ist es möglich, einige Probleme die bei der Verwendung des "Poisson Image Editing" Verfahrens auftreten zu beseitigen und optisch ansprechende Ergebnisse zu erzielen. Vor allem die Erhaltung von Bildkanten innerhalb des eingefügten Bereichs trägt deutlich zur Verbesserung des optischen Eindrucks des zusammengesetzten Bildes bei.

Talk Projektarbeit: Erstellung eines BRDF-Editors für das Reflektanzverhalten von Oberflächen in refrakti

23.08.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Alexander Schäfer

Um eine künstliche 3D-Szene realistisch wirken zu lassen, bedarf es authentischen Oberflächen-Materialien bzw. einem glaubwürdigen Reflektanzverhalten der Szenenobjekte. Ein gängiges und schnelles Verfahren ist die Auswertung einer Bidirektionalen-Reflektanz-Verteilungs-Funktion(BRDF), mit welcher man verschiedene Materialien mathematisch beschreiben kann. Bisher vernachlässigt dieses Modell die Tatsache, dass sich das Reflektanzverhalten vieler Materialien, je nach dem welches Medium das Objekt umgibt, verändert. So sieht ein Kleidungsstück unter Wasser anders aus als an der Luft. Im Rahmen der Forschungsarbeiten des Instituts für Computergrafik, TU Braunschweig, und des MPI für Informatik, Saarbrücken, soll deshalb das BRDF-Modell zur Ermittlung des Reflektanzverhaltens von Oberflächen in Abhängigkeit zum umgebenden Medium entsprechend erweitert werden. Im Kontext dieses Forschungsvorhabens liefert diese Arbeit ein passendes Werkzeug zur Visualisierung und Auswertung der entstandenen Messdaten, und bietet dem Benutzer die Möglichkeit das Reflektanzverhalten der realen Bilddaten mit einem beliebigen, mathematischen Modell zu vergleichen.

Talk Interactive Fur Shaping and Rendering

17.08.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Hanqlu Sun

Furry surfaces are crucial in representing the realistic appearance of virtual creatures and cartoon-style objects/bodies. It is highly demanding to model and render the realistic furry effects in interactive gaming and virtual environments. Most of the hair/fur modeling systems proposed geometry-based representations so the systems do not directly support interactive modeling and rendering of virtual furry creatures. Our work is motivated for representing the realistic furry surfaces based on the non-uniform layered approach, and supporting users the interactive tools to intuitively shape dense, messy fur over the bodies with the realistic rendering effects. These include fur combing, wind blowing, pulling, interpolating, smoothing and disturbing, thus users can intuitively design and manipulate the furry surfaces over the bodies with simple user input. Further, we developed layered shadow maps for the realistic self-shadowing effects of fur, which can significantly enhance the realistic appearance of furry creatures. Using the interactive tools, users can intuitively create the furry shapes of virtual creatures, and visualize the realistic rendering of edited fur instantly. Our interactive fur system utilizes GPU-accelerated processing, and supports the intuitive user input for shaping the furry surfaces of virtual creatures. Also, other current research projects we have worked on will be briefly introduced at the end as well.

Talk Strömungsvisualisierung

23.07.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Daniel Weiskopf

Talk Perceptual Research Methodology and its relevance for Computer Graphics

24.06.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Douglas Cunningham

Perceptual psychology and computer graphics ask many questions that are formally similar. These questions relate to how one can -- with rather limited resources -- extract, represent, and manipulate targeted portions of the vast amount of information present in the physical world. Over the last 150 years, perceptual psychologists have developed and refined a wide variety of experimental methods, and have gathered a wealth of detailed information about the algorithms that underlie human perceptual processes. Since many of the tasks and challenges explored in computer graphics are similar to those faced in human perception, and since humans are often the end-user of computer generated imagery, computer scientists are increasingly adapting knowledge about human perception to develop perceptually-inspired computer graphics algorithms. Moreover, computer graphics researchers are increasingly being asked to prove that newly developed techniques meet specific claims, such as "Are the images generated by the new method really indistinguishable from a photograph?"; "If not, why not?"; "Do the new visualizations really improve the performance of experts on specific tasks?" A firm understanding of perceptual research methodology will now only make it easier to comprehend and utilize existing knowledge about human perceptual capabilities, but will also enable you to ask and answer similar questions for your algorithms. In this talk, I will provide a brief overview of perceptual methodology and some of the fundamental assumptions that lie behind it.

Talk Visual Computing Workshop

10.06.2010 14:00
Haus der Wissenschaft

Speaker(s): Timo Stich, Hans-Peter Seidel, Bernt Schiele, Oliver Grau, Philipp Slusallek, Ralph Bruder, Peter Eisert, Andreas Kolb, Aljoscha Smolic, Hartmut Schirmacher

Webseite

Talk An introduction to space weather, for computer scientists

26.04.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Kai Ruhl

Space weather are solar and cosmic background effects on satellites and astronauts, the ionosphere, and ground systems. Our solar system is not quite as empty as the word "space" implies: Photons, electrons and protons as well as ions from the Sun fill most of the heliosphere, driving back the galactic cosmic rays that would otherwise dominate. This talk aims at providing an overview of the primary concepts used in space weather, suited to the understanding of computer scientists (who might not necessarily be versed in solar physics). A packet of photons and particles will be followed from the surface of the sun to the surface of the earth, describing basic interactions on its way. Advanced topics will not be covered.

Talk Deklarative XML-Verarbeitung mit Anwendungen in der Linguistik und im Sport

12.04.2010 17:00
Informatikzentrum, Hörsaal 160

Speaker(s): Dietmar Seipel

Die komfortable und effiziente Verarbeitung von XML-Dokumenten und XML-basiertem Wissen spielt heute eine zunehmend wichtige Rolle, z.B. zur Verwaltung und zum Austausch komplexer Daten oder im Semantic Web. Zum Zugriff auf und zur Transformation von XML--Strukturen haben wir die deklarative Anfrage-, Transformations- und Updatesprache FnQuery entwickelt und in verschiedenen Anwendungen erprobt. In einem Projekt zur Analyse von Varianz in Sprache und Genomen werden schwach in XML strukturierte Wörterbücher aufbereitet und analysiert. Wir haben dazu ein deklaratives Toolkit zur Annotation von Wörterbüchern entwickelt, das auf XML- und Prolog-Technologie basiert. Eines der Hauptziele des Projektes ist die Erstellung einer Metalemmaliste als Grundlage für den Strukturvergleich mit bioinformatischen Daten. Metalemma ist dabei die als Wort in der Gegenwartssprache angesiedelte Referenzeinheit, auf die - soweit möglich - die sprachlichen Entsprechungen aus Dialekträumen (diatopische Varianz) und Sprachstufen (diachronische Varianz) abgebildet werden. Es zeigte sich, daß der deklarative Ansatz in Prolog viel lesbarer, flexibler, verläßlicher und sogar schneller ist als eine alternative Implementierung, die vorher in Java und XSLT für das TextGRID- CommunityProjekt gemacht worden war. In einem anderen Projekt werden räumlich/zeitliche Spielsequenzen im Sport (Basketball, Tennis) in XML gespeichert und mit Hilfe von deklarativen Anfragen bzw. temporalem Data Mining analysiert.

Talk Rotationsinvariante Texturoptimierung für Super-Resolution und Detailhalluzination

29.03.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Lea Lindemann

Beispielbasierte Textursynthese dient normalerweise dazu, aus einem kleinen Eingabepatch eine größre Textur mit höherer Auflösung zu erzeugen. Problematisch dabei ist, daß meist nur eine Textur erzeugt wird, welche zwar eine höhere Auflösung hat, die Details jedoch gleich bleiben und nicht mit skaliert werden. Die bisherige Forschung in diesem Gebiet unterliegt dabei noch vielen Einschränkungen, so müßen exakte Größnkorrespondenzen meist von Hand vorgegeben werden, und die Bilder müßen bereits paßend ausgerichtet sein. Es ist jedoch aus verschiedenen Gründen nicht immer einfach paßende Eingabebilder zu erzeugen. Ein Beispiel wäre ein Bild, welches man aus dem Internet geladen hat und welches man gerne in einer höheren Auflösung hätte, ohne daß es verschwommen erscheint. Im Grunde existiert in diesem Falle kein Eingabebild, welches man zum Hochskalieren verwenden könnte. Superresolution Ansätze können zwar niedrige und sehr hohe Frequenzen erhalten, haben aber das Problem, daß mittlere Frequenzen, meist verloren gehen, oder nicht synthetisiert werden. Aber vielleicht hat man ähnliche Bilder der vorkommenden Materialien gegeben. Diese könnte man eventuell verwenden. Leider ist die notwendige Voraußetzung der gleichen Perspektive dabei meist verletzt. In dieser Arbeit soll untersucht werden, inwieweit eine neuartige Textursynthese mit rotations- und beleuchtungsinvarianten Nachbarschaftsbeschreibungen, das Problem der Perspektive und der neu hinzuzufügenden Details lösen kann. Dazu benötigt man eine genaue Analyse der Stärken und Schwächen eines solchen Ansatzes. Ist es wirklich sinnvoll eine genaue übereinstimmung mit dem Originalbild zu erhalten, oder kann es nicht von Vorteil sein, dem Algorithmus leichte Freiheiten zu gewähren? Dafür wird ein Optimierungsalgorithmus vorgestellt, der sich genau mit diese Fragen beschäftigt.

Talk Modeling the planetary nebula IC418: a combined approach using stellar and nebular model

25.02.2010 14:00
Informatikzentrum, Hörsaal 160

Speaker(s): Christophe Morisset

We present a coherent stellar and nebular model reproducing the observations of the Planetary Nebula IC418. We want to test whether a stellar model obtained by fitting the stellar observations is able to satisfactory ionize the nebula and reproduce the nebular observations, which is by no mean evident. This allows us to determine all the physical parameters of both the star and the nebula, including the abundances and the distance. We used all the observational material available (FUSE, IUE, STIS and optical spectra) to constrain the stellar atmosphere model performed using the CMFGEN code. The photoionization model is done with Cloudy_3D, and is based on CTIO, Lick, SPM, IUE and ISO spectra as well as HST images. More than 140 nebular emission lines are compared to the observed intensities. We reproduce all the observations for the star and the nebula. The 3D morphology of the gas distribution is determined. The effective temperature of the star is 36.7kK. Its luminosity is 7700 solar luminosity. We describe an original method to determine the distance of the nebula using evolutionary tracks. No clumping factor is need to reproduce the age-luminosity relation. The distance of 1.25 kpc is found in very good agreement with recent determination using parallax method. The chemical composition of both the star and the nebula are determined. Both are Carbon-rich. The nebula presents evidence of depletion of elements Mg, Si, S, Cl (0.5 dex lower than solar) and Fe (2.9 dex lower than solar). This is the first self-consistent stellar and nebular model for a Planetary Nebula that reproduces all the available observations ranging from IR to UV, showing that the combined approach for the modeling process leads to more restrictive constraints and, in principle, more trustworthy results.

Talk Shape 2010: 3D Strahlungstransport für die Visualisierung astrophysikalischer Phänomene

25.02.2010 14:00
Informatikzentrum, Hörsaal 160

Speaker(s): Wolfgang Steffen

Das Programm Shape wurde ursprünglich zur 3D-Modellierung der Struktur und Kinematic astrophysikalischer Nebel geschrieben. Shape ist das erste astrophysikalische Simulationsprogramm ist, das interaktive 3D-Graphiktechniken zur Modelerzeugung verwendet. Jetzt wurde aber zusätzlich 3D-Strahlungstransport eingebaut, was realistischere Darstellungen erlaubt. Das neue Animationsmodul und "Texturing" und andere Neuheiten erweitern deutlich die Anwendungsmöglichkeiten in der Visualisierung und astrophysikalischen Forschung.

Talk C for CUDA for and from Dummies

08.02.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Martin Eisemann

C for CUDA is an extension to the C language to exploit the processing power of NVidia GPUs for general purpose computation. While for a long time now it seemed that Computer Graphics does not benefit all too much from this, due to GLSL, it turned out, that especially in Vision tasks or specialized applications C for CUDA can give your application a real boost in speed. Plus, it can be simple, if you know the right tools and have the right framework (which you will have after this talk! Hooray!). In this talk I will report on my first hand on experience with CUDA. I will give you an introduction into the basic memory management, kernel execution on the GPU and some other useful stuff. After this talk you will be able to directly write your own CUDA programms, right from the start.

Talk Visualisierung von Multispektralbildern anhand spektraler Komponenten

11.01.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): David Ben Yacov

Spektraldaten, die mit ortsauflösenden Bildsensoren aufgenommen wurden, liegen zunächst in einer Form vor, bei der zwei Dimensionen eines Datensatzes den Bildkoordinaten einer Flächenkamera und die dritte dem Intensitätsverlauf über der Wellenlänge entsprechen. Auch nach geeigneter Aufbereitung der Spektren (Normierung und Differenzierung) sind ihre Komponenten, die z.B. den Anteil chemischer Substanzen in bestimmten Teilen einer Szene charakterisieren, nicht ohne weitere Auswertung am spektralen Verlauf erkennbar. In dieser Arbeit wurden die Pixel von Multispektralbildern durch geeignete Verfahren so klassifiziert, dass in den Bildern Regionen mit bestimmten spektralen Eigenschaften segmentiert und visualisiert werden können. Dadurch soll es möglich gemacht werden z.B. den Klebstoffanteil in Spänevliesen (mit Klebstoff vermischte Flachspäne für die Spanplattenproduktion) nachzuweisen. Das für diese Aufgabe entwickelte System wird in diesem Vortrag vorgestellt.

Talk Data Clustering using Affinity Propagation

07.12.2009 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Christian Lipski

Clustering data is an everyday task in computer graphics with an already wide selection of available algorithms. We will take a look at affinity propagation, a new technique that is based on message passing among data points. The vital benefit is that the amount of clusters is not strictly predefined, but emerges from the data. In addition, the very generic approach lends itself to a wide variety of application. Together with speed-up strategies developed in the graphics community, it can be used for large data sets (i.e., images).

Talk Local Model of Eye Adaption for High Dynamic Range Images

05.11.2009 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Benjamin Meyer

In the real world, the human eye is confronted with a wide range of luminances from bright sunshine to low night light. Our eyes cope with this vast range of intensities by adaptation; changing their sensitivity to be responsive at different illumination levels. This adaptation is highly localized, allowing us to see both dark and bright regions of a high dynamic range environment. In this paper we present a new model of eye adaptation based on physiological data. The model, which can be easily integrated into existing renderers, can function either as a static local tone mapping operator for single high dynamic range image, or as a temporal adaptation model taking into account time elapsed and intensity of preadaptation for a dynamic sequence. We finally validate our technique with a high dynamic range display and a psychophysical study.