Computer Graphics
TU Braunschweig

Events


Talk Probevortrag

29.07.2011 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Christian Lipski

Talk How to get a Verdière-Matrix from a Permutahedron?

15.07.2011 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Kai Lawonn

In 1990 Colin de Verdière introduced a new graph parameter. This parameter is based on spectral properties of matrices associated with the graph. He showed that his number is invariant under taking minors. Additionally one can conclude topological properties to the graph with special values of the Verdière-Number. For example the graph is planar if and only if the parameter is less than 4.

In general it is not well-known to get the Verdière-Matrix and the associated Verdière-Number of a given graph. In 2008 Ivan Izmestiev generalized the methods of Lovász to get a Verdière-Matrix from a polytope.

This talk gives an introductive overview about the topic of the Verdière-Number and shows how to get a Verdière-Matrix from a special polytope the Permutahedron.

Talk Temporal Coherence and Adapted Computations for High-quality Real-Time Rendering

08.07.2011 13:15
Informatikzentrum, IZ 161

Speaker(s): Elmar Eisemann

Nowadays, there is a strong trend towards rendering to higher-resolution displays and at high frame rates. This development aims at delivering more detail and better accuracy, but it also comes at a significant cost. Although graphics cards continue to evolve with an ever-increasing amount of computational power, the processing gain is counteracted to a high degree by increasingly complex and sophisticated pixel computations. For real-time applications, the direct consequence is that image resolution and temporal resolution are often the first candidates to bow to the performance constraints (e.g., although full HD is possible, PS3 and XBox often render at lower resolutions). In order to achieve high-quality rendering at a lower cost, one can exploit temporal coherence (TC). The underlying observation is that a higher resolution and frame rate do not necessarily imply a much higher workload, but a larger amount of redundancy and a higher potential for amortizing rendering over several frames. In this session, we will investigate methods that make use of this principle and provide practical and theoretical advice on how to exploit temporal coherence for performance optimization. These methods not only allow us to incorporate more computationally intensive shading effects into many existing applications, but also offer exciting opportunities for extending high-end graphics applications to lower-spec consumer-level hardware.

Talk PADI-Präsentationen

08.07.2011 13:15
Informatikzentrum, CIP-Pool G40

Speaker(s): Christian Lipski

bis ca. 14:15

Talk PADI-Präsentationen

07.07.2011 14:00
Informatikzentrum, CIP-Pool G40

Speaker(s): Christian Lipski

bis ca. 15:20

Talk Abschlussvortag zur Bachelorarbeit

17.06.2011 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Paul Wiemann

tbd

Talk From video to models of natural phenomena for graphics applications

09.06.2011 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Peter Hall

Natural phenomena such as fire, smoke, trees, and water are ubiquitous; it

is important for computer graphics to model them. Unfortunately modelling

such phenomena is notoriously difficult computationally, so that a wide

variety of techniques have been developed based on particles, textures,

L-systems and plenty of user interaction.

We will consider two case studies that show video is a potential source

for acquiring models of natural phenomena, and the models produced can be

easily controlled. Specifically, we will show how three-dimensional models

of moving trees can be obtained from video with very little user

interaction, how these models can serve as exemplars for automatic

production of similar trees, and how the trees can be rendered and

controlled in a wide variety of ways. We we also show how bodies of open

water, from quiescent pools to breaking waves and waterfalls, can modelled

through a single video camera.

Talk Subdivision Surface Reduction

27.05.2011 13:00
Informatikzentrum, Seminarraum G30

Diplomarbeit Matthias Richter

Talk Reference Data Generation and Performance Analysis for Image Processing

20.04.2011 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Daniel Kondermann

A commonly accepted hypothesis of the image processing community is that synthetic (rendered) reference data for image processing algorithms such as optical flow and stereo disparity estimation does not help in finding out whether they work in real-world environments. On the other hand, the

creation of ground truth for real scenes is a difficult task, because no other measurement technique directly yields reference data of sufficiently high accuracy.

In this talk I will discuss various ideas for ground truth generation. It turns out that this problem is closely linked to camera tracking, 3D scene reconstruction, material property estimation and related tasks. I will show our current approaches in this field and first results we obtained with respect to the comparison of real and synthetic image data.

Talk Raising user experience by real-time physics simulation

18.02.2011 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Michael Stengel

User experience describes the impression of a user concerning a product or software. In the area of interactive software the application of physics simulation can improve usability and raise the joy of use. In this presentation two different examples in the areas of desktop applications and virtual reality are mentioned. Both have a benefit from using physics. It will be discussed in which way the simulation is integrated.

Talk XFlow - Declarative Data Processing in XML3D

15.02.2011 14:00
Informatikzentrum, Seminarraum G30

Our digital environment has become increasingly three-dimensional, but still the Web continues to remain comprised of two-dimensional elements. Several approaches exist to add 3D content to the Web, but none of them has found a widespread acceptance among web developers. XML3D is a new declarative approach that directly extends HTML5 to add interactive 3D graphics to the Web. The concept of XML3D follows a lightweight design and fully leverages existing web technologies, such as JavaScript, DOM, or CSS. As a joint research project of the Intel Visual Computing Institute (IVCI), the German Research Center for Artificial Intelligence (DFKI) and the Computer Graphics Lab of Saarland University, XML3D has recently spawned a W3C Incubator Group targeting the future of the 3D Web. With XFlow, a new dataflow-driven data processing mechanism was added to the XML3D specification. It further extends the scope of graphical effects achievable with XML3D. Simulating natural effects such as water surfaces, human skin, or vegetation requires mesh and image processing capabilities. In XML3D, meshes and shaders act as sinks for dataflow processes, allowing mesh and texture data to be the result of one or more data-processing scripts. XFlow introduces an implicit encoding of such processing graphs inside of HTML, considering various usability aspects. Due to the declarative approach, a transparent acceleration of the processing scripts can be achieved by offloading the actual calculations from the CPU onto available computing resources. As one of many applications, virtual avatars with realistic, animated faces embedded inside of a webpage have become possible.

Talk Air-Liquid Interaction with SPH

02.02.2011 11:00
Informatikzentrum, Seminarraum G30

Speaker(s): Julian Bader

Air bubbles are a natural phenomenon which appears in everyday life. Thus, modeling air-liquid interaction can significantly improve the realism of fluid simulations such as Smoothed Particle Hydrodynamics (SPH). However, handling the large density ratio of water and air with SPH is problematic. This is due to high pressure forces which result in numerical instabilities. In order to circumvent these instabilities, the proposed air-liquid approach computes the two phases separately. The interaction is modeled by employing a two-way drag force. The method is capable of simulating typical air bubble phenomena, such as merging, deformation and volume-dependent buoyancy. To not explicitly represent the air surrounding the water, air particles are generated on-the-fly during simulation. Here, a heuristic is used that creates air bubbles only where they are likely to appear.

Talk Very Low Power Graphics (or How to design a Mobile Graphics Chip)

25.01.2011 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Stefan Guthe

A variety of embedded systems require at least some kind of 3D graphics processing power. However, in a mobile setting power is the main constraint rather than features or performance alone. In this talk, we explore a very simple approach to design 3D graphics hardware tailored to the two mainstream 3D graphics APIs in the mobile market, OpenGL ES and DirectX. Besides achieving a functional low power 3D graphics implementation, we also need to take both hardware and software development requirements into account.

Talk CUDA Expression Templates

24.01.2011 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Paul Wiemann

Many algorithms require vector algebra operations such as the dot product, vector norms or component-wise manipulations. Especially for large-scale vectors, the efficiency of algorithms depends on an efficient implementation of those calculations. The calculation of vector operations benefits from the continually increasing chip level parallelism on graphics hardware. Very efficient basic linear algebra libraries like CUBLAS make use of the parallelism provided by CUDA-enabled GPUs. However, existing libraries are often not intuitively to use and programmers may shy away from working with cumbersome and errorprone interfaces. In this paper we introduce an approach to simplify the usage of parallel graphics hardware for vector calculus. Our approach is based on expression templates that make it possible to obtain the performance of a hand-coded implementation while providing an intuitive and math-like syntax. We use this technique to automatically generate CUDA kernels for various vector calculations. In several performance tests our implementation shows a superior performance compared to CPU-based libraries and comparable results to a GPU-based library.

Talk Multi-aperture imaging systems inspired by insect compound eyes

10.01.2011 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Alexander Oberdörster

Miniaturization of camera modules and reduction of their manufacturing cost is an important goal in many markets such as mobile phone cameras and automotive applications. Multi-aperture imaging systems inspired by insect compound eyes promise advances in both regards. A traditional optical system is a stack of lenses that images a certain field of view onto the image sensor. A multi-aperture-system consists of an array of microlenses (channels), each imaging a fraction of the total field of view onto its own small area on the image sensor, forming an array of microimages. With careful adjustment of the viewing directions of the channels, the focal lengths of the microlenses can be reduced to a fraction of the focal length of a single-aperture system. This decreases track length and increases depth of field. As each microimage spans only a small field of view, the optical systems can be simple. Because the microlenses are small -- they have a diameter of hundreds of microns and a sag of tens of microns -- they can be manufactured on wafer scale with microfabrication techniques. This makes production cost-effective and precise. To obtain a complete image from the partial images, they are combined electronically. For an accurate aligment of all pixels, the distortion of each microimage is derived from the optical design. Each pixel is treated as a measurement of radiance and placed on the image plane according to the viewing direction of the microlens, pixel position under the microlens, distortion at that position and parallax due to object distance. The final image is generated by interpolating between the known measurements.

Talk Stereo Video Perception (Topics from ICIP 2010, Hong Kong )

29.11.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Anita Sellent

Scanning the contribution to the ICIP 2010 in Hong Kong, it becomes obvious that stereo video is a topic in which many researchers currently are interested. This talk will focus on stereo perception. First issue is the observation that watching a stereo video can cause headache. What causes this headache and what points have to be considered for recording and projection setup to avoid it? Next issue is the perception of compression artifacts in stereo-video, an important point, as the amount of raw-data for a stereoscopic film is twice as high as for a monoscopic film, but the content is highly redundant. The final issue of the talk is an evaluation of viewing setups to measure the quality of the images, that finally reach our eyes. After the talk we will discuss the experiences with stereo video we made in our research group.

Talk Vorträge über das Dissertationsthema

01.11.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Martin Eisemann, Christian Linz, Anita Sellent

In den Vorträgen, die jeweils 45 Minuten dauern, stellen die Promotionskandidaten ihr Dissertationsthema vor und präsentieren ihre Forschungsergebnisse.

Martin Eisemann, Titel: Error-Concealed Rendering

Fotorealismus ist seit jeher eines der großen Ziele in der Computergrafik. Anstatt die Komplexität der Natur mit Standardmodellierungstools nachzubauen, gehen bildbasierte Ansätze den umgekehrten Weg und verwenden reale Aufnahmen zur Modellierung, da diese bereits per Definition fotorealistisch sind. Ein Nachteil dieser Variante ist jedoch, dass die Komposition oder Kombination mehrerer Quellbilder eine nichttriviale Aufgabe darstellt und häufig störende, sichtbare Artefakte im erzeugten Bild nach sich zieht. In dieser Dissertation verfolgen wir verschiedene Ansätze um Artefakte, welche durch die Komposition/ Kombination mehrerer Bilder in einer gemeinsamen Bilddomäne entstehen, zu verhindern oder zumindest abzuschwächen. Im Ergebnis liefern die vorgestellten Verfahren neue Bilder oder neue Ansichten einer Bildsammlung oder Videosequenz, je nachdem ob die Aufgabe dabei die Komposition mehrerer Bilder oder die Kombination mehrerer Videos verschiedener Kameras darstellt.

Christian Linz, Titel: Beiträge zur Virtuellen Videokamera: von symmetrischen, dichten Korrespondenzkarten zu qualitativ hochwertigen bildbasierten Spezialeffekten

3D-Video mit Blickpunktnavigation ist eine neues digitales Medium welchem die Forschung in den letzten 10 Jahren viel Aufmerksamkeit gewidmet hat. Die meisten Verfahren rekonstruieren dabei die Szenengeometrie und schränken sich somit auf Lambertsche Szenen und synchron aufgenommene Eingabedaten ein. In diesem Vortrag beschreiben wir Beiträge zur `Virtuellen Videokamera`, einem rein bildbasierten System zur Blickpunktnavigation, welches auf unsynchronisierten Eingabevideos arbeitet. Der Fokus liegt dabei auf der Schätzung dichter Korrespondenzkarten und auf der Synthese von Zwischenbildern. Das resultierende System eignet sich sowohl zur Produktion von räumlich-zeitlichen Spezialeffekten als auch zur Erzeugung stereoskopischer Sequenzen.

Anita Sellent, Titel: Akkurate Bewegungsfeldbestimmung anhand von alternativen Bildgegebenheiten

Projektionen der Szenenbewegung auf die Bildebene einer Kamera werden traditionell durch Betrachten von zwei aufeinanderfolgenden möglichst kurzen und scharfen Standbildern bestimmt. Die Modellierung von Bewegung durch die zeitliche Differenz zweier Bilder trifft allerdings einige Annahmen, die in realen Szenen nicht gegeben sind: so werden Szenenpunkte durch die unterschiedliche Bewegung von Objekten verdeckt oder aufgedeckt, Farbwerte verändern sich durch den Einfluß von Beleuchtung in der 3D Szene oder Bewegungen zwischen zwei Bildern umfassen mehrere Pixel. In dem Vortrag sollen die klassische Bewegungsformulierung, die Ursache des zeitlichen Aliasing und Ansätze zu dessen Vermeidung dargestellt werden.

Talk Python für Computergraphiker

26.10.2010 15:30
Informatikzentrum, Seminarraum G30

Speaker(s): Stephan Wenger, Thomas Neumann

Der Vortrag bietet eine Einführung in Python und SciPy sowie einige Live-Demos.

Talk Multi-Video Foreground Segmentation

22.10.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Julia Wolf

Im Forschungsfeld der Foto- und Videoverarbeitung wird unter anderem an der automatischen Segmentierung eines Bildes in seine Vorder- und Hintergrundanteile gearbeitet. Die Verfahren sind für Einzelbilder bereits sehr stabil und benötigen nur wenige Benutzerinteraktionen. Es ist möglich, viele dieser Algorithmen auf die Verarbeitung von Videos zu erweitern. Dort wird versucht, möglichst viele Bilder hintereinander automatisch zu segmentieren. Bei anspruchsvollen Szenen mit großen Bewegungen oder komplexem Hintergrund bleibt die automatische Segmentierung über mehrere Bilder jedoch unzuverlässig, so dass der Anwender oft manuelle Nachbesserungen vornehmen muss. Bei der Verwendung von mehreren Kameras in einer Szene, mit denen das Vordergrundobjekt aus verschiedenen Blickwinkeln aufgenommen werden kann, muss jedoch ein Vielfaches an Material ausgewertet und manuell angepasst werden. Entgegen des allgemeinen Ansatzes, jeden Videostrom getrennt voneinander zu bearbeiten, wird in dieser Arbeit ein Verfahren entwickelt, dass die Ergebnisse der einzelnen Bilder unterschiedlicher Videoströme miteinander kombiniert. Es soll durch den Informationsgewinn eine Verbesserung der Einzelbildergebnisse, der Gesamtbearbeitungszeit und folglich eine Verringerung der manuellen Korrekturen erreicht werden. Zusätzlich dazu wird ein Algorithmus entwickelt, der automatisch schlechte Segmentierungen detektiert und dem Benutzer zur manuellen Nachbesserung anbietet. Als Ergebnis dieser Arbeit ist ein Verfahren entstanden, das einen Algorithmus zur Trennung von Vorder- und Hintergrundinformationen für einen einzelnen Videostrom auf die Verwendung von mehreren Kameras adaptiert und in Verknüpfung mit der Detektion und Anpassung von schlechten Segmentierungen funktioniert. Der Algorithmus zur kameraübergreifenden Verwendung der Ergebnisse aus unterschiedlichen Videoströmen bringt einen deutlichen Vorteil gegenüber anderen Verfahren.

Talk Adapted Computations and Representations for Real-time Graphics

23.09.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Elmar Eisemann

Recent advances in computer graphics have contributed to a surprising increase in complexity with respect to geometry as well as the simulation of physical phenomena (such as shadows, refraction, or depth of field). Approximating and visualizing geometry consisting of tens of millions of polygons simultaneously tested for collision or visibility is becoming increasingly common. Involving the complete virtual environment poses a significant computational challenge. We will show how simplified representations, suitable approximations of physical effects, and perceptual findings can be exploited to push the boundaries of image synthesis and enable detailed, yet efficient rendering solutions.

Talk Enhanced Poisson Image Editing

13.09.2010 13:00
Informatikzentrum, Seminarraum G30

Speaker(s): Daniel Gohlke

Mit Hilfe der Poisson-Gleichung, die vor allem in der Bildbearbeitung große Bedeutung erlangt hat, lassen sich Objekte nahtlos in andere Bilder einfügen. Für die erfolgreiche Anwendung der Gleichung sind jedoch bestimmte Vorbedingungen zu erfüllen. Das nahtlose Einfügen funktioniert am Besten, wenn die Farbdifferenz in den Randgebieten sehr ähnlich ist und die Objektkanten im Quell- und Zielbild sich möglichst gut überlagern. Im Zuge dieser Arbeit ist ein Verfahren entwickelt worden, das bestehende Konzepte für das nahtlose Einfügen umsetzt und erweitert. Dabei ist das "Poisson Image Editing" umgesetzt und um die Suche der optimalen Kontur mit Hilfe des "Drag-and-Drop Pasting" Verfahrens erweitert worden. Das Hauptaugenmerk dieser Arbeit liegt jedoch auf der überlagerung von starken Objektkanten. Es wird ein Verfahren vorgestellt, dass zum Finden und Zuordnen von Objektkanten im Quell- und Zielbild verwendet werden kann. Nach der erfolgreichen Zuordnung der Objektkanten wird die Verschiebung zwischen den Objektkanten ermittelt. Anschließend wird das Quellbild so verzerrt, dass die passenden Objektkanten sich überdecken. Da dies zu starken Verzerrungen am Rand führen kann, ist es außerdem möglich die Kanten in das Bild hinein zu verfolgen und die Verschiebungen entlang wichtiger Kanten festzulegen. Dies führt zur Erhaltung der Kantenform im Zielbild und zur Verbesserung des optischen Eindrucks in der Randregion. Zusätzlich wird das Verfahren für das nahtlose Einfügen von Objekten in andere Bilder in einen pyramidenbasierten Ansatz eingebettet. Dadurch können auch Bilder mit unterschiedlichen Schärfegraden ineinander eingef ügt werden. Die Korrespondenzfindung zwischen den Bildern wird durch die Verwendung von SIFT-Features automatisiert. Neben der Ermittlung von einer Korrespondenz zwischen den Bildern ist es möglich, für bestimmte Bildbereiche mehrere Korrespondenzen zu finden und somit ein Objekt an mehreren Stellen im Zielbild zu platzieren. Nach der Korrespondenzfindung erfolgt die Berechnung der optimalen Bilddimensionen für das Einfügen, so dass die Bilder möglichst gut für die Anwendung des Verfahrens geeignet sind. Das Einfügen erfolgt dann mit Hilfe des des oben genannten Verfahrens. Mit dem in dieser Arbeit entwickelten Programm ist es möglich, einige Probleme die bei der Verwendung des "Poisson Image Editing" Verfahrens auftreten zu beseitigen und optisch ansprechende Ergebnisse zu erzielen. Vor allem die Erhaltung von Bildkanten innerhalb des eingefügten Bereichs trägt deutlich zur Verbesserung des optischen Eindrucks des zusammengesetzten Bildes bei.

Talk Projektarbeit: Erstellung eines BRDF-Editors für das Reflektanzverhalten von Oberflächen in refrakti

23.08.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Alexander Schäfer

Um eine künstliche 3D-Szene realistisch wirken zu lassen, bedarf es authentischen Oberflächen-Materialien bzw. einem glaubwürdigen Reflektanzverhalten der Szenenobjekte. Ein gängiges und schnelles Verfahren ist die Auswertung einer Bidirektionalen-Reflektanz-Verteilungs-Funktion(BRDF), mit welcher man verschiedene Materialien mathematisch beschreiben kann. Bisher vernachlässigt dieses Modell die Tatsache, dass sich das Reflektanzverhalten vieler Materialien, je nach dem welches Medium das Objekt umgibt, verändert. So sieht ein Kleidungsstück unter Wasser anders aus als an der Luft. Im Rahmen der Forschungsarbeiten des Instituts für Computergrafik, TU Braunschweig, und des MPI für Informatik, Saarbrücken, soll deshalb das BRDF-Modell zur Ermittlung des Reflektanzverhaltens von Oberflächen in Abhängigkeit zum umgebenden Medium entsprechend erweitert werden. Im Kontext dieses Forschungsvorhabens liefert diese Arbeit ein passendes Werkzeug zur Visualisierung und Auswertung der entstandenen Messdaten, und bietet dem Benutzer die Möglichkeit das Reflektanzverhalten der realen Bilddaten mit einem beliebigen, mathematischen Modell zu vergleichen.

Talk Interactive Fur Shaping and Rendering

17.08.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Hanqlu Sun

Furry surfaces are crucial in representing the realistic appearance of virtual creatures and cartoon-style objects/bodies. It is highly demanding to model and render the realistic furry effects in interactive gaming and virtual environments. Most of the hair/fur modeling systems proposed geometry-based representations so the systems do not directly support interactive modeling and rendering of virtual furry creatures. Our work is motivated for representing the realistic furry surfaces based on the non-uniform layered approach, and supporting users the interactive tools to intuitively shape dense, messy fur over the bodies with the realistic rendering effects. These include fur combing, wind blowing, pulling, interpolating, smoothing and disturbing, thus users can intuitively design and manipulate the furry surfaces over the bodies with simple user input. Further, we developed layered shadow maps for the realistic self-shadowing effects of fur, which can significantly enhance the realistic appearance of furry creatures. Using the interactive tools, users can intuitively create the furry shapes of virtual creatures, and visualize the realistic rendering of edited fur instantly. Our interactive fur system utilizes GPU-accelerated processing, and supports the intuitive user input for shaping the furry surfaces of virtual creatures. Also, other current research projects we have worked on will be briefly introduced at the end as well.

Talk Strömungsvisualisierung

23.07.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Daniel Weiskopf

Talk Perceptual Research Methodology and its relevance for Computer Graphics

24.06.2010 14:00
Informatikzentrum, Seminarraum G30

Speaker(s): Douglas Cunningham

Perceptual psychology and computer graphics ask many questions that are formally similar. These questions relate to how one can -- with rather limited resources -- extract, represent, and manipulate targeted portions of the vast amount of information present in the physical world. Over the last 150 years, perceptual psychologists have developed and refined a wide variety of experimental methods, and have gathered a wealth of detailed information about the algorithms that underlie human perceptual processes. Since many of the tasks and challenges explored in computer graphics are similar to those faced in human perception, and since humans are often the end-user of computer generated imagery, computer scientists are increasingly adapting knowledge about human perception to develop perceptually-inspired computer graphics algorithms. Moreover, computer graphics researchers are increasingly being asked to prove that newly developed techniques meet specific claims, such as "Are the images generated by the new method really indistinguishable from a photograph?"; "If not, why not?"; "Do the new visualizations really improve the performance of experts on specific tasks?" A firm understanding of perceptual research methodology will now only make it easier to comprehend and utilize existing knowledge about human perceptual capabilities, but will also enable you to ask and answer similar questions for your algorithms. In this talk, I will provide a brief overview of perceptual methodology and some of the fundamental assumptions that lie behind it.