2002
Permanent URI for this collection
Interactive Rendering For Projection-Based Augmented Reality Displays
[meta data] [files: ]
Bimber, Oliver
OpenSG: A Scene Graph System for Flexible and Efficient Realtime Rendering for Virtual and Augmented Reality Applications
[meta data] [files: ]
Reiners, Dirk
Browse
Recent Submissions
Item Shape Spaces from Morphing(Alexa, 2002) Marc AlexaIn dieser Arbeit werden Methoden zur Repr¨asentation der Gestalt oder Form von Objekten vorgestellt. Die Grundidee ist, die Form eines Objektes als Mischung anderer vorgegebener Formen zu beschreiben. Dazu wird das mathematische Konzept linearer R¨aume verwendet: Einige Objekte bilden die Basis eines Raumes, und deren Kombination erzeugt die Elemente dieses Raumes. Diese Art der Beschreibung hat zwei Vorteile gegen¨uber der weit verbreiteten absoluten Repr¨asentation: Sie ist kompakt, wenn die Anzahl der Basen klein im Vergleich zur geometrischen Komplexit¨at der Objekte ist. Sie ist deskriptiv, wenn die Basisformen eine Semantik haben, da dann die Anteile an diesen Basisformen das Objekt beschreiben. Zur Darstellung der Basisformen werden hier polygonale Netze verwendet. Die Arbeit besch¨aftigt sich daher mit der Kombination gegebener Polygonnetze und verschiedenen Anwendungen, die bei dieser Art der graphischen Modellbeschreibung auf der Hand liegen. Die Transformation eines gegebenen Objektes in ein anderes wird in der graphischen Datenverarbeitung Morphing genannt. Das Ergebnis dieser Transformation kann in der hier verwendeten Terminologie als ein ein-dimensionaler Raum verstanden werden. Durch weitere Transformationen mit zus¨atzlichen Basisformen ergeben sich h¨oher-dimensionale R¨aume. Zum gegenw¨artigen Zeitpunkt sind Morphing-Verfahren f¨ur polygonale Netze wegen topologischen und geometrischen Problemen noch verbesserungsbed¨urftig, weshalb sich der erste Teil dieser Arbeit mit solchen Verfahren befasst. Diese Morphing-Verfahren werden dann so erweitert, dass sie die Kombination von mehr als zwei Netzen erlauben. Die N¨utzlichkeit dieser Beschreibung von Gestalt wird an Hand von zwei Szenarien demonstriert: Zur Visualisierung von Multiparameter-Informationsdaten, wobei die Parameter auf Glyphen abgebildet werden und zur effizienten Speicherung und U¨ bermittelung von geometrischen Animationen.Item Interactive Rendering For Projection-Based Augmented Reality Displays(Bimber, Oct 2002) Bimber, OliverDer Fortschritt im Computer- und Kommunikationstechnologieumfeld verändert auf dramatische Weise alle Aspekte unseres Lebens. Es werden vor allem neuartige 3D Visualisierungen, Ausgabe- und Interaktionstechnologien dazu genutzt, unsere gewohnte physikalische Umwelt mit von Computern generierten Erweiterungen zu ergänzen. Von diesen neuen Interaktions- und Ausgabeparadigmen wird erwartet, dass sie unser Arbeits-, Lern- und Freizeitumfeld sehr viel effizienter und ansprechender gestalten. Innerhalb verschiedener Anwendungsgebiete werden derzeit Varianten dieser Technologien für die Forschungs- und Entwicklungsarbeit eingesetzt. Die Virtuelle Realität (VR) versucht, dem Benutzer eine gewisse räumliche Präsenz (visuell, akustisch und taktil) innerhalb eines vom Computer erzeugten synthetischen Umfelds zu bieten. Sogenannte Head-Mounted Displays (HMDs) waren viele Jahre lang die traditionellen VR Ausgabegeräte. Einer der Nachteile heutiger HMDs ist jedoch ihr unausgewogenes Verhältnis zwischen gewichtiger und großer Optik (was qualitativ hochwertige, aber globige und unbequeme Geräte zur Folge hat) und ergonomischen Geräten mit einer schlechten Bildqualität (d.h. niedrige Auflösung, kleines Blickfeld und festem Fokus). Um einige dieser technologischen und ergonomischen Nachteile zu beheben, und um neue Anwendungsgebiete zu ermöglichen, distanzierten sich die VR Anwender und Entwickler immer mehr von HMDs, und bewegten sich hin zu projektions-basierten Displays, wie etwa immersive Displays, die in der Lage sind, den Benutzer vollständig in synthetische Umgebungen einzuschließen, oder semiimmersive Displays, die in die reale Umgebung eingebettet werden können. Im Vergleich zu HMDs, haben diese neuen Geräte viele Vorteile (z.B. eine hohe und skalierbare Auflösung, ein großes, erweiterbares Blickfeld, eine bessere Fokussierungsunterstützung der Augen, ein geringeres Auftreten von Unbehagen aufgrund der sogenannten Simulationskrankheit, leichte Gläser, usw.). Außerdem haben viele dieser Geräte spezielle Eigenschaften (wie Größe und Form), die sich dazu eignen, als Metaphern für applikationsspezifische Funktionalität angewandt zu werden. Manche Variationen lassen sich dadurch leichter in unser tägliches Umfeld integrieren. Ein gutes Beispiel dafür sind semi-immersive Workbenches, deren horizontale Ausgabefläche sich zur Unterstützung einer Tischmetaphor eignet. Die erweiterte Realität (engl. Augmented Reality - AR) überlagert computergenerierte Grafik auf die Ansicht der realen Welt des Benutzers. Im Gegensatz zu VR können bei AR virtuelle und reale Objekte gleichzeitig innerhalb des selben dreidimensionalen Raumes koexistieren. Video-basierte und optische HMDs sind dabei die traditionellen Ausgabetechnologien, und seit Jahrzehnten die Displaygeräte, die überwiegend für AR Applikationen verwendet werden. Eine Umorientierung von AR Anwendern und Entwicklern auf eine alternative Displaytechnologie (wie es auch im VR Umfeld der Fall war) hat bis jetzt noch nicht stattgefunden. Die meisten der derzeitigen AR Entwicklungen und Systeme haben bisher nur wenige realistische Anwendungen gefunden. Das kann zum Teil auf die eingesetzte Basistechnologie - einschließlich der Ausgabegerätezurückgeführt werden. Genauso wie viele andere Technologien muss AR ausreichend robust, funktionell und flexibel sein, um wirklich Anwendung zu finden, und um nahtlos in unser gut etabliertes Lebensumfeld integriert werden zu können. Zum Beispiel sind viele unserer Alltagsgeräte danach ausgerichtet worden, spezielle und problemspezifische Aufgaben zu erfüllen. Im Gegensatz dazu versuchen viele AR Anwendungen spezifische Probleme auf einer allgemeinen, im Generellen immer gleich bleibenden technologischen Basis zu lösen. Deswegen besteht ein gewisser Bedarf an alternativen Displaytechnologien, die die Nachteile der traditionellen Geräte umgehen, und neue Anwendungsfelder für AR schaffen. Kopfgebundene Displays sind Mitte der sechziger Jahre erstmals zum Einsatz gekommen, und besitzen noch heute das Displaymonopol im AR Umfeld. Im Gegensatz zur Weiterentwicklung der VR Technologie, sind HMDs in den letzten Jahrzehnten nur wenig fortgeschritten, und man kann heute wohl kaum von ultimativen Displays sprechen. Der in dieser Arbeit vorgestellte projektions-basierte AR (PBAR) Ansatz strebt an, die technologischen und ergonomischen Vorteile der weiterentwickelten und etablierten projektions-basierten VR mit dem Anwendungspotential von Augmented Reality zu vereinen. Dabei sollen neue Anwendungsfelder für AR erschlossen werden. Dieser Ansatz schlägt vor (nach dem Muster der Evolution von VR), die Displaytechnologie vom Benutzer zu trennen und sie anstelle in die Arbeitsumgebung zu integrieren. Allerdings sei erwähnt, dass nicht versucht wird, andere Displaykonzepte (wie z.B. Kopfgebundene Ansätze) völlig zu ersetzen, sondern anwendungsspezifische Alternativen zu bieten. - The rapid advances in computing and communications are dramatically changing all aspects of our lives. In particular, sophisticated 3D visualization, display, and interaction technologies are being used to complement our familiar physical world with computer-generated augmentations. These new interaction and display techniques are expected to make our work, learning, and leisure environments vastly more efficient and appealing. Within different application areas, variants of these technologies are currently being pursued in research and development efforts. Virtual Reality (VR) attempts to provide to the user a sense of spatial presence (visual, auditory, and tactile) inside computer-generated synthetic environments. Opaque head-mounted displays (HMDs) have been the traditional VR output devices for many years. A general characteristics of today's HMDs, however, is their imbalanced ratio between heavy optics (that results in cumbersome and uncomfortable devices) and ergonomic devices with a low image quality (i.e., low resolution, small field of view and fixed focal length). To overcome some of their technological and ergonomic shortcomings and to open new application areas, the Virtual Reality community orients itself more and more away from HMDs, towards projection-based spatial displays such as immersive surround screen displays and semi-immersive embedded screen displays. Compared to HMDs, these new devices offer many advantages (e.g., a high and scalable resolution, a large and extendable field of view, an easier eye accommodation, a lower incidence of discomfort due to simulator sickness, lightweight glasses, etc.). In addition, many of them have particular characteristics (such as shape and size) that lend themselves for being employed as metaphors for application-specific functionality, thus making them easier to integrate into our everyday environments. Good examples for this are semi-immersive workbenches whose horizontal display surface lends itself towards supporting a table metaphor for the corresponding Virtual Reality setup. Augmented Reality (AR) superimposes computer-generated graphics onto the user's view of the real world. In contrast to VR, AR allows virtual and real objects to coexist within the same space. Video see-through and optical see-through HMDs are the traditional output technologies, and are still the display devices that are mainly used for Augmented Reality applications. A reorientation of the AR community towards an alternative display technology has not yet happened. Most of the developments and progress made so far are based on very specific applications and technology-tailored employment scenarios. The majority of AR achievements has found few real-world applications. This can partially be attributed to the underlying core technology of AR - including its display devices. As for many other technological domains, AR needs to provide sufficient robustness, functionality and flexibility to find acceptance and to support its seamless integration into our wellestablished living environments. For instance, many of our real-world items, devices, and tools are developed and tuned for effectively addressing distinct and problem-specific tasks. In contrast to this, many AR applications address specific problems still on an all-purpose technological basis - making use of technologically stagnating devices. A high demand on alternative display technologies exists that improve the shortcomings of traditional devices and open new application areas for AR. Head-attached displays have first been developed in the mid-sixties and still today own the display monopole in AR field. In contrast to VR technology, however, they have barely improved over the previous years and are still far away from being ultimate displays. The presented projection-based AR (PBAR) concept aims to combine the technological and ergonomic advantages of the well established projection-based Virtual Reality with the application potentials of Augmented Reality. Thus, it strives for opening new application areas for AR. It proposes -taking pattern from the evolution of VR- to detach the display technology from the user to embed it into the real environment instead. However, it is not intended to substitute other display concepts, such as head-attached displays, but rather to present an application- specific alternative.Item Rule-Based Mesh Growing and Generalized Subdivision Meshes(Maierhofer, Jan 2002) Maierhofer, StefanIn dieser Arbeit pr¨asentieren wir eine verallgemeinerte Methode zur prozeduralen Erzeugung und Manipulation von Meshes, die im wesentlichen auf zwei verschiedenen Mechanismen beruht: generalized subdivision meshes und rule-based mesh growing. Herk¨ommliche Subdivision-Algorithmen beruhen darauf, dass eine genau definierte, spezifische Subdivision-Vorschrift in wiederholter Folge auf ein Mesh angewendet wird um so eine Reihe von immer weiter verfeinerten Meshes zu generieren. Die Vorschrift ist dabei so gew¨ahlt, dass die Ecken und Kanten des Basis-Meshs gegl¨attet werden und die Reihe zu einer Grenzfl¨ache konvergiert welche festgelegten Stetigkeitsanspr¨uchen gen¨ugt. Im Gegensatz dazu erlaubt ein verallgemeinerter Ansatz die Anwendung verschiedener Vorschriften bei jedem Subdivision-Schritt. Konvergenz wird im wesentlichen dadurch erreicht, dass die absolute Gr¨oße der durchgef¨uhrten geometrischen Ver¨anderungen von Schritt zu Schritt geringer wird. Bei genauerer Betrachtung stellt man jedoch fest, dass es in vielen F¨allen von Vorteil w¨are die st¨arkere Ausdruckskraft von Subdivision-Vorschriften ohne die oben genannte Einschr¨ankung zu nutzen. Wir schlagen deshalb vor, die Erzeugung eines Submeshs M(n+1) aus einem spezifischen Mesh M(n) in zwei eigenst¨andige Operationen zu zerlegen. Die erste Operation, genannt mesh refinement, bezeichnet dabei die Verfeinerung des Meshs durch das Einf¨ugen neuer Eckpunkte und die Festlegung der dadurch neu entstehenden Nachbarschaftsbeziehungen zwischen Eckpunkten, Kanten und Fl¨achen, ohne dabei jedoch bereits die konkreten Positionen der Eckpunkte festzulegen. Erst die zweite Operation, genannt vertex placement, berechnet konkrete Positionen f¨ur die Eckpunkte. Um dem Anwender eine gr¨oßtm¨ogliche Flexibilit¨at bei der Spezifikation von Subdivision Surfaces zu bieten, schaffen wir die M¨oglichkeit verschiedene refinement und vertex placement Operatoren in sogenannten mesh operator sequences, das sind beliebige Sequenzen von Operatoren, zu kombinieren, und diese dann auf konkrete Meshes anzuwenden. Rule-based mesh growing ist eine Erweiterung von parametrisierten Lindenmayer Systemen (pL-Systemen), die jedoch nicht auf der Basis einzelner Symbole, sondern auf der Basis von Symbolen die in einer Nachbarschaftsbeziehung stehen, operieren. Einzelne Symbole repr¨asentieren dabei Fl¨achen eines Meshs. Dieser Mechanismus erlaubt es, in kontrollierter Art und Weise, komplexe Details in Meshes einzuf¨ugen und zwar genau dort wo dies gew¨unscht wird. Um die Systematik von pL-Systemen auch im Kontext eines Mesh-basierten Rendering-Systems nutzen zu k¨onnen, f¨uhren wir mesh-based pL-systems (Mesh-basierte pL-Systeme) ein. Hierbei wird jedes parametrisierte Symbol (linke Seite einer Ersetzungsregel) mit einer oder mehreren Fl¨achen in einem oder mehreren Meshes in Beziehung gesetzt beziehungsweise verkn¨upft. Die rechte Seite einer Ersetzungsregel ist nun nicht mehr eine lineare Sequenz von Symbolen, sondern ein Mesh dessen Fl¨achen wiederum Symbole zugeordnet sind. Die Topologie eines Objekts, welches mit Hilfe eines solchen Mesh-basierten pL-Systems erzeugt wird, ist automatisch durch die Nachbarschaftsbeziehungen des Meshs festgelegt, und es ist deshalb nicht mehr, so wie dies bei herk¨ommlichen pL-Systemen der Fall ist, n¨otig, spezielle Gruppierungssymbole zu verwenden. Werden beide Mechanismen kombiniert, so erh¨alt man ein Werkzeug mit dem man eine große Anzahl von komplexen Formen und Objekten modellieren kann und mit dessen Hilfe diese auch ¨außerst kompakt repr¨asentiert werden k¨onnen. Wir zeigen dies anhand einer Integration der beschriebenen Mechanismen in ein bestehendes Rendering-System. Die Mesh-basierten pL-Systeme werden dabei mit Hilfe von directed cyclic graphs (gerichteten zyklischen Graphen) abgebildet, welche die oben genannte kompakte Repr¨asentation der Modelle erm¨oglichen und durch den, von Fraktalen und L-Systemen her bekannten, Effekt der database amplification in der Lage sind aus einer solch kompakten Datenbasis komplexe Strukturen zu erzeugen. Auf der Basis dieser Implementierung der grundlegenden Konzepte unseres Ansatzes erstellen wir schliesslich einen Prototypen eines interaktiven Pflanzeneditors mit der M¨oglichkeit diverse Parameter semiautomatisch aus Photographien von Pflanzen zu extrahieren um so auch die praktische Anwendbarkeit unseres Ansatzes zu demonstrieren. - As a general approach to procedural mesh definition we propose two mechanisms for mesh modification: generalized subdivision meshes and rule-based mesh growing. In standard subdivision, a specific subdivision rule is applied to a mesh to get a succession of meshes converging to a limit surface. A generalized approach allows different subdivision rules at each level of the subdivision process. By limiting the variations introduced at each level, convergence can be ensured however in a number of cases it may be of advantage to exploit the expressivity of different subdivision steps at each level, without imposing any limits. We propose to split the process of generating a submesh M(n+1) from a specific mesh M(n) into two distinct operations. The first operation, which we call mesh refinement, is the logical introduction of all the new vertices in the submesh. This operation yields all the connectivity information for the vertices of the submesh without specifiying the positions of these newly introduced vertices. The second operation, which we call vertex placement, is the calculation of the actual vertex positions. In order to obtain maximum flexibility in generating subdivision surfaces, we make it possible for the user to independently specify both of these operations, by offering a number of refinement and vertex placement operators, which may be arbitrarely combined in user-specified mesh operator sequences, which in turn are applied to particular meshes. Rule-based mesh growing is an extension of parametric Lindenmayer systems (pL-systems) to not only work on symbols, but connected symbols, representing faces in a mesh. This mechanism allows the controlled introduction of more complex geometry in places where it is needed to model fine detail. In order to use pL-systems in the context of a mesh-based modeling system, we introduce mesh-based pL-systems, by associating each parameterized symbol of the system with one or more faces in one or more meshes. Thus the right-hand side of each production rule is not a linear sequence of symbols, but a template mesh with each face again representing a symbol. Thereby the topological structure of an object generated with such a meshbased pL-system is automatically encoded in the connectivity information of the mesh, and we do not need to introduce grouping symbols in order to encode the hierarchical structure, like it is necessary in standard pL-systems. Using both these mechanisms in combination, a great variety of complex objects can be easily modeled and compactly represented. We demonstrate this by including the proposed framework in a general-purpose rendering system. Directed cyclic graphs are used to represent mesh-based pL-systems, and from this compact representation complex geometry is generated due to the effect of database amplification, known from fractals and L-systems. Finally, this implementation of the main concepts of our approach is used as a basis for an interactive plant editor, and an appositional user interface for semi-automatic parameter extraction from photographs of plants, in order to demonstrate the applicability of our approach to real-world applications.Item Photorealistic and Hardware Accelerated Rendering of Complex Scenes(Hey, May 2002) Hey, HeinrichDiese Arbeit präsentiert neue Methoden zur effizienten fotorealistischen und Hardware-beschleunigten Bildgenerierung von Szenen die komplexe globale Beleuchtung aufweisen, und zusätzlich auch groß sein können. Das beinhaltet * eine Photon Map-basierte Radiance Abschätzungs Methode die die Qualität der globalen Beleuchtungs Lösung in der Photon Map-globalen Beleuchtungs Simulation verbessert. * eine Particle Map-basierte Importance Sampling Technik die die Leistung von stochastischer Ray Tracing-basierter Bildgenerierung und globaler Beleuchtungs Simulation verbessert. * eine Hardware-beschleunigte Bildgenerierungs Methode die das interaktive Durchschreiten global beleuchteter glänzender Szenen ermöglicht. * eine Occlusion Culling Technik die das interaktive Durchschreiten auch in großen Szenen ermöglicht. Es hat sich erwiesen daß die Photon Map-globale Beleuchtungs Simulation eine leistungsvolle Methode zur Ray Tracing-basierten Bildgenerierung von global beleuchteten Szenen mit allgemeinen bidirektionalen Streuungs Verteilungs Funktionen, und allen dadurch möglichen Beleuchtungseffekten ist. Dennoch, eine der Schwächen dieser Methode ist bisher gewesen daß sie eine sehr grobe Radiance-Abschätzung verwendet, die Beleuchtungs-Artefakte in der Nähe von Kanten und Ecken von Objekten, und auf Oberflächen mit unterschiedlich orientierten kleinen geometrischen Details verursachen kann. Unsere neue Photon Map-basierte Radiance-Abschätzungs Methode vermeidet diese Artefakte. Das wird gemacht indem die tatsächliche Geometrie der beleuchteten Oberflächen berücksichtigt wird. In stochastischem Ray Tracing-basierten Bildgenerierungs und globalen Beleuchtungs Techniken, z.B. in Photon Map-globale Beleuchtungs Simulation, muß eine sehr große Anzahl an Strahlen in die Szene geschossen werden um die globale Beleuchtung und/oder das endgültige Bild zu berechnen. Die Leistung dieser Techniken kann daher wesentlich verbessert werden indem die Strahlen vorzugsweise in Richtungen geschossen werden wo sie einen hohen Beitrag liefern. Importance Sampling Techniken versuchen dies zu tun, aber das Problem dabei ist daß der Beitrag geschätzt werden muß, und das muß freilich effizient getan werden. Unsere neue Importance Sampling Technik löst dieses Problem unter Verwendung einer Particle Map. Die Wahrscheinlichkeits-Dichte Funktion anhand derer die Schußrichtung eines von einem Punkt ausgehenden Strahls gewählt wird ist aus adaptiven Abdrücken zusammengesetzt die die nähesten Nachbar Partikel auf der Hemisphäre über dem Punkt machen. Die Strahlen können daher präzise in Richtungen mit hohem Beitrag geschossen werden. Interaktive Durchschreitungen in global beleuchteten statischen Szenen können realisiert werden indem die berechnungsintensive globale Beleuchtungs Simulation in einem Vorverarbeitungsschritt getan wird. Das Resultat dieses Schritts sollte eine Repräsentation der globalen Beleuchtung sein die in einer folgenden interaktiven Durchschreitung effizient dargestellt werden kann, die mit Grafik-Hardware dargestellt wird. Ein wesentliches Problem dabei ist die räumlich und richtungsmäßig variierende globale Beleuchtung auf glänzenden Oberflächen zu handhaben. Unsere neue Methode für interaktive Durchschreitungen von leicht glänzenden Szenen lößt dieses Problem mit richtungsabhängigen Light Maps, die effizient mit konventioneller Grafik- Hardware dargestellt werden können. In großen Szenen, z.B. in einem Gebäude, in denen von jedem möglichen Betrachtungspunkt aus nur ein kleiner Teil sichtbar ist, wäre es ineffizient all jene Objekte zu zeichnen die von anderen Teilen der Szene verdeckt sind. Um eine Echtzeit-Bildwiederholrate für interaktive Durchschreitungen zu erreichen ist es notwendig effizient zu ermitteln welche Objekte verdeckt sind, damit sie weggelassen werden können. Unsere neue konservative Bildraum-Occlusion Culling Methode erreicht das unter Verwendung eines Lazy Occlusion Grids das effizient mit konventioneller Grafik-Hardware funktioniert. - This work presents new methods for the efficient photorealistic and hardware accelerated rendering of scenes which exhibit complex global illumination, and which additionally also may be large. This includes * a photon map-based radiance estimation method that improves the quality of the global illumination solution in photon map global illumination simulation. * a particle map-based importance sampling technique which improves the performance of stochastic ray tracing-based rendering and global illumination simulation. * a hardware accelerated rendering method which allows to do interactive walkthroughs in globally illuminated glossy scenes. * an occlusion culling technique which allows to do interactive walkthroughs also in large scenes. Photon map global illumination simulation has proven to be a powerful method for ray tracing-based photorealistic rendering of globally illuminated scenes with general bidirectional scattering distribution functions, and all illumination effects that are possible thereby. Nevertheless, one of the weaknesses of this method has been that it uses a very coarse radiance estimation which may cause illumination artifacts in the vicinity of edges or corners of objects, and on surfaces with differently oriented small geometric details. Our new photon map-based radiance estimation method avoids these illumination artifacts. This is done by taking the actual geometry of the illuminated surfaces into consideration. In stochastic ray tracing-based rendering and global illumination techniques, eg. in photon map global illumination simulation, a very large number of rays have to be shot into the scene to compute the global illumination solution and/or the final image. The performance of these techniques can therefore be considerably improved by shooting the rays preferably into directions where their contribution is high. Importance sampling techniques try to do this, but the problem herein is that the contribution has to be estimated, and this of course has to be done efficiently. Our new importance sampling technique solves this problem by utilization of a particle map. The probability density function according to which the shooting direction of a ray from a point is selected is composed of adaptive footprints that the nearest neighbor particles make onto the hemisphere above the point. The rays can therefore be precisely shot into directions with high contribution. Interactive walkthroughs in a globally illuminated static scene can be realized by doing the computationally expensive global illumination simulation in a preprocessing step. The result of this step should be a representation of the global illumination that can be efficiently displayed during a following interactive walkthrough, which is rendered with graphics hardware. A major problem herein is to handle the spatially and directionally variant global illumination on glossy surfaces. Our new method for interactive walkthroughs for soft glossy scenes solves this problem with directional light maps, which are efficiently displayed with conventional graphics hardware. In large scenes, eg. in a building, where only a small part is visible from each possible viewpoint, it would be inefficient to draw all those objects that are occluded by other parts of the scene. To achieve a real-time frame-rate for interactive walkthroughs it is necessary to determine efficiently which objects are occluded, so that they can be culled. Our new conservative image-space occlusion culling method achieves this by utilization of a lazy occlusion grid that works efficiently with conventional graphics hardware.Item OpenSG: A Scene Graph System for Flexible and Efficient Realtime Rendering for Virtual and Augmented Reality Applications(Reiners, Dirk, June 2002) Reiners, DirkThis work opens a path to keep scenegraphs a viable paradigm for real-time rendering systems for the foreseeable future, which in the computer and computer graphics area does not exceed three to five years. The analysis of the microprocessor state of the art in chapter 2 and the extrapolations based on it predict that parallel processing of multiple independent threads will be ubiquitous soon, either as separate processors or in a single chip. On the graphics hardware front performance will continue to rise faster than processor performance, but more importantly programmability will spread and the need to differentiate themselves will drive the hardware vendors to keep adding unique features to their systems, demanding high flexibility and extensibility from the scenegraph systems. The commonly available scenegraph systems Open Inventor, OpenGL Performer, Y and Java3D have been analyzed according to their ability to fulfill these demands. The analysis shows that three areas are not adequately covered: - extensibility - handling of parallel tasks - flexible and efficient handling of graphics hardware. Thus they have been analyzed and solutions are proposed in this work.