Fachhochschule Reutlingen Hochschule für Technik und Wirtschaft -Fachbereich Maschinenbau-
Studienarbeit
Optisches 3D-...
167 downloads
668 Views
898KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Fachhochschule Reutlingen Hochschule für Technik und Wirtschaft -Fachbereich Maschinenbau-
Studienarbeit
Optisches 3D-Scannen
Von: Student im Januar 2003
Betreuer:
Prof. Dr. 1
Inhaltsverzeichnis
1. 1.1 1.2
Einführung Rapid Prototyping und Reverse Engeneering Vom Punkt zur Fläche
4 4 5
2. Allgemeiner Überblick: 3D Digitalisierungssysteme 2.1 Wie arbeitet die Technik? 2.1.1 Zerstörende und nicht zerstörende Systeme 2.1.2 Berührende und berührungsfreie Systeme 2.2 Berührungsfrei arbeitende Systeme 2.2.1 Röntgen 2.2.1.1 Computertomographie, CT 2.2.2 Ultraschall 2.2.3 Mikrowellensensoren 2.2.4 Optische Systeme
6 6 6 6 7 7 7 8 9 9
3. Überblick optischer Verfahren zur Digitalisierung 3.1 Passive Verfahren 3.1.1 Photogrammetrie 3.1.1.1 Photogrammetrische Triangulation 3.1.2 Volumen konstruieren aus mehreren Ansichten 3.2 Aktive Verfahren 3.2.1 monokularen Systeme 3.2.2 Binokulare Systeme 3.2.3 Koaxiale Systeme 3.2.3.1 Das Laufzeitverfahren 3.2.3.2 Das Phasenvergleichsverfahren 3.2.3.3 Lichtschnittverfahren 3.2.3.4 Coded Light Verfahren oder Flächenhafte strukturierte Beleuchtung 3.2.3.5 Andere Strukturlichtverfahren
10 10 10 10 12 13 13 13 14 14 15 15 16 17
4. Vom Abbild zum digitalen Modell 4.1 Laserscanner nach dem Pulslaufzeit-Verfahren 4.1.1 Aufbau 4.1.1.1 x/y-Scanner 4.1.1.2 Winkel- oder θ/φ-Scanner 4.1.2 Entstehung des digitalen Modells 4.2 Scannen mit strukturierter Beleuchtung 4.2.1 Triangulation 4.2.2 Fazit 4.3 Der Laserscanner nach dem Triangulationsprinzip
18 18 18 19 19 21 22 27 30 31
2
5. Weiterverarbeitung und Anwendungen 5.1 Das Matching 5.1.1 Stereo Matching 5.1.2 Matching von mehreren Teilansichten 5.1.2.1 Grobjustierung 5.1.2.2 Feinjustierung 5.1.2.3 Netzrekonstruktion 5.1.3 Beispiele kommerzieller Software zum Matchen 5.2 Anwendungsbeispiele 5.2.1 Optisches Messen 5.2.2 Qualitätssicherung 5.2.3 3D-Digitalisieren 5.3 ATOS, der Digitalisierer der Firma GOM 5.4 Beispiele für die Anwendung von PolyWorks Software
33 33 34 36 36 37 38 39 39 39 40 40 41 42
6.
43
Literaturverzeichnis
3
1. Einführung 1.1 Rapid Prototyping und Reverse Engeneering Im Zeitalter immer kürzerer Produktlebenszyklen und gestiegenen Anforderungen an Design und Funktionalität bei trotzdem hohem Preisdruck auf dem Markt ist es für die Hersteller notwendig ihre Produkte schnell auf den Markt zu bringen. Dazu wurden und werden im Bereich des Rapid Prototyping neue Verfahren und Methoden entwickelt, welche helfen sollen, die Entwicklungszeiten zu verkürzen und dabei die Kosten zu minimieren. Ein neuer Begriff in diesem Zusammenhang ist das Reverse Engeneering. „Früher“ war der Entwicklungsprozess neuer Produkte im Wesentlichen ein einheitlicher Ablauf: Man kam von der Idee über die Konstruktion zum fertigen Modell / Produkt. Das Reverse Engeneering versucht nun diesen Weg auch rückwärts zu gehen. Das heißt von einem vorhandenen Modell oder Teil auch ohne aufwendige Konstruktion zu einem neuen Produkt bzw. erst einmal zu CAD Daten zu kommen. Dies ist vor allem bei designerisch anspruchsvollen Teilen ein großer Vorteil, da man erst ein physisches Modell des Produktes fertigen kann, welches man auch in der Hand halten und testen kann und danach ein digitales Modell am Computer hat. Ein weiterer Vorteil ist das duplizieren vorhandener Bauteile, wenn z.B. keine Konstruktionszeichnung mehr vorhanden ist.
Abbildung 1: Idee des Reverse Engeneering
Dazu bedarf es allerdings einer Einrichtung, welche die Geometriedaten des Modells aufnimmt und in für den Computer verwertbare Daten umwandelt: ein 3D-Digitalisierungssystem.
4
Die Einsatzmöglichkeiten eines solchen Systems sind aber noch vielfältiger. So können z.B. im Rahmen der Qualitätssicherung Geometriedaten von Serienprodukten aufgenommen werden und sofort mit den Konstruktionsdaten verglichen werden. Die folgende Grafik veranschaulicht die Einsatzmöglichkeiten eines solchen Systems.
Abbildung 2 Anwendungsmöglichkeiten
1.2 Vom Punkt zur Fläche Flächen beschreiben ohne wirklich zu konstruieren. Rückführung der Flächen auf hochwertige 3D-CAD Konstruktionsdaten. Ausgangsbasis sind dreidimensionale reale Objekte, wie z.B. Konzeptmodelle, Designmodelle oder z.B. Serienteile, deren CAD-Konstruktion nicht vorhanden ist oder welche zu Folgeprodukten oder verbesserten Ausführungen neu konstruiert werden sollen. In kürzester Zeit werden hochgenaue Punktewolken generiert, welche die Datenbasis für die weitere Konstruktion und Entwicklung innerhalb der RP- und RT-Verfahren sind. Das relativ neue Verfahren funktioniert berührungslos und macht damit auch die Erfassung von empfindlichen oder flexiblen Materialien möglich. Diese Technologie gewinnt zunehmend an Bedeutung im Bereich Konstruktion und Engineering.
5
2. Allgemeiner Überblick: 3D Digitalisierungssysteme 3D Digitalisierungssysteme erlauben es ein digitales Modell von einem physischen Teil zu schaffen. Eine gedruckte Papierseite (2D) ist dadurch zu vervielfältigen (kopieren), dass man sie neu schreibt. Obwohl 3D Digitalisierer nicht so geradlinig wie ein Photokopierer sind, ist die Absicht die Gleiche. Die Herausforderung des Digitalisierungsprozesses ist es ein vorhandenes Teil mit einem Computer abzubilden, so dass sofort ein vollständiges 3D Modell im CAD System bereit steht oder dieses Teil gleich an einer Rapid Prototyping Anlage gefertigt wird.
2.1 Wie arbeitet die Technik? 2.1.1 Zerstörende und nicht zerstörende Systeme Alle Digitalisierer lassen sich zunächst in zwei Gruppen einteilen: jene, die das Werkstück bei der Datenaufnahme zerstören und jene, die es nicht zerstören. Zu den zerstörenden Verfahren gehört z.B. das Volumen-Scansystem. Ein Verfahren, bei dem das Modell inkl. aller Hohlräume mit einem farblichen Kontrastwerkstoff umgossen und anschließend schichtweise abgefräst wird. Nach jedem Abfräsen einer Schicht wird die Kontur mittels einer Linienkamera abgescannt. Im Computer werden die Informationen (Geometrie) der Einzelschichten wieder zusammengesetzt und man erhält ein vollständiges digitales Volumenmodel. Die Genauigkeit entspricht der Schichtdicke beim Abfräsen (wenige Hundertstel Millimeter). Der große Vorteil dieses Verfahrens ist das Erfassen sämtlicher innerer Konturelemente, was bei vielen anderen Verfahren oft unmöglich oder nur mit nachträglicher Bearbeitung möglich ist. Es ist daher bei Modellen mit komplizierter Innengeometrie oft das einzig brauchbare Verfahren.
2.1.2 Berührende und berührungsfreie Systeme Die nicht zerstörenden 3D Digitalisierungssysteme arbeiten entweder berührungslos oder berührend. Berührungsuntersuchungssysteme sind billiger, aber sie werden manuell bedient. Sie müssen das Objekt für jeden 3D Punkt berühren, den sie reproduzieren wollen. Dies macht es herausfordernd, wenn nicht unmöglich, Computermodelle mit einer hohen Auflösung zu produzieren. Nicht-Kontakt-Digitalisierungssysteme sind die bessere und praktischere Wahl für hohe Auflösungen von mechanischen Teilen, beispielsweise Freiformflächen. Im Allgemeinen haben sie Scangeschwindigkeiten von 3000 bis 4000 Punkten pro Sekunde, obwohl einige Situationen langsamere Geschwindigkeiten erfordern, können und andere Situationen erlauben mit vollem Suchtempo bis 14400 Punkte pro Sekunde abzuscannen. Im Allgemeinen ist das Laserscannen viel schneller als ein CMM und mechanische Paussysteme und liefert Auflösungen bis 5µm. Der entscheidende Nachteil dieser Systeme ist wie schon erwähnt: verdeckte Konturelemente (Innengeometrien) können nicht aufgenommen werden. 6
2.2 Berührungsfrei arbeitende Systeme Die berührungsfrei arbeitenden Systeme lassen sich einteilen nach dem physikalischen Prinzip, welches sie nutzen. Da wären:
2.2.1 Röntgen Verfahren, die auf diesem Prinzip beruhen haben gegenüber optischen Verfahren den Vorteil, dass nicht nur Oberflächen aufgenommen, sondern auch Strukturen durchleuchtet werden können. Es gibt verschiedene Röntgenverfahren die sich alle bezüglich der Strahlenbelastung, der Verarbeitungsgeschwindigkeit, der Bildqualität sowie auch der Kosten unterscheiden. Zu nennen wären die CT (Computertomographie), das Digitale Röntgen, das OPG (Röntgenorthopantomogramm), das FRS (Fernröntgenseitenbild) sowie die MRT (Magnetresonanztomographie). Obwohl das Bild bei der CT auch aus Daten in digitaler Form zusammengesetzt wird, gehört die CT nicht zu der Klasse der digitalen Röntgenverfahren, da sich die Digitalen Röntgenverfahren erst viel später als die CT entwickelten.
Abbildung: Übersicht elektromagnetisches Spektrum und Markierung der im MRT eingesetzten Wellen
2.2.1.1 Computertomographie, CT Der Computer-Tomograph misst lückenlos äußere und innere Geometrien und liefert Daten für die zerstörungsfreie Materialprüfung und das Reverse Engineering. Das von der medizinischen Computer-Tomographie abgeleitete gleichnamige Verfahren für technische Zwecke ermöglicht ein rasches, berührungsloses Messen dreidimensionaler Strukturen, eine zerstörungsfreie Materialprüfung (Prüfung auf Lunker, Risse und Werkstoffdichte), ein Reverse Engineering und eine Finite-Elemente- Analyse (FEA) realer Bauteile. Die Computer-Tomographie (CT) hat sich in der Medizin seit Jahren zur Untersuchung des menschlichen Körpers bewährt. Das Verfahren bildet in kleinen Abständen Querschnitte der zu untersuchenden Teile ab. Man kann daran Geometrien, Dichten und Werkstoffverteilungen ablesen. SMS Scientific Measurement Systems Inc, Austin, Texas / USA, hat dieses Verfahren umfassend weiterentwickelt und damit auch für technische Zwecke nutzbar gemacht. Das Arbeitsprinzip der Computer-Tomographen für technische Zwecke ist wie folgt: Eine energiereiche, durch Blenden und elektromagnetische Einrichtungen entsprechend gebündelte Röntgenstrahlung trifft auf die zu messenden Werkstücke. Um ein 7
dreidimensionales Abbild zu erzeugen, werden die Werkstücke auf einem NC-Tisch rotiert sowie horizontal und vertikal bewegt. Die vom Werkstück beeinflussten Röntgenstrahlen treffen auf einen Röntgendetektor. Er empfängt und speichert die Röntgenstrahlung. Mit Hilfe einer Auswertesoftware erzeugt ein Computer auf einem Farbbildschirm das Abbild des Werkstücks, z. B. als Punktewolke oder als interpoliertes, dreidimensionales Linienbild. Typische Anwendungen für die Computer-Tomographie gibt es in der Flugzeugindustrie, im Automobil- und Aggregatebau sowie in der Elektronik. Wegen der hervorragenden Möglichkeiten zum Reverse Engineering, also dem Erzeugen von CAD-Daten aus einem bereits vorhandenen Werkstück, eignet sich die Computer-Tomographie für alle Designer, Entwicklungsingenieure sowie Werkzeug- und Formenbauer. Mit der Computer-Tomographie können Werkstücke aus nahezu allen Werkstoffen erfasst werden. Weil die Beschaffungskosten für Computer-Tomographen sehr hoch sind, lässt man die gewünschten Messungen und Untersuchungen vorzugsweise bei Dienstleistern wie der promod technologies GmbH in Horb am Neckar durchführen.
Abbildung: Mit CT erstelltes Abbild aus dem Inneren eines Kopfes. Einzelschnittbilder von Querschnitten, die zu einer räumlichen Szene zusammengefügt.
2.2.2 Ultraschall Bei der Ultraschalltechnik, die auch als Sonographie bezeichnet wird, werden Bilder durch die Reflexion von Schallwellen an Gewebegrenzen erzeugt. Dabei handelt es sich um Schallwellen, die über dem für den Menschen wahrnehmbaren Frequenzbereich von bis zu 20 kHz liegen, weshalb sie die Vorsilbe ultra (lat.: über oder jenseits) tragen. Geräte, die in der täglichen medizinischen Praxis eingesetzt werden, verwenden häufig Frequenzen zwischen 2-10 MHz. Durch die Reflexion der ausgesendeten Schallwellen im Modell werden diese am Empfängerteil des Schallkopfes mit einer unterschiedlich starken Abschwächung registriert. Die Erzeugung von 3D-Ultraschallbildern erfolgt über eine Folge von einzelnen Schichtbildern des untersuchten Modells. Aufgrund der niedrigen Ausbreitungsgeschwindigkeit in Luft (ca. 340 m/s) ermöglichen Ultraschallsensoren eine einfache elektronische Auswertung der Laufzeitinformation. 8
Probleme machen die Temperaturabhängigkeit der Schallgeschwindigkeit sowie die starke Dämpfung von Ultraschall höherer Frequenz in der Atmosphäre. Weiterhin benötigt man für hohe Auflösungen eine extrem feine Strahlbündelung, die nur über recht große Aperturen oder Sensorarrays zu erreichen ist. Das Ultraschallsystem kommt auch aus dem medizinischen Bereich, wo es sehr häufig eingesetzt wird, da die Investitionskosten im Vergleich zum CT um ein vielfaches kleiner sind. Im technischen Bereich ist das Haupteinsatzgebiet die zerstörungsfreie Werkstoffprüfung. Andere Einsatzgebiete sind im Bereich der Seismologie oder der SonarTechnik. Abbildung: medizinischer Freihand 3D Ultraschallsensor mit Magnetfeldsender zur Positionsbestimmung. Bei der Freihandaufnahmetechnik kann der Schallkopf vom Bediener frei bewegt werden, so dass die Schichtbilder eine beliebige relative räumliche Position haben und sich überschneiden können. Während der Schallkopf langsam kontinuierlich bewegt wird, werden die Scans aufgezeichnet und gespeichert. Ein magnetischer Positionssensor ermittelt die relative Position eines Empfängers, der am Schallkopf montiert ist, zu einem im Patientenkoordinatensystem befestigten Sender. Die relative Position jeder Scanebene wird nachfolgend errechnet und die Einzelscans werden in ein Komplettvolumen integriert. Die räumliche Ausrichtung der einzelnen Aufnahmen ist nun zwar bekannt, was aber nicht darüber hinwegtäuschen darf, dass die Daten durch uneinheitliche Ausrichtung der Scanebenen einem groben Sampling unterliegen können, was die Interpolation zwischen den einzelnen Schichten erschwert.
2.2.3 Mikrowellensensoren Mikrowellensensoren sind für die Konturvermessung mit Millimetergenauigkeit zwar prinzipiell geeignet, für eine extrem feine Winkelauflösung benötigt man jedoch relativ große Antennen, die in vielen Fällen kaum eingesetzt werden können. Prädestiniert sind Mikrowellensensoren dagegen für Messprobleme mit mäßiger räumlicher Auflösung und großen Entfernungen, auch unter schwierigen Ausbreitungsbedingungen, wie z.B. Nebel oder Rauch. Typische Anwendungen reichen vom Mikrowellen-Abstandswarnsystem bis zum SAR für die Erderkundung.
2.2.4 Optische Systeme Optische Systeme arbeiten mit Licht. Sie werden anschließend ausführlich dargestellt.
9
3. Überblick optischer Verfahren zur Digitalisierung Der andauernde technische Fortschritt führt zu immer neuen Entwicklungen auch auf dem Bereich optischer Sensorsysteme. Diese profitieren einerseits von der Weiterentwicklung und Miniaturisierung immer leistungsfähiger Rechnerhardware, zum anderen jedoch auch von den Weiterentwicklungen der Sensorik im Bereich der Halbleiterfertigung zu kleineren leistungsfähigeren Systemen mit immer besserer Auflösung. Stetige Verbesserung optischer und mikromechanischer Geräte tragen zusätzlich zu einer Weiterentwicklung optischer Sensorsysteme bei. Die folgende Diskussion grundlegender Messprinzipien und deren Einsetzbarkeit muss deshalb vor dem Hintergrund des heutigen Stands der Technik gesehen werden. Aktuell verfügbare, optische Sensorsysteme lassen sich nach ihrem Messprinzip in aktive und passive Systeme einteilen. Passive optische Sensorsysteme zeichnen sich dadurch aus, dass sie nur Licht aus der Szene aufnehmen, und nicht wie aktive Sensorsysteme die Szene künstlich beleuchten um Informationen zu extrahieren.
3.1 Passive Verfahren Mit Passiv ist gemeint, dass keine Energie für den Zweck des Wahrnehmens emittiert ist. Nur vorhandenes Licht aus der Umgebung wird genutzt. Es ist die Art, wie das menschliche Auge funktioniert. Umgebungslicht oder im Freien Sonnenlicht wird von der Oberfläche reflektiert und diese reflektierten Strahlen werden vom Kamerasystem aufgenommen. Bei passiven optischen Sensorsystemen unterscheidet man zwischen monokularen Systemen und Triangulation (binokular, trinokular), also Triangulationsystemen mit ein, zwei oder drei Bildaufnehmern. Aber Verfahren, die auf mehr als drei Kameras beruhen bringen keinen zusätzlichen qualitativen Nutzen. Die Photogrammetrie ist eines davon, ein anderes ist das Konstruieren eines Volumens aus mehreren Ansichten.
3.1.1 Photogrammetrie Die Auswertung der Aufnahmen eines Verbandes von mehreren Kameras erlaubt das Finden von natürlichen oder künstlich eingebrachten Objektmerkmalen. Diese Bezugspunkte in Verbindung mit bekannten Abbildungsmodellen werden mit Hilfe von mathematischen Verfahren zum Bündelausgleich die Abbildungseigenschaften der Kameras analysiert und die 3-D-Koordinaten der Merkmale sehr präzise bestimmt. Haupteinsatzgebiet der Photogrammetrie ist die Vermessung der Erde (Landschaften) vom Flugzeug aus.
3.1.1.1 Photogrammetrische Triangulation Die auch als Aerotriangulation bezeichnete photogrammetrische Triangulation wertet Luftbilder aus. Die Methoden der Aerotriangulation befreien die Photogrammetrie von dem Zwang, in jedem Stereomodell mindestens drei Paßpunkte terrestrisch bestimmen zu müssen. Mit der Aerotriangulation können Gebiete ohne Festpunkte überbrückt werden. Ausgangsmaterial ist ein streifen- oder blockförmiger Bildverband mit mindestens 60% 10
Längs- und 20% Querüberlappung. Bei der Bündelblockausgleichung wird auf rechnerische Weise der Zusammenhang zwischen den Bildkoordinaten und den Objektkoordinaten direkt, d.h. ohne Umweg über Modellkoordinaten, hergestellt. Bei der Bündelblockausgleichung ist also das Bild die Elementareinheit. Das Ergebnis einer Aerotriangulation sind die Orientierungselemente aller Bilder bzw. Stereomodelle und die Koordinaten X,Y,Z diskreter Punkte in einem übergeordneten Koordinatensystem (im Allgemeinen im Landeskoordinatensystem). Man spricht deshalb auch von photogrammetrischer Punktbestimmung. Als Punkte kommen in Frage: • vor dem Bildflug signalisierte Punkte, • in den Messbildern ausgewählte und im allgemeinen in Skizzen dokumentierte "natürliche" Punkte, • in den Messbildern ausgewählte und mit einer Markierungseinrichtung gekennzeichnete "künstliche" Punkte. Die photogrammetrische Punktbestimmung wird hauptsächlich in folgenden Anwendungsbereichen eingesetzt: • Photogrammetrische Passpunktbestimmung für die einzelnen Stereomodelle, um topographische Karten oder Orthophotokarten herstellen zu können. • Photogrammetrische Bestimmung vieler Einzelpunkte, wie zum Beispiel der Grenzpunkte bzw. eines engmaschigen Festpunktfeldes (Katasterphotogrammetrie). • Photogrammetrische Bestimmung der Paßpunkte und vieler Einzelpunkte bei ingenieurtechnischen Problemstellungen.
Bild: Grundprinzip der Bündelblockausgleichung /5/ Die Bildkoordinaten und das dazugehörige Projektionszentrum definieren ein räumliches Strahlenbündel. Die äußeren Orientierungselemente der Strahlenbündel eines Blockverbandes werden für alle Bilder gleichzeitig bestimmt. Als Information stehen dafür die Bildkoordinaten der Verknüpfungspunkte (Punkte, die in mehr als einem Bild vorkommen) und die Bildkoordinaten und terrestrischen Koordinaten der Paßpunkte zur Verfügung. 11
Das Ausgleichungsprinzip kann deshalb wie folgt formuliert werden: Die Strahlenbündel werden • verschoben (drei Translationen X0,Y0,Z0) und • gedreht (drei Drehwinkel κ, ω, φ), bis die entsprechenden Strahlen • an den Verknüpfungspunkten möglichst gut zum Schnitt kommen und • mit den Passpunkten möglichst gut zusammentreffen. Bevor der Ausgleichungsansatz formuliert werden kann, ist zunächst der mathematische Zusammenhang zwischen den Bildkoordinaten und den übergeordneten Objekt- bzw. Landeskoordinaten abzuleiten.
3.1.2 Volumen konstruieren aus mehreren Ansichten Das Verfahren arbeitet vollkommen berührungsfrei und verwendet auch keine aktiven Komponenten wie beispielsweise Laserstrahlen oder strukturiertes Licht. Einzig durch Ausnutzung der Objekt-Silhouetten wird die 3D Geometrie rekonstruiert und in Form eines Dreiecksnetzes gespeichert. Typischerweise werden 18 bis 36 Bilder aufgenommen, das Modell wird also für jede Aufnahme um ca. 10° bis 20° mittels Drehtisch gedreht. Anschließend werden die Einzelbilder im Rechner überlagert und daraus nach einer von Martin und Aggarwal entwickelten Methode, der „occluding contours“ (dt: „Konturen vollständig überlagern"), die wirklichen Objektsilhouetten von den Abbildungen und der orthographischen Vorausplanung für den Bau eines Volumens herauszogen und modelliert. Da nur jeweils die Modellsilhouette fotografiert wird können keine Hohlräume und konkaven Stellen dargestellt werden. Ein wichtiger Punkt beim Ausführen dieser Methode ist also ein von niedrigen Komplexität und Eignung für eine schnelle Berechnung von Volumenmodellen charakterisiertes Ausgangsmodell. Aus diesen Gründen eignet sich dieses Verfahren nicht sehr gut für das Erzeugen maßhaltiger digitaler Modelle, wohl aber durch seine Schnelligkeit und Einfachheit zum Einsatz im graphischen Gewerbe und in der Werbung, wo die Qualität mehr nach Aussehen und Design bewertet wird als nach dem Einhalten von Toleranzen. Diese Aussage wird auch noch dadurch bekräftigt, dass man anschließend die originale Bildinformation (Textur) wieder auf das Modell aufbringen kann, um so einen hochrealistischen Eindruck zu erzielen.
Die Skizze zeigt das Prinzip der Anordnung, wobei die Kamera eine ganz gewöhnliche Digitalkamera sein kann. Es muss lediglich sichergestellt sein, dass jedem Bild ein eindeutiger Drehwinkel des Tisches zugeordnet ist.
12
3.2 Aktive Verfahren Bei aktiven optischen Sensorsystemen unterscheidet man zwischen Strukturlichtverfahren, Laufzeitverfahren und dem Phasenvergleichsverfahren. Allen gemeinsam ist, dass das Meßsystem aktiv wird, indem die Szene mit einer speziellen Lichtquelle beleuchtet wird. Dieses Licht ist eindeutig formatiert und stammt üblicherweise aus einem Laser oder Streifenprojektor.
3.2.1 monokularen Systeme Bestehende Ansätze, aus nur einem bildgebenden Sensor 3D-Informationen zu ermitteln, arbeiten meist nach dem Fokus Verfahren. Hierbei wird über einen Aufnahmezeitraum der Kamerafokus kontinuierlich über einen bestimmten Bereich verstellt. Durch eine anschließende Analyse der Schärfe bestimmter Bildbereiche der Bildfolge und dem Vergleich mit dem jeweils eingestellten Fokus kann auf die Entfernung des Bildbereichs geschlossen werden. Zum Gelingen dieses Vorgehens ist ein möglichst gut strukturiertes Objekt (gute Ausleuchtung) mit idealerweise vielen Kanten notwendig. Es ist prinzipiell unmöglich aus lediglich einem monokularen Kamerabild ohne Wissen über die Szene Entfernungsinformationen zu gewinnen. Unter bestimmten Randbedingungen (Wissen über die Lage der Objekte in der Szene) ist es jedoch möglich, aus einem 2D Bild Informationen zu extrahieren, die für die gegebene Problematik:3D Digitalisierung geeignet sein können. Dies ist aber kaum automatisiert möglich und wird deshalb hier nicht weiter betrachtet.
3.2.2 Binokulare Systeme Dieses auch als Stereoskopie bezeichnete Verfahren arbeitet nach dem Triangulationsprinzip. Das Triangulationsprinzip beruht auf der Ausnutzung einfacher trigonometrischer Beziehungen. Hierbei wird die Z- Koordinate ermittelt durch den Winkel φA des eintreffenden Lichtstrahls. Durch die einfache trigonometrische Beziehung lässt sich der Abstand bei bekanntem Basisabstand bestimmen. Siehe Bild:
Z=
B a + cot(ϕ L ) S
Abbildung 3: Triangulation 13
Wird ein Objekt aus zwei unterschiedlichen Blickwinkeln aufgenommen, kann seine dreidimensionale Position durch Suche nach korrespondierenden Bildpunkten in beiden Bildern ermittelt werden. Zum Gelingen einer 3D-Positionsbestimmung ist eine Korrespondenzsuche auf beiden Bildern notwendig um sicherzustellen, dass jeweils ein Pixel in beiden Bildern vom gleichen Zielpunkt herrührt. Ist dies sichergestellt, können der Winkel bestimmt und die Entfernung errechnet werden. Die plausible Korrespondenzsuche stellt das größte Problem der Stereoskopie dar. Ist das zu untersuchende Objekt nicht genügend strukturiert, misslingt ein plausibler Match und es kann kein sinnvoller Entfernungswert ermittelt werden. Kritischer als das Fehlen von Messinformation ist das Bestimmen einer falschen Position, wenn aus nicht korrespondierenden Bildpunkten eine 3D-Position ermittelt wird.
Dieses Bild zeigt das Grundprinzip der Aufnahme mit zwei Kameras.
3.2.3 Koaxiale Systeme Laufzeitverfahren und Phasenverschiebung arbeiten als koaxiales System, d.h. Lichtquelle und Lichtsensor liegen auf einer Achse. Der Vorteil dieser Systeme besteht in der Vermeidung der bei Triangulationssystemen typischen Abschattungseffekte.
3.2.3.1 Das Laufzeitverfahren Beim Laufzeitverfahren wird die Zeit ermittelt, die zwischen Emission eines Lichtpunkts, der Reflexion am Objekt und Detektion am Empfänger vergeht. Da die Ausbreitungsgeschwindigkeit des Lichtes als konstant angesehen werden kann, ist die Signallaufzeit direkt proportional zur Entfernung. Die Messrate ist bedingt durch die hohe Signallaufzeit (Lichtgeschwindigkeit) bei diesen Systemen sehr hoch. Jedoch ist für die Vermessung eines 3D Objektes das Ablenken des emittierten und reflektierten Lichtes über Spiegel in zwei Richtungen vorzusehen, was wenn es sehr schnell und präzise geschehen soll, den Aufbau teuer macht. 14
Ein prinzipbedingtes Problem besteht in der Bestimmung des exakten Rückkehrzeitpunktes, da Licht von verschiedenen Oberflächen (verschiedene Reflexionsgrad der Messoberfläche bzw. unterschiedlicher Orientierung bei diffus reflektierenden Flächen) unterschiedlich stark zurückreflektiert wird. Unterschiedliche Reflexionsverhalten wirken sich als Messfehler aus, da bei vergleichbar schwacher Reflexion mehr Zeit bis zum Erreichen, einer für die sichere Detektion notwendigen Signalstärke, vergeht. Schwach reflektierende Objektflächen täuschen also eine zu große Entfernung vor. Das Verfahren lässt technisch sinnvolle Messungen nur für relativ große Entfernungen zu, da bedingt durch die große Ausbreitungsgeschwindigkeit von Licht extrem kurze Zeiten gemessen werden müssen. Die Auflösung solcher Systeme liegt typischerweise im Bereich von weniger als ein Millimeter. Nutzung im Laserinterferrometer. Laserradar nach dem Pulslaufzeitverfahren
3.2.3.2 Das Phasenvergleichsverfahren Das Phasenvergleichsverfahren betrachtet die Phasenverschiebung zwischen einem abgesendeten hochfrequent periodisch amplitudenmodulierten Signal und dem empfangenen Signal. Hierbei ist der Messbereich auf eine Wellenlänge beschränkt. Der maximale Messbereich kann erheblich vergrößert werden, wenn das Signal mit zwei unterschiedlichen Frequenzen moduliert wird. Da dieses Verfahren sehr präzise die Phasenverschiebung ermitteln muss, werden sehr große Empfangseinheiten benötigt. Dies bedingt für eine dreidimensionale Messung großflächige und dadurch schwere Spiegel, die das zurückreflektierte Signal auf einen Sensor umlenken. Die bei der Beschleunigung eines großflächigen Spiegels auftretenden Kräfte und Vibrationen verhindern ein Ablenken mit einer geeigneten Frequenz. Problematisch ist begrenzte Eindeutigkeitsbereich, der durch das periodische Modulationssignal verursacht wird sowie der Einfluss von Mehrfachreflexionen, die bei diesem Verfahren nicht ausgeblendet werden können.
3.2.3.3 Lichtschnittverfahren Beim Lichtschnittverfahren wird im Vergleich zur Stereoskopie eine Kamera durch eine Lichtquelle (z.B. durch einen zeilenartig aufgeweiteten Laser) ersetzt und somit der Arbeitsraum räumlich kodiert. Mittels dieses Lasers wird eine Linie auf das Messobjekt projiziert. Die so entstehende Triangulationsanordung reduziert das bestehende Korrespondenzproblem auf das Wieder finden der Laserkontur im Kamerabild. Da die Art der möglichen Konturen einfach ist, kann dieses Problem wiederum auf das Wieder finden der Laserlinie in einer Bildzeile oder Spalte reduziert werden. Aus der Geometrie des Aufbaus 15
errechnen sich über die Triangulation die 3D-Koordinaten des Lichtschnitts (Konturlinie) auf der Objektoberfläche. Durch eine Relativbewegung zwischen Sensor und Messobjekt senkrecht zur erfassten Kontur oder durch eine Sequenz einzelner Linien auf den Körper projiziert wird das gesamte Objekt dreidimensional erfasst.
Abbildung 4 Das Prinzip des Lichtschnittverfahrens
3.2.3.4 Coded Light Verfahren oder Flächenhafte strukturierte Beleuchtung Das wesentliche Merkmal des Coded Light Verfahrens im Vergleich zu einfachen Lichtschnittverfahren besteht in der raum-zeitlichen Kodierung des zu vermessenden Arbeitsraumes. Das heißt: jede projizierte Lichtebene hat eine eindeutige Kodierung und kann somit bei der Bildaufnahme identifiziert werden. Man erhält diese so genannte Zeit-RaumKodierung, indem man jede Lichtlinie mehrfach mit unterschiedlicher Helligkeit zeitlich versetzt auf das Objekt projiziert. Dies wird durch sequentielle Projektion von n Graykodierten Streifenmustern in den Projektraum realisiert. Durch die Untersuchung der so aufgenommenen Bildfolge ist jeder Bildpunkt eindeutig identifizierbar. Die raum-zeitliche Kodierung des Objekltraums stellt also die Methode dar, mit der das Coded Light Verfahren das Korrespondenzproblem löst. Ist der Bildpunkt eindeutig zugeordnet wird die Triangulationsmethode angewendet, um die dreidimensionale Position eines Rasterpunktes zu berechnen. Nachteile des Coded Light Verfahrens bestehen vor allem im Preis verfügbarer präziser und schneller Musterprojektoren. Ferner wirken sich Bewegungen des Objektes während der Messung negativ auf die Berechnung einer exakten 3D Position aus.
16
3.2.3.5 Andere Strukturlichtverfahren Das Prinzip der räumlichen Kodierung des Objektraumes mittels eines Laserpunktes oder einer Laserlinie geben nur die einfachsten Ansätze wieder, Triangulation mit strukturiertem Licht zu betreiben. So ist es als erste Verallgemeinerung möglich, mit mehreren Lichtlinien gleichzeitig zu arbeiten. Selbst das Kodieren der Information durch schachbrettartige oder komplexere Beleuchtungsmuster ist denkbar. Jedoch steigt zum einen mit der Komplexität des Musters die Rechenzeit stark an, zum anderen treten u.U. wieder Zuordnungsprobleme auf.
Mehrere Linien gleichzeitig. Zuordnung?
Schematische Ansicht Zuordnung?
Um den Verlauf der Oberfläche über einen größeren Bereich erfassen zu können, könnte man den Körper mit mehreren parallelen Lichtlinien beleuchten. In der praktischen Anwendung ergeben sich allerdings Probleme bei der Auswertung im Bereich von Fehlstellen, Schatten und Reflexionsbereichen. Die Lichtlinien werden unterbrochen, es geht somit die Information über den weiteren Verlauf, bzw. die Zusammengehörigkeit der einzelnen Linienabschnitte verloren (siehe Bilder oben). Dieses Verfahren versagt somit bei allen Objekten, die Liniensprünge oder Abschattungen verursachen
17
4. Vom Abbild zum digitalen Modell Die folgenden Abschnitte erläutern das Entstehen des digitalen Modells im Computer. Genauer: Welche Informationen sind notwendig, um die exakten Koordinaten (X/Y/Z) eines jeden Punktes der Punktewolke zu berechnen. Da es verschiedene Möglichkeiten dazu gibt werden hier stellvertretend einige Verfahren anhand von Beispielen ausführlich dargestellt.
4.1 Laserscanner nach dem Pulslaufzeit-Verfahren Die Methode Entfernungen optisch nach dem Pulslaufzeit-Verfahren zu messen hat sich auch im Bereich der 3D-Konturvermessung etabliert. Nun ist sie zwar nicht so häufig anzutreffen, wie die Methode der Triangulation, sei es aus Kostengründen oder wegen der Empfindlichkeit des Lasersensors, dennoch wird sie anschließend hier beschrieben.
4.1.1 Aufbau Das Herzstück eines Laserscanners ist sein Abstandssensor, jene hochgenaue aber auch empfindliche Einheit, wie sie auch z.B. beim Bestimmen der Positioniergenauigkeit von Werkzeugmaschinen oder auch zum Steuern und Überwachen von Dockingmanövern in der Raumfahrt verwendet wird. Das Prinzip ist nachfolgend vereinfacht dargestellt: Es wird ein Lichtimpuls vom Lasersender ausgestrahlt, dieser trifft auf die zu vermessende Oberfläche, wird dort zurückreflektiert und trifft auf den Photoempfänger. Die angeschlossene Elektronik misst dabei die Zeit, die vergangen ist zwischen Aussenden und Empfangen des Lichtimpulses. Nach Gleichung (4.1) wird nun die Entfernung zum Objekt berechnet. Schematische Darstellung eines Entfernungsmessers nach dem Pulslaufzeitverfahren /6/: Typische Daten eines Lasersenders: Impulsleistung: 5….10 W Impulsbreite: 2….10 ns Repertierrate: bis 20 kHz Anstiegszeit: 0,4….5 ns Wellenlänge: 900…910 nm
Moderne Sensoren für kleine Entfernungen kommen mit weniger als 1 mW Leistung und einer Wellenlänge von z.B. 670 nm.
18
Nimmt man eine Pulswiederholfrequenz (Repertierrate) von 20 kHz an, so liegt nach Gleichung (4.1) der Eindeutigkeitsbereich bei /,5 km, was für die 3D-Konturvermessung bei weitem ausreichend ist. Bei einer Entfernungsänderung um 1mm ändert sich die Laufzeit nur um etwa 6,7 ps, was also erhebliche Ansprüche an die Genauigkeit der Zeitmessung stellt. Aus der gemessenen Laufzeit des Lichts tM kann nach der folgenden Gleichung (4.1) über die Lichtgeschwindigkeit c0 die Messentfernung zM bestimmt werden. zM =
1 ⋅ c0 ⋅ tM 2
(4.1)
Es gibt zwei Grundprinzipien der Realisierung von 3D-Konturvermessungseinrichtungen. Als erstes wäre der x/y-Scanner zu nennen, als zweites den θ/φ-Scanner
4.1.1.1 x/y-Scanner
Dieses Bild zeigt schematisch den Aufbau eines x/y-Scanners, wie er am Institut für Nachrichtenverarbeitung der Universität-Gesamtschule-Siegen realisiert wurde. /6/
Dieser Scannertyp zeichnet sich durch seine lineare Verschiebung des Sensorkopfs in kartesischen Koordinaten aus, wodurch bei der Messwertverarbeitung die Koordinatentransformation entfällt. Wegen der zu bewegenden Masse des Sensorkopfs ist die Scangeschwindigkeit begrenzt. Dies kann jedoch zur Verlängerung der Messzeit ausgenutzt werden und wirkt sich vorteilhaft auf die Messgenauigkeit aus. Das Modell kann beliebig im Raum angeordnet sein, es ist lediglich darauf zu achten, dass alle zu scannenden Flächen vom Laserstrahl erreicht werden. Durch die Bauweise ist die maximale Modellgröße vorgegeben.
4.1.1.2 Winkel- oder θ/φ-Scanner Ein schnelleres Scannen als mit dem x/y-Scanner ist mit dem Winkelscanner möglich. Dies ermöglichen zwei relativ trägheitsarme Spiegel die über Galvanometerantriebe, mit kapazitiven Winkelsensoren als Servomotoren angetrieben werden. Ein weiterer Vorteil ist, dass er keinen vorgegebenen Bauraum hat und somit auch große Objekte erfasst werden können.
19
Bilder: links: Prinzipskizze des Winkelscanners /6/ rechts: Kirche, aufgenommen mit Winkelscanner und anschließend bearbeitet mit PolyWorks IMEdit
Weiter Forschungsobjekte auf diesem Gebiet:
1. Ein neuer CMOS-Bildsensor, der dreidimensionale Objekte erfasst, wurde von Siemens und der FhG entwickelt. Im Gegensatz zu dem bisher vorgestellten Verfahren mit Lichtlaufzeitmessung muss hier kein Spiegel mehr gedreht werden. Der Chip basiert auf einem so genannten MDSI (Multiple Double Short Time Integration) Verfahren. Das Verfahren befindet sich zurzeit noch in der Entwicklung. Originalzitat aus Pressemitteilung Fa. Siemens 2002: 3D-information Based Safety and Security by Solid State Microsystems Die Erfassung dreidimensionaler Bilder gewinnt für zahlreiche Gebiete, beispielsweise der RaumSicherheitsüberwachung, Verkehrstechnik und Automatisierungstechnik zunehmend an Bedeutung. Das Projekt MISSY hat die Zielsetzung hierzu die notwendigen robusten und flexiblen 3D-Bildsensoren kostengünstig zu entwickeln. Das System beruht auf der Kombination eines fotosensitiven CMOS-Sensors mit integrierter Schaltung, einer Infrarot Laser-Beleuchtung und einer neuartigen Methode zur Bestimmung der Entfernung (MDSI: multiple double short time integration). Das Mikrosystem wird für Anwendungen mit hohen Stückzahlen optimiert. Bei der Entwicklung wird auf Flexibilität und einen hohen Grad der Miniaturisierung geachtet. Eine Netzwerkanbindung des Sensors wird durch Daten-Schnittstellen ermöglicht. Ziel ist es, einen Liniensensor mit einer Auflösung von 128 Bildpunkten und einen Array-Sensor mit einer Auflösung von 32*32 Bildpunkten zu entwickeln. Die Datenrate der Bildsensoren wird 1 MHz bei einer Dynamik von 80 dB betragen. Die angestrebten Herstellungskosten liegen bei 50 € bei hohen Stückzahlen. Die erwarteten Vorteile der angestrebten Anwendungen unter Berücksichtigung realer Bedingungen sind: Herstellung in Halbleitertechnologie, praktisch unbegrenzte Lebensdauer, eine nahezu 100prozentige Zuverlässigkeit, Wartungsfreiheit, deutlich reduzierte Kosten gegenüber vergleichbaren Konkurrenzsystem (Faktor 10), Unempfindlichkeit gegenüber wechselnder Hintergrundreflektivität und Umgebungslicht und eine vereinfachte Bildverarbeitung.
20
2. Callidus ist ein 3D-Lasermeßsystem der Callidus Precision Systems GmbH, welches die Vermessung von Innenräumen ermöglicht. Auch Callidus arbeitet mit Pulslaufzeitmessung. Der Laserscanner läßt sich horizontal um 360 drehen und überdeckt vertikal einen Bereich von 180 mit einer Winkelauflösung von bis zu 0.25 . Der Laserscanner wird statisch auf einem Stativ positioniert und scannt den gesamten von dieser Position aus einsehbaren Raum. Die Zeit für einen Scan liegt zwischen 3 Minuten und mehreren Stunden. Der Preis einschließlich Auswertungssoftware liegt bei ca. 25.000,--€.
4.1.2 Entstehung des digitalen Modells Die Position des Lasersensors beim x/y-Scanner gibt schon die x/y Position des zu vermessenden Punktes in kartesischen Koordinaten vor. Die Höhenkoordinate z wird bestimmt durch den vom Sensor und Sensorrechner ermittelten Abstand zur Sensorebene. Wird jetzt der Arbeitsbereich in den vorgegebenen Schritten (Raster) abgescannt, so entsteht eine Punktewolke, in der die Lage jedes Punktes im Raum eindeutig definiert ist (x/y/z). Nachfolgend muss nur noch die Punktewolke mit einer geeigneten Software bearbeitet werden, so dass z.B. wieder Flächen und/oder Volumen aus den Einzelpunkten zusammengeführt werden.
21
Das Bild zeigt eine mit dem x/y-Scanner aufgenommene Kontur als Pseudo-3D-Bild; die einzelnen Punkte der Punktewolke sind als Linien zusammengefasst. /6/ Das Prinzip des Winkelscanners unterscheidet sich vom x/y-Scanner nur insofern, dass sich die Position des Sensors nicht ändert. Das Verdrehen der Spiegel bewirkt die Richtungs- bzw. Positionsänderung des Laserstrahls. Als Ergebnis des Scannvorganges erhält man die Position der Punkte in Kugelkoordinaten mit den Verdrehwinkeln θ und φ, und der Radialentfernung r. Die Nachbearbeitung der Punktewolke erfordert u.U. kartesische Koordinaten, welche man durch eine entsprechende Koordinatentransformation erhält. Weiterhin bleibt zu erwähnen, dass bei beiden Verfahren zusätzlich zu der 3D-Position eines jeden Punktes sein Grauwert mit abgespeichert wird. Dieser ist durch die Orientierung der Tangentialebene gegenüber dem Messstrahl, durch die Richtcharakteristik der Streuung des einfallenden Lichts und durch das Absorptionsvermögen des Materials eindeutig festgelegt.
4.2 Scannen mit strukturierter Beleuchtung
Die Grundlage der nachfolgend beschriebenen Verfahren der dreidimensionalen Vermessung mit strukturiertem Licht ist die Triangulation (4.2.1). Im einfachsten Fall wird bei der aktiven Triangulation ein Lichtpunkt mit einer definierten Anordnung auf das Objekt projiziert und auf einem optoelektronischen Sensor abgebildet. Aus der Punktposition sowie dem Winkel des Abbildungsstrahls relativ zur Kamera lässt sich die Höhe des Triangulationsdreiecks, welche der z-Koordinate entspricht berechnen. Die Auflösung in z-Richtung wird hier durch die Genauigkeit des Photodetektors bestimmt. In x-Richtung beeinflusst die Größe des Lichtflecks die laterale Auflösung. Eine Verallgemeinerung des Triangulationsprinzips erhält man, wenn man die Szene nicht nur mit einem definierten Laserstrahl abtastet, sondern ihn zu einer Lichtebene auf weitet. Bei geeignetem Aufnahmewinkel zeigt das resultierende Kamerabild deutlich wie die projizierte Linie auf dem Objekt gegenüber der Linie auf der Hintergrundebene versetzt ist. Mit diesem Versatz und dem Wissen über die Orientierung des Projektors kann die Höhe des Körpers berechnet werden. Die folgende Abbildung veranschaulicht dieses Verfahren:
Abbildung: Lichtschnittverfahren /9/
22
Um nach obigen Verfahren einen Körper einzuscannen muss die gesamte Oberfläche nach und nach mit diesem Lichtstreifen beleuchtet werden. Das kostet natürlich Zeit. Doch nun gibt es mehrere Ansätze anstatt nur einer Linie gleich eine Fläche in einem Schritt einzuscannen.
Die erste Idee dabei ist mehrere Linien zugleich zu projizieren. Das Problem bei der Auswertung ist die einzelnen Linien richtig zuzuordnen. /9/
Um das Problem der Zuordnung eindeutig zu lösen kommt man zur nächsten Idee: Analoge Codierung: Streifen mit unterschiedlichen Lichtintensitäten werden projiziert. /17/ Jedem Lichtstreifen ist nun eine eigene Helligkeit zugeordnet. So können die einzelnen Lichtschnitte berechnet werden. Bei Modellen mit unterschiedlich hellen oder reflektierenden Oberflächen versagt dieses Verfahren jedoch, weil sich die zurückreflektierten Lichtstrahlen dann u.U. nicht mehr eindeutig voneinander unterscheiden und es treten Zuordnungsprobleme auf.
Der nächste Ansatz ist die Szene mit Lichtstreifen zu beleuchten, welche eindeutig codiert sind und somit absolut und eindeutig identifiziert werden können: Strukturierte Beleuchtung oder Coded Light Verfahren Man bezeichnet die dreidimensionale Vermessung mit strukturiertem Licht als auch ZeitRaum Codierung, da auf die Szene Lichtstreifen verschiedener Breite und Anordnung zeitlich nacheinander projiziert werden. Für die Erzeugung der strukturierten Beleuchtung werden Weißlicht-Projektoren verwendet, die entweder mit mechanisch verschiebbaren Dias (Masken) oder mit rechnergekoppelten LCD's arbeiten. Die Streifen sind so angeordnet, dass sie ein charakteristisches Hell-Dunkel-Streifenmuster aufweisen und als Bitmuster für einen Punkt betrachtet eine Binärcodierung darstellen. Hierbei können Codierungsfehler, die sich durch Projektionsunschärfen an den Streifenrändern ergeben würden, durch die Verwendung eines Gray-Code-Linienrasters vermieden werden. Die Abbildung unten zeigt das Prinzip des codierten Lichtansatzes für acht Streifen im Gray-Code. Die gestrichelten Linien stellen die einzelnen Schnittebenen dar. Über den Linien ist die Bitkombination dargestellt, die senkrecht betrachtet die resultierende Streifennummer nach der Projektion der drei Gitterlinien ergibt.
23
Bild: codierter Lichtansatz /21/
Bild: Mögliche Realisierung eines Streifenprojektors mit dazugehörigen Bildaufbereitungseinheiten. (Patentskizze) /18/
Der so beleuchtete Objektraum wird in jeweils einem Kamerabild erfasst. Die Bilder werden binarisiert und im Bildspeicher in der Reihenfolge, die der Codierung entspricht, gestapelt. Das resultierende „Bild" wird als Bit-Plane-Stack (Bit-Ebenen-Stapel bezeichnet und enthält neben der geometrischen Information, d.h. Bildkoordinaten von Punkten der Profillinien, Nummern für die Zuordnung des Abbildes einer Profillinie zu der zugehörigen Projektionsebene bzw. dem entsprechenden Liniensegment des Projektors. Durch die ZeitRaum-Codierung müssen für die Unterscheidung von 2^n Linien nur n Aufnahmen erfasst werden. Es ist zu beachten, dass die Linien immer eine gewisse Breite aufweisen. Deshalb sind bei dem beschriebenen Verfahren eigentlich nur die Hell-Dunkel Übergänge zu betrachten. Zwischen zwei Hell-Dunkel-Übergängen liegt immer ein nicht definierter bzw. nicht codierter Bereich.
24
Bilder: oben: time sequential binary encoding /17/; schematische Darstellung der Bildfolge unten: Sequenz von raum-zeit-codierten Lichtstreifen trifft auf ein Objekt (i=1…8), Bildfolge am realen Objekt i=1
i=5
i=2
i=6
i=3
i=7
i=4
i=8
Resultat: Abbildung des aus den Einzelabbildungen berechneten Volumenkörpers
25
Die Realisierung des Coded-Light-Verfahrens Beim eingesetzten LCD-Projektor wird jede Linie achtfach als heller bzw. dunkler Streifen auf dem Objekt abgebildet, wobei die Sequenz dem Gray-Kode entspricht. Die Aufnahme der Szene erfolgt mit einer CCD-Kamera, die an einem Rechner angeschlossen ist, die Bilder digitalisiert und im Bildspeicher abgelegt. Durch die Digitalisierung mit beispielsweise 8 Bit werden die Grauwerte in 256 Stufen quantisiert. Für das Messverfahren ist jedoch nur die Information relevant, ob ein heller oder ein dunkler Streifen vorliegt. Dies bedeutet, dass für jeden Bildpunkt (Pixel) eine Schwellwertentscheidung nach „hell" oder „dunkel" getroffen werden muss. Da die beleuchteten Messobjekte aber im Allgemeinen nicht überall die gleiche Oberflächenhelligkeit haben, muss dieser Schwellenwert für jedes Pixel individuell bestimmt werden. Dies geschieht auf einfache Weise dadurch, dass die Szene zunächst mit hellgeschaltetem Projektor beleuchtet und aufgenommen wird und anschließend mit dunkelgeschaltetem Projektor. Für jedes Pixel wird dann der arithmetische Mittelwert zwischen hellem und dunklem Bild gebildet, und anschließend zur Schwellwertentscheidung benutzt. In der technischen Realisierung erfolgt die Mittelwertbildung durch Addition und anschließender Halbierung, des hellen und des dunklen Bildes. Das so erzeugte Bild wird nachfolgend „Pixelschwellwert" genannt. Bei der Aufnahme wird die Zugehörigkeit der Bildpunkte zu einer hellen oder dunklen Linie, mit dieser ortsvarianten Schwelle (Pixelschwellwert) bestimmt. Nach jeder Projektion erhält man so ein Binärbild. Die einzelnen Binärbilder der Beleuchtungs-Sequenz werden dann im Arbeitsspeicher des Rechners, im so genannten Bit-stack, scheibchenweise übereinander gelegt.
Bild: Strukturierte Beleuchtung zur Erzeugung eines Tiefenbildes /8/
Bei einem Referenzbild mit einer ebenen Fläche entsteht so ein streifenförmiger Grauwertverlauf entsprechend der Linienkodierung. Wird nun ein Körper in die ausgeleuchtete Fläche gestellt, so ergibt sich eine Grauwertverschiebung entsprechend dem Höhenrelief des Körpers. Subtrahiert man Referenz- und Objektbild, so erhält man ein Tiefenbild, in dem die Grauwerte der einzelnen Pixel ihrer Entfernung von der Referenzebene entsprechen.
26
Nach der Kalibrierung des Messaufbaus kann so mit Hilfe einer Transformation ein normiertes Tiefenbild berechnet werden. Da die Linien eine räumliche Ausdehnung besitzen, gilt die Messung - genau genommen - nur für die Streifenränder. Ein interessanter Effekt tritt in Schattenbereichen auf. Da an diesen Stellen die Lichtkodierung immer dunkel bleibt (Abschattung), können sie als Fehlmessungen markiert werden.
4.2.1 Triangulation
Z=
B a + cot(ϕ L ) S
Abbildung 3: Triangulation
Mit „Triangulation" wird. hier die Umrechnung der Tiefeninformation aus der Streifenverformung, in kalibrierte Maße (z.B. Meter) bezeichnet. Dazu wird von der Überlegung ausgegangen, dass beim beschriebenen Messverfahren die Raumkoordinaten lediglich in ein Bildkoordinatensystem abgebildet werden. Die Raumkoordinaten beschreiben das Messobjekt in Bezug auf ein beliebiges Koordinatensystem (X, Y, Z) im Raum. Das Bildkoordinatensystem besteht aus der horizontalen (nx) und vertikalen (ny) Pixelpositionen im Bild und dem Streifen (i) aus der strukturierten Beleuchtung, der auf das Pixel abgebildet wird. Die dazu nötige Koordinatentransformation besteht aus der Kombination verschiedener elementarer Abbildungen. Diese sind: Translation, Skalierung, Rotation und perspektivische Projektion (Zentralperspektive). Die Schwierigkeit bei der mathematischen Beschreibung dieser Abbildungen liegt darin, dass sie teilweise bezüglich der üblichen (X, Y, Z)Koordinaten nicht linear sind. Deshalb werden die so genannten homogenen Koordinaten verwendet. Dazu werden die einzelnen Koordinaten mit einem konstanten Formfaktor w multipliziert, und dieser wird als 4. Koordinate mit angegeben: (X*w, Y*w, Z*w, w). Im Normalfall kann dieser Faktor gleich „1" gesetzt werden. Dies entspricht dann den (X, Y, Z)Koordinaten. Ist nach einer Transformation, mit homogenen Koordinaten der Faktor w ungleich „1", so erfolgt die Umwandlung in (X, Y, Z)Koordinaten durch Division der homogenen Koordinaten durch w.
27
In /22/ wird gezeigt, dass die oben beschriebenen Abbildungen, insbesondere auch die Zentralperspektive, bezüglich homogener Koordinaten lineare Transformationen sind. Dies bedeutet, dass auch die im Rahmen des Messverfahrens durchgeführte Transformation eine lineare Operation ist. Somit lässt sich die gesamte Koordinatentransformation durch eine einzige (4 x 4)-Matrix beschreiben. Nachdem der gesamte Messaufbau einmal kalibriert wurde, d.h. die gültigen Transformationsmatrizen für den aktuellen Versuchsaufbau erstellt wurde, kann jede Messung damit trianguliert werden, solange der Messaufbau nicht geändert wird. Dies geschieht dadurch, dass jedem relevanten Bildpunkt als Formfaktor die „1" zugeordnet und der so gebildete Vektor (nx, ny, i, 1) mit der jeweiligen Transformationsmatrix multipliziert wird. Der so entstehende Vektor (X*w, Y*w, Z*w, w) enthält dann die zu diesem Punkt gehörenden Koordinaten. Durch Division durch w, werden dann daraus die so genannten Weltkoordinaten (X, Y, Z) berechnet. Ablauf der Kalibrierung: Die Kalibrierung muss nach jeder Veränderung der Kamera- und/oder des Projektors erneut durchgeführt werden, da sie die Transformationsmatrizen bestimmen, die die gültigen Aufbauparameter enthalten. Bei vielen auf dem Markt erhältlichen Digitalisierungssystemen ist der Aufbau fest und wird normalerweise nicht geändert. Das bedeutet, dass die Kalibrierung nur einmal (noch beim Hersteller) durchgeführt wird. Im Verlauf der Kalibrierung wird der Verdrehwinkel von CCD Zeilen und Projektorlinien angezeigt. Die Verdrehung kann dann korrigiert werden. Es sollte ein Winkel unter 1 Grad erreicht werden. Die Bestimmung dieser Matrizen erfolgt nach /22/ nach dem folgenden Prinzip: Gesucht ist die Transformation, die eine Abbildung von Welt- in Bildkoordinaten entsprechend folgender Gleichung liefert: P' = P * T
Bild: Transformationsmatrix
und damit: T = P-1* P' Dabei ist T die gesuchte Transformation, P eine Matrix aus vier bekannten RaumkoordinatenPunkte P, (x1,y1,z1,l ) P2 (x2,y2,z2,1 ) P3 (x3,y3,z3,1 ) P4 (x4,y4,z4,1 )
28
und P' ist eine Matrix mit den korrespondierenden Bildkoordinaten P’1 (nx1*w’,ny1 *w' ,i1 *w',w1') P'2 (nx2*w’ ,ny2 *w' ,i2*w',w2') P'3
(nx3*w',ny3*W’,i3*w'’,w3’)
P'4 (nx4*w',ny4*w',i4*w',w4').
Dabei können in P die w-Komponenten gleich „1" gesetzt werden, in P' dagegen müssen die w'-Komponenten erst bestimmt werden; es sind jeweils nur nx, ny und i bekannt, nicht aber w'. Die so ermittelte Matrix enthält noch vier Unbekannte ( wl' , w2' , w3' , w4' ). Da die Transformationsmatrix 16 Elemente (4 x 4) enthält, wären zu deren Ermittlung vier Punkte mit je vier bekannten Koordinaten nötig. Die w'-Komponenten der vier Bildpunkte sind jedoch unbekannt, es fehlen also vier Bestimmungsstücke. Weil ein konstanter Faktor, der allen Matrixelementen gemeinsam ist, keine Rolle spielt, reichen drei weitere Bestimmungsstücke. Zur Bestimmung der Matrix muss also ein weiterer Punkt P5 (x5, y5, z5 ,1) herangezogen werden, der in P'5 (nx5 * w', ny5 * w' , i5 * w' , w5' ) übergeht. Es muss gelten: P'5 = P5 * T Da nur die Verhältnisse der wl' bis w4' eine Rolle spielen, kann w5' frei gewählt werden (hier w5' = 1). Daraus ergeben sich vier Gleichungen für w1' bis w4'. Durch lösen dieses Gleichungssystems lässt sich die Transformationsmatrix vollständig bestimmen. (Kapitel 4.2.1 nach /8/)
29
4.2.2 Fazit: Die strukturierte Beleuchtung dient dazu möglichst viele Hell-Dunkel-Übergänge unverwechselbar und 100%-ig zuordenbar zu schaffen. An jedem Hell- Dunkelübergang wird über die Triangulation die Höhe der daraufliegenden Punkte (z-Koordinate) bestimmt, indem der Abstand der projizierten Linie von der ungebrochenen Linie ( A ) mit dem Projektionswinkel φ ins Verhältnis gesetzt werden. Folgende Abbildung verdeutlicht dies noch einmal:
Kamera Projektor ProjektionsWinkel ϕ
Höhe Z
Abstand der projizierten Linie A Formal ergibt sich folgender Zusammenhang: cos ϕ =
A , Z
und damit:
Z=
A cos ϕ 30
4.3 Der Laserscanner nach dem Triangulationsprinzip Es gibt auf dem Markt Laserscanner welche nach dem Prinzip der Lichtlaufzeitmessung (Kap. 3.2.3.1 bzw. 4.1) arbeiten und Scanner nach dem Prinzip der Triangulation bzw. Laserstreifentriangulation. Wobei letztere häufiger anzutreffen sind.
Bilder: INTECU GmbH; Modell: CyLan® 701, rechts: Prinzipzeichnung
Funktionsweise: Ein Laser Dioden- und Streifengenerator wird verwendet, um eine Laserzeile auf das Objekt zu projizieren. Die Zeile wird in einem Winkel zwischen Kamera und Projektor betrachtet, so dass Höhenschwankungen im Objekt als Änderungen in der Form der Zeile betrachtet werden können. Die entstehende Abbildung des Streifens ist ein Profil, das die Form des Objekts enthält.
Prinzip des Laserscannens; Lichtschnitt und Kameraabbild am prismatischen Körper
31
Bild: Lichtschnitt und CCD-Abbild eines Zylinders
Bild: mehrere Lichtschnitte sind eingezeichnet, rechts: Abbild auf CCD-Chip
Obige Abbildungen stellen die Funktionsweise eines Laserscanners schematisch dar. Beim Scannen wird der zu scannende Bereich durch einen Linienlaser beleuchtet. Das Abbild der durch die Strahlen beleuchteten Bereiche wird über ein optisches System, welches wiederum aus Spiegeln, Prismen oder Linsen bestehen kann, von einem CCD-Sensor oder CCD-Chip aufgenommen und digital in Grau- oder Farbwerten gespeichert. Derzeit übliche Auflösungen sind bis zu 1280 x 1000 Bildpunkte, die von einem Chip erfasst werden können. Die einzelnen Lichtschnitte werden im Speicher des Rechners abgelegt und anschließend wieder als 3D-Modell kontinuierlich zusammengefügt. Das Ergebnis ist die Punktewolke, in der jeder auf dem CCD-Chip abgebildete Punkt, mit seinen x,y,z Koordinaten räumlich beschrieben ist. Der Lichtschnittsensor ist eine abgewandelte Art der Triangulationstechnik. Dieses Verfahren nutzt die Triangulation, bzw. die Anordnung von Kamera und LASER unter einem Winkel, dem Triangulations- oder Vergrößerungswinkel. (Die genaue Beschreibung der Triangulation in Kapitel 4.2.1.)
32
5. Weiterverarbeitung und Anwendungen
Rückblick: Als optisches Digitalisieren bezeichnet man den Prozess der dreidimensionalen Abbildung eines realen Objektes im Computer. (Bilder (a), (b) zeigen ein mögliches Verfahren. Als Ergebnis erhält man eine Menge von Einzelpunkten Æ die Punktewolke (c). Um diese weiterzuverarbeiten, d.h. technisch nutzen zu können beispielsweise im CAD, muss die Punktewolke zu Flächen oder Volumen zusammengeführt werden. Dazu wird mittels speziell dafür geeigneter Software ein vollständig geschlossener Polygonzug erzeugt (d).
Doch bevor man dazu übergehen kann Polygonzüge und Volumen zu erzeugen müssen die Punkte und Punktewolken, welche beispielsweise aus einem Zwei-Kamera-System stammen oder nacheinander (in mehreren Einzelansichten) aufgenommen wurden, in ein einheitliches Koordinatensystem übertragen werden. Æ Matching
5.1 Das Matching Unter Registrierung oder Matchen versteht man das Auffinden der Transformationen, die mehrere Datensätze passend zueinander in ein gemeinsames Koordinatensystem ausrichten.
33
5.1.1 Stereo Matching -bei Systemen mit zwei parallelen KamerasDie Suche nach der richtigen Übereinstimmung eines Punkts wird als Korrespondenzroblem bezeichnet und ist einer der zentralen und schwierigsten Teile des Stereomatchings. Mehrere Algorithmen wie die Korrelationsmethode, die Korrespondenzmethode oder die Phasenunterschiedsmethode, wurden herausgegeben um die Ungleichheit zwischen Abbildungen zu berechnen. Wenn ein einzelner Punkt sich in beiden Stereoabbildungen befindet und der relative Zusammenhang zwischen den Kameras bekannt ist, so können die dreidimensionalen Weltkoordinaten des Punktes berechnet werden. Für ein gegebenes Paar Stereoabbildungen und die bekannten Kursparameter der Kameras wird angenommen, dass diese entsprechende Punkte auf den epipolaren Zeilen sind. Da eine parallele Kameraausrichtung bei diesem Projekt verwendet wird, sind die epipolar Zeilen die Scanlinien in beiden Abbildungen.
Linkes Bild
rechtes Bild
Die folgende Gleichung wird verwendet für den matching Algorithmus:
Es wird nach korrespondierenden Bildinformationen gesucht. Der erste Schritt ist in der Stufe n mit niedriger Auflösung gemacht (hier 32x32 Pixel). In der nächsten Stufe n-1 wird die Auflösung erhöht (64x64 Pixel). Wieder trägt die für die Stufe n -1 berechnete Ungleichheitslandkarte zur Stereoauswertung der Stufe n -2 bei, und dieser Prozess wird solange wiederholt, bis die Ungleichheitslandkarte auf ein Minimum reduziert ist. Wenn kein entsprechender Punkt für einen Punkt in der linken Abbildung gefunden werden kann, wird die Information von der Pyramidenebene oben verwendet, um eine durchschnittliche Ungleichheitsinformation für diesen Punkt zu bekommen.
34
Resultat: 3D-Modell:
Alle Abbildungen von /19/ Stereo Vision
35
5.1.2 Matching von mehreren Teilansichten
Bil der : Au di TT, bearbeitet mit PolyWorks IMEdit und PolyWorks IMAlign, rechts: zusammengeführtes Volumenmodell
In unserer konkreten Anwendung sind die zu registrierenden Datensätze (Punktewolken) die unterschiedlichen Teilansichten eines Objektes. Aus Gründen der Einfachheit und Effizienz wird in vielen Fällen die Registrierung der unterschiedlichen Ansichten auf das paarweise Matchen benachbarter überlappender Ansichten zurückgeführt. Die paarweise Registrierung unterteilt man üblicherweise wiederum in zwei Teilschritte: Da man das Registrierungsproblem gewöhnlich als Optimierungsproblem formuliert, ist es in einem ersten Schritt notwendig, eine gute Startposition für die Optimierung, d. h. eine grobe Ausrichtung der Teilansichten zu finden. Erst nach dieser Grobregistrierung kann in einem zweiten Schritt dann die Optimierung oder Feinregistrierung durchgeführt werden. Durch ein solches Zweischrittverfahren kann sichergestellt werden, dass das Optimierungsverfahren im hochdimensionalen Parameterraum zu einer vernünftigen Lösung konvergiert. Insbesondere bei geschlossenen Objekten wird durch das paarweise Matchen ein Teil der Information verschenkt, sodass es durch Fehlerakkumulation zu einem Spalt im zusammengesetzten Objekt kommen kann. Daher ist bei rundum vermessenen Objekten in jedem Fall eine Strategie zur Vermeidung akkumulierter Fehler notwendig. Eine solche globale Feinjustierung muss nicht notwendigerweise auf einer Optimierung beruhen.
5.1.2.1 Grobjustierung Die Grobregistrierung zweier Ansichten lässt sich am einfachsten manuell durchführen, entweder indem man die Datensätze mit Hilfe eines entsprechenden Visualisierungstools am Bildschirm zueinander ausrichtet (z. B. PolyWorks von InnovMetric Software) oder indem mindestens drei korrespondierende Punkte in den Datensätzen angewählt werden. Nimmt man es in Kauf, das Messobjekt während der gesamten Messung nicht relativ zu seiner Unterlage zu bewegen, so kann man die relative Bewegung zwischen Sensor und Objekt explizit aufzeichnen; entweder indem man das Objekt auf einen Drehteller mit Verschiebeeinrichtung stellt und damit die Bewegung des Objektes zu einem feststehenden Sensor ermittelt oder indem man das Objekt fest auf den Boden stellt und die Position des Sensors bei den Einzelaufnahmen über eine getrennte Einrichtung (Roboter, Positionssensor) bestimmt. Am einfachsten wird die softwaretechnische automatische Grobregistrierung, wenn auf das zu vermessende Objekt Marken angebracht werden (Passmarken), die in den Sensordaten der 36
verschiedenen Ansichten wieder gefunden werden können. Wählt man eindeutige Marken, so ist die Zuordnung der Marken in den verschiedenen Ansichten trivial und die Hauptarbeit fällt der genauen Detektion dieser Marken im Videobild zu. Dieser Ansatz wird in der Photogrammetrie verfolgt. Wählt man sehr einfache, dafür aber mehrdeutige Marken wie z. B. Kreuze, so vereinfacht dies zwar die Detektion der Marken in den einzelnen Videobildern, die Zuordnung dieser Marken wird jedoch umso schwerer. Um das Zuordnungsproblem zu lösen, können Clustering-Methoden (verallgemeinerte Hough-Methoden) eingesetzt werden [Rit96, SKB82]: durch beliebige Zuordnung von 3 Punkten aus dem ersten Datensatz zu 3 Punkten mit passenden Abständen im zweiten Datensatz, kann auf die richtige Transformation zwischen den Datensätzen zurückgeschlossen werden. Um dabei jedoch nicht an der kombinatorischen Komplexität zu scheitern, ist es wichtig, die Anzahl der Marken klein zu halten. Angebrachte Marken bieten jedoch auch keinen Ansatz, vom optischen 3D-Sensor erhaltene Daten mit auf andere Weise gewonnenen Daten zu registrieren (extrahierte Isoflächen, CADDaten etc.). Außerdem können nicht auf allen Messobjekten Marken aufgebracht werden. Bei der Vermessung von Kunstgegenständen ist dies z. B. nicht zulässig. Extrahiert man jedoch Objekteigene Merkmale aus den Videobildern, so kann man auf das explizite Anbringen von Marken verzichten. Typische Merkmale, die aus Videobildern extrahiert werden, sind Ecken und Kanten. Auf diese Weise lässt sich ein binäres Bild von Merkmalen erzeugen. Aus diesem Binärbild können nun mit Hilfe von Hough-Tabellen strukturelle Merkmale wie Linien oder Kreise in parametrisierter Form abgeleitet werden. Die Zuordnung dieser Merkmale zwischen den zu registrierenden Datensätzen geschieht nun wiederum durch Hough-Tabellen oder durch so genannte Prediction-Verification Verfahren. Genauere Resultate erhält man, wenn man nicht alle Datenpunkte auf einmal betrachtet, sondern zunächst versucht, spezielle Anordnungen von Punkten wie Flächen, Kanten oder Kammlinien zu extrahieren. In der Praxis haben sich jedoch alle automatischen merkmalsbasierten Verfahren als zu unzuverlässig erwiesen, sodass alle bekannten kommerziellen Systeme auf interaktive Lösungen zurückgreifen.
5.1.2.2 Feinregistrierung Bei der Feinregistrierung wird das Matchingproblem als Optimierungsproblem formuliert. Es werden nun nicht mehr in erster Linie Merkmale mit großem Aufwand einander zugeordnet und daraus eine Transformation bestimmt, sondern es wird nur noch eine vorgegebene Energiefunktion nach den Parametern der gesuchten Transformation minimiert. Als Energiefunktion wählt man i. A. die Energie der einen zu registrierenden Fläche im Potentialfeld der anderen Fläche. In den meisten Veröffentlichungen ist das Potentialfeld einer Fläche im Wesentlichen durch das Quadrat des Abstandes zum nächsten Oberflächenpunkt gegeben. Aus dem Vorhaben, die Energie zu minimieren, hat sich ein eleganter und effizienter Algorithmus abgeleitet, der auf die separate Berechnung des Potentialfeldes im gesamten Raum verzichten kann, der so genannte Iterated-Closest-Point-Algorithmus (ICP). Dieser Algorithmus hat sich in der Praxis als Lösung für die Feinregistrierung durchgesetzt.
37
5.1.2.3 Netzrekonstruktion Üblicherweise werden zur Rekonstruktion glatter Flächen aus 3D-Messdaten Tensorproduktflächen direkt an die gemessene Punktwolke gefittet (Flächenrückführung). Derartige Verfahren verlangen jedoch viel interaktive Kontrolle durch den Benutzer. Für einige Anwendungen wie den „3D-Kopierer" und Virtual Reality ist solch ein Aufwand jedoch überflüssig. Hier genügt die Erzeugung von Netzen ebener oder gekrümmter Dreiecke. In der Tat sind Tensorproduktflächen nur für „echtes" Reverse Engineering notwendig, d. h. dort, wo kein Unterschied in der Handhabung digitalisierter und synthetischer Flächen erwünscht ist. Die Netzrekonstruktionsverfahren können jedoch auch als Vorverarbeitungsstufe genutzt werden, um den Aufwand bei der Flächenrekonstruktion zu verringern und die Ergebnisse zu verbessern. Die bekannten Verfahren zur Erzeugung von Dreiecksnetzen lassen sich hinsichtlich der verarbeiteten Ausgangsdaten in zwei Klassen einteilen: Flächenrekonstruktion aus ungeordneten Punktwolkendaten und aus Rasterdaten (Tiefenbildern). Die meisten Veröffentlichungen gehören zur ersten Klasse. Hierbei werden die Punktkoordinaten aller Messungen in einer einzigen ungeordneten Liste zusammengefasst. Die Objekttopologie wird allein daraus rekonstruiert. Die topologische Ordnung der ursprünglichen Pixelmatrizen bleibt unberücksichtigt. Der Vorteil dieser Verfahren liegt in ihrer Flexibilität. Sie sind nicht nur auf die Daten flächenhaft messender Sensoren, sondern auch auf Punktsensordaten anwendbar. Punktwolkenverfahren sind jedoch sehr rechenaufwendig und fehleranfällig, d. h. die erzeugten Flächen stimmen nicht immer mit den Erwartungen des Anwenders überein. Bei Objekten mit komplizierterer Topologie als die einer Kugel ist manuelle Nachbearbeitung notwendig. Inzwischen wurden diese Verfahren meist durch volumetrische Ansätze ersetzt. Diese berechnen aus den Punktwolkendaten eine dreidimensionale Dichtefunktion und approximieren die Objektoberfläche durch eine Fläche konstanter Dichte (Isofläche). Bei der Approximation werden verrauschte Daten außerdem automatisch geglättet, allerdings mit den üblichen Nachteilen solcher Verfahren (z. B. Kantenverrundung). Eine qualitativ hochwertige Glättung fehlerhafter Messungen ist in der Regel nur durch redundante Daten möglich, d. h. durch mehrfache Messung der gleichen Fläche. Diese Volumenverfahren funktionieren nicht inkrementierend, d. h. neue Messwerte können nicht nachträglich hinzugefügt werden. Von Turk und Levoy [TL94] wurde das Mesh-Zippering-Verfahren zur Verschmelzung von Dreiecksnetzen vorgestellt. Die Dreiecksnetze der verschiedenen Messungen werden im Überlappbereich aufgelöst, bis sie nur noch in schmalen Randbereichen überlappen. Diese Ränder werden dann miteinander verknüpft. Die Messwerte im Überlappbereich werden bei der Flächenfilterung berücksichtigt, die eine Mittelung zwischen den Messpunkten der verschiedenen Messungen durchführt. Die Filterwirkung ist also auf den Überlappbereich beschränkt. Dadurch können zwar Kalibrier- und Justierfehler geglättet werden, andere Messfehler wie Sensorrauschen und Aliasing-Effekte jedoch nur teilweise. Für eine vollständige Glättung der Flächen sind zudem sehr viele überlappende Tiefenbilder notwendig. Anschließend ist es möglich durch Entfernen der überlappenden Bereiche und Addition der Wolken einen vollständigen 3D-Datensatz z.B. zur Weiterverarbeitung in einem CAD-System zu erzeugen.
38
5.1.3 Beispiele kommerzieller Software zum Matchen IMMerge - Generieren von Polygon-Flächen Modul zur Berechnung von Polygonnetzen aus Punktewolken. Wählbarer Punktabstand für die Netzberechnung. Adaptive Netze durch toleranzabhängige Reduktion. Glättungsfilter mit wählbarem Filterradius. Speicherung in verschiedenen Formaten.
IMAlign - Modul zum Matching von Punktewolken IMAlign ist ein eigenständiges Programm-Modul zur optimierten Ausrichtung von Einzelpunktewolken in ein gemeinsames Koordinatensystem. Einzelne, geordnete Punktewolken von optischen Digitalisiersystemen können direkt in PolyWorks/IMAlign eingelesen werden. Vorraussetzung ist dabei eine geordnete Struktur der Messpunkte in Zeilen- und Spaltenform Mit einem optimierten Best-Fit Algorithmus können Datensätze in wenigen Sekunden aufeinander ausgerichtet werden. Die Qualität der Ausrichtung lässt sich mit Farbdarstellungen der Abweichungen kontrollieren. Unter Berücksichtigung der Digitalisierrichtung werden Punkte in Überlappbereichen entfernt. Unterstützte Importformate: Innovmetric PIF-Format, Breuckmann, Steinbichler/COMET, GOM/ATOS, Minolta Vivid, Cyberware Scanner, Vitronic Scanner, Hymarc Scanner.
IMEdit - Editieren von Polygon-Flächen Modul zum Editieren von Polygonnetzen. Schließen von Löchern und Überprüfen der Topologie. Beziér-Hilfsflächen zur Glättung und Veränderung von Polygonnetzen. Rekonstruktion von ebenen Flächen und Kanten. Beschneiden und Spiegeln an ebenen Flächen. Glätten von Polygon-Flächen. Speichern von Bezier-Flächen und Kurven im IGES Format.
5.2 Anwendungsbeispiele 5.2.1 Optisches Messen Messverfahren Ein wichtiges Kriterium für die Qualität in der industriellen Fertigung ist die Einhaltung von geometrischen Maßen. Somit ergibt sich die Notwendigkeit, Werkstücke exakt zu vermessen. Um neben Länge und Breite auch die Tiefe zu erfassen, werden noch häufig mechanische Koordinatenmessmaschinen eingesetzt, die das Werkstück Punkt für Punkt abtasten. Das
39
erfordert jedoch lange Messzeiten und ist nur bei harten und formstabilen Prüflingen einsetzbar. Hier kommen heute in zunehmendem Maße berührungslos arbeitende 3-D-Messverfahren zum Einsatz. In Abhängigkeit von der Form und der Gestalt des Messobjekts und den messtechnischen Anforderungen kommen unterschiedliche optische Messtechnologien zum Einsatz.
5.2.2 Qualitätssicherung
Bild: Vergleich der CAD-Daten mit digitalisiertem Serienmodell
5.2.3 3D-Digitalisieren 3d digitalisieren / Anwendungen: • • • • • •
Produktentwicklung, Rapid Prototyping, Qualitätskontrolle, Archivierung Schnelle Digitalisierung von Modellen, Exponaten, Bauteilen, Werkstücken, etc Exakte Erfassung von Freiformflächen durch hohe Punktedichte Vermessung von Objekten und Oberflächen aus den verschiedensten Materialien Berührungsloses Vermessung von Objekten Flächenbezogener Soll/Ist-Vergleich im Rahmen der Qualitätssicherung
40
5.3 ATOS, der Digitalisierer von der Firma GOM ATOS Standard: Wird auch im Bildverarbeitungslabor der Fachhochschule Reutlingen eingesetzt. Bild: ATOS STANDARD und ATOS II , von Firma GOM
Im ATOS-Meßkopf sind eine Projektionseinheit und zwei CCD-Kameras integriert. Die folgenden Varianten sind verfügbar: Der ATOS-Standardsensor deckt Messvolumina von 100 x 80 x 80 mm3 bis 350 x 280 x 280 mm3 ab. Der ATOS II (Abb. unten) Volumina von 100 x 80 x 80 mm3 bis 1 200 x 960 x 960 mm3. Es handelt sich dabei jeweils um die Größe der Teilansichten.
Messablauf mit ATOS STANDARD: Zur Vermessung komplexer Objekte werden zunähst Referenzmarken auf das Objekt aufgebracht, deren Koordinaten mit Hilfe der Photogrammetrie bestimmt werden (s. u.). Diese Marken definieren somit das Objektkoordinatensystem in den einzelnen Objektbereichen. Erfasst man nun mit dem auf einem Stativ frei im Raum positionierbaren Sensor die einzelnen Ansichten (Abb. 4), so werden diese über die Referenzmarken in das Objektkoordinatensystem transformiert. Bei der Aufnahme der Ansichten ist darauf zu achten, dass jeweils mindestens drei Marken in beiden Kameras gleichzeitig abgebildet werden. Ihre 3D-Koordinaten werden im Sensorkoordinatensystem bestimmt und in das Globalkoordinatensystem transformiert. Mit derselben Transformationsvorschrift erfolgt dann das Einpassen aller Oberflächenpunkte in das Objektkoordinatensystem. Die Messzeit für eine Ansicht, d. h. für 1280 × 1024 Messpunkte, beträgt ca. 7 Sekunden. Für die Digitalisierung der kompletten Außenkontur eines 1:1-Fahrzeuges benötigt man ca. sechs Stunden inklusive Aufbereitung der Daten. Der Messfortschritt ist von Ansicht zu Ansicht auf dem Monitor sichtbar. Details, die zunächst nicht erfasst wurden, können erkannt und nachgemessen werden. Das System erkennt Störungen wie z. B. Umgebungsschwingungen eigenständig und wiederholt die Messung ggf. automatisch. Das Messvolumen kann von dem Benutzer auf individuelle Anwendungen angepasst werden. Mit ein und demselben Sensor kann ein 1:1Fahrzeug, und nach einer ca. 15-minütiger Umbaupause eine kleine Komponente, wie z. B. ein Hebel oder Schalter digitalisiert werden. Photogrammetrische Bestimmung der Referenzmarken 3D-Koordinaten von Punktaufklebern werden mit der Photogrammetrie hochpräzise und automatisch bestimmt. Dazu werden die Punktmarken zunächst aufgeklebt. Mit einer
41
digitalen Messkamera wird das Objekt aus unterschiedlichen Richtungen photographiert und die Bilder mittels einer PCMCIA-Karte auf den Auswerte-Rechner überspielt. Effiziente Algorithmen der digitalen Bildverarbeitung und der mathematischen Ausgleichsrechnung ermöglichen die automatische Berechnung der Objektkoordinaten. Allein zum Einschwenken in das Objektkoordinatensystem sind manuelle Eingaben der Ausrichtgeometrien erforderlich. Weiterverarbeitung der Messdaten-Flächenmodellierung Die Weiterverarbeitung der riesigen Messdatenmengen stellte die CAD-Flächenmodellierer bisher vor unlösbare Probleme. So konnte das Potential der neuen Meßmethoden vielfach in der Konstruktion nicht umgesetzt werden. Für den ATOS stehen seit einiger Zeit verschiedene Interfaces zur Verfügung, mit deren Hilfe die Messdaten in CAD-Programme wie ICEM-Surf, CATIA, Paraform und SURFACER in ihrer ursprünglichen Detailtreue und Ortsauflösung eingelesen und effektiv verarbeitet werden können. Der Konstrukteur ist nun nicht mehr auf die vorausschauende Arbeitsweise der Messtechniker angewiesen, sondern kann sich direkt aus der hochaufgelösten Punktewolke die Schnitte errechnen lassen, die für die Konstruktion erforderlich sind. Ihm steht die komplette Datenbasis zur Verfügung. Die Schnitte können achsparallel, entlang von Splines oder Radien berechnet werden.
5.4 Beispiele für die Anwendung von PolyWorks Software 1. Umwandlung von Punktewolken in Polygon-Netze und Datenaufbereitung zum Fräsen Typischer Ablauf einer Datenaufbereitung mit PolyWorks/Modeler am Beispiel eines Fahrzeugmodells. Digitalisierung eines Clay-Modells mit einem optischen Sensorsystem. Mit einem Sensorbildfeld von etwa 500 mm sind dies etwa 25 Aufnahmen mit etwa 1 Million Punkte im Abstand 0.65 mm für eine Fahrzeughälfte. Einlesen der Punktewolken in PolyWorks/IMAlign. Wenn noch keine Ausrichtung der Punktewolken vorliegt, können die Ansichten in ein gemeinsames Koordinatensystem ausgerichtet werden (Matching). Mit PolyWorks/IMMerge wird aus den überlappenden Punktewolken ein Polygonnetz erzeugt. Die gewünschte Dreiecksgröße wird als Parameter vorgegeben und entspricht im Allgemeinen dem Punkteraster. In IMMerge kann zusätzlich ein Radius zur Vorfilterung der Punktewolke und ein toleranzabhängiger Kompressionsfaktor angegeben werden. Man erhält damit ein reduziertes, geglättetes Polygonnetz. In PolyWorks/IMEdit wird das Polygonnetz anschließend nachbearbeitet. Verbleibende Löcher lassen sich automatisch oder mit Bézier-Hilfsflächen schließen. Durch Definition einer Symmetriefläche in der Fahrzeugmitte läßt sich das Polygonnetz sauber trennen und spiegeln um einen Gesamtdatensatz zu erstellen. Mit diversen CAM-Systemen lassen sich aus Polygonnetzen Fräsbahnen generieren. 42
6. Literaturverzeichnis 1. Malz, R.: Codierte Lichtstrukturen für 3-D-Meßtechnik und Inspektion. Dissertation, In: Berichte aus dem Institut für Technische Optik, Bd. 14, Universität Stuttgart, 1992. 2. H. Gärtner, P. Lehle, H. J. Tiziani: Dynamische Online 3-D-Konturerfassungen. Broschüre zur Abschlusspräsentation des vom BMBF geförderten Verbundprojekts 3D Objektvermessung auf kleinere Entfernungen, S.73-84, VDI Technologiezentrum Physikalische Technologien, Düsseldorf, 1995 3. H. Gärtner, P. Lehle, H. J. Tiziani: New, highly efficient, binary codes for structured light methods. Proc. Three-Dimensional and Unconventional Imaging for Industrial Inspection and Metrology, Philadelphia (USA), SPIE 2599, 1995. 4. H. Gärtner, P. Lehle, H. J. Tiziani: Topografieerfassung mit der 3D-Laserkamera. In: Warnecke, H.-J. (Hrsg.) Die Montage im flexiblen Produktionsbetrieb. Berlin Heidelberg: Springer-Verlag, 1996, S. 291-302. 5. Karl Kraus, Photogrammetrie, Band1: Grundlagen und Standardverfahren, Ferd. Dümmler Verlag Bonn 6. B. Bundschuh, Laseroptische 3D-Konturerfassung, Vieweg Verlag 7. Terry Wohlers, Wohlers Associates, Inc. The Challenge of 3D Digitizing 8. Mirko Stadel, Diplomarbeit, Verbesserung der 3D-Bildaufnahme mit strukturierter Beleuchtung durch den Einsatz von zwei Kamerasystemen, FH-Reutlingen 9. Michael Scheffler, Diplomarbeit, Entwurf und Implementierung eines zeitoptimierten Verfahrens zur 3D-Bildaufnahme mit strukturierter Beleuchtung, FH-Reutlingen 10. Dirk-Alexander Sennst, Diplomarbeit, 3D-Visualisierung anatomischer Modelle und Integration der zugrunde liegenden räumlichen Bildfolgen, FH-Heilbronn, Studiengang Medizinische Informatik 11. Guido Hansen, Diplomarbeit, Konzeption und Realisierung eines Sensorsystems zur dreidimensionalen Erfassung anthropometrischer Daten Universität Kaiserslautern, Fachbereich Informatik 12. Lars Ferner, Diplomarbeit, Ein lernendes System zur Klassifikation kleiner Objekte auf Basis adaptiv gewählter Laserscans 13. Wolfgang Niem, Robust and fast modelling of 3D natural objects from multiple views, Universität Hanover 14. Jean-Christophe Nebel and Alexander Sybiryakov, RANGE FLOW FROM STEREOTEMPORAL MATCHING: APPLICATION TO SKINNING, University of Glasgow, Computing Science Department
43
15. Hartmut Surmann, Kai Lingemann, Andreas Nüchter, Joachim Hertzberg, Aufbau eines 3D-Laserscanners für autonome mobile, GMD- Forschungszentrum Informationstechnik GmbH 16. Joao Filipe Ferreira, Jorge Lobo, Jorge Dias, Tele 3D- Developing a Handheld Scanner Using Structured Light Projection, University of Coimbra, Portugal 17. Klaus-Peter Proll, Jean-Marc Nivet, Fringe projection using the „coded light approach", UNIVERSITÄT STUTTGART, INSTITUT FÜR TECHNISCHE OPTIK 18. OLYMPUS OPTICAL CO., LTD. Tokyo (JP), EP 1 217 328 A1, EUROPEAN PATENT APPLICATION, Application number: 01130122.3 19. Vienna University of Technology, Institute of Computer Aided Automation Pattern Recognition and Image Processing Group, Stereo Vision Æ http://www.prip.tuwien.ac.at/Research/3DVision/index.html 20. Gerd Häusler und Stefan Karbacher, Optische 3D-Sensoren und Oberflächenrekonstruktion, Universität Erlangen, Lehrstuhl für Optik 21. Armbruster, K. Verfahren zur Aufnahme und Vermessung von Körpern, Symposium Bildverarbeitung, Technische Akademie Esslingen 22. Encarnaco, J. , Strasser, W. , Computer Graphics, Oldenburg Verlag München, 1986
44