DE60202198T2 - Vorrichtung und verfahren zur erzeugung von dreidimensionalen positionsdaten aus einem erfassten zweidimensionalen bild - Google Patents

Vorrichtung und verfahren zur erzeugung von dreidimensionalen positionsdaten aus einem erfassten zweidimensionalen bild Download PDF

Info

Publication number
DE60202198T2
DE60202198T2 DE60202198T DE60202198T DE60202198T2 DE 60202198 T2 DE60202198 T2 DE 60202198T2 DE 60202198 T DE60202198 T DE 60202198T DE 60202198 T DE60202198 T DE 60202198T DE 60202198 T2 DE60202198 T2 DE 60202198T2
Authority
DE
Germany
Prior art keywords
image
field
marks
reflectivity
image plate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60202198T
Other languages
English (en)
Other versions
DE60202198D1 (de
Inventor
Michael John PETTY
Stephen Phillip PETTY
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Control Systems Ltd
Original Assignee
Industrial Control Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Control Systems Ltd filed Critical Industrial Control Systems Ltd
Publication of DE60202198D1 publication Critical patent/DE60202198D1/de
Application granted granted Critical
Publication of DE60202198T2 publication Critical patent/DE60202198T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • G01S17/875Combinations of systems using electromagnetic waves other than radio waves for determining attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/783Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
    • G01S3/784Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf Vorrichtungen und Verfahren zum Bestimmen ein-, zwei- und dreidimensionaler Positionsdaten aus einem zweidimensionalen Bild und insbesondere, aber nicht ausschließlich, auf Vorrichtungen und Verfahren zum Bestimmen von dreidimensionalen Positionsdaten aus einem zweidimensionalen erfassten Bild eines mindestens zwei optische Marken umfassenden Sehfelds.
  • Hintergrund der Erfindung
  • Dem Stand der Technik entsprechende Kameras enthalten ein lichtempfindliches Medium in Form eines einlegbaren Films, auf dem das von der Kamera erfasste Bild gebildet wird. Als allgemeine Regel gilt, je größer das Filmformat, desto feiner die Qualität des Bilds. Solche Filme nutzen einen chemischen Prozess, um das Bild zu bilden, wobei das Bild auf ein Hardcopy-Format, z. B. Papier, fixiert wird. Solche Filme erzeugen ein Bild als Gradient, wobei das Bild nicht von einer Anzahl identifizierbarer und messbarer Bildquanten gebildet wird. Aus diesem traditionellen chemischen Filmformat wurden Halbleiterarrays entwickelt, um Bilder über das Messen von Licht und das Erzeugen einer Vielheit von digitalisierten Signalen zu erfassen. Bekannte Beispiele solcher digitaler Bildplatten auf dem Stand der Technik sind CCD-(Charged Couple Device) und CMOS-(Complementary MOS)Arrays.
  • CCD- und CMOS-Arrays umfassen eine Vielheit lichtempfindlicher Elemente, die jeweils ein Datenpixel generieren. Jedes Datenpixel wird dann mit benachbarten Datenpixeln kombiniert, um ein Bild des gesamten Sehfelds zu erzeugen. Jedes Pixel hat daher eine Pixelgröße messbarerer physikalischer Dimensionen, die bestimmt werden können. Diese physikalischen Dimensionen können mit bekannten Positionen im Sehfeld in Beziehung gebracht werden.
  • Dem Stand der Technik entsprechende Vorrichtungen und Verfahren haben das CCD-Array genutzt, um Entfernungen zwischen einer Digitalkamera und Objekten in einem Sehfeld genau zu messen. Diese Art der Entfernungsmessung wird in den folgenden Dokumenten zum Stand der Technik beschrieben: GB 2344012, EP 0205175 , DE 42 38 891 , JP 07294216 , JP 08005370 , JP 08094324 , JP 09304055 , DE 197 36 588 , DE 299 21 143 U1 , DE 199 49 838 , JP 08285633 , JP 11094520 , JP 2000121354 , US 6,094,270 . Diese Literaturquellen zum Stand der Technik befassen sich mit dem Messen von Entfernungen von einem Objekt zu einer Bildplatte oder einer Linse, einschließlich Verfahren zum Eliminieren von Informationen mit geringer Zuverlässigkeit.
  • In diesen Dokumenten zum Stand der Technik ist es offensichtlich, dass die Entfernungsmessung unter Verwendung von CCD-Bildplatten und einer in das Sehfeld eingeführten Marke möglich ist. Die CCD ermöglicht die Bestimmung der Pixeldimensionen und die Bestimmung der Eigenschaften der in das Bild eingeführten Marken ermöglicht trigonometrische Vermessungen und Pythagorasberechnungen, um die Entfernung von der Bildplatte zum betrachteten Objekt zu erhalten.
  • EP 0205175 offenbart die Verwendung einer Vielzahl von Kameras um Entfernungsinformationen zu erhalten, die einen Roboterarm mit einem Objekt in Beziehung setzen. Die Bestimmung der Armposition erfolgt als relative Bestimmung zwischen bekannten Punkten und liefert nicht für alle Punkte im Sehfeld einer Kamera Informationen. Es wird außerdem eine Vielheit von Kameras benötigt, um Bildinformationen in mehr als zwei Dimensionen zu liefern.
  • US 6,094,270 befasst sich mit der Echtzeit-Entfernungsmessung. Es wird eine überstreichende Lichtprojektion benötigt und eine Analyse der reflektierten Lichtintensität muss angepasst werden, um Änderungen in den Reflexionseigenschaften einer Oberfläche abhängig von der Wellenlänge des einfallenden Lichts zu berücksichtigen. Eine überstreichende Lichtbewegung muss das gesamte Sehfeld überqueren, um durch eine einfache Entfernungsmessung zu jedem vom Lichtstrahl überstrichenen Punkt Positionsdaten zu diesem Sehfeld zu bestimmen.
  • EP 0145957 A1 offenbart ein Verfahren, in dem die Entfernung zwischen einer Bilderzeugungsoptik und einem Objekt bestimmt wird. Ein Lichtfleck wird auf ein Objekt projiziert, wobei die Lichtquelle eine Blende hat, um einen nicht divergierenden Strahl zu liefern, wobei Durchmesser und Fläche des auf dem Objekt gebildeten Lichtflecks bekannt sind. Das Verfahren beruht darauf, zunächst einen Bezugspunkt zu bestimmen, wobei der Lichtfleck in einer Normalen zur Bilderzeugungsoptik auf die Objektebene trifft. Das Projizieren des Lichtflecks an einem Punkt von Interesse auf dem Objekt führt zu einer Verzerrung des Lichtflecks, abhängig von der Kontur der Objektoberfläche. Eine Korrektur für die Verzerrung zwischen der gemessenen Objektoberfläche und der Normalen wird durch eine Triangulation erhalten. Dieses Verfahren kann nur einen Aspekt der Orientierung der Bildplatte bezüglich der Objektebene ausgleichen, das heißt es kann nur eine Berechnung der Änderung des Neigungs- oder des Schwenkwinkels erfolgen. Das Verfahren erfordert weiter einen Vorinitialisierungs- oder Kalibrationsschritt, bei dem der Bezugslichtfleck in der Mitte des Bilds positioniert werden muss, um die Normalenwerte zu bestimmen. Außerdem muss ein nicht divergierender Strahl verwendet werden, um einen Lichtfleck gleichbleibender bekannter Größe zu projizieren. Da vor einem Messschritt ein Vorinitialisierungsschritt benötigt wird, wird mehr als ein Bilderzeugungsvorgang benötigt, um Entfernungsinformationen zu ermitteln. Außerdem wird eine Vielheit von Messvorgängen benötigt, um dreidimensionale Positionsdaten zum Objekt zu ermitteln, da zu einer gegebenen Zeit immer nur ein Orientierungsaspekt der Bildplatte bezüglich der Objektebene gemessen werden kann. Außerdem muss, um dreidimensionale Positionsdaten zu einer Vielheit von Oberflächenpunkten des Objekts zu ermitteln, mit der Bilderzeugungsoptik über das Objekt gefahren werden. Dies kann weiter eine Verschiebung der Bilderzeugungsoptik relativ zum Objekt umfassen, um die Entfernung zwischen Bildplatte und Objektebene an jedem beliebigen gewählten Punkt von Interesse auf der Objektebene zu ermitteln.
  • EP 0224237 A1 offenbart ein System zur Ortsbestimmung eines Objekts. Das System umfasst einen Näherungssensor zum optischen Abtasten und eine Lichtquelle für die Lichtübertragung an ein Objekt, das mehrere Zielmuster in der Form von Paaren codierter Muster, die optisch gelesen werden können, umfasst. Der Sensor kann von den Zielmustern reflektiertes Licht empfangen, um Funktionen der Zeit und des Winkels des Sensors von den Musterpaaren zu messen, um den Ort des Objekts spezifisch bezüglich des Sensors zu bestimmen. Dieses System ist ein Komparator, wobei Zeit- und Winkelverschiebungsmessungen bestimmt werden, um eine relative räumliche Position des Sensors zum Objekt zu bestimmen. Es werden keine Informationen zur dreidimensionalen Position der Objektoberflächenebene an einem Punkt von Interesse geliefert.
  • US 5,915,033 beruht auf einem Paar Bildsensoren, um den Fehler in der Entfernung zu korrigieren, die in einem eine optische Vorrichtung umfassenden Bilderfassungsmodul erfasst wurde. Der Fehler wird ausgedrückt als ein erfasster Wert und wird korrigiert, indem zum erfassten Wert addiert bzw. von ihm subtrahiert wird. Es wird ein Paar Bilderzeugungsvorrichtungen benötigt.
  • EP 0974811 offenbart ein Verfahren für eine Digitalkamera-Erfassungstechnik für die Verwendung beim Erfassen eines Bilds eines Objekts, typischerweise eines Papierdokuments. Das Verfahren beruht auf der Projektion eines Punktmusters auf das in das Sehfeld der Kamera platzierte Objekt. Das Punktmuster hat eine regelmäßige Anordnung, beispielsweise ein quadratisches Gitter. Wenn das Objekt, auf das die Punkt projiziert werden, eine Ebene umfasst, die parallel zu den Bildplatten der Digitalkamera ist und auf die alle Punkte projiziert werden, bleibt das Punkmuster mit normalen räumlichen Anordnungen proportional zur Entfernung des Objekts von der Kamera bzw. dem Projektor erhalten. Wenn das Objekt, auf das das Punktmuster projiziert wird eine Krümmung enthält, hat die Krümmung die Auswirkung, dass die regelmäßigen Anordnungen des Punktmusters verzerrt werden. Diese Verzerrung des Punktmusters infolge des jeweiligen Reliefs des Objekts wird durch einen Verarbeitungsschritt mit der normalen Anordnung verglichen, um die Krümmung des jeweiligen Objekts zu bestimmen, so dass im Fall der Dokumentenbilderzeugung das erfasste Bild aufbereitet werden kann, um die Aufrollung des Dokuments praktisch zu entfernen und ein Bild des ebenen Dokuments zu erhalten. Es ist eine Anforderung des in EP 0974811 offenbarten Verfahrens, dass alle projizierten Punkte auf das Objekt fallen müssen, von dem ein Bild erzeugt wird. Die projizierten Punkte definieren eine Grenze, die den Bereich des Objekts einschließt, für den die Bildverarbeitung zum Ausgleichen von Nicht-Ebenheit durchgeführt werden kann. Wenn sich ein Teil des abgebildeten Objekts außerhalb dieser Grenze befindet, kann für diesen Bereich keine solche Verarbeitung durchgeführt werden. Es wäre wünschenswert, ein Bildverarbeitungsverfahren zu haben, um räumliche und andere Daten für Bereiche außerhalb des durch das Muster eingegrenzten Bereichs zu ermitteln.
  • Der Stand der Technik lehrt, dass es nicht möglich ist, einfach eine Vielheit von optischen Marken in ein Sehfeld einzuführen, das dann durch eine Bildplatte erfasst wird, wobei die optischen Marken bekannte Projektionseigenschaften haben, um dreidimensionale Positionsdaten zu Objekten und Oberflächen (bei denen es sich um Reflektivitätsbereiche handelt) im Sehfeld durch eine Analyse des zweidimensionalen erfassten Bilds zu gewinnen. Die vorliegende Erfindung löst dieses technische Problem durch Bereitstellung von technischen Vorrichtungen und Verfahren zum Bestimmen ein-, zwei- und dreidimensionaler Positionsdaten, die die Position in der wahren Welt von Reflektivitätsbereichen aus einer Analyse eines zweidimensionalen erfassten Bilds eines Sehfelds beschreiben.
  • Zusammenfassung der Erfindung
  • Ein Zweck der vorliegenden Erfindung besteht darin, ein Verfahren bereitzustellen, zum Bestimmen von Positionsdaten aus einem Sehfeld, indem eine Vielheit von Marken in das Sehfeld eingeführt wird, ein Bild des Sehfelds erfasst wird und die Orientierung der das Bild erfassenden Bildplatte bezüglich einer Vielheit von Reflektivitätsbereichen im Sehfeld bestimmt wird.
  • Ein weiterer Zweck der vorliegenden Erfindung besteht darin, ein Verfahren zum Bestimmen der Orientierung einer Bildplatte zu einer Vielheit von Reflektivitätsbereichen im Sehfeld bereitzustellen.
  • Ein weiterer Zweck der vorliegenden Erfindung besteht darin, eine Menge von Orientierungswerten zu ermitteln, die die Orientierung einer Bildplatte bezüglich einer Vielheit von Reflektivitätsbereichen in einem Sehfeld, das abgebildet wird beschreiben, wobei die Orientierungswerte die Rekonstruktion einer Menge zweidimensionaler oder dreidimensionaler Daten ermöglichen, die die Position von mehr als einem der Reflektivitätsbereiche beschreiben.
  • Die Erfinder haben erkannt, dass durch die Projektion einer Vielzahl von Marken mit bekannten Eigenschaften ein zweidimensionales Bild eines Sehfelds mit den projizierten Marken so erfasst werden kann, dass eine trigonometrische Vermessung durchgeführt werden kann, um eine Menge von Bildplatten-Orientierungswerten zu ermitteln, die die Orientierung der Bildplatte und anschließend jedes Pixels in einem die Bildplatte bildenden Pixelfeld bezüglich jedem der wahren Reflektivitätsbereiche im Sehfeld beschreiben. Dadurch werden Informationen zu jedem Pixel und dem durch das Bild erfassten Bereich des wahren Sehfelds, mit dem jedes Pixel assoziiert ist (Wert des Pixels) geliefert. Durch Anwenden eines Prozesses aus projektiver Geometrie, Vektoranalysis und Trigonometrie auf diese Orientierungswerte können ein-, zwei- und dreidimensionale Positionsdaten bezüglich Reflektivitätsbereichen im Sehfeld ermittelt werden.
  • Die Erfinder haben erkannt, dass auf einer Bildplatte erfasste zweidimensionale fotografische Abbildungen, wobei die Bildplatte ein Feld lichtempfindlicher Elemente umfasst und jedes Element in der Lage ist, ein Datenpixel zu generieren, wenn es mit mindestens einer in das Sehfeld eingeführten Marke kombiniert wird, es ermöglichen, räumliche Positionsdaten für Objekte und Oberflächen im Sehfeld zu bestimmen. Um diese räumlichen Positionsdaten zu erhalten, muss eine Darstellung des Bilds des Sehfelds auf einer quantisierten Bildplatte erzeugt werden, die ein Feld der für die Wellenlänge der Marke empfindlichen Elemente umfasst. Dies ist erforderlich, da die Bestimmung räumlicher Positionsdaten aus dem Bild aus der Kenntnis von Informationen zu den Dimensionen und optischen Eigenschaften jedes Pixels folgt.
  • Die Erfinder haben weiter erkannt, dass die Einführung einer Vielzahl von optischen Marken in ein Sehfeld, wobei jede Marke durch einen Strahl aus Licht oder elektromagnetischer Strahlung erzeugt wird, der bzw. die auf Objekte oder Oberflächen einfällt, bei denen es sich um Reflektivitätsbereiche im Sehfeld handelt, gekoppelt mit der Kenntnis der räumlichen und Winkelverhältnisse zwischen den Strahlen und der Quelle oder dem Ursprung jedes Strahls und
    weiter gekoppelt mit Informationen, die die Position der Bildplatte, auf der ein Bild des Sehfelds und der Marken erfasst wird, mit der Quelle bzw. dem Ursprung jedes Strahls in Beziehung setzen und die Anwendung einer trigonometrischen Vermessung zum Bestimmen einer Menge von Orientierungswerten die Bildanalyse des erfassten zweidimensionalen Bilds ermöglichen, um eine Menge dreidimensionaler Positionsfelddaten zu erzeugen, die die dreidimensionale Position jedes Reflektivitätsbereichs im Sehfeld beschreiben.
  • Gemäß einem ersten spezifischen Verfahren der vorliegenden Erfindung wird ein Verfahren bereitgestellt, zum Gewinnen von Positionsdaten mindestens eines in einem Sehfeld enthaltenen Reflektivitätsbereichs, wobei das Sehfeld eine Mehrzahl von Reflektivitätsbereichen enthält und das Verfahren folgende Schritte umfasst:
    Projizieren mindestens zwei erkennbarer Marken in das Sehfeld, wobei jede Marke durch das Einfallen mindestens eines elektromagnetischen Strahls auf mindestens eine Bezugsebene, die durch das Sehfeld umfasst wird, erzeugt wird, wobei die Bezugsebene mindestens einen Reflektivitätsbereich umfasst, und die Strahlen mindestens einen Ursprung haben; und
    Erfassen eines Bilds des Sehfelds und der Marken auf einer Bildplatte,
    wobei das Verfahren dadurch gekennzeichnet ist, dass es folgende Schritte umfasst:
    Auswählen einer Menge von Strahlenkonfigurationscharakteristiken,
    wobei mindestens ein räumliches Verhältnis bei der Bilderfassung zwischen mindestens einem der Ursprünge der Strahlen und der Bildplatte bestimmt wird,
    Identifizieren von mindestens zwei Marken im erfassten Bild; und
    Verwenden des mindestens einen räumlichen Verhältnisses zum Bestimmen einer Menge von Offset-Werten, die die Bildplatte zu dem Ursprung beziehungsweise den Ursprüngen in Beziehung setzen; und
    Verwenden der Identifizierung der Marken, der Offset-Werte, der ausgewählten Strahlenkonfigurationscharakteristiken und trigonometrischen Berechnungen zum Bestimmen einer Menge von Orientierungswerten, die die Orientierung der Bildplatte zu jedem der ausgewählten Reflektivitätsbereiche im Sehfeld beschreiben, wobei die ausgewählten Reflektivitätsbereiche nicht von der Bezugsebene umfasst werden.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Projektionsgerät zum Projizieren von mindestens zwei erkennbaren Marken in ein Sehfeld bereitgestellt, worin die Marken als Teil eines Bilds des auf einer Bildplatte geformten Sehfelds erfasst werden können, wobei die Vorrichtung Folgendes umfasst:
    Mittel (1108, 1109) zum Projizieren von mindestens zwei erkennbaren Marken (107) in das Sehfeld, wobei jede Marke (107) durch das Einfallen mindestens eines elektromagnetischen Strahls (106) auf mindestens eine Bezugsebene, die durch das Sehfeld umfasst wird, erzeugt wird, wobei die Bezugsebene mindestens einen Reflektivitätsbereich umfasst, wobei die Strahlen (106) mindestens einen Ursprung (1109) haben; und
    Mittel zum Erfassen eines Bilds des Sehfelds und der Marken (107) auf einer Bildplatte (501);
    wobei das Projektionsgerät dadurch gekennzeichnet ist, dass es Folgendes umfasst:
    Mittel zum Auswählen einer Menge von Strahlenkonfigurationscharakteristiken;
    wobei mindestens ein räumliches Verhältnis bei der Bilderfassung zwischen mindestens einem der Ursprünge (1109) der Strahlen (106) und der Bildplatte (501) bestimmt wird;
    Mittel zum Identifizieren von mindestens zwei Marken (107) im erfassten Bild; und
    Mittel zum Verwenden des mindestens einen räumlichen Verhältnisses zum Bestimmen einer Menge von Offset-Werten, die die Bildplatte zu dem Ursprung beziehungsweise den Ursprüngen (1109) in Beziehung setzen; und
    Mittel zum Verwenden der Identifizierung der Marken, der Offset-Werte, der ausgewählten Strahlenkonfigurationscharakteristiken und trigonometrischen Berechnungen zum Bestimmen einer Menge von Orientierungswerten, die die Orientierung der Bildplatte zu jedem der ausgewählten Reflektivitätsbereiche im Sehfeld beschreiben, wobei die ausgewählten Reflektivitätsbereiche nicht von der Bezugsebene umfasst werden.
  • Gemäß einem weiteren Aspekt der vorliegenden Erfindung wird eine Vorrichtung bereitgestellt zum Projizieren einer Vielzahl von Marken in ein Sehfeld, wobei die Marken auf einer Bildplatte erfassbar sind, die ein Feld von Elementen umfasst, deren jedes in der Lage ist, ein Datenpixel zu generieren und wobei das erfasste zweidimensionale Bild konfiguriert ist für die Analyse für die Rekonstruktion einer Menge von ein-, zwei- oder dreidimensionalen Positionsdaten, die die Position der ausgewählten Reflektivitätsbereiche im Sehfeld aus dem erfassten zweidimensionalen Bild beschreiben, wobei die Vorrichtung Folgendes umfasst:
    Mittel (1108, 1109) zum Projizieren von mindestens zwei erkennbaren Marken (107) in das Sehfeld, wobei jede Marke (107) durch das Einfallen mindestens eines elektromagnetischen Strahls (106) auf mindestens eine Bezugsebene, die durch das Sehfeld umfasst wird, erzeugt wird, wobei die Bezugsebene mindestens einen Reflektivitätsbereich umfasst, wobei die Strahlen (106) mindestens einen Ursprung (1109) haben; und
    Mittel zum Erfassen eines Bilds des Sehfelds und der Marken (107) auf einer Bildplatte (501);
    wobei das Projektionsgerät dadurch gekennzeichnet ist, dass es Folgendes umfasst:
    Mittel zum Auswählen einer Menge von Strahlenkonfigurationscharakteristiken;
    wobei mindestens ein räumliches Verhältnis bei der Bilderfassung zwischen mindestens einem der Ursprünge (1109) der Strahlen (106) und der Bildplatte (501) bestimmt wird;
    Mittel zum Identifizieren von mindestens zwei Marken (107) im erfassten Bild; und
    Mittel zum Verwenden des mindestens einen räumlichen Verhältnisses zum Bestimmen einer Menge von Offset-Werten, die die Bildplatte zu dem Ursprung beziehungsweise den Ursprüngen (1109) in Beziehung setzen; und
    Mittel zum Verwenden der Identifizierung der Marken, der Offset-Werte, der ausgewählten Strahlenkonfigurationscharakteristiken und trigonometrischen Berechnungen zum Bestimmen einer Menge von Orientierungswerten, die die Orientierung der Bildplatte zu jedem der ausgewählten Reflektivitätsbereiche im Sehfeld beschreiben, wobei die ausgewählten Reflektivitätsbereiche nicht von der Bezugsebene umfasst werden.
  • Kurze Beschreibung der Zeichnungen
  • Um ein besseres Verständnis der Erfindung zu erreichen und zu zeigen, wie diese ausgeführt werden kann, werden nun, lediglich als Beispiel, spezielle Ausführungsformen, Verfahren und Prozesse gemäß der vorliegenden Erfindung unter Verweis auf die beiliegenden Zeichnungen beschrieben, wobei:
  • 1 eine schematische Darstellung der Gesamtanordnung der Vorrichtung ist, die zum Einführen einer Vielheit von Marken in ein Sehfeld und zum Erfassen eines zweidimensionalen Bilds verwendet wird;
  • 2A ein erstes vordefiniertes Muster optischer Marken zeigt, 2B ein zweites alternatives vordefiniertes Muster optischer Marken zeigt und 2C ein drittes alternatives vordefiniertes Muster optischer Marken zeigt;
  • 3A und 3B Beispiele der Mindestanforderungen an die Marken zeigen, um die Bildplattenorientierung in einer Anordnung "auf der Achse" bzw. "gegenüber der Achse versetzten" Anordnung zu bestimmen;
  • 4 eine schematische Darstellung einer Bildplatten- und Projektionseinheit zeigt, die zwei Lichtstrahlen auf eine Objektoberfläche projiziert, um optische Marken zu erzeugen und weiter die Reflexion und Bilderfassung der erzeugten optischen Marken zeigt;
  • 5 eine schematische Darstellung einer aktiven Bildplatte zeigt;
  • 6A und 6B zweidimensionale Darstellungen eines virtuellen Kegels zeigen, der den auf der Mittelachse zwischen dem Brennpunkt und einem die Bildplatte einer Bilderzeugungsvorrichtung einschließenden Kreis gebildeten x- und z-Pixelwinkel herleitet;
  • 7 eine schematische Darstellung einer Bildplatte und eines Brennpunkts zeigt;
  • 8 eine schematische Darstellung des Blickwinkels der Bilderzeugungsvorrichtung zeigt, wenn sie geneigt ist;
  • 9 eine schematische Darstellung von auf eine Oberfläche projizierten Lichtstrahlen zeigt, die die Ursprungs-Offsets und projizierten Marken zeigt und Informationen zum Bestimmen von x- und z-Pixelgröße, den X-, Y- und Z-Ursprungs-Offsets und der Brennweite liefert;
  • 10 eine externe perspektivische Ansicht einer Projektionseinheit gemäß einer ersten Ausführungsform einer Projektionseinheit zeigt;
  • 11A, B und C eine interne Draufsicht, Endansicht und Seitenansicht einer zweiten Ausführungsform einer Projektionseinheit zeigen;
  • 12 Tabelle 1 zeigt, die eine Musterlaserspezifikation umfasst;
  • 13 Tabelle 2 zeigt, die Herstellerdaten einer Musterkamera aufführt;
  • 14 das Verhältnis Bildplatte-Auftreffebene zeigt und schematisch Neigung, Schwenkung und Verdrehung darstellt;
  • 15 schematisch die Änderung des linearen Pixelwerts mit sich ändernder Bildplattenorientierung zeigt;
  • 16 eine schematische Darstellung der Auswirkung sich ändernden x, y und z auf die mit einem einzelnen Pixel assoziierte repräsentative Objektfläche zeigt;
  • 17 schematisch das Verfahren des Bestimmens von Bildplattenorientierungswerten zur Verwendung bei der Bestimmung der Entfernung von der Bildplatte oder von Messungen der lotrechten Höhe von der Auftreffebene jedes ausgewählten Reflektivitätsbereichs von Interesse zeigt;
  • 18 schematisch die Verfahrensschritte zeigt, um Bildinformationen und kameraspezifische Informationen zu manipulieren, um eine Bestimmung einer Menge von Orientierungswerten auszulösen;
  • 19 schematisch die Verfahrensschritte zeigt, um in das erfasste Bild eingeführte Marken zu identifizieren und zugehörige Fehler zu vermindern;
  • 20 schematisch die Verfahrensschritte zeigt, um Offset-Werte zu bestimmen, die den Offset der Markenursprünge bezüglich der Bildplatte beschreiben, einschließlich der Berücksichtigung des Kameraaufstellfehlers;
  • 21 schematisch die Verfahrensschritte zeigt, um eine Menge von Orientierungswerten zu ermitteln, die die Orientierung der Bildplatte relativ zu einer Vielheit von Reflektivitätsbereichen im erfassten Bild beschreiben;
  • 22 schematisch die Verfahrensschritte zeigt, um die Entfernung von der Bildplatte zu einem ausgewählten Reflektivitätsbereich im abgebildeten Sehfeld zu bestimmen;
  • 23 schematisch die Verfahrensschritte zeigt, um die Höhenmessung eines Reflektivitätsbereichs im abgebildeten Sehfeld von einer Auftreffebene zu bestimmen;
  • 24 schematisch eine Zusammenfassung der Bestimmung einer Menge dreidimensionaler Positionsdaten gemäß der vorliegenden Erfindung zeigt;
  • 25 ein Beispiel eines Bildschirms ist, der Kalibrationsdaten anzeigt;
  • 26 schematisch eine Darstellung der Kombination erfasster Bilder zeigt, um ein Sehfeld abzudecken, das größer ist als das in einem einzigen erfassten Bild;
  • 27 eine Kombination von Bilderzeugungsvorrichtungen in einer Stereosichtanordnung zeigt, um ein erweitertes Sehfeld zu erfassen oder die Genauigkeit der von einem überlappenden Sehfeld erhaltenen Informationen zu verbessern;
  • 28 Tabelle 3 zeigt, die ein Muster bestimmbarer Kalibrationsdaten beschreibt.
  • Ausführliche Beschreibung der besten Ausführungsform der Erfindung
  • Es wird jetzt als Beispiel die von den Erfindern betrachtete beste Ausführungsform der vorliegenden Erfindung beschrieben. In der nachfolgenden Beschreibung werden zahlreiche spezifische Details dargelegt, um ein weitreichendes Verständnis der Erfindung zu ermöglichen. Für den Fachmann wird jedoch offensichtlich sein, dass die vorliegende Erfindung ohne Beschränkung auf diese spezifischen Details ausgeführt werden kann. In anderen Fällen wurden wohlbekannte Verfahren und Strukturen nicht im Detail beschrieben, um die vorliegende Erfindung nicht unnötig unklar zu machen.
  • In dieser Patentschrift beschreibt und betrifft der Begriff "Reflektivitätsbereich" mindestens einen Punkt im wahren Raum, z. B. einen oder mehrere Punkte, Oberflächen oder Bereiche eines Objekts oder von Objekten, die ein-, zwei- oder dreidimensional beschrieben werden können und von einer Bilderzeugungsvorrichtung erfasst werden können, die in der Lage ist, vom Reflektivitätsbereich reflektierte elektromagnetische Strahlung zu erfassen, wobei ein einziger Reflektivitätsbereich von einem einzigen Bilderzeugungselement, z. B. einem Pixel, aus einem eine Bildplatte bildenden Feld dieser Elemente abgebildet wird.
  • In dieser Patentschrift beschreibt und betrifft der Begriff "Sehfeld" den Bereich der Welt, der von einer Bildplatte abgebildet wird.
  • In dieser Patentschrift bezieht sich der im Zusammenhang mit dem Projizieren eines elektromagnetischen Strahls verwendete Begriff "Ursprung" oder "Strahlursprung" auf eine definierbare Position, in der der Strahl gebildet, fokussiert, gebeugt oder geteilt wird. Beim Ursprung kann es sich beispielsweise um eine Lichtquelle, um eine mit einer Lichtquelle assoziierte Linse oder um die zum Teilen eines Einzelstrahls in zwei oder mehrere Strahlen verwendet optische Vorrichtung handeln.
  • In dieser Patentschrift umfassen dreidimensionale Positionsdaten "sechs-Achsen"-Informationen, die jeden Punkt im Raum durch eine messbare Entfernungskomponente in x-, y- und z-Richtung sowie eine Winkelmessung zu jeder Achse beschreiben, sind aber nicht auf diese beschränkt.
  • In 1 ist ein Sehfeld 101 abgebildet, bei dem es sich um den Bereich einer betrachteten Szene oder Landschaft/eines betrachteten Bilds handelt, und der von einer in einer optischen/Bilderzeugungsvorrichtung 102, typischerweise einer Digitalkamera, eingeschlossenen Bildplatte erfassbar ist. Beim Sehfeld könnte es sich beispielsweise um eine Landschaft handeln, oder um eine Baustelle, Produkte oder Teile und Maschinen, die Teil einer Fertigungsstraße bilden, Menschen in einer geschäftigen Einkaufsstraße und allgemein um beliebige Objekte, die durch eine Bilderzeugungsvorrichtung betrachtet werden können und von denen eine Darstellung auf einer Bildplatte erfasst werden kann. 1 zeigt die Vorrichtung, die benötigt wird, um Informationen für die Berechnung von dreidimensionalen Positionsdaten von Reflektivitätsbereichen im Sehfeld 101 zu erhalten. Es wird ein Halterungsmittel 104 bereitgestellt, auf dem die Bilderzeugungsvorrichtung 102 in einer festen Position eingreift. Ein Verfahren, um die Bilderzeugungsvorrichtung 102 auf dem Halterungsmittel 104 eingreifen zu lassen besteht in der Nutzung der Stativhalterung an einer Digitalkamera. Das Halterungsmittel 104 bietet außerdem Mittel zum Befestigen eines Projektionsgeräts 103. Das Halterungsmittel 104 muss die Projektionseinheit 103 und die Bilderzeugungsvorrichtung 102 in einer festen räumlichen und Winkelorientierung zueinander positionieren. Das Halterungsmittel 104 kann weiter auf einem Stativ befestigt sein oder die in der Hand gehaltene Bedienung der Kombination aus Bilderzeugungsvorrichtung, Halterungsmittel und Projektionsgerät 103 vorsehen.
  • 1 zeigt eine zweite Projektionsgerätausführungsform in einer Gesamtanordnung, in der das Projektionsgerät 103 als getrennte Vorrichtung gebildet ist, die an einer Position mit vorbestimmtem Verhältnis zur Bilderzeugungsvorrichtung 102 durch ein getrenntes Halterungsmittel 104 angebracht ist. In einer ersten Projektionsgerätausführungsform (wie in 10 abgebildet) ermöglicht ein einziges Projektionsgerät 1001 das Projizieren von optischen Marken in das Sehfeld und das direkte Anbringen einer Bilderzeugungsvorrichtung 102 an einem spezifischen, am Gehäuse des Projektionsgeräts 1001 gebildeten Halterungsteil 1004.
  • Das Sehfeld 101 hat eine Auftreffebene 110 (durch eine gestrichelte Linie in 1 angedeutet). Die Auftreffebene 110 kann entweder eine vorhandene, im Wesentlichen ebene Oberfläche im Sehfeld sein, z. B. eine Wand, oder kann eine extern eingeführte ebene Oberfläche sein. Zum Beispiel kann beim Abbilden einer Landschaft ein ebener Bogen aus einem Material in die Landschaft eingeführt werden. Jedes Muster aus Marken 107 wird auf die Auftreffebene projiziert. Idealerweise werden nur die auf die Auftreffebene projizierten Marken im Orientierungsprozess analysiert. Die Auftreffebene bietet eine mathematisch definierbare Bezugsebene, die einen Bezug für die Orientierung der Bildplatte liefert, so dass eine mathematische Transformation dieser Ebene zu einem beliebigen anderen Punkt im Sehfeld ermöglicht wird.
  • Nachdem ein Bild, z. B. durch Aufnehmen eines Fotos, auf der Bildplatte der Bilderzeugungsvorrichtung 102 erfasst ist, wobei das Bild das Sehfeld 101, die Auftreffebene 110 und die optischen Marken 107 umfasst, wird dieses Bild auf einen PC oder einen Laptop 108 oder ein anderes Verarbeitungsmittel heruntergeladen, auf dem das zweidimensionale erfasste Bild angezeigt 109 und analysiert werden kann.
  • Das Projektionsgerät 103 umfasst mindestens eine Lichtquelle 105, z. B. eine Laserdiode. Diese mindestens eine Lichtquelle ist dazu konfiguriert, eine Vielheit von Lichtstrahlen 106 zu erzeugen. Es können einer oder mehrere Strahlteiler verwendet werden. Beim Einfallen jedes Lichtstrahls auf einem Reflektivitätsbereich im Sehfeld wird eine optische Marke 107, vorzugsweise ein Lichtfleck, erzeugt. Jede Lichtquelle mit Strahlteiler wird in einer festen räumlichen Position im Projektionsgerät gehalten. Dadurch wird jeder Strahlursprung dazu konfiguriert, in einem festen räumlichen Verhältnis relativ zur Bilderzeugungsvorrichtung gehalten zu werden. Die Lichtstrahlen 106 werden unter festen Winkelverhältnissen erzeugt, um ein vordefiniertes Muster optischer Marken im Sehfeld zu erzeugen.
  • Die Position des Ursprungs des Lichtstrahls muss bekannt sein, damit feste Winkel- und räumliche Verhältnisse berechnet werden können. Vorausgesetzt die Position der Lichtquelle selbst und alle Linsenmittel, die zum Fokussieren des Lichtstrahls bereitgestellt werden, sind fest, kann der Ursprung als entweder der Punkt betrachtet werden, von dem der Laser ausgeht oder als das Prisma, holografisch oder kollimiert, oder andere Linse oder andere optische Vorrichtung, die zum Fokussieren oder Lenken des Lichtstrahls verwendet wird. Das heißt, sofern eine Ursprungsebene des Strahls aus Licht/elektromagnetischer Strahlung bestimmt werden kann, kann diese Position als Ursprung des Strahls mit bekannten festen räumlichen und Winkelverhältnissen zu allen anderen Ursprüngen und zur Bildplatte betrachtet werden, wodurch die Berechnung einer Menge von Orientierungswerten und die Bildanalyse ermöglicht werden.
  • Beispiele von drei vordefinierten Mustern optischer Marken sind in 2A, B und C gezeigt. 2A zeigt zwei Mengen mit je fünf optischen Marken, wobei jede Menge ein kreuzförmiges Muster aus Marken bildet und wobei jede Menge von Marken aus einer einzigen elektromagnetischen Strahlungsquelle gebildet wird. 2B zeigt zwei Mengen von Marken, jeweils in der Form eines quadratischen Musters, die neun optische Marken pro Menge umfassen. 2C zeigt eine weitere alternative Konfiguration von Marken. Es sind zwei Mengen von Marken abgebildet, jede in der Form eines kreisförmigen Musters aus zwölf Marken, die den Umfang eines Kreises mit einer zusätzlichen, in der Mitte des Kreismusters gebildeten Marke bilden. 2A, 2B und 2C zeigen zwei Mengen von Marken, wobei jede Menge aus einer einzigen elektromagnetischen Strahlungsquelle erzeugt wird. Es gibt keine Begrenzung der Anzahl von Mengen von Marken oder der Anzahl von Lichtquellen oder Strahlursprüngen, die verwendet werden können. Die Erfindung ist nicht durch die von den optischen Marken gebildete Form beschränkt, es muss aber ein Satz von Strahlenkonfigurationscharakteristiken, die die Ursprungspositionen und/oder die die Strahlen trennenden Winkel beschreiben bekannt sein oder bestimmt werden.
  • Insbesondere kann eine Anzahl getrennter kollimierter Lichtquellen so angeordnet werden, dass sie jeweils eine einzige Marke erzeugen, wobei eine Mehrfachanordnung solcher Lichtquellen zusammen ein erforderliches Muster bildet.
  • Die Mindestanzahl von Marken, die in das Sehfeld eingeführt werden müssen, um die Bildplattenausrichtung zu jedem der Reflektivitätsbereiche zu berechnen, hängt von der Fähigkeit ab, die Bildmitte zuverlässig zu bestimmen. In 3A werden mindestens zwei Marken benötigt, wobei eine erste Marke 303 von einem ersten Ursprung projiziert wird und eine zweite Marke 302 von einem zweiten Ursprung projiziert wird und wobei die Strahlursprünge in einem Winkel von 90° zueinander angebracht sind, so dass der Schnittpunkt zwischen den Marken in der Mitte des Bilds und daher in der durch die optische Achse der Bildplatte gebildeten Bildplattenmitte 301 liegt. In dieser Minimalanordnung werden die Strahlen vorzugsweise parallel projiziert. In dieser Anordnung kann, sofern die Entfernung von der Bildplattenmitte zu jedem Strahlursprung bekannt ist (x, z), eine Menge von Orientierungswerten berechnet werden. Die in 3A gezeigte Anordnung wird als Anordnung "auf der Achse" bezeichnet.
  • In 3B hierin, in der die Bildplattenmitte über, unter oder zwischen der Position der projizierten Marken im Bild positioniert ist (eine "gegenüber der Achse versetzte" Anordnung), müssen, um eine Menge von Orientierungswerten zu berechnen, mindestens drei Marken projiziert werden. 3B zeigt eine gegenüber der Achse versetzte Anordnung – eine "L"-förmige Anordnung – von Marken auf der Auftreffebene.
  • Es können weitere gegenüber der Achse versetzte Anordnungen bereitgestellt werden, einschließlich "t"- und "verlängertes S"-Anordnungen, wobei in jeder Anordnung zwei Marken auf einer einander entsprechenden ersten Höhe projiziert werden und eine dritte Marke auf einer zweiten Höhe projiziert wird. Durch Anbringen der drei Strahlursprünge so, dass drei Marken aus Strahlursprüngen mit bekannten oder bestimmbaren Strahlenkonfigurationscharakteristiken projiziert werden, typischerweise parallel zueinander, kann eine Menge von Orientierungswerten berechnet werden.
  • In der "L"-Anordnung kann jeder Strahl parallel von verschiedenen Ursprüngen, die mit einer bekannten Winkeltrennung von 90° zueinander positioniert sind, projiziert werden, wobei, solange die Entfernung zwischen dem Ursprung jedes Strahls in x- und z-Achsenrichtung und die Brennweite der Kamera bekannt sind, eine Menge von Orientierungswerten berechnet werden kann.
  • 3B zeigt drei Marken in einer "L"-Anordnung. In einer möglichen Anordnung wird eine erste Marke 305 von einem ersten Strahlursprung projiziert und zweite Marken 306, 307 werden von einem zweiten gemeinsamen Strahlursprung projiziert, wobei die Bildplattenmitte 304 in einer gegenüber der Achse versetzten Position angeordnet ist. Um eine Menge von Orientierungswerten zu bestimmen, müssen die räumliche Trennung (Sep) zwischen den Ursprüngen der Marken 305, 307 und die Winkeltrennung (θ) der die Marken 306, 307 erzeugenden Strahlen bekannt sein. Wenn die Marken 306, 307 von Strahlen mit verschiedenen Ursprüngen erzeugt werden, muss die Winkeltrennung (θ) zwischen den Ursprüngen bekannt sein oder bestimmt werden.
  • Alternativ müssen in der "t"- und "verlängertes S"-Anordnung die räumliche Trennung (Sep) zwischen den Ursprüngen von Marken auf einer gleichen ersten Höhe und mindestens eine Winkeltrennung (θ) der Marken, die entweder von gemeinsamen oder verschiedenen Ursprüngen stammen, bekannt sein.
  • Daher muss, um die Bildanalyse zum Gewinnen einer Menge von Orientierungswerten durchzuführen, eine Menge von Strahlenkonfigurationscharakteristiken, die die Einrichtung des Projektionsgeräts beschreiben, bekannt sein oder bestimmt werden. Die benötigten Strahlenkonfigurationscharakteristiken hängen von der Anordnung der projizierten Marken ab, können aber die räumliche Trennung zwischen Strahlursprung bzw. Strahlursprüngen und der Bildplattenmitte und/oder die räumliche Trennung zwischen Strahlursprüngen und/oder die Winkeltrennung zwischen projizierten Strahlen und/oder die Winkeltrennung zwischen Strahlursprüngen einschließen. Die benötigten speziellen Strahlenkonfigurationscharakteristiken umfassen eine beliebige Kombinationen dieser Trennungen.
  • 3A und 3B zeigen die Minimalanordnungen zum Gewinnen einer vollständigen Menge von Orientierungswerten, die Höhe, Schwenkung, Neigung und Verdrehung umfassen. Dies sind Minimalanordnungen. In bevorzugten Ausführungsformen wird von jedem Ursprung eine Vielheit von Marken in das Sehfeld eingeführt, wobei die Marken in vorbestimmten Winkeltrennungen projiziert werden, um entweder Muster eines in 2A, 2B und 2C gezeigten Typs oder andere vordefinierte Markenmuster zu bilden.
  • Das Projizieren nur eines Paars von Marken in einer "gegenüber der Achse versetzten" Anordnung liefert ausreichende Informationen, um die Neigung oder die Schwenkung sowie die Höhe zu berechnen und reicht daher aus, um detaillierte und genaue zweidimensionale Positionsdaten aller Reflektivitätsbereiche im Sehfeld zu liefern.
  • Beispielsweise kann durch Bestimmen des Koeffizienten M und der Mittenachsen-Schnittpunktsentfernung in y-Richtung (YG) die Entfernung des Brennpunkts der Bildplatte von dem Punkt, in dem die x-Ebene den Schwenkwinkel schneidet (XG) gefunden werden. Wenn der Koeffizient N und YG bestimmt sind, kann die Entfernung des Brennpunkts vom Punkt (Fuß "F"), in dem die z-Ebene den Neigungswinkel schneidet (ZG) gefunden werden. 14 zeigt die Punkte F, XG und ZG und die Ferse "H", die die Entfernung entlang der z-Achse von der Mittenachse zur Ebene ist.
  • Das Projizieren nur einer einzigen optischen Marke liefert ausreichend Informationen, um den Orientierungswert der Höhe der Bildplatte bezüglich jedes Reflektivitätsbereichs zu gewinnen und liefert dadurch die Entfernung oder Entfernungsmessungsfunktion für jeden Reflektivitätsbereich im Sehfeld. Das Gewinnen einer dreidimensionalen Datenmenge schließt die Bestimmung der Höhe und zweidimensionaler Daten ein.
  • Die in 2B und 2C gezeigten kastenförmigen und kreisförmigen Markenmuster stellen nicht einschränkende bevorzugte Markenanordnungen dar, die dafür sorgen, dass alle der Marken durch Implementieren einer automatischen Durchsuchung des Bilds und Anwenden einer Kurvenanpassung vom Typ Mx + c zum Reduzieren von Fehlern und Erhöhen der Markenidentifizierungsgenauigkeit unter Pixelniveau identifiziert werden können, wodurch für die hochauflösende Identifizierung von Marken im erfassten Bild gesorgt wird.
  • Um ausreichend Daten zu erhalten, um eine dreidimensionale Datenmenge zu rekonstruieren, die die Position von Reflektivitätsbereichen in einem Sehfeld beschreibt, werden mindestens 2 oder 3 optische Marken benötigt, wie unter Verweis auf 3A und 3B obenstehend erläutert. Jede Marke wird von einem einzelnen Lichtstrahl erzeugt, der von einem Ursprung projiziert wird und auf einen Reflektivitätsbereich einfällt. Eine einzige Lichtquelle kann durch Verwendung eines Rasters oder Kristalls in die benötigte Anzahl Lichtstrahlen geteilt werden, wobei das Raster bzw. der Kristall dann den Strahlursprung bilden.
  • Es ist möglich, eine große einzelne optische Marke im Sehfeld zu erzeugen. Die resultierende Verzerrung einer einzelnen großen optischen Marke kann effektiv so behandelt werden, als wären eine Vielheit von Marken vorhanden, die durch das unterschiedliche Maß der Verzerrung an den Rändern der Marke gebildet werden. Die Verwendung einer solchen einzelnen optischen Marke bildet effektiv eine Vielheit optischer Marken, die Informationen liefern, aus denen eine Menge von Orientierungswerten ermittelt werden kann.
  • In einer weiteren Markenanordnung werden mindestens zwei Strahlen in das Sehfeld projiziert, wobei jeder Strahl so gestreut ist, dass er im Sehfeld das Aussehen einer Linie hat. Es werden mindestens zwei Strahlen projiziert, die jeder solch eine Linie bilden, wobei die Strahlen so konfiguriert sind, dass sich die Linien überlappen. Die Intensität des reflektierten Lichts am Punkt der Überlappung ist größer als das reflektierte Licht für den Rest jeder Linie, der Überlappungspunkt bildet daher die Marke für die Bildanalyse. In einem Beispiel dieser Art von Anordnung werden vier Linien in das Sehfeld projiziert, so dass sie eine quadratische Form auf der Auftreffebene bilden. Die Ecken des Quadrats umfassen die überlappenden Bereiche jedes Strahls, wobei jeder Überlappungsbereich eine größere Signalintensität hat als die Hauptlänge jedes Strahls, so dass die Überlappungsbereiche die Marken bilden. In einer quadratischen Anordnung werden dadurch vier solche Marken geliefert, in einer dreieckigen Anordnung aus drei Linien werden drei Marken so geliefert. Das Bilden von Marken auf diese Weise ist nützlich, da es die Verwendung von Lasern mit geringerer Intensität ermöglicht, wodurch die Sicherheit des Bilderzeugungsvorgangs verbessert wird.
  • Betrachten wir nun die in 2C gezeigte kreisförmige Konfiguration von in ein Sehfeld projizierten Marken. Die Verzerrung der projizierten Marken im Sehfeld ist eine Funktion der Auswirkungen von Schwenkung, Neigung und Verdrehung der Bildplatte bezüglich jeder der Reflektivitätsbereiche im Sehfeld. Das Bestimmen dieser Orientierungswerte liefert eine Menge von Orientierungswerten, die die Orientierung der Bildplatte bezüglich der Reflektivitätsbereiche im Sehfeld beschreiben. Es kann dann eine Bildanalyse durchgeführt werden, um mehrdimensionale, z. B. zweidimensionale oder dreidimensionale Positions-Felddaten zu bestimmen.
  • Die Verwendung einer größeren Anzahl von Marken in einem vorbestimmten Muster ermöglicht die Berücksichtigung von Anomalien in der Reflexionsantwort der Auftreffebene und sorgt für die verbesserte Genauigkeit der Markenidentifikation.
  • 4 zeigt ein kombiniertes Bilderzeugungs- und Projektionsgerät 401, in dem eine Bildplatte 402 und ein Projektionsgerät 103 untergebracht sind. 4 zeigt schematisch eine Darstellung der Beziehung zwischen der Bildplatte und dem Projektionsgerät. Lichtstrahlen 106 werden von Strahlursprüngen im Projektionsgerät 103 in Richtung einer Auftreffebene 110 im Sehfeld 101 der Bildplatte 402 projiziert. Reflektivitätsbereiche im Sehfeld 101 reflektieren Strahlen 106, die auf der Bildplatte 402 erfasst werden. Reflektivitätsbereiche im Sehfeld 101 müssen nicht eben sein und können Dimensionen in allen 3 Achsen (x, y und z) haben.
  • Um dreidimensionale Positionsdaten zu erhalten, die Reflektivitätsbereiche in einem Sehfeld beschreiben, muss ein Bild dieses Sehfelds mit entsprechenden Marken auf einer quantisierten Bildplatte erfasst werden. Solch eine quantisierte Bildplatte kann eine Bildplatte mit einem Feld lichtempfindlicher Elemente umfassen, wobei jedes Element in der Lage ist, ein Datenpixel zu generieren. Es sind Bilderzeugungsvorrichtungen wie Digitalkameras und Scanner und digitale Videokameras bekannt, die ein Bild erfassen und dieses Bild in eine Vielheit digitaler Signale umwandeln können. Hierzu wird bekanntermaßen eine Bildplatte aus einem CCD-(Charged Couple Device) oder CMOS-(Complementary MOS)Halbleiterarray gebildet, das eine Vielheit lichtempfindlicher Elemente umfasst. In einem solchen Feld erzeugt jedes lichtempfindliche Element ein Datenpixel, indem es reflektiertes Licht aus einem Sehfeld in elektrische Energie umwandelt. Das erfasste Bild kann in einem zugehörigen Speicher, z. B. RAM gespeichert werden.
  • Die Bildplatte kann beliebigen Typs sein, sofern es sich um ein Feld aus Materialien handelt, die auf elektromagnetische Strahlung empfindlich sind und als Feld von einzelnen Zellen angeordnet sind. Wichtigerweise ist das CCD ein auf Licht ansprechendes Medium mit messbaren physikalischen Dimensionen, einschließlich physikalischen Dimensionen in x-, y- und z-Richtung. Eine ein Feld von Pixeln umfassende Bildplatte bildet daher ein zweidimensionales Bild eines Sehfelds, das in Einzelpixel mit physikalischen Dimensionen unterteilt werden kann, die mit diesem Sehfeld in Beziehung gebracht werden können.
  • Eine Bilderzeugungsvorrichtung wie eine Digitalkamera hat eine Vielheit optischer Eigenschaften, einschließlich Brennweite, Bildplattendimensionen und Pixeldimensionen. 5 zeigt eine Darstellung einer Bildplatte 501 mit einer Bildplattenhöhe (Iz), einer Bildplattenbreite (Ix) und einer Bildplattendiagonalen (Id). Für ein 35 mm Fotoformat lauten die relevanten Dimensionen wie folgt:
    • • Ix = 36 mm
    • • Iz = 24 mm
    • • Id = 43,266615 mm und
    • Id = (Ix2 + Iz2)½ Gleichung 1
  • Zwischen der Bildplatte und dem Objektiv einer Kamera wird ein virtueller Kegel mit einer der Brennweite der Kamera entsprechenden Höhe gebildet. 6A und 6B zeigen als ebene Strichzeichnungen Darstellungen dieses Kegels, wobei F = der Brennpunkt und die senkrechte Entfernung zwischen der Bildplattenmitte und dem Brennpunkt die Brennweite f, 601 ergeben.
  • Eine weitere Darstellung des Verhältnisses zwischen Blickwinkel und Bildplatte ist in 7 gezeigt. Der Brennpunkt F befindet sich am Objektiv. Die Entfernung 601 zwischen F und der Mitte der Bildplatte ist die Brennweite f und der Winkel φ ist der Blickwinkel. Ein Verhältnis der Brennweite zum schrägen Sehfeld ist durch den am Objektiv bezüglich einem die Bildplatte 502 einschließenden Kreis gegenüberliegenden Winkel gegeben.
  • 8 zeigt die Begrenzung des Sehfelds, die durch den Blickwinkel φ bestimmt wird. Die Begrenzung des Sehfelds 806 wird von der Mittenachse 805 der Bildplatte 803 halbiert. Ein Neigungswinkel 802 ist zwischen der Mittenachse 805 und der Auftreffebene 801 definiert. Das Sehfeld umfasst die Auftreffebene 801 und die Entfernung zwischen der Mitte der Bildplatte und der Auftreffebene 801 ist durch die Höhe h gegeben. Wenn die physikalischen Dimensionen jedes Pixels in der Bildplatte gemessen wurden und die Winkelorientierung der Bildplatte bekannt ist, kann jedes Pixel in eine bzw. von einer Bezugsebene, der Auftreffebene, transponiert werden und jede Pixelzeile in der y-Ebene der Bildplatte entspricht dann der Position der y-Koordinate des wahren Bilds. Auf diese Weise können die Koordinaten der in das Sehfeld eingeführten optischen Marken 107 bestimmt werden.
  • 9 veranschaulicht dieses Prinzip weiter. 9 zeigt drei Ebenen, die Bildebene (I), eine Ebene in der Licht von einem Projektionsgerät projiziert wird (L) und eine Objektebene, bei der es sich um eine Ebene im Sehfeld handelt (O). Die Bildplatte und die Bildebene sind durch die optischen Eigenschaften der Bilderzeugungsvorrichtung miteinander verknüpft. Lichtstrahlen werden im Projektionsgerät erzeugt, das Strahlen auf die Ebene O projiziert, um eine Vielheit optischer Marken zu erzeugen. Sind der räumliche Offset der Projektionsgerät-Strahlursprünge von der Bildebene (I) und das Winkelverhältnis der vom Projektionsgerät projizierten Strahlen bekannt, kann eine Menge von Offset-Werten bestimmt werden, so dass das Winkelverhältnis der Marken von der Bildplatte berechnet werden kann. Auf diese Weise kann ein Normalisierungsprozess durchgeführt werden, so dass die Orientierungs- und Bilderzeugungsprozesse jeden Strahl so berücksichtigen können, als wäre er von der Bildplatte projiziert worden, so dass trigonometrische Vermessungen durchgeführt werden können, um räumliche und Positionsdaten von Reflektivitätsbereichen in der Objektebene (O) zu ermitteln. Nachdem der Kalibrationsprozess durchgeführt wurde (der Kalibrationsprozess wird nachfolgend beschrieben) und wenn Informationen zu den Pixeldimensionen, Bildplattendimensionen und den räumlichen und Winkel-Offsets der Lichtquellen und des Projektionsgeräts von der Bildplatte bekannt sind, so dass die Entfernungen a und b bekannt sind, sind lediglich einfache trigonometrische Berechnungen erforderlich, um die Entfernungen (a + A) und B zu bestimmen. Diese Informationen können dank der Tatsache erhalten werden, dass jedes Pixel eine messbare physikalische Dimension hat, die mit der Position von Marken in einem Sehfeld in Beziehung gesetzt werden kann.
  • Wie ebenfalls in 9 zu sehen, ist O parallel zu I und L, was eine Maßstabsberechnung ermöglicht, um Pixeldimensionen, Brennweite und Ursprungs-Offsets zu ermittelt. 28 zeigt Beispiele der Informationen, die erhalten werden können. Beispielsweise können, wenn die Entfernung zwischen O und L fest und die Entfernung b (der Ursprungs-Offset) bekannt ist, die Brennweite und die Pixelgröße bestimmt werden und damit kann der Kamerablickwinkel berechnet werden. Wenn eine Anzahl von Zeilen und Spalten von Marken (wie in 2B) projiziert werden, kann die Objektivverzerrung beurteilt werden, die eine Funktion des Fehlers in der Linearität der jeweiligen Zeilen und Spalten im Bild ist.
  • 9 ist eine vereinfachte Darstellung, um zu zeigen, dass die Entfernungen zwischen optischen Marken in einem Sehfeld, z. B. die Entfernung B ermittelt werden können. Typischerweise erfasst eine Bildplatte kein Bild eines Sehfelds, das vollkommen eben oder parallel zur Bildplatte ist. Folglich muss eine Menge von Orientierungswerten berechnet werden, die die Anstellwinkel der Bildplatte bezüglich jedes Reflektivitätsbereichs im Verhältnis zu jeder der dreidimensionalen Achsen beschreiben. Dadurch kann der von jedem einzelnen Pixel besetzte Bildbereich durch eine trigonometrische Vermessung des Verhältnisses zwischen den berechneten Orientierungswerten und den in das Sehfeld eingeführten optischen Marken 107, die bekannte Winkel- und räumliche Verhältnisse haben, analysiert werden. Indem eine geometrische Vektoranalyse durchgeführt wird, können jedem Reflektivitätsbereich im Sehfeld x-, y- und z-Werte zugeordnet werden.
  • 10 zeigt eine externe perspektivische Ansicht einer ersten Ausführungsform eines Projektionsgeräts. Das Projektionsgerät 1001 umfasst einen Gehäuseteil, der ein Gehäuse zum Anbringen einer Bilderzeugungsvorrichtung, z. B. einer Digitalkamera in einer Halterungsposition 1004 auf der Hauptoberfläche des Gehäuses bildet. Das Projektionsgerät 1001 umfasst mindestens eine Lichtquelle und zwei Strahlursprünge, die jeweils in festen Positionen zum Projizieren von Lichtstrahlen angebracht sind. Der erste Strahlursprung 1002 befindet sich an einem ersten Ende des Projektionsgeräts und ein zweiter Strahlursprung 1003 befindet sich an einem zweiten Ende des Projektionsgeräts. Das Projektionsgerät 1001 ermöglicht das präzise Anbringen der Strahlursprünge in bekannten räumlichen und Winkelverhältnissen zur Halterungsposition der Bilderzeugungsvorrichtung. Durch Kombinieren dieser Informationen mit kameraspezifischen Informationen zur Position der Bildplatte in einem gewählten Kameramodell, werden die genauen räumlichen und Winkelverhältnisse zwischen dem Ursprung jedes Lichtstrahls und der Bildplattenmitte bestimmt. Im Gebrauch wird eine Bilderzeugungsvorrichtung, z. B. durch Verwendung der Stativhalterung der Kamera, fest an der Halterungsposition 1004 an der Oberfläche des Projektionsgeräts angebracht, um eine einzige Funktionseinheit zum Projizieren von Licht in ein Sehfeld und zum Erfassen eines zweidimensionalen Bilds zu bilden.
  • 11A zeigt eine geschnittene Draufsicht einer internen Anordnung einer zweiten Ausführungsform eines Projektionsgeräts. Das Projektionsgerät umfasst ein Gehäuse 1101, in dem mindestens eine Lichtquelle 1102, z. B. eine Laserdiode, untergebracht ist, die eine kohärente Lichtquelle liefert. Licht wird 1103 von der Lichtquelle 1102 ausgestrahlt und wird durch eine Kollimationsoptik 1104 fokussiert, um einen ersten Strahl 1105 zu bilden. Der Strahl 1105 wird durch das Prisma 1106 gelenkt, das den Strahl 1105 in Richtung und durch das Prisma 1108 ablenkt. Das Prisma 1108 teilt den Strahl in gleiche Teile, um zwei weitere, in rechten Winkeln zueinander gebildete Lichtstrahlen zu erzeugen, von denen einer durch eine Strahlteilungsoptik 1109 gelenkt wird, um eine Vielheit von Strahlen 1110 zu erzeugen, die dazu konfiguriert sind, ein erstes Muster von Marken im Sehfeld zu erzeugen. Der zweite, am Prisma 1108 erzeugte Strahl 1111 wird weiter über das Prisma 1112 durch eine zweite Strahlteilungsoptik 1113 gelenkt, um eine zweite Menge von Strahlen 1114 zu erzeugen, die dazu konfiguriert sind, eine zweite Menge optischer Marken im Sehfeld zu erzeugen. 11B zeige eine Endansicht der zweiten Projektionsgerät-Ausführungsform und 11C zeigt eine geschnittene Seitenansicht der Lichtquelle 1102 und der Kollimationsoptik 1104.
  • Die Aufgabe des Projektionsgeräts besteht darin, eine Feld von Lichtpunkten (die optischen Marken) im Sehfeld bereitzustellen, die von einer assoziierten Bilderzeugungsvorrichtung erfasst werden können. Die Verhältnisse zwischen den im Sehfeld erzeugten optischen Marken sind bekannt, da sie mit dem Ursprung jedes Strahls im Projektionsgerät in Beziehung stehen. In der zweiten Ausführungsform des Projektionsgeräts, wird der Ursprung jedes Strahls in einer festen Position an den Strahlteilungsoptiken 1109, 1113 gebildet. Merkmale der ersten und zweiten Projektionsgerät-Ausführungsform sind austauschbar. Die Beziehung zwischen Projektionsgerät und Bildplatte kann durch Verwendung von projektiver Geometrie, Trigonometrie und Vektoranalysis interpretiert werden, um eine Menge von Orientierungswerten zu berechnen.
  • Durch Bereitstellen nur einer einzigen Lichtquelle 1102 und Verwendung von Pentaprismen wie die Prismen 1106, 1108, 1112 kann der Kalibrationsbedarf für die Position getrennter Lichtquellen minimiert werden. Diese Anordnung ermöglicht einen hohen Grad an Genauigkeit für den Ursprung jedes Strahls, so dass die räumlichen Verhältnisse zwischen jedem Ursprung und die Winkelverhältnisse jedes erzeugten Strahls genau bestimmt werden können. Pentaprismen sorgen für die genaue Strahlerzeugung unter vorgegebenen Winkeln relativ zum Eingangsstrahl und sind weniger empfindlich auf Schwankungen der Laserfrequenz als holografische Linsen. Die Verwendung von Pentaprismen sorgt weiter für die Erzeugung paralleler Strahlen, ohne dass das Projektionsgerät in hohem Maß kalibriert werden muss.
  • 11A zeigt weiter eine alternative Position der Lichtquelle. In dieser Anordnung wird eine einzige Lichtquelle 1115 bereitgestellt, die auf einer Linie mit dem Prisma 1108 angeordnet ist. Das Prisma 1106 wird durch die Kollimationsoptik 1107 ersetzt, um einen einzigen kollimierten Lichtstrahl zu erzeugen, der durch das Prisma 1108 gelenkt wird, das so wirkt, dass es zwei unter rechtem Winkel zueinander erzeugte Lichtstrahlen bildet, wie oben beschrieben.
  • In beiden in 11 gezeigten Anordnungen ist der von jedem der Ursprünge 1109 und 1113 projizierte mittlere Strahl relativ zur Kamerahalterung vorzugsweise in Vertikal- und Horizontalrichtung parallel und im selben Winkel nach unten geneigt.
  • Durch Anbringen einer Bilderzeugungsvorrichtung zusammen mit einer der beschriebenen Projektionsgerät-Ausführungsformen können die räumlichen und Winkelverhältnisse zwischen der Bildplatte und den Strahlursprüngen bestimmt werden. Dabei ist die Befestigungsposition der Bilderzeugungsvorrichtung bekannt und die Position jedes Strahlursprungs ist bekannt, so dass die räumlichen und Winkeltrennungen der Strahlursprünge und der erzeugten resultierenden Strahlen ebenfalls im Verhältnis zur Bildplatte bekannt sind.
  • Ein Strahlursprung 1109, der mehr als einen Strahl bildet wird als "gemeinsamer Ursprung" bezeichnet. Strahlen, die von unterschiedlichen Ursprüngen projiziert werden sind von "verschiedenen" Ursprüngen.
  • Die optische Vorrichtung, die die Strahlursprünge 1109, 1113 bildet, kann so bereitgestellt werden, dass sie feste optische Eigenschaften hat, die zusammen mit einer geeigneten Blende dazu genutzt werden können, die Divergenz der projizierten Strahlen zu bestimmen. Kennt man die schiefe Sicht der assoziierten Bilderzeugungsvorrichtung und die Divergenz der vom Projektionsgerät ausgestrahlten Lichtstrahlen, ist es möglich, die im Sehfeld erzeugten optischen Marken so zu konfigurieren, dass sie einer erforderlichen Anzahl Pixeln in der Bildplatte in einer vorbestimmten Entfernung des Objekts von der Bildplatte entsprechen. Beispielsweise kann die Divergenz so konfiguriert werden, dass eine optische Marke 107 von einem einzigen Pixel auf der Bildplatte in einer Entfernung zwischen Bildplatte und Objekt von 2 m erfasst wird.
  • Die Anzahl von Pixeln, die von einer einzigen Marke im Bild abgedeckt werden, hängt von einer Reihe von Faktoren ab, z. B. der Auflösung des aufgenommenen Bilds, der Entfernung der Bildplatte vom Reflektivitätsbereich (der Marke), der Orientierung der Kamera zur Auftreffebene, dem Strahldivergenzwinkel, der Reflektivität der Auftreffebene und den fotografischen Beleuchtungsbedingungen.
  • In einer weiteren Ausführungsform des Projektionsgeräts sind das Projektionsgerät und die Bilderzeugungsvorrichtung in einem einzigen Gerät integriert. Dabei kann es sich beispielsweise um eine Digitalkamera handeln, die sowohl eine durch ein CCD-Array gebildete Bildplatte und mindestens eine Lichtquelle und einen Ursprung, die eine Vielheit von Lichtstrahlen zum Projizieren in das Sehfeld erzeugen, umfasst. Diese Anordnung liefert bekannte Winkel- und räumliche Offsets zwischen der Bildplatte und den Strahlursprüngen, die in eine einzige Kameradatendatei integriert werden können.
  • Jede Projektionsgerät-Ausführungsform hat eine eigene Menge von Strahlenkonfigurationscharakteristiken, die von der Einrichtung der Ursprünge im Gerät abhängen. Diese Strahlenkonfigurationscharakteristiken-Datenmengen sind dazu konfiguriert, als Datendateien gespeichert zu werden.
  • 12 zeigt Tabelle 1, bei der es sich um eine typische Laserspezifikation für die Verwendung als Lichtquelle in beliebigen der Projektionsgerät-Ausführungsformen handelt.
  • In den bevorzugten Ausführungsformen sieht das Projektionsgerät das direkte Anbringen einer Bilderzeugungsvorrichtung am Projektionsgerät oder die Integration einer Projektionsanordnung in der Bilderzeugungsvorrichtung selbst vor. In weiteren Ausführungsformen und wie in 1 gezeigt, kann jedoch eine Halterungsvorrichtung bereitgestellt werden, die dazu konfiguriert ist, ein Projektionsgerät und eine Bilderzeugungsvorrichtung in einer festen räumlichen und Winkelanordnung anzubringen.
  • Die vorliegende Erfindung umfasst ein Verfahren zum Ermitteln dreidimensionaler Positionsdaten aus einem Sehfeld. Dieses Verfahren umfasst die Schritte des Erfassens eines Sehfelds, wobei im Sehfeld eine Vielheit optisch erfassbarer Marken enthalten sind, die, wie zuvor beschrieben, von einem Projektionsgerät projiziert werden. Ein zweidimensionales Bild wird auf einer Bildplatte mit einem Feld von Pixeln erfasst. Unter Kenntnis einer Menge von Kalibrationswerten wird eine Menge von Orientierungswerten bestimmt, die die Orientierung der Bildplatte bezüglich der Auftreffebene beschreiben. Die Orientierung jedes Reflektivitätsbereichs im Sehfeld kann dann bestimmt werden und zum Erzeugen einer dreidimensionalen Datenmenge verwendet werden, die die dreidimensionale Position jedes Reflektivitätsbereichs im Sehfeld beschreibt.
  • In 17 wird ein Flussdiagramm gezeigt, dass eine Übersicht der Hauptverfahrensschritte zeigt, die bei der Bestimmung von Positions-Felddaten aus Reflektivitätsbereichen in einem Sehfeld ausgeführt werden. Zunächst wird ein Bild eines Sehfelds, in das eine Vielheit von Marken eingeführt wurde, erfasst, wobei die räumlichen und Winkelverhältnisse der Marken zur Bildplatte bekannt sind oder bestimmt werden können. Dieses erfasste Bild 1701 wird auf einen PC, Laptop oder ein anderes Verarbeitungsmittel geladen und die Bilddatei wird geöffnet 1702. Es wird eine Kontrolle ausgeführt, um festzustellen, ob ein Satz gültiger Kamera- und Bildkalibrationsdaten bekannt ist 1703. Wenn die Kalibrationsdaten unbekannt sind, wird das Kamerakalibrationsverfahren 1704 ausgeführt. Nachdem die Kalibrationsdaten bestimmt wurden, wird das Bild verarbeitet 1705, um den Bildtyp und Einzelheiten zur Bilderzeugungsvorrichtung, von der das Bild erhalten wurde, zu bestimmen und diese Informationen werden gespeichert. Die in das Bild eingeführten Marken werden dann identifiziert 1706. Die Winkel- und räumlichen Offsets der Strahlursprünge von der Mitte der Bildplatte werden berechnet 1707 und darauf folgt eine Bestimmung der Orientierung der Bildplatte zu jedem Reflektivitätsbereich im Sehfeld des Bilds 1708. Die Berechnung dieser Orientierungsinformationen ermöglicht die weitere Berechnung von Entfernungsmaßen 1709 zu jedem Reflektivitätsbereich im Sehfeld und die Berechnung lotrechter Höhenmaße 1710 jedes ausgewählten Reflektivitätsbereichs von einer Auftreffebene. Durch Kombinieren dieser Informationen mit den Orientierungswerten für Neigung, Schwenkung und Verdrehung wird die Bestimmung der Positions-Felddaten jedes Reflektivitätsbereichs im Sehfeld in drei Dimensionen ermöglicht.
  • Um die Analyse des erfassten Bilds durchzuführen, muss eine Menge von Kalibrationswerten, die das Verhältnis der Bildplatte zu den Strahlursprüngen bezüglich ihrer räumlichen und Winkel-Offsets beschreiben, bestimmt werden. Kalibrationswerte können auf eine Reihe verschiedener Arten bestimmt werden, für das bevorzugte Verfahren müssen die Brennweite der Bildplatte und die Trennung zwischen jedem Strahlursprung und der Bildplattenmitte (der Offset) bekannt sein.
  • Die Kamerakalibrationsinformationen können ohne Weiteres vom Hersteller der Bilderzeugungsvorrichtung oder aus dem Handbuch erhalten werden und zusammen mit der bekannten vorbestimmten Position der Strahlursprünge eines Projektionsgeräts verwendet werden. Eine Kalibration als solche ist nur erforderlich, wenn die Informationen zu Kamerabildplatte und optischen Eigenschaften nicht anderweitig zur Verfügung stehen.
  • Wenn die Kamera- und Projektionsgerätkalibrationen bekannt sind, lässt sich die Gesamtkalibration des kombinierten Geräts ohne Weiteres bestimmen. Beispielsweise umfasst die erste Ausführungsform eines Projektionsgeräts, gezeigt in 10, zwei Strahlursprünge, die jeweils eine Vielheit von Strahlen projizieren, wobei die Trennung der Strahlursprünge von der Halterungsposition der die Bilderzeugungsvorrichtung bildenden Digitalkamera bekannt ist oder gemessen werden kann. Die Brennweite der Bilderzeugungsvorrichtung und die genaue Position der Mitte der Bildplatte können aus den Herstellerinformationen gewonnen werden. Dementsprechend werden die x-, y- und z-Offsets der Strahlursprünge von der Mitte der Bildplatte bestimmt. Außerdem werden die x- und z-Pixeldimensionen aus den Herstellerinformationen bestimmt. Musterkalibrationswerte umfassen folgendes:
    • • x-, y- und z-Offsets jedes Strahlursprungs von der Bildplatte, wobei die Offsets jeweils die Entfernung in jeder der dreidimensionalen Achsen von den Strahlursprüngen zur Bildplatte sind;
    • • x- und z-Pixeldimensionen;
    • • Abweichungswinkel der Bildplatte von der Normalebene;
    • • Bildplattenbreite und -höhe;
    • • x- und z-Bildplattenblickwinkel;
    • • Brennweite der Bilderzeugungsvorrichtung.
  • Die Kalibrationsdetails können in einer Datendatei gespeichert werden, beispielsweise in einer exif-Datendatei, wie in der Veröffentlichung "Digital still camera image file format standard, version 2.1, Dezember 1998, Japan Electronic Industry Development Association" bestimmt, die durch Literaturhinweis hierin eingefügt ist. Dementsprechend kann ein Softwarepaket bereitgestellt werden, in dem vorbestimmte Kalibrationswerte und Strahlenkonfigurationscharakteristiken für eine Vielheit von Bilderzeugungsvorrichtungen, z. B. Digitalkameras mehrerer Hersteller, gespeichert sind. Der Benutzer wählt einfach das Digitalkameramodell, das zum Erzeugen des zweidimensionalen Bilds verwendet wurde und die korrekten Kalibrationswerte und Strahlenkonfigurationscharakteristiken für eine bestimmte Kamera und ein bestimmtes Projektionsgerät werden jeweils für die Verwendung bei der Bestimmung von Orientierungswerten und dreidimensionalen Positionsdaten von Reflektivitätsbereichen im Sehfeld abgerufen.
  • 28 zeigt Tabelle 3, die Beispiele der Kalibrationswerte beschreibt, die gewonnen werden können, wenn eine spezifische Untermenge der Kalibrationswerte bekannt ist.
  • Ein Beispiel einer Digitalkamera mit einer assoziierten exif-Bilddatei ist die Minolta® DimageTM7.
  • Für Bilderzeugungsvorrichtungen, bei denen Aspekte der benötigten Kalibrationswerte unbekannt sind, können die Kalibrationswerte bestimmt werden, indem eine Kamera in einer vorbestimmten Position von einer Bezugsebene mit einem markiertem Maßstab angebracht wird. Eine Vielheit von Bildern wird in einer Vielheit vorbestimmter Entfernungen von der Bezugsebene aufgenommen, so dass eine Maßstabsberechnung durchgeführt werden kann, die bekannte Kamerainformationen zur Brennweite der Kamera und der fotografischen Auflösung der Kamera kombiniert, wodurch die Bestimmung der übrigen Kalibrationswerte ermöglicht wird, die dann in einer spezifischen, sich auf die gewählte Bilderzeugungsvorrichtung beziehende Datendatei gespeichert werden können. Im Allgemeinen können alle Kalibrationsinformationen zu einer bestimmten Kamera- und Projektionseinheit aus den Herstellerinformationen und den Daten der exif-Datei bestimmt werden, wobei die kombinierten Kalibrationswerte in einer einzigen Datendatei gespeichert werden. Der Benutzer muss keine Kalibrationsschritte als solche ausführen.
  • Durch Verwenden einer Menge von Kalibrationswerten, die für eine bestimmte Bilderzeugungsvorrichtung spezifisch sind, und von Strahlenkonfigurationscharakteristiken, die für ein bestimmtes Projektionsgerät spezifisch sind, kann eine Bildanalyse durchgeführt werden, indem eine Menge von Orientierungswerten implementiert wird, um räumliche Positionsdaten aus dem erfassten Bild zu berechnen, die von der Vielheit in das Bild eingeführter optischer Marken mit bekannten zugehörigen Winkeln und räumlichen Verhältnissen zur Bildplatte gelieferte Informationen kombinieren.
  • Da jede Menge von Kalibrationswerten für einen Bildplattentyp spezifisch ist, wird eine Vielzahl von Kalibrationsdatendateien benötigt, wobei der Benutzer spezifische Datendateien auswählt, die die entsprechenden Kalibrationsdaten und Strahlenkonfigurationscharakteristiken für eine beliebige Kombination aus Bilderzeugungsvorrichtung und Projektionsgerät umfassen. Diese Auswahl von Kalibrationswerten für verschiedene Digitalkameras und Strahlenkonfigurationscharakteristiken für verschiedene Projektionsgeräte wird in einem Softwarepaket bereitgestellt, so dass der Benutzer dieses Paket für die spezifische, zum Erfassen des Bilds verwendete Hardware individuell anpassen kann. Kalibrationswerte und Strahlenkonfigurationscharakteristiken können für verschiedene Bilderzeugungsvorrichtungen und Projektionsgeräte gespeichert werden, wobei unterschiedliche Projektionsgeräte unterschiedliche resultierende räumliche und Winkel-Offset-Werte haben.
  • 13 zeigt Tabelle 2, die eine Musterauswahl kommerzieller Informationen enthält, die beim Kauf einer Digitalkamera eines bestimmten Herstellers verfügbar sind.
  • In 18 sind die Verfahrensschritte zum Verarbeiten der hochgeladenen Bilddatei in einem Verarbeitungsmittel gezeigt. Die hochgeladenen Bildinformationen 1705 können eine Vielheit von Bilddateitypen sein, z. B. BMP, JPEG, GIF, TIF oder ein anderer Bilddateityp. Der passende Bilddateityp wird gewählt 1801 und anschließend wird eine weitere Kontrolle auf Kamerainformationen durchgeführt 1802. Wenn die Kamerakalibrationsinformationen nicht vorliegen, können sie aus einer Datendatei 1803 oder über ein Kamerakalibrationsverfahren 1804 eingeführt werden. Nachdem die Kamerakalibrationsinformationen erhalten wurden, wird dem Bild eine Kennnummer 1805 zugewiesen. Bevor die Bilddaten gespeichert werden 1807, wird eine weitere Kontrolle des Bildtyps vorgenommen 1806. Die zum spezifischen Bild gehörenden Kamerakalibrationsdaten werden ebenfalls gespeichert 1808 und mit dem Bild assoziiert. So kann eine kombinierte Menge von Kameradetails und zugehörigen Bilddetails 1809 in einem Speichermittel gespeichert werden. Das Bild wird dann geladen und angezeigt 1810, um die Position der optischen Marken 1706 im erfassten Bild zu bestimmen. Das Speichern, Verarbeiten und Anzeigen der Bildinformationen eignet sich zum Implementieren durch einen herkömmlichen PC, Macintosh® Computer oder Ähnliches.
  • Um eine Menge von Orientierungswerten zu ermitteln, wird die Position jeder optischen Marke im erfassten Bild identifiziert, um den Ort des mindestens einen Pixels zu bestimmen, in dem sich die optische Marke im Bild befindet. Dies ist im Wesentlichen eine Suche nach Laserpunkten, die manuell durchgeführt werden kann, wobei ein zweidimensionales Bild (z. B. BMP, JPEG, MPEG, GIF, TIF oder anderer Dateityp) zur Betrachtung auf einen Computer hochgeladen wird. Die manuelle Ortsbestimmung der Punkte wird vom Benutzer vorgenommen, wobei der Benutzer die optischen Marken im zweidimensionalen erfassten Bild identifiziert und hervorhebt, z. B. durch einen Mausklick. Alternativ kann eine automatische Suche nach den optischen Marken durchgeführt werden, wobei das Bild nach Licht einer bestimmten Wellenlänge durchsucht wird, typischerweise einer Wellenlänge von 635 nm oder 650 nm. Alternative Verfahren sind eine Suche auf Fourier-Transformations- oder Farbbasis. Nachdem der Ort aller optischer Marken im zweidimensionalen erfassten Bild identifiziert ist, kann der Orientierungsschritt ausgeführt werden.
  • 19 zeigt den Prozess des Suchens nach optischen Marken in einem zweidimensionalen Bild eines Sehfelds, das eine Vielheit optischer Marken enthält, die in das Sehfeld eingeführt wurden. Das hochgeladene Bild wird über seine gesamte Breite und Höhe durchsucht, bis eine Farbentsprechung, typischerweise für eine optische Marke der Wellenlänge 635 nm oder 650 nm erhalten wird 1901. Nachdem eine Farbentsprechung gefunden wurde, werden Daten zur x- und z-Position des entsprechenden Pixels gespeichert. Für jeden identifizierten Punkt wird eine Prüfung der benachbarten Pixel in der x- und z-Richtung durchgeführt 1902. Die Suche wird in einem Spiralmuster fortgesetzt, bis alle optischen Marken gefunden und ihre Ortskoordinaten gespeichert wurden. Die Anzahl identifizierter Punkte wird berechnet 1903 und anhand der bekannten Anzahl der in das Bild eingeführten Punkte überprüft. Dann erfolgt eine Filterung, um falsche Markenpunkte 1904 zu entfernen. Es wird eine Berechnung durchgeführt, um die optimale Mitte jedes Punkts zu bestimmen 1905. Die optimale Mitte jedes Punkts wird mit Informationen aus dem Pixelfeld kombiniert 1906 und anschließend werden alle Punkte im Feld sortiert und geprüft 1907, um weiter jede Marke im Feld genau zu identifizieren. Alle Punkte im Feld werden dann berechnet und validiert, so dass jeder Punkt im Feld an einem bestimmten Ort identifiziert wird 1908, worauf jeder Punkt im Feld assoziiert werden kann 1909. Es wird ein weiterer Validierungsschritt, um die Position jeder Marke zu prüfen und den Ort jeder Marke über eine Analyse der Genauigkeit jeder identifizierten Marke auf Sub-Pixel-Niveau zu bestimmen 1910 durchgeführt. Es wird eine Kurvenanpassung vom Typ Mx + c 1911 implementiert, kombiniert mit einem Reduktionsschritt nach dem Verfahren der kleinsten Quadratsumme oder einer beliebigen anderen Fehlerreduktionsroutine. Die Daten zum Ort jeder identifizierten Marke werden dann gespeichert. Dieser Prozess kann dann für das nächste Bild wiederholt werden.
  • Bevor die Orientierungsanalyse durchgeführt werden kann, erfolgt eine Bestimmung der Koeffizienten der Strahlursprungs-Offsets von der Bildplattenmitte. Wie in 20 zu sehen ist, erfordert dieser Prozess die Berechnung des Bildplatten-Offsets 2001 durch Lesen der Kalibrationsdaten zu den Strahlursprungstrennungen in X-, Y- und Z-Richtung von der Bildplattenmitte (2002, 2003, 2004). Es wird ein Koeffizient W für jede optische Marke berechnet 2005, was die Bestimmung einer Menge von Strahlursprungs-Offset-Werten 2006 ermöglicht. Diese Daten ermöglichen die Berechnung eines Aufstellungs-Winkelfehlers der Bilderzeugungsvorrichtung am Projektionsgerät 2007. Es wird eine Prüfung der Genauigkeit der Ergebnisse durchgeführt 2008. Nachdem die Position der optischen Marken im Bild bestimmt wurde, eine Menge von Kalibrationswerten bekannt ist und eine Menge von Offset-Werten bestimmt wurde, wird eine Bestimmung der Bildplattenorientierung bezüglich jedes Reflektivitätsbereichs im Sehfeld durchgeführt 1708.
  • Die Strahlursprungs-Offsets werden wie folgt bestimmt 2006:
  • Figure 00360001
  • Wobei:
    • • X = Strahlursprungstrennung in x-Richtung;
    • • Z = Strahlursprungstrennung in z-Richtung;
    • • xi = Bildposition in x-Richtung;
    • • zi = Bildposition in z-Richtung;
    • • Wi = Koeffizient der x-Achse;
    • • Wp = Koeffizient der z-Achse
  • Da das Verfahren zum Bestimmen dreidimensionaler Positionsdaten von Reflektivitätsbereichen in einem Sehfeld auf dem Verhältnis zwischen der physikalischen Dimension einzelner Pixel in einer Bildplatte und der Fläche des von diesem Pixel aufgenommen wahren Bilds im Sehfeld beruht, muss, um die benötigten dreidimensionalen Positionsdaten zu erhalten, ein Orientierungsschritt durchgeführt werden. Der Orientierungsschritt bestimmt den Betrag der relevanten Orientierungswerte der Kamerabildplatte, als ein bestimmtes erfasstes Bild erhalten wurde. Die Orientierungswerte umfassen Neigung, Schwenkung, Verdrehung und Höhe der Bildplatte gegenüber jedem der Reflektivitätsbereiche im Sehfeld als das Bild erfasst wurde.
  • Die Orientierungswerte Neigung, Schwenkung und Verdrehung haben folgende Definitionen unter Verweis auf 14, wobei 1401 die Bildplatte ist und 1402 die Auftreffebene;
    • • Die Neigung wird durch eine Rotation um die x-Achse definiert;
    • • Die Verdrehung wird durch eine Rotation um die y-Achse definiert;
    • • Die Schwenkung wird durch eine Rotation um die z-Achse definiert.
  • Die y-Achse wird durch die optische Achse der Kamera repräsentiert, die Höhe der Bildplatte definiert die z-Achse und die Breite der Bildplatte definiert die x-Achse. Das Objektiv der Kamera hat definitionsgemäß die Koordinatenpositionen 0, 0, 0.
  • 14 zeigt weiter die Entfernungen XG, YG und ZG. Dies sind die Entfernungen von dem Punkt, in dem die jeweilige Ebene schneidet, wobei die Neigungs- und Schwenkbeträge berücksichtigt werden. In manchen Bedingungen ist es nicht möglich, alle diese Werte zu bestimmen, da die jeweilige Ebene die entsprechende Achse nicht schneidet. Wenn die Ebene beispielsweise senkrecht zur Normalen ist, sind Neigung und Schwenkung null. Die Verdrehung ist daher unbekannt, da ZG und XG beide unendlich sind.
  • Die mathematischen Definitionen von Neigung, Schwenkung und Verdrehung lauten wie folgt:
    • • Der Vektor (N, 1, M) definiert die Normale zu der Ebene, für die Schwenkung und Neigung bestimmt werden, wobei: Nx + y + Mz = YG Gleichung 4
    • • der Schwenkwinkel gegeben ist durch: α = –tan–1N Gleichung 5
    • • der Neigungswinkel gegeben ist durch:
      Figure 00370001
    • • der Verdrehungswinkel gegeben ist durch:
      Figure 00380001
  • Wobei N den Neigungskoeffizienten und M den Schwenkkoeffizienten repräsentiert.
  • 15 ist eine repräsentative Darstellung der Auswirkung von Schwenkung und Neigung und dem wahren Raum, der von einem einzigen Pixel absorbiert wird. Der Winkel 1501 ist die Neigung und der Winkel 1502 ist die Schwenkung der Bildplatte gegenüber der Ebene des Sehfelds. Es ist ohne Weiteres zu sehen, dass je nach Orientierung der Bildplatte 1505 zur Ebene 1506, die von einem Pixel absorbierte Fläche der Ebene (der Wert des Pixels) abhängig von der Orientierung der Bildplatte gegenüber der Ebene 1506 verschieden ist. Der lineare Wert des Pixels in z wird durch 1503 repräsentiert, der lineare Wert des Pixels in y wird durch 1504 repräsentiert und der lineare Wert des Pixels in x wird durch 1508 repräsentiert. Wird diese Anordnung umgekehrt, um eine feste Orientierung der Bildplatte mit veränderlicher Neigung, Schwenkung und Verdrehung im Sehfeld zu erhalten, verändert sich die von einem einzigen Pixel absorbierte Fläche des wahren Raums mit den Orientierungswerten, die daher für eine dreidimensionale Position jedes der Reflektivitätsbereiche im Sehfeld repräsentativ sind.
  • Die zum Berechnen von Neigung, Schwenkung und Verdrehung der Bildplattenmitte bei der Aufnahme des Fotos (Bilderfassung) benötigten Eingabedaten sind die folgenden:
    • • Brennweite der Kamera;
    • • x- und z-Pixeldimensionen;
    • • x- und z-Pixelpositionen der lokalisierten optischen Marken im Bild;
    • • x- und z-Bildauflösung;
    • • Strahlenkonfigurationscharakteristiken und Offset zwischen Ursprung und Bildplatte.
  • Nicht ausschließende Ausgabedaten der Bestimmung der Orientierungswerte sind:
    • • Neigungsabweichung der Kamera gegenüber der Ebene;
    • • Schwenkungsabweichung der Kamera gegenüber der Ebene;
    • • Höhe der Kamera gegenüber der Bildplattenmitte;
    • • Verdrehungsabweichung der Bildplatte;
    • • Mittenachse der Ebene, in der die Marken auftreffen (YG); und
    • • XG, ZG und die kürzeste Entfernung zur Ebene.
  • Die Bestimmung der Bildorientierung umfasst die Bestimmung einer Menge von Orientierungswerten mittels Vektoranalyse. Die Berechnungen eignen sich für die Matrizenanalyse. Die Berechnungsschritte werden vorzugsweise implementiert, indem ein Softwarepaket auf einem PC oder einem anderen Verarbeitungsmittel ausgeführt wird.
  • Wie in 21 zu sehen ist, erfordert die Bestimmung der Bildplattenorientierung 1708 die Berechnung von Schwenkung, Neigung und dem Mittenachsenkoeffizienten sowie den resultierenden Koeffizientenkomponenten 2101. Die Berechnung dieser Koeffizienten ist unter Schritt 2102 bis 2109 abgebildet. Um Fehler zu reduzieren, wird für alle Punkte eine Berechnung der Quadratsumme 2110 durchgeführt, wobei die resultierenden Gleichungen gleichzeitig für Neigung, Schwenkung und Entfernung von den Auftreffebenen gelöst werden 2112. Die resultierenden Neigungs- und Schwenkwerte werden senkrecht zur Auftreffebene 2111 referenziert. Jeder der Neigungs- und Schwenkwerte wird in Winkelmessungen 2113 umgewandelt. Die folgende Legende bezieht sich auf 21:
    • • N repräsentiert den Neigungskoeffizienten;
    • • M repräsentiert den Schwenkkoeffizienten;
    • • Yg = Entfernung des Mittenachsenschnittpunkts;
    • • Rhs = Koeffizient der rechten Seite;
    • • xi = Bildpunkt in x;
    • • zi = Bildpunkt in z;
    • • fd = Brennweite;
    • • Xo = X-Offset des Strahlursprungs;
    • • Yo = Y-Offset des Strahlursprungs;
    • • Zo = Z-Offset des Strahlursprungs;
    • • B1 = Vektorrichtung, Winkel nach oben/unten der Lichtstrahlen;
    • • B3 = Vektorrichtung, Winkel nach rechts/links der Lichtstrahlen.
  • Wobei N, M, YG die die Auftreffebene definierenden Vektoren sind.
  • Die Berechnung der x-Bildkoordinaten erfolgt nach: N(xiy1b1 – xix1) + M(xiy1b3 – xiz1 + dx1b3 – dz1b1) + YG(xi + db1) = –dx1 + dy1b1 Gleichung 10
  • Die Berechnung der z-Bildkoordinaten erfolgt nach: N(ziy1b1 – zix1 + dz1b1 – dx1b3) + M(ziy1b3 – ziz1) + YG(zi + db3) = –dz1 + dy1b3 Gleichung 11
  • Wobei:
    • • YG = Entfernung des Mittenachsenschnittpunkts (Entfernung der optischen Achse von der Auftreffebene);
    • • N den Neigungskoeffizienten repräsentiert;
    • • M den Schwenkkoeffizienten repräsentiert;
    • • xi, zi = Bildebenenkoordinaten;
    • • x1, y1, z1 = Strahlursprungskoordinaten;
    • • d = Brennweite;
    • • b1, b3 = Winkelrichtung jedes Lichtstrahls.
  • Wie ebenfalls in 21 zu sehen ist, werden die Auftreffebenenfehler durch eine Quadratsumme 2110 nach untenstehender Gleichung 6 berechnet:
  • Figure 00410001
  • Für Objekte in einer Ebene muss die Position eines Reflektivitätsbereichs sowohl in der Ebene als auch außerhalb der Ebene ermittelt werden. Wenn:
    R1 R2 ein Objekt mit einer Kante in der Auftreffebene ist; und
    R1 in der Ebene abgebildet wird; und
    R2' bezüglich der Auftreffebene senkrecht über dem Punkt R1 abgebildet wird; und
    R2 der Punkt in der Ebene selbst ist, wenn das Objekt ohne Tiefe in der Ebene liegen würde.
  • Dementsprechend sind Bildpunkt und Auftreffebene folgendermaßen gegeben:
    Bildpunkt Koordinaten (x, z) in mm
    I1 (p1, –d, q1) auf der Bildplatte gemessen
    I2 (p2, –d, q2) außerhalb der Bildplatte gemessen
    Gleichung 13 und,
  • Figure 00420001
  • Figure 00430001
  • Dementsprechend werden die der Schwenkung, der Neigung und der Verdrehung jedes abgebildeten Reflektivitätsbereichs entsprechenden Z- und X-Weltkoordinaten für jeden Vektor berechnet.
  • Die Auftreffebene ist die, entweder im Sehfeld vorhandene oder eingeführte, Ebene im Sehfeld, auf die die Marken projiziert werden. Für Bildanalysezwecke werden nur die auf der Auftreffebene vorhandenen Marken analysiert, Marken die außerhalb der Auftreffebene auf das Sehfeld auftreffen werden als falsche Marken herausgefiltert.
  • Die Auftreffebene bietet eine Bezugsebene, von der aus eine Reihe von Rotationstransformationen durchgeführt werden können. Das ermöglicht die Bestimmung der Koordinaten eines Punkts auf der Auftreffebene in einem lokalen Koordinatensystem unter Verwendung der in den Kameraachsen ausgedrückten Koordinaten. Da die Vektordefinitionen der Auftreffebene in x-, y- und z-Richtung als (XG, 0, 0), (0, YG, 0) bzw. (0, 0, ZG) gegeben sind, sind Rotationstransformationen von (x, y, z, 1) zu (X, Y, Z, 1) möglich. Diese Translationen und Transformationen werden über eine Matrizenanalyse vorgenommen, wobei ein Translationsschritt in x-, y- und z-Richtung, gefolgt von einer Rotation zur Berücksichtigung von Neigung, Verdrehung und Schwenkung durchgeführt wird.
  • In einer Beispieltransformationen wird das Verschieben des Achsenursprungs betrachtet, so dass die x- und die z-Achse in der Auftreffebene liegen. Die homogenen Bildkoordinaten sind (x, y, z, 1), wobei die y-Koordinate –d ist (das Negative der Brennweite) und die homogenen Auftreffebenenkoordinaten sind (X, Y, Z, 1), wobei Z gleich 0 erwartet wird, um Punkte in der Auftreffebene zu beschreiben. Um zwischen den beiden zu transformieren, wird eine Translation vorgenommen, um den Ursprung an den Fuß (F bei (0, 0, ZG)) der Kamera zu verschieben, gefolgt von einer Rotation um die x-Achse, um die neue y-Achse auf die Gerade zu bringen, die F mit YG verbindet. Drittens wird der Verdrehungswinkel bestimmt, indem die Änderung des Normalenvektors ermittelt wird. Dies wird gefolgt von einer Rotation, um die neue x-Achse zu erhalten, die in der Auftreffebene liegt. Zusammenfassend wird die Verschiebung des Ursprungs um eine positive Strecke/wie folgt durchgeführt:
  • Figure 00440001
  • Um für einen Punkt in der Auftreffebene, für den die lokalen Koordinaten angegeben sind, wieder die Koordinaten bezüglich der Kameraachsen zu erhalten, wird das Inverse dieser Matrizengleichung verwendet:
    Figure 00450001
    wobei die Z-Koordinate für einen Punkt auf der Auftreffebene Null ist.
  • Die Ausgabe des in 17 bis 21 beschriebenen Orientierungsprozesses ist die Ermittlung einer Menge von Orientierungswerten, die die Orientierung jedes Pixels in der Bildplatte gegenüber den optischen Marken im zweidimensionalen Bild des Sehfelds beschreiben. Nachdem diese Orientierungswerte bestimmt wurden, kann das gesamte Pixelfeld bezüglich aller Reflektivitätsbereiche im Sehfeld in der wahren Welt unter Verweis auf die Bildplatte orientiert werden. Dies liefert Informationen zu jedem Pixel und der Fläche in der wahren Welt, mit der jedes Pixel assoziiert ist (dem Wert des Pixels). 16 zeigt die wahre Fläche, die ein Pixel 1605 im zweidimensionalen erfassten Bild repräsentiert. Unter Verweis auf 16 gelten folgende Aussagen:
  • Wenn die Höhe veränderlich ist und Neigung, Schwenkung und Verdrehung der Ebene im Sehfeld konstant bleiben, gilt:
    • • Mit zunehmender Bildhöhe in z-Richtung nimmt die von einem Pixel repräsentierte Fläche in x und y zu (vergleiche 1601 und 1603);
    • • Mit abnehmender Bildhöhe in z-Richtung nimmt die von einem Pixel repräsentierte Fläche in x und y ab.
  • Wenn die Neigung veränderlich ist und Höhe, Schwenkung und Verdrehung konstant bleiben, gilt:
    • • Mit zunehmendem Bildneigungswinkel nimmt die von einem Pixel repräsentierte Fläche in x und y zu;
    • • Mit abnehmendem Bildneigungswinkel nimmt die von einem Pixel repräsentierte Fläche in x und y ab.
  • Wenn die Schwenkung veränderlich ist und Höhe, Neigung und Verdrehung konstant bleiben, gilt:
    • • Wenn der Schwenkwinkel null ist, bleibt die Entfernung in x und y für jede y-Achse in x konstant;
    • • Wenn der Schwenkwinkel eingeführt wird, ist die Auswirkung auf die Entfernung in x- und y-Richtung veränderlich;
    • • Wenn der Schwenkwinkel positiv ist, nimmt der Pixelwert zur linken Hälfte zu und zur rechten ab;
    • • Wenn der Schwenkwinkel negativ ist, nimmt der Pixelwert zur linken Hälfte ab und zur rechten zu.
  • Die Orientierung des gesamten Pixelfelds in der wahren Welt bezüglich der Kamerabildplatte kann daher berechnet werden.
  • Um die dreidimensionalen Positionsdaten jedes Reflektivitätsbereichs im Sehfeld zu berechnen, wird die Bildanalyse durchgeführt, um die wahren X-, Y- und Z-Positionen für jedes Pixel und der Bildplatte nach Gleichungen 4 bis 17 zu bestimmen. Die Bildanalyse umfasst die Bestimmung der Konvergenz von Punkten oder Ebenen im Raum. Für die Bildanalyseschritte müssen folgende Daten ermittelt werden:
    • • x- und z-Pixeldimensionen;
    • • x- und z-Pixelposition;
    • • x- und z-Bildauflösung;
    • • Neigungs-, Schwenkungs- und Verdrehungsabweichung der Bildplatte gegenüber der Ebene (es ist eine Verdrehung in der senkrechten Ebene vorhanden);
    • • YG
  • Für Reflektivitätsbereiche in derselben x-Ebene wird eine Bestimmung von x und z mit vielen y durchgeführt und alle Vektoren aus x, y und z werden bestimmt. Wenn sich alle Reflektivitätsbereiche nicht in derselben x-Ebene befinden, wird eine Berechnung von x und y mit vielen z durchgeführt, um alle Vektoren x, y und z zu berechnen. Diese Daten werden gespeichert.
  • Die aus der Bildorientierung bestimmten Ausgabedaten sind die folgenden:
    • • Ein Pixelfeld mit entsprechenden wahren X-Positionsdaten für jedes Pixel im erfassten Bild;
    • • Ein Pixelfeld mit allen wahren Y-Positionsdaten für jedes Pixel im erfassten Bild;
    • • Ein Pixelfeld mit allen wahren Z-Positionsdaten für jedes Pixel im erfassten Bild.
  • Die wahren X-, Y- und Z-Weltkoordinaten können dann für jedes Pixel, das den dreidimensionalen Positionsdaten jedes Reflektivitätsbereichs im auf der Bildplatte erfassten Sehfeld entspricht, ermittelt werden.
  • Diese wahren gespeicherten X-, Y- und Z-Weltdaten sind die Hauptdaten, anhand derer eine dreidimensionale Abbildung/Modell des erfassten Bilds rekonstruiert werden kann. Ein weiterer Schritt im Bildanalyseprozess besteht darin, ein Randerfassungsmodul einzusetzen, um das erfasste zweidimensionale Bild systematisch nach Objekt- und Punkträndern im erfassten Bild zu durchsuchen. Die Randerfassungsergebnisse können dann mit den X-, Y- und Z-Weltpositionsdaten korreliert werden, um einen endgültigen X-, Y- und Z-Datensatz zu liefern. Dieser endgültige X-, Y- und Z-Datensatz kann dann verwendet werden, um dreidimensionale Modelle der Reflektivitätsbereiche im erfassten Bild zu rekonstruieren, das heißt ein virtuelles dreidimensionales Modell von Objekten und Oberflächen im Sehfeld zu rekonstruieren.
  • Wie in 22 zu sehen ist, ermöglichen die erhaltenen Orientierungswerte die Berechnung der Entfernung von jedem Reflektivitätsbereich im Sehfeld. Kombiniert mit der Orientierung bezüglich Neigung, Schwenkung und Verdrehung der Bildplatte, ermöglicht dies die Bestimmung der dreidimensionalen Positionsdaten jedes Reflektivitätsbereichs im Sehfeld. Die Entfernungsmessung umfasst die Berechnung des Bildmittelpunkts 2201, die Orientierungswerte und Kamerakalibrationsdetails 2202 werden abgerufen und die X-, Y- und Z-Weltkoordinaten auf der Auftreffebene (2203 bis 2205) werden bestimmt, wobei:
    • • Px = Punkt von Interesse in x;
    • • Pz = Punkt von Interesse in z;
    • • Ix = x-Pixelgröße;
    • • Iz = z-Pixelgröße;
    • • M die Ebenenneigung repräsentiert;
    • • N die Ebenenschwenkung repräsentiert;
    • • Yg = Entfernung des Mittenachsenschnittpunkts.
  • In 23 sind die Prozessschritte für die Bestimmung der senkrechten Höhe eines Reflektivitätsbereichs von einer Auftreffebene im Sehfeld beschrieben. Die Mitte des Bilds wird als Bezugspunkt 2301 berechnet. Die berechneten Orientierungswerte und die Kamerakalibrationswerte werden abgerufen und es werden die x- und z-Koordinaten eines ersten Reflektivitätsbereichs berechnet (2302, 2303). Dann werden die Koordinaten eines zweiten ausgewählten Reflektivitätsbereichs bestimmt 2304. Diese Bestimmungen erfolgen gleichzeitig (2305 bis 2309), um die Höhe des ersten Bezugspunkts von der Auftreffebene zu bestimmen.
  • Legende zu 23
    • • Px1 = erster gewählter Punkt von Interesse in x;
    • • Pz1 = erster gewählter Punkt von Interesse in z;
    • • Px2 = zweiter gewählter Punkt von Interesse in x;
    • • Pz2 = zweiter gewählter Punkt von Interesse in z;
    • • Ix = x-Pixelgröße;
    • • Iz = z-Pixelgröße;
    • • M repräsentiert tan (Ebenenneigung);
    • • N repräsentiert tan (Ebenenschwenkung);
    • • Yg = Entfernung des Mittenachsenschnittpunkts;
    • • Fd = Brennweite.
  • Die Hauptschritte zum Erhalten eines dreidimensionalen Positionsdatensatzes von Reflektivitätsbereichen in einem Sehfeld, ausgehend von einem erfassten zweidimensionalen Bild, das von einem Projektionsgerät in ein Sehfeld eingeführte optische Marken enthält, wobei eine Menge von Kalibrationswerten für die Bildplatte bestimmt wurden und eine Menge von Strahleigenschaften für das Projektionsgerät gewählt werden, sind in 24 zusammengefasst. Wie in 24 zu sehen ist, wird im gesamten erfassten zweidimensionalen Bild nach jeder optischen Marke 2401 gesucht und die Offset-Werte werden bestimmt. Es erfolgt eine Bestimmung der Orientierungswerte Neigung, Schwenkung, Verdrehung und Höhe 2402. Jedes Pixel wird dann bezüglich der wahren Welt bewertet, indem für jedes Pixel Orientierungswerte ermittelt werden 2403. Es erfolgt eine Bestimmung der Höhe über einer Nullebene 2404. Diese kann optional mit einer Randerfassung gekoppelt werden, die im gesamten erfassten zweidimensionalen Bild durchgeführt wird 2405. Dann wird ein bekannter Punkt (z. B. eine optische Marke) gewählt 2406. Von diesem bekannten Punkt aus wird das zweidimensionale erfasste Bild auf alle Punkte in einer entsprechenden x-, y- oder z-Ebene abgetastet 2407 und jedes Pixel im Bild wird in der selben gewählten Ebene mit dem bekannten Punkt 2408 korreliert. Schritt 2408 wird für alle Ebenen wiederholt, um jedem Pixel wahre Weltkoordinaten X, Y und Z zuzuweisen 2409. Dann wird ein Fehlerkorrekturprozess durchgeführt, um Fehler in der x-, y- und z-Achse auszugleichen 2310. Die zugewiesenen z-Werte werden dann optional mit den Ergebnissen der Randerfassung korreliert und der endgültige Datensatz mit den Koordinaten 2411 wird wieder eingeführt, um einen endgültigen dreidimensionalen Positionsfelddatensatz zu formulieren, der Reflektivitätsbereiche im Sehfeld einer Bildplatte beschreibt, die das analysierte zweidimensionale Bild erfasst hat. Dieser endgültige Datensatz kann dann benutzt werden, um eine virtuelle Abbildung/Modell in drei Dimensionen des Sehfelds zu erzeugen.
  • 25 zeigt ein Bildschirmfenster eines Softwarepakets zum Implementieren der Bildanalyse. Der genaue abgebildete Bildschirm bezieht sich auf die Kalibrationswerte und die Strahlenkonfigurationscharakteristiken. Das Dropdown-Menü 2501 bietet dem Benutzer Optionen zum Auswählen eines oder mehrerer Kamerahersteller. Das jeweilige Modell kann dann durch Auswahl einer Seriennummer im Dropdown-Menü 2502 gewählt werden. Wenn der Benutzer den richtigen Hersteller und das richtige Modell für die zum Erfassen des zu analysierenden Bilds verwendete Kamera ausgewählt hat, wird ein Satz zuvor bestimmter Kalibrationswerte abgerufen und unter dem Titel "Kameradaten" angezeigt. Alternativ kann eine exif-Datei für das jeweilige verwendete Kameramodell hochgeladen werden, die alle benötigten Kameradaten enthält. Außerdem wird das Projektionsgerätmodell ausgewählt, so dass eine Menge vorbestimmter Strahlenkonfigurationscharakteristiken für das Projektionsgerät ausgewählt werden kann, die unter dem Titel "Laserdaten" 2505 angezeigt wird. Über Eingabebildschirme, die über die Links 2506 und 2507 zugänglich sind, können neue Kamera- und Projektionsgerätedaten hinzugefügt werden. Nachdem der Benutzer die korrekten Daten gewählt hat, wird die Dateneingabe bestätigt 2508.
  • Obwohl die Erfindung bezüglich dem Erfassen eines Bilds mit einer eine Vielzahl von Pixeln, die jeweils in der Lage sind, ein Datenpixel zu generieren, umfassenden Bildplatte beschrieben wurde, ist es auch möglich, ein Bild eine Sehfelds mit einer Vielheit optischer Marken hauptsächlich auf einer Analogkamera mit einem Filmformat auf Chemikalienbasis zu erfassen, wobei dieses Filmformat im Rahmen des Stands der Technik bekannt ist. Ein derart gewonnenes fotografisches Bild als Hardcopy, z. B. auf Papier, kann mittels eines digitalen Scanners in einen Datensatz umgewandelt werden, der eine Vielheit von Pixeln umfasst, die ein zweidimensionales Bild bilden, wodurch das Bild digital erfasst wird. Durch Ermitteln einer Menge von Werten, die die Bildplatte mit dem zum Ermitteln des Bilds des Sehfelds und der optischen Marken verwendeten Projektionsgerät in Beziehung setzt, kann eine Menge von Orientierungswerten bestimmt werden, um eine Bildanalyse wie zuvor beschrieben zu ermöglichen, um einen dreidimensionalen Datensatz zu erhalten, der die dreidimensionalen Positionen von Reflektivitätsbereichen im erfassten Bild beschreibt.
  • Entsprechend der oben beschriebenen Bildanalyse kann die wahre X-, Y- und Z-Entfernung von der Mitte der abgebildeten Auftreffebene für einen gegebenen x-, z-Pixel auf der Bildplatte bestimmt werden. Dementsprechend können die wahren X-, Y- und Z-Entfernungen zwischen zwei Punkten im Sehfeld für eine gegebene Orientierung bestimmt werden. So kann aus der Orientierung von zwei Pixeln die Höhe eines Objekts, das auf der Auftreffebene steht, bestimmt werden.
  • Die oben beschriebene vorliegende Erfindung ermöglicht daher, dass eine dreidimensionale Abbildung der Reflektivitätsbereiche in einem Sehfeld aus einem auf einer Bildplatte erfassten zweidimensionalen Bild dieses Sehfelds rekonstruiert wird. Jeder Reflektivitätsbereich entspricht einem Punkt im Sehfeld, von dem Licht oder andere elektromagnetische Strahlung reflektiert wird. Diese reflektierte Strahlung kann dann auf der Bildplatte erfasst werden. Das Ermitteln von Positionsdaten dieser Reflektivitätsbereiche aus einem fotografischen Bild liefert die Fähigkeit, die Position eines Objekts im wahren Raum aus einem Bild dieses wahren Raums genau anzugeben. Eine nicht vollständige Liste von Anwendungsbeispielen der vorliegenden Erfindung umfasst Folgendes:
    • • Vermessung/Kartierung – Ein Bild eines Gebäudes oder eines anderen abzubildenden Bereichs wird auf einer eine Anzahl von Pixeln umfassenden Bildplatte erfasst, wobei das Bild von einem Projektionsgerät projizierte optische Marken umfasst, um die schnelle dreidimensionale Modellierung und Abbildung zu ermöglichen. Es kann eine einzige Aufnahme gemacht und dann entweder durch Herunterladen auf einen Laptop vor Ort analysiert werden oder per E-Mail zur weiteren Analyse an eine Zentrale geschickt werden. Eine solche Analyse dauert zur Zeit zwischen 2 und 4 Minuten, um ein dreidimensionales Modell zu erzeugen und mit zunehmenden Prozessorgeschwindigkeiten wird eine sofortige oder Echtzeitanwendung für die Abbildung vor Ort möglich.
    • • Robotik – Automatische Fabrikproduktionsstraßen brauchen häufig Positionsdaten, um eine Komponente mit einer anderen zusammenzuführen. Wenn dies von automatischen Roboterarmen durchgeführt wird, wird eine schnelle dreidimensionale Modellierung benötigt, um das korrekte Positionieren der Komponenten sicherzustellen. Durch Einbauen einer Kamera in die Roboterarme und ein zugehöriges Projektionsgerät können die benötigten Positionsdaten in Echtzeit ermittelt werden;
    • • Sicherheit – Die vorliegende Erfindung hat Anwendungen bei der Verfolgung von Personen und Objekten, um ihren Aufenthaltsort zu überwachen, einschließlich Sicherheitsanwendungen und Bestandsüberwachungen;
    • • Marketing – Die vorliegende Erfindung hat außerdem Anwendungen beim Erkennen bestimmter Objekte, z. B. Personen, und kann angewandt werden, um die Anzahl von Personen zu überwachen, die sich durch einen Raum bewegen oder eine Verkaufsstelle besuchen und automatisch ihre Bewegungen aufzuzeichnen;
    • • Echtzeit-Videobildmodellierung – Die vorliegende Erfindung ist auch mit der Bilderfassung auf einer digitalen Videokamera kompatibel, wobei ein dreidimensionales Videobild in Echtzeit rekonstruiert werden kann.
  • Ein weiteres Beispiel der Anwendungen der vorliegenden Erfindung wird durch eine weitere Ausführungsform wie folgt veranschaulicht. Die Projektion von Marken in ein Sehfeld ist nicht auf die Projektion von sichtbaren Lichtmarken beschränkt, sondern umfasst Marken, die von Strahlen elektromagnetischer Strahlung erzeugt werden, die sich über das elektromagnetische Spektrum von 10–15 m bis 10–6 m erstreckt. Ein besonderes Beispiel ist die Verwendung von Röntgenstrahlen. Hier nimmt eine Röntgenstrahlquelle die Stelle der Laserdiode ein und ein oder mehrere elektromagnetische Linsenmittel werden dazu konfiguriert, jeden elektromagnetischen Strahl zu fokussieren. Es können einer oder mehrere Strahlteiler eingesetzt werden, um eine gewünschte Anzahl von Marken zu erzeugen. Ein Ursprung kann durch die Röntgenstrahlquelle oder die Linse definiert sein. Betrachten wir die Anwendungen auf dem Gebiet der Medizin. Wird eine Vielheit elektromagnetischer Strahlen in Richtung eines Objekts, z. B. ein menschlicher Körper, mit einer Rückwand aus Blei projiziert, können Röntgenstrahlen von gewissen Geweben, durch die die Röntgenstrahlen nicht dringen oder die für Röntgenstrahlung undurchlässig sind, reflektiert werden. Solche Gewebe umfassen typischerweise Knochen. In dieser Ausführungsform muss der Bereich der Wellenlänge der zum Erzeugen der in das Sehfeld projizierten Marken verwendeten elektromagnetischen Strahlung mit der Bildplatte kompatibel sein, so dass die Bildplatte auf diese Wellenlänge von elektromagnetischer Strahlung empfindlich ist. Durch Projizieren von mindestens 2 oder 3 Röntgenstrahlmarken kann ein Modell des menschlichen Knochenaufbaus aufgebaut werden. Durch Verwendung passender strahlungsempfindlicher Bildplattenfelder, Fokussierungsmittel und elektromagnetischer Strahlungsquellen können die Grundsätze der vorliegenden Erfindung auf elektromagnetische Strahlung im gesamten elektromagnetischen Spektrum angewandt werden. Weitere potenzielle Anwendungen der vorliegenden Erfindung umfassen Thermografie unter Verwendung von Infrarotstrahlung und Fernkartierung unter Verwendung von Radiowellen.
  • In einer weiteren Ausführungsform der vorliegenden Erfindung haben die Erfinder die Grenzen des Einsatzes einer einzigen Bilderzeugungsvorrichtung verstanden. Jede Bilderzeugungsvorrichtung hat einen maximalen Blickwinkel, der die Größe des Sehfelds bestimmt. Folglich können große Felder nicht in einem einzigen Bild erfasst werden. Um dieses Problem zu bewältigen und detaillierte dreidimensionale Positionsdaten großer Sehfelder zu rekonstruieren, muss mehr als ein Bild aufgenommen werden. Dieses Prinzip ist in 26 und 27 veranschaulicht.
  • Wie in 26 zu sehen ist, wird ein erstes Bild in Position 2601 erfasst und ein zweites Bild wird in Position 2602 erfasst. Das erste und das zweite Bild enthalten jeweils einen gemeinsamen Bezugspunkt 2603, der von außen eingeführt werden kann, und die Rekonstruktion dreidimensionaler Positionsdaten erfolgt wie zuvor beschrieben. Nachdem ein dreidimensionaler Datensatz erzeugt ist, sorgt der gemeinsame Bezugspunkt 2603 dafür, dass die beiden rekonstruierten Bilder aufeinander ausgerichtet werden können, um ein Modell des kombinierten Sehfelds zu liefern. Dieses Prinzip kann weiter ausgebaut werden, indem eine Vielheit von Bildern erfasst wird, die alle mindestens einen gemeinsamen Bezugspunkt haben, so dass Daten von diesen Bildern koordiniert werden können, um einen einzigen Datensatz für das kombinierte Sehfeld zu erzeugen.
  • 27 ist eine optische Darstellung von 26, die eine erste Kamera 2601 und eine zweite Kamera 2602 zeigt, die jeweils Bilder erfassen, die mindestens einen gemeinsamen Bezugspunkt 2603 umfassen. Von jedem erfassten Bild gewonnene Daten können kombiniert werden, um einen gemeinsamen dreidimensionalen Positionsdatensatz zu erzeugen, um Reflektivitätsbereiche im kombinierten Sehfeld abzubilden.
  • So kann mit einer Vielheit von Bilderzeugungsvorrichtungen, z. B. Digitalkameras oder digitalen Videokameras, wobei jede Kamera so positioniert ist, dass sie ein Sehfeld erfasst, das mit mindestens einem Sehfeld einer benachbarten Kamera überlappend ist und wobei gemeinsame Bezugspunkte in jedem überlappenden Sehfeld bestimmt werden können, ein Bereich abgebildet werden, der größer ist als das Sehfeld einer einzigen Kamera. Durch Übertragen von Informationen zwischen Kameradatenbanken kann die Bewegung eines Objekts in einem bestimmten Bereich vorweggenommen werden.

Claims (43)

  1. Verfahren zum Gewinnen von Positionsdaten mindestens eines in einem Sehfeld enthaltenen Reflektivitätsbereichs, wobei das Sehfeld eine Mehrzahl von Reflektivitätsbereichen enthält und das Verfahren folgende Schritte umfasst: Projizieren mindestens zwei erkennbarer Marken (107) in das Sehfeld, wobei jede Marke (107) durch das Einfallen mindestens eines elektromagnetischen Strahls (106) auf mindestens eine Bezugsebene, die durch das Sehfeld umfasst wird, erzeugt wird, wobei die Bezugsebene mindestens einen Reflektivitätsbereich umfasst, und die Strahlen (106) mindestens einen Ursprung (1109) haben; und Erfassen eines Bilds des Sehfelds und der Marken (107) auf einer Bildplatte (501), wobei das Verfahren dadurch gekennzeichnet ist, dass es folgende Schritte umfasst: Auswählen einer Menge von Strahlenkonfigurationscharakteristiken, wobei mindestens ein räumliches Verhältnis bei der Bilderfassung zwischen mindestens einem der Ursprünge (1109) der Strahlen (106) und der Bildplatte (501) bestimmt wird, Identifizieren von mindestens zwei Marken (107) im erfassten Bild; und Verwenden des mindestens einen räumlichen Verhältnisses zum Bestimmen einer Menge von Offset-Werten, die die Bildplatte zu dem Ursprung beziehungsweise den Ursprüngen (1109) in Beziehung setzen; und Verwenden der Identifizierung der Marken, der Offset-Werte, der ausgewählten Strahlenkonfigurationscharakteristiken und trigonometrischer Berechnungen zum Bestimmen einer Menge von Orientierungswerten, die die Orientierung der Bildplatte zu jedem der ausgewählten Reflektivitätsbereiche im Sehfeld beschreiben, wobei die ausgewählten Reflektivitätsbereiche nicht von der Bezugsebene umfasst werden.
  2. Verfahren nach Anspruch 1, wobei zwei Marken in das Sehfeld projiziert werden, jede Marke von einem verschiedenen Ursprung projiziert wird, die Marken von der optischen Achse der Bildplatte geschnitten werden und wobei die Strahlenkonfigurationscharakteristiken den räumlichen Abstand jedes Ursprungs von der Bildplattenmitte umfassen.
  3. Verfahren nach Anspruch 1, wobei mindestens drei Marken in das Sehfeld projiziert werden, wobei jede Marke von einem verschiedenen Ursprung projiziert wird und wobei die Strahlenkonfigurationscharakteristiken den räumlichen Abstand zwischen den jeweiligen Ursprüngen umfassen.
  4. Verfahren nach Anspruch 1, wobei mindestens drei Marken in das Sehfeld projiziert werden, wobei mindestens eine Marke von einem ersten Ursprung projiziert wird und mindestens zwei Marken von einem zweiten, gemeinsamen Ursprung projiziert werden und wobei die Strahlenkonfigurationscharakteristiken mindestens einen räumlichen Abstand zwischen den Ursprüngen und einen Winkelabstand der vom zweiten gemeinsamen Ursprung projizierten Strahlen umfassen.
  5. Verfahren nach Anspruch 1, wobei die Strahlenkonfigurationscharakteristiken mindestens einen räumlichen Abstand zwischen den Ursprüngen umfassen.
  6. Verfahren nach Anspruch 1, wobei die Strahlenkonfigurationscharakteristiken mindestens einen Winkelabstand zwischen von gemeinsamen oder von verschiedenen Ursprüngen projizierten Strahlen umfassen.
  7. Verfahren nach Anspruch 1, wobei die Strahlenkonfigurationscharakteristiken mindestens einen räumlichen Abstand zwischen Ursprüngen und mindestens einen Winkelabstand zwischen von einem gemeinsamen oder von verschiedenen Ursprüngen projizierten Strahlen umfassen.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei das Verfahren zum Gewinnen der Positionsdaten in einer, zwei oder drei Dimensionen konfiguriert ist.
  9. Verfahren nach einem der Ansprüche 1 bis 8, wobei das Verfahren weiter folgenden Schritt umfasst: Verwenden der Orientierungswerte zum Rekonstruieren einer Positionsdatenmenge, die die Position mindestens eines ausgewählten Reflektivitätsbereichs beschreibt.
  10. Verfahren nach einem der Ansprüche 1 bis 9, wobei die Orientierungswerte das Schwenken der Bildplatte bezüglich eines ausgewählten Reflektivitätsbereichs umfassen, wobei das Schwenken als Rotation um die z-Achse definiert ist.
  11. Verfahren nach einem der Ansprüche 1 bis 10, wobei die Orientierungswerte die Verdrehung der Bildplatte bezüglich eines ausgewählten Reflektivitätsbereichs umfassen, wobei die Verdrehung als Rotation um die y-Achse definiert ist.
  12. Verfahren nach einem der Ansprüche 1 bis 11, wobei die Orientierungswerte die Neigung der Bildplatte bezüglich eines ausgewählten Reflektivitätsbereichs umfassen, wobei die Neigung als Rotation um die x-Achse definiert ist.
  13. Verfahren nach einem der vorangehenden Ansprüche, wobei die Orientierungswerte das Schwenken und/oder die Verdrehung und/oder die Neigung und/oder die Höhe der Bildplatte bezüglich eines ausgewählten Reflektivitätsbereichs umfassen.
  14. Verfahren nach einem der vorangehenden Ansprüche, wobei der Schritt des Identifizierens von mindestens zwei Marken im erfassten Bild folgende Schritte umfasst: Suchen nach den Marken im erfassten Bild, um eine erste Menge identifizierter Marken zu erhalten; und Filtern der ersten Menge identifizierter Marken, um falsche Marken zu entfernen.
  15. Verfahren nach Anspruch 14, wobei das Verfahren folgenden Schritt umfasst: Bestimmen der Position der Marken im Bild, indem eine Kurvenermittlung implementiert wird.
  16. Verfahren nach einem der Ansprüche 1 bis 15, wobei der Schritt des Bestimmens einer Menge von Offset-Werten folgenden Schritt umfasst: Bestimmen einer Menge von Offset-Koeffizienten, wobei jeder Offset-Koeffizient eine Funktion der räumlichen Verhältnisse Bildplatte-Ursprung beschreibt.
  17. Verfahren nach Anspruch 16, wobei der Schritt des Bestimmens einer Menge von Offset-Werten weiter folgenden Schritt umfasst: Berechnen eines Aufstell-Winkelfehlers der Bildplatte im Verhältnis zum Ursprung jedes Strahls.
  18. Verfahren nach einem der vorangehenden Ansprüche, wobei das Verfahren weiter folgende Schritte umfasst: Verwenden der Orientierungswerte zum Bestimmen einer Strecke von der Bildplatte zu jedem ausgewählten Reflektivitätsbereich.
  19. Verfahren nach einem der vorangehenden Ansprüche, wobei das Verfahren weiter folgenden Schritt umfasst: Verwenden der jeweiligen Orientierungswerte zum Bestimmen der lotrechten Höhendifferenz zwischen einem ausgewählten Reflektivitätsbereich und einer Auftreffebene.
  20. Verfahren nach einem der Ansprüche 1 bis 19, wobei die Bildplatte eine Anordnung von Elementen umfasst, die jeweils in der Lage sind, ein Datenpixel zu erzeugen.
  21. Verfahren nach Anspruch 20, wobei die Bildplatte ein CCD- oder CMOS-Array umfasst.
  22. Verfahren nach einem der Ansprüche 9 bis 21, wobei der Schritt des Verwendens der Orientierungswerte zum Rekonstruieren einer Positionsdatenmenge, die die Position mindestens eines ausgewählten Reflektivitätsbereichs beschreibt, folgende Schritte umfasst: Verwenden der Orientierungswerte zum Auswerten jedes Datenpixels in der Realität, indem der Grad des Schwenkens und/oder der Verdrehung und/oder der Neigung für jedes Datenpixel bestimmt wird; und Assoziieren jedes Datenpixels mit einem ausgewählten Reflektivitätsbereich und Bestimmen der tatsächlichen Position des ausgewählten Reflektivitätsbereichs.
  23. Verfahren nach Anspruch 22, das weiter den Schritt des Wiederholens der Auswertung jedes Datenpixels für eine Mehrzahl von Höhen über einer Auftreffebene umfasst.
  24. Verfahren nach Anspruch 22 oder 23, das weiter folgenden Schritt umfasst: Auswählen eines Datenpixels, das einen ausgewählten Reflektivitätsbereich mit bekannten dreidimensionalen Positionsdaten repräsentiert und Abtasten auf alle dreidimensionalen Ebenen, um zu prüfen, ob jedes Datenpixel zu einer Menge dreidimensionaler Koordinaten passt.
  25. Verfahren nach einem der Ansprüche 22 bis 24, wobei der Schritt des Verwendens der Orientierungswerte zum Rekonstruieren einer Positionsdatenmenge den Schritt des Rekonstruierens einer, die dreidimensionale Position der ausgewählten Reflektivitätsbereiche beschreibenden, dreidimensionalen Datenmenge umfasst, wobei dieser Schritt folgende Schritte umfasst: Anwenden einer Randerkennungsfunktion auf das zweidimensionale erfasste Bild; und Prüfen der die ausgewählten Reflektivitätsbereiche beschreibenden dreidimensionalen Daten anhand der Randerkennungsergebnisse, um eine endgültige Menge dreidimensionaler Daten festzulegen, die die dreidimensionale tatsächliche Position jedes Reflektivitätsbereichs beschreibt.
  26. Verfahren nach einem der vorangehenden Ansprüche, wobei der Schritt des Identifizierens der Marken im erfassten Bild folgenden Schritt umfasst: Durchführen einer Suche des erfassten zweidimensionalen Bilds, um Pixel zu identifizieren, die reflektierte Strahlung einer bestimmten Wellenlänge empfangen.
  27. Verfahren nach einem der Ansprüche 1 bis 26, wobei das Verfahren weiter folgenden Schritt umfasst: Abbilden der gewonnenen dreidimensionalen Positionsdaten, um eine virtuelle dreidimensionale Darstellung des Sehfelds zu rekonstruieren.
  28. Computerprogrammprodukt, das direkt in den internen Speicher eines digitalen Computers geladen werden kann, das Softwarecodeteile zum Ausführen der folgenden Schritte, wenn das Produkt auf einem Computer ausgeführt wird, umfasst: Identifizieren von mindestens zwei Marken im erfassten Bild; und Verwenden des mindestens einen bekannten räumlichen Verhältnisses zum Bestimmen einer Menge von Offset-Werten, die die Bildplatte mit dem Ursprung beziehungsweise den Ursprüngen in Beziehung setzen; und Verwenden der Identifizierung der Marken, der Offset-Werte und der ausgewählten Strahlenkonfigurationscharakteristiken zum Bestimmen einer Menge von Orientierungswerten, die die Orientierung der Bildplatte zu jedem ausgewählten Reflektivitätsbereich im Sehfeld beschreiben, und die Schritte nach Anspruch 1.
  29. Computerprogramm nach Anspruch 28, das Softwarecodeteile zum weiteren Ausführen der Schritte aus Ansprüchen 9, 14 bis 19 und 22 bis 27 umfasst.
  30. Verfahren nach einem der Ansprüche 1 bis 27, wobei die mindestens zwei erkennbaren Marken mindestens eine von einem ersten Ursprung projizierte erste Marke und mindestens eine von einem zweiten Ursprung projizierte zweite Marke umfassen.
  31. Projektionsgerät (1001) zum Projizieren von mindestens zwei erkennbaren Marken (107) auf ein Sehfeld, wobei die Marken (107) erfassbar sind als Teil eines auf einer Bildplatte (501) gebildeten Bilds des Sehfelds, wobei das Projektionsgerät (1001) folgendes umfasst: Mittel (1108, 1109) zum Projizieren von mindestens zwei erkennbaren Marken (107) in das Sehfeld, wobei jede Marke (107) durch das Einfallen mindestens eines elektromagnetischen Strahls (106) auf mindestens eine Bezugsebene, die durch das Sehfeld umfasst wird, erzeugt wird, wobei die Bezugsebene mindestens einen Reflektivitätsbereich umfasst, wobei die Strahlen (106) mindestens einen Ursprung (1109) haben; und Mittel zum Erfassen eines Bilds des Sehfelds und der Marken (107) auf einer Bildplatte (501); wobei das Projektionsgerät dadurch gekennzeichnet ist, dass es folgendes umfasst: Mittel zum Auswählen einer Menge von Strahlenkonfigurationscharakteristiken; wobei mindestens ein räumliches Verhältnis bei der Bilderfassung zwischen mindestens einem der Ursprünge (1109) der Strahlen (106) und der Bildplatte (501) bestimmt wird; Mittel zum Identifizieren von mindestens zwei Marken (107) im erfassten Bild; und Mittel zum Verwenden des mindestens einen räumlichen Verhältnisses zum Bestimmen einer Menge von Offset-Werten, die die Bildplatte zu dem Ursprung beziehungsweise den Ursprüngen (1109) in Beziehung setzen; und Mittel zum Verwenden der Identifizierung der Marken, der Offset-Werte, der ausgewählten Strahlenkonfigurationscharakteristiken und trigonometrischer Berechnungen zum Bestimmen einer Menge von Orientierungswerten, die die Orientierung der Bildplatte zu jedem der ausgewählten Reflektivitätsbereiche im Sehfeld beschreiben, wobei die ausgewählten Reflektivitätsbereiche nicht von der Bezugsebene umfasst werden.
  32. Projektionsgerät nach Anspruch 31, wobei die Marken ein vordefiniertes Muster im Sehfeld bilden.
  33. Verfahren nach Anspruch 31 oder 32, wobei die elektromagnetische Strahlung Strahlung mit einer Wellenlänge im Bereich zwischen 10–15 m und 10–6 m umfasst.
  34. Projektionsgerät nach einem der Ansprüche 31 bis 33, wobei die Bildplatte ein CCD- oder CMOS-Array umfasst.
  35. Verfahren nach Anspruch 34, wobei die Bildplatte von einer Digitalkamera oder einen digitalen Videokamera umfasst wird.
  36. Projektionsgerät nach einem der Ansprüche 31 bis 34, wobei die Bildplatte von einer Digitalkamera umfasst wird, wobei das Mittel zum Befestigen der Bildplatte so konfiguriert ist, dass es in die Digitalkamera eingreift, um die Digitalkamera in einer festen räumlichen und Winkelorientierung am Projektionsgerät zu befestigen.
  37. Projektionsgerät nach einem der Ansprüche 31 bis 36, wobei die elektromagnetische Strahlung sichtbares Licht mit einer Wellenlänge im Bereich zwischen 400 nm und 700 nm umfasst.
  38. Projektionsgerät nach einem der Ansprüche 31 bis 38, wobei das Projektionsgerät weiter einen Gehäuseteil umfasst, wobei der Gehäuseteil einen festen Ort des mindestens einen Ursprungs und einen festen Ort des Mittels zum Befestigen der Bildplatte umfasst.
  39. Projektionsgerät nach einem der Ansprüche 31 bis 38, wobei die Orientierungswerte die Rekonstruktion einer Positionsdatenmenge ermöglichen, die die tatsächliche Position der ausgewählten Reflektivitätsbereiche im Sehfeld in einer, zwei oder drei Dimensionen beschreibt.
  40. Projektionsgerät nach einem der Ansprüche 31 bis 39, wobei das Projektionsgerät weiter Mittel zum Fokussieren der Strahlen umfasst.
  41. Vorrichtung zum Projizieren einer Mehrzahl von Marken (107) in ein Sehfeld, wobei die Marken (107) erfassbar sind auf einer Bildplatte (501), die eine Anordnung von Elementen umfasst, das jedes in der Lage ist, ein Datenpixel zu erzeugen, wobei das erfasste zweidimensionale Bild konfiguriert ist für die Analyse für die Rekonstruktion aus dem erfassten zweidimensionalen Bild einer Menge ein-, zwei- oder dreidimensionaler Positionsdaten, die die Position ausgewählter Reflektivitätsbereiche im Sehfeld beschreiben, wobei die Vorrichtung folgendes umfasst: Mittel (1108, 1109) zum Projizieren von mindestens zwei erkennbaren Marken (107) in das Sehfeld, wobei jede Marke (107) durch das Einfallen mindestens eines elektromagnetischen Strahls (106) auf mindestens eine Bezugsebene, die durch das Sehfeld umfasst wird, erzeugt wird, wobei die Bezugsebene mindestens einen Reflektivitätsbereich umfasst und die Strahlen (106) mindestens einen Ursprung (1109) haben; und Mittel zum Erfassen eines Bilds des Sehfelds und der Marken (107) auf einer Bildplatte (501); wobei das Projektionsgerät dadurch gekennzeichnet ist, dass es folgendes umfasst: Mittel zum Auswählen einer Menge von Strahlenkonfigurationscharakteristiken; wobei mindestens ein räumliches Verhältnis bei der Bilderfassung zwischen mindestens einem der Ursprünge (1109) der Strahlen (106) und der Bildplatte bestimmt wird; Mittel zum Identifizieren von mindestens zwei Marken (107) im erfassten Bild; und Mittel zum Verwenden des mindestens einen räumlichen Verhältnisses zum Bestimmen einer Menge von Offset-Werten, die die Bildplatte zum Ursprung beziehungsweise zu den Ursprüngen (1109) in Beziehung setzen; und Mittel zum Verwenden der Identifizierung der Marken, der Offset-Werte, der ausgewählten Strahlenkonfigurationscharakteristiken und trigonometrischer Berechnungen zum Bestimmen einer Menge von Orientierungswerten, die die Orientierung der Bildplatte zu jeder der ausgewählten Reflektivitätsbereiche im Sehfeld beschreibt, wobei die ausgewählten Reflektivitätsbereiche nicht von der Bezugsebene umfasst werden.
  42. Vorrichtung nach Anspruch 41, wobei die Vorrichtung weiter Mittel zum Befestigen der Bildplatte in einer festen räumlichen und Winkelorientierung zu den Ursprüngen umfasst.
  43. Bildverarbeitungsvorrichtung, die eine Vorrichtung nach Anspruch 41 umfasst.
DE60202198T 2001-02-23 2002-02-22 Vorrichtung und verfahren zur erzeugung von dreidimensionalen positionsdaten aus einem erfassten zweidimensionalen bild Expired - Lifetime DE60202198T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB0104456 2001-02-23
GB0104456A GB2372656A (en) 2001-02-23 2001-02-23 Optical position determination
PCT/GB2002/000738 WO2002068987A1 (en) 2001-02-23 2002-02-22 Apparatus and method for obtaining three-dimensional positional data from a two-dimensional captured image

Publications (2)

Publication Number Publication Date
DE60202198D1 DE60202198D1 (de) 2005-01-13
DE60202198T2 true DE60202198T2 (de) 2005-12-08

Family

ID=9909328

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60202198T Expired - Lifetime DE60202198T2 (de) 2001-02-23 2002-02-22 Vorrichtung und verfahren zur erzeugung von dreidimensionalen positionsdaten aus einem erfassten zweidimensionalen bild

Country Status (6)

Country Link
US (1) US7075661B2 (de)
EP (1) EP1364226B1 (de)
AT (1) ATE284541T1 (de)
DE (1) DE60202198T2 (de)
GB (1) GB2372656A (de)
WO (1) WO2002068987A1 (de)

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7466755B2 (en) * 2002-10-04 2008-12-16 Industrial Technology Research Institute Method for video error concealment by updating statistics
GB2395261A (en) 2002-11-11 2004-05-19 Qinetiq Ltd Ranging apparatus
GB2395262A (en) 2002-11-11 2004-05-19 Qinetiq Ltd Optical proximity sensor with array of spot lights and a mask
US20040196282A1 (en) * 2003-02-14 2004-10-07 Oh Byong Mok Modeling and editing image panoramas
DE10311247B8 (de) * 2003-03-14 2008-05-08 Inos Automationssoftware Gmbh Portable Einrichtung zum Erfassen einer Lage und von Abmessungen eines Objekts
US6975334B1 (en) * 2003-03-27 2005-12-13 Systems Paving Method and apparatus for simulating the appearance of paving stone on an existing driveway
DE602004014397D1 (de) * 2003-10-13 2008-07-24 Koninkl Philips Electronics Nv Verfahren zur messung von abmessungen mittels einer digitalkamera
DE112005000738T5 (de) 2004-03-29 2007-04-26 Evolution Robotics, Inc., Pasadena Verfahren und Vorrichtung zur Positionsbestimmung unter Verwendung von reflektierten Lichtquellen
US7787009B2 (en) * 2004-05-10 2010-08-31 University Of Southern California Three dimensional interaction with autostereoscopic displays
JP4522140B2 (ja) * 2004-05-14 2010-08-11 キヤノン株式会社 指標配置情報推定方法および情報処理装置
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
JP2008536146A (ja) * 2005-04-11 2008-09-04 ファロ テクノロジーズ インコーポレーテッド 3次元座標測定デバイス
US7473884B2 (en) * 2005-04-21 2009-01-06 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Orientation determination utilizing a cordless device
CN101213550B (zh) * 2005-06-30 2011-09-28 诺基亚公司 允许对呈现和信息系统的信息表面的目标位置进行操作的照相机控制装置
JP2007021021A (ja) * 2005-07-20 2007-02-01 Ge Medical Systems Global Technology Co Llc 画像処理装置およびx線ct装置
ATE459857T1 (de) 2005-09-12 2010-03-15 Trimble Jena Gmbh Vermessungsinstrument und verfahren zur bereitstellung von vermessungsdaten mithilfe des vermessungsinstruments
EP1946567A4 (de) * 2005-10-04 2009-02-18 Eugene J Alexander Einrichtung zum erzeugen dreidimensionaler oberflächenmodelle beweglicher objekte
WO2007041696A2 (en) * 2005-10-04 2007-04-12 Alexander Eugene J System and method for calibrating a set of imaging devices and calculating 3d coordinates of detected features in a laboratory coordinate system
US9002511B1 (en) 2005-10-21 2015-04-07 Irobot Corporation Methods and systems for obstacle detection using structured light
US8223208B2 (en) * 2005-11-10 2012-07-17 Motion Analysis Corporation Device and method for calibrating an imaging device for generating three dimensional surface models of moving objects
US7525114B2 (en) * 2006-02-14 2009-04-28 Lmi Technologies Ltd. Multiple axis multipoint non-contact measurement system
JP4799216B2 (ja) * 2006-03-03 2011-10-26 富士通株式会社 距離測定機能を有する撮像装置
US7796119B2 (en) 2006-04-03 2010-09-14 Avago Technologies General Ip (Singapore) Pte. Ltd. Position determination with reference
US20070273894A1 (en) * 2006-05-23 2007-11-29 Johnson James T Method and apparatus for remote spatial calibration and imaging
US20080008372A1 (en) * 2006-07-07 2008-01-10 General Electric Company A method and system for reducing artifacts in a tomosynthesis imaging system
CA2664135C (en) * 2006-09-22 2014-09-02 Rafael Backhaus Method and device for automated removal of cells and/or cell colonies
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
CA2670214A1 (en) * 2006-11-21 2008-05-29 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US20090008955A1 (en) * 2007-07-03 2009-01-08 Sergio Desoto System and method for automatically designing an automobile wrap
JP4492654B2 (ja) * 2007-08-29 2010-06-30 オムロン株式会社 3次元計測方法および3次元計測装置
DE102007042963A1 (de) * 2007-09-10 2009-03-12 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zur dreidimensionalen Digitalisierung von Objekten
WO2009038797A2 (en) * 2007-09-20 2009-03-26 Evolution Robotics Robotic game systems and methods
CA2606267A1 (fr) * 2007-10-11 2009-04-11 Hydro-Quebec Systeme et methode de cartographie tridimensionnelle d'une surface structurelle
EP2053348A1 (de) * 2007-10-23 2009-04-29 Texmag GmbH Vertriebsgesellschaft Verfahren und Vorrichtung zur optischen Erfassung eines Objekts
AT507618B1 (de) * 2008-11-26 2012-01-15 Riegl Laser Measurement Sys Verfahren zum bestimmen der relativlage eines laserscanners zu einem referenzsystem
US8761434B2 (en) * 2008-12-17 2014-06-24 Sony Computer Entertainment Inc. Tracking system calibration by reconciling inertial data with computed acceleration of a tracked object in the three-dimensional coordinate system
US8379929B2 (en) 2009-01-08 2013-02-19 Trimble Navigation Limited Methods and apparatus for performing angular measurements
US8351686B2 (en) 2009-01-08 2013-01-08 Trimble Navigation Limited Methods and systems for determining angles and locations of points
CN102713779B (zh) * 2009-11-06 2015-12-02 艾罗伯特公司 用于通过自主型机器人完全覆盖表面的方法和系统
US20110110579A1 (en) * 2009-11-11 2011-05-12 Eos Systems, Inc. Systems and methods for photogrammetrically forming a 3-d recreation of a surface of a moving object using photographs captured over a period of time
US9310806B2 (en) * 2010-01-06 2016-04-12 Irobot Corporation System for localization and obstacle detection using a common receiver
CN101930324B (zh) * 2010-07-04 2012-07-11 苏州佳世达电通有限公司 物体侦测系统
CN101916150B (zh) * 2010-08-19 2012-07-11 苏州佳世达电通有限公司 物体侦测系统及物体侦测方法
US8463021B2 (en) * 2010-09-16 2013-06-11 Indian Institute Of Technology Kanpur Four dimensional reconstruction and characterization system
CN102445148A (zh) * 2010-09-30 2012-05-09 西门子公司 一种获取位置参数的方法、装置及系统
JP2014511480A (ja) * 2011-02-18 2014-05-15 ニコン・メトロロジー・エヌヴェ 対象の位置および移動を測定するシステム
US8791901B2 (en) 2011-04-12 2014-07-29 Sony Computer Entertainment, Inc. Object tracking with projected reference patterns
WO2012172548A1 (en) * 2011-06-14 2012-12-20 Youval Nehmadi Method for translating a movement and an orientation of a predefined object into a computer generated data
US9595115B1 (en) * 2011-09-19 2017-03-14 Amazon Technologies, Inc. Visualizing change in augmented reality environments
KR101352377B1 (ko) * 2012-01-20 2014-01-24 한국지질자원연구원 노두의 상태를 확인하기 위한 촬영장치
CN103064085B (zh) * 2012-12-20 2015-11-25 深圳市华星光电技术有限公司 定位方法及定位装置
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
US9204130B2 (en) 2013-02-06 2015-12-01 Caterpillar Inc. Method and system for creating a three dimensional representation of an object
US9080866B1 (en) * 2013-06-26 2015-07-14 Google Inc. Methods and systems for detection of reflective markers at long range
EP2851868A1 (de) * 2013-09-20 2015-03-25 ETH Zurich 3D-Rekonstruktion
WO2015068152A1 (en) * 2013-11-06 2015-05-14 Hexagon Metrology (Israel) Ltd. Method and system for analyzing spatial measuring data
US9582888B2 (en) 2014-06-19 2017-02-28 Qualcomm Incorporated Structured light three-dimensional (3D) depth map based on content filtering
US10033992B1 (en) * 2014-09-09 2018-07-24 Google Llc Generating a 3D video of an event using crowd sourced data
US9445086B2 (en) * 2014-12-10 2016-09-13 Facebook, Inc. Methods, systems, and apparatus for camera testing using virtual images
US10684485B2 (en) 2015-03-06 2020-06-16 Sony Interactive Entertainment Inc. Tracking system for head mounted display
US10296086B2 (en) 2015-03-20 2019-05-21 Sony Interactive Entertainment Inc. Dynamic gloves to convey sense of touch and movement for virtual objects in HMD rendered environments
US9968502B2 (en) * 2015-06-30 2018-05-15 Allen Medical Systems, Inc. System and process of locating a medical imaging device
US9712704B2 (en) * 2015-08-21 2017-07-18 Xerox Corporation Scanner providing centered alignment marks
US10121082B2 (en) 2015-10-07 2018-11-06 Honda Motor Co., Ltd. System and method for providing laser camera fusion for identifying and tracking a traffic participant
JP6816725B2 (ja) * 2015-12-18 2021-01-20 ソニー株式会社 画像処理装置および方法、データ、並びに記録媒体
EP3232403A3 (de) * 2016-04-11 2017-11-29 Goodrich Corporation Schnelle multispektrale bildregistrierung durch modellierung von plattformbewegungen
EP3249348B1 (de) * 2016-05-26 2019-07-03 Baumer Electric AG Sensorvorrichtung zur vermessung einer oberfläche
US9817402B1 (en) * 2016-07-12 2017-11-14 The Boeing Company Application of factory automation for an airline assembly and build process
WO2018044694A1 (en) * 2016-09-02 2018-03-08 Gopro, Inc. Continuous slanted edge focus measurements system
US11373278B2 (en) * 2016-09-30 2022-06-28 University Of Utah Research Foundation Lensless imaging device
CN110832348B (zh) * 2016-12-30 2023-08-15 辉达公司 用于自主车辆的高清晰度地图的点云数据丰富
US10699409B2 (en) * 2017-04-27 2020-06-30 Brainlab Ag Removing ghost markers from a measured set of medical markers
EP3441788A1 (de) * 2017-08-08 2019-02-13 Koninklijke Philips N.V. Vorrichtung und verfahren zur erzeugung einer darstellung einer szene
US10803666B1 (en) 2017-09-28 2020-10-13 Apple Inc. Method and device for synchronizing augmented reality coordinate systems
CN108072326B (zh) * 2017-12-30 2021-04-16 浙江维思无线网络技术有限公司 一种观测光束照射的方法及装置
JP6784944B2 (ja) * 2018-03-26 2020-11-18 カシオ計算機株式会社 投影制御装置、マーカ検出方法及びプログラム
US10713527B2 (en) * 2018-10-03 2020-07-14 SmartCone Technologies, Inc. Optics based multi-dimensional target and multiple object detection and tracking method
CN109631799B (zh) * 2019-01-09 2021-03-26 浙江浙大万维科技有限公司 一种智能化的测量与标记方法
JP7282578B2 (ja) * 2019-04-12 2023-05-29 俊雄 川口 角度測定装置、距離測定装置、速度測定装置、標高測定装置、座標測定装置、角度測定方法、およびプログラム
US10925687B2 (en) * 2019-07-12 2021-02-23 Synaptive Medical Inc. System and method for optical axis calibration
TWI760812B (zh) * 2020-08-10 2022-04-11 威聯通科技股份有限公司 跨感測器之物體空間對應分析方法與系統
CN113325595B (zh) * 2021-06-04 2023-04-07 江西欧迈斯微电子有限公司 一种衍射光学元件及光学设备
CN114002706A (zh) * 2021-10-29 2022-02-01 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) 光电稳瞄测量系统的测量方法、装置、计算机设备
CN114569201B (zh) * 2022-02-16 2023-11-17 佛山市柏康机器人技术有限公司 一种图像导航穿刺进针点检测方法及装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3342675A1 (de) * 1983-11-25 1985-06-05 Fa. Carl Zeiss, 7920 Heidenheim Verfahren und vorrichtung zur beruehrungslosen vermessung von objekten
JPS60167069A (ja) * 1984-02-09 1985-08-30 Omron Tateisi Electronics Co 図形認識装置
US4672562A (en) * 1984-12-11 1987-06-09 Honeywell Inc. Method and apparatus for determining location and orientation of objects
SE456976B (sv) * 1985-06-14 1988-11-21 Asea Ab Foerfarande och anordning vid en robotutrustning foer bestaemning av laeget av ett foeremaal
FR2590681B1 (fr) * 1985-11-27 1988-06-24 Alcatel Espace Systeme de localisation d'un objet muni d'au moins une mire passive.
US4914460A (en) * 1987-05-29 1990-04-03 Harbor Branch Oceanographic Institution Inc. Apparatus and methods of determining distance and orientation
FR2654208B1 (fr) * 1989-02-27 1994-01-28 Toulouse Institut Nal Polytechni Procede et systemes de determination de la position et de l'orientation relatives de deux objets dans l'espace.
DE4007502A1 (de) * 1990-03-09 1991-09-12 Zeiss Carl Fa Verfahren und vorrichtung zur beruehrungslosen vermessung von objektoberflaechen
US5227985A (en) 1991-08-19 1993-07-13 University Of Maryland Computer vision system for position monitoring in three dimensions using non-coplanar light sources attached to a monitored object
DE4130237A1 (de) * 1991-09-11 1993-03-18 Zeiss Carl Fa Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen
US5175601A (en) * 1991-10-15 1992-12-29 Electro-Optical Information Systems High-speed 3-D surface measurement surface inspection and reverse-CAD system
US5245177A (en) * 1991-10-24 1993-09-14 Schiller Norman H Electro-optical system for detecting the presence of an object within a predetermined detection system
US5317388A (en) 1992-06-29 1994-05-31 United Parcel Service Of America, Inc. Method and apparatus for determining the displacement of a rectangular object with respect to a reference position
US5402364A (en) * 1993-01-15 1995-03-28 Sanyo Machine Works, Ltd. Three dimensional measuring apparatus
US6133951A (en) * 1994-05-10 2000-10-17 Asahi Kogaku Kogyo Kabushiki Kaisha Still-video camera with function setting operation
US5753931A (en) * 1995-07-13 1998-05-19 Nike, Inc. Object imaging device and method using line striping
JP3147002B2 (ja) * 1996-09-26 2001-03-19 富士電機株式会社 距離検出値の補正方法
US5838428A (en) * 1997-02-28 1998-11-17 United States Of America As Represented By The Secretary Of The Navy System and method for high resolution range imaging with split light source and pattern mask
US6741279B1 (en) * 1998-07-21 2004-05-25 Hewlett-Packard Development Company, L.P. System and method for capturing document orientation information with a digital camera
JP4493113B2 (ja) * 1999-01-29 2010-06-30 株式会社リコー プロジェクタおよび投影画像補正装置
GB2359895B (en) * 2000-03-03 2003-09-10 Hewlett Packard Co Camera projected viewfinder

Also Published As

Publication number Publication date
WO2002068987A8 (en) 2003-10-16
WO2002068987A1 (en) 2002-09-06
DE60202198D1 (de) 2005-01-13
GB0104456D0 (en) 2001-04-11
GB2372656A (en) 2002-08-28
EP1364226B1 (de) 2004-12-08
EP1364226A1 (de) 2003-11-26
US20040128102A1 (en) 2004-07-01
US7075661B2 (en) 2006-07-11
ATE284541T1 (de) 2004-12-15

Similar Documents

Publication Publication Date Title
DE60202198T2 (de) Vorrichtung und verfahren zur erzeugung von dreidimensionalen positionsdaten aus einem erfassten zweidimensionalen bild
DE102016118562A1 (de) Dreidimensionales bildgerät, das eine dichroitische kamera umfasst
DE69826753T2 (de) Optischer Profilsensor
DE102012108567B4 (de) Verfahren zum Erlangen von Tiefeninformationen unter Verwendung eines Lichtmusters
JP6319329B2 (ja) プレノプティック・カメラを使った表面属性の推定
DE602005002176T2 (de) Vorrichtung und Verfahren zur dreidimensionalen Bildvermessung
EP1836455B1 (de) Verfahren und geodätisches gerät zur vermessung wenigstens eines zieles
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102006005036B4 (de) Vorrichtung und Verfahren zur verbesserten Formcharakterisierung
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
DE69921559T2 (de) Digitalkameras
DE102017118767B4 (de) Verfahren und Vorrichtung zum Bestimmen von dimensionellen und/oder geometrischen Eigenschaften eines Messobjekts
DE69734747T2 (de) Verfahren und Gerät zur Bildverarbeitung
WO2000033026A1 (en) Apparatus and method to measure three-dimensional data
DE102018208449A1 (de) Bildprüfvorrichtung und Bildprüfverfahren
DE112007003553B4 (de) Merkmalsdetektionsvorrichtung und -verfahren zum Messen von Objektabständen
DE202016008925U1 (de) Dreidimensionale Formmessvorrichtung
DE112009000516T5 (de) Intraorales Abbildungssystem und Verfahren, das auf der konoskopischen Holographie beruht
DE102019203129A1 (de) Messvorrichtung für optische Interferenz
DE202010017889U1 (de) Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum
WO2013143882A1 (de) Verfahren zum scannenden messen eines dentalen objektes sowie intraoral-scanner
DE102015106838B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu
DE202010017899U1 (de) Anordnung zur Aufnahme geometrischer und photometrischer Objektdaten im Raum
DE19749974A1 (de) Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke für die Topometrie (3D-Videometrie) oder die 3D-Vision für Multimedia-Applikationen
DE102018114479B3 (de) Verfahren zur Bestimmung des Strahlverlaufs eines Messstrahls einer Interferometrischen Messvorrichtung und Messvorrichtung zur interferometrischen Vermessung eines Messobjekts

Legal Events

Date Code Title Description
8364 No opposition during term of opposition