DE60132201T2 - Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige - Google Patents

Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige Download PDF

Info

Publication number
DE60132201T2
DE60132201T2 DE60132201T DE60132201T DE60132201T2 DE 60132201 T2 DE60132201 T2 DE 60132201T2 DE 60132201 T DE60132201 T DE 60132201T DE 60132201 T DE60132201 T DE 60132201T DE 60132201 T2 DE60132201 T2 DE 60132201T2
Authority
DE
Germany
Prior art keywords
portable device
display
view
navigation mode
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60132201T
Other languages
English (en)
Other versions
DE60132201D1 (de
Inventor
David Y. Houston Feinstein
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Application granted granted Critical
Publication of DE60132201D1 publication Critical patent/DE60132201D1/de
Publication of DE60132201T2 publication Critical patent/DE60132201T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/087Inventory or stock management, e.g. order filling, procurement or balancing against orders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1636Sensing arrangement for detection of a tap gesture on the housing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72445User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting Internet browser applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
    • Nicht zutreffend
  • HINTERGRUND – BEREICH DER ERFINDUNG
  • Die vorliegende Erfindung betrifft im Allgemeinen den Bereich mobile Rechen- und Kommunikationshandgeräte mit einer Informationsanzeige, im Speziellen die Ansichtsnavigation und das Rollenlassen einer gespeicherten virtuellen Anzeige oder eines vergrößerten Bildes der Anzeige als Reaktion auf Änderungen der Orientierung, in der das Gerät in einer Hand gehalten wird.
  • HINTERGRUND – BESCHREIBUNG DES STANDES DER TECHNIK
  • Mit der raschen Miniaturisierung komplexer elektronischer Schaltungen und dem Aufkommen von Flüssigkristallanzeigen mit hoher Auflösung haben die Zahl und Vielfalt von tragbaren Smart-Geräten mit Informationsanzeigen stark zugenommen. Zu solchen Geräten gehören tragbare Computer, Mobiltelefone, Pager und andere Kommunikations- und Rechenlösungen. Der Erfolg des Internets in den letzten Jahren hat die Notwendigkeit für mobile Geräte weiter erhöht, die dem unterwegs befindlichen Benutzer eine große Informationsmenge bieten.
  • Der riesige und vielfältige Inhalt des Internets erlaubt es dem Benutzer, auf große Informationsmengen zuzugreifen. Tragbare Smart-Geräte wurden rasche verbessert, so dass sie dem Benutzer solche Informationen übermitteln können. Während sich Verarbeitungsleistung, Datenspeicherkapazität, Kommunikationsgeschwindigkeit und Batterielebensdauer moderner tragbarer Geräte immer schneller weiterentwickeln, scheint es, dass der Informationsfluss durch die geringe Größe der Anzeige begrenzt wird. Es ist jedoch klar, dass große Anzeigen, die in Desktop- und Laptop-Computern verwendet werden, in einem kleinen tragbaren Gerät nicht zum Einsatz kommen können.
  • Es wurden verschiedene Ansätze zum Überwinden der Anzeigegrößenbeschränkungen in tragbaren Informationsgeräten versucht. Web-Clipping ist ein von Palm Inc. angewendeter Ansatz, um deren im Handel erhältliche Palm Series zum Browsen auf dem Internet zu ermöglichen. Web-Clipping-Anwendungen wurden für beliebte Websites entwickelt, die auf Anfragen von Benutzern von den Sites, auf die zugegriffen werden, minimale Informationsmengen gewöhnlich in Textform ausschneiden. Der Nachteil von Web-Clipping ist, dass der Benutzer nur begrenzte Informationen erhält, und nicht alle Websites sind in der Lage, Web-Clippings für den Benutzer zu erzeugen. In vielen Fällen ist auch nach dem Ausschneiden die Menge der verfügbaren Informationen noch viel größer, als auf eine Anzeigeansicht passt.
  • Die Verwendung von optischer Vergrößerung einer kleinen Anzeige wurde für Virtual-Reality-Helme und andere Anwendungen angewendet, bei denen die Anzeige in einem festen Abstand vom Auge des Benutzers sitzt. So offenbart beispielsweise das US-Patent Nr. 5739955 einen solchen Virtual-Reality-Helm mit Fernglasvergrößerungsoptik. Optische Vergrößerer können für Personen mit beeinträchtigter Sehfähigkeit attraktiv sein, die keine detaillierten Informationen in einem kleinen tragbaren Anzeigegerät sehen können. Das Hauptproblem mit optischer Vergrößerung ist jedoch, dass sie in Verbindung mit einem tragbaren Gerät schwer anzuwenden ist. Ein solches tragbares Gerät und seine zugehörige Optik muss an einem relativ festen Ort vor den Augen des Benutzen platziert werden, so dass die vergrößerte Anzeige scharf bleiben kann.
  • Da große virtuelle Anzeigen leicht im internen Speicher des tragbaren Gerätes gespeichert werden können, wurden verschiedene Lösungen adaptiert, um durch relativ große Datenmengen auf einer relativ kleinen Anzeige zu rollen. Das US-Patent Nr. 3976995 (Neuausgabepatent 32365 ) lehrt die Verwendung einer Verarbeitungsanzeige, die die Nachricht kontinuierlich über die Anzeige bewegt, so dass die Anzeige nur groß genug zu sein braucht, um einen relativ kleinen Teil der gesamten Nachricht anzuzeigen. Dieser Ansatz mag zwar zum Anzeigen einfacher Sätze nützlich sein, ist aber nicht praktisch, wenn komplexe Graphikinformationen angezeigt werden. Und selbst bei einfachen Zeichenanzeigen muss der Benutzer geduldig warten, während die Nachricht abläuft.
  • Ein weiterer üblicher Ansatz besteht darin, das Gerät mit Bildrolltasten auszustatten, gewöhnlich mit Pfeilen markiert, so dass der Bediener die Anzeige in der gewünschten Richtung abrollen lassen kann. Das US-Patent 5774109 offenbart ein tragbares Elektronikbuch mit Tastatureingabe, so dass der Bediener die Informationen leichter abrollen lassen kann. Das Problem mit einer solchen manuellen Bildrollaktivität ist, dass sie für den Bediener sehr umständlich ist, weil beim Lesen eines großen Dokumentes beide Hände benutzt werden müssen.
  • Das US-Patent 5311203 offenbart eine tragbare Sichtvorrichtung, die die dreidimensionale Richtung bestimmt, in die sie zeigt und automatisch Informationen präsentiert, die mit den im jeweiligen Sichtfeld sichtbaren Merkmalen übereinstimmen. Dieses Gerät soll Sterne oder Sternkonstellationen in einem beobachteten Teil des Nachthimmels beobachten, identifizieren und orten. Nach dem Messen der genauen Richtung des Gerätes korreliert das Gerät die betrachteten Objekte und die in seiner Datenbank gespeicherten Informationen und zeigt identifizierende Kommentare in der Nähe der entsprechenden Objekte an. Da das Gerät genau zwischen den Datenbankinformationen und den beobachteten Objekten korrelieren muss, ist ein genauer Raumwinkel relativ zu Erde nötig, so dass das Gerät zu komplex und teuer wird.
  • Ein Artikel mit dem Titel „Situated Information Spaces und Spatially Aware Palmtop Computers" von George W. Fitzmaurice, Communication of the ACM, 35(7), Juli 1993, lehrt auf den Seiten 38–49, wie ein kleiner, tragbarer und raumbewusster Palmtop-Computer als Fenster in einen dreidimensionalen Informationsraum dienen kann. Der Artikel lehrt die Verwendung eines komplexen Sensors mit sechs Freiheitsgraden, der komplette Orientierungs- und Lageinformationen bietet, so dass die Anzeige durch den Informationsraum navigieren kann. In einer in dem Artikel vorgeschlagenen Active-Map-Anwendung dient die experimentelle Einheit als elektronische Informationsliste für eine an der Wand montierte Karte. Wenn die Einheit auf der Karte umher bewegt wird, werden Informationen über den Ort auf der Karte unmittelbar unter dem Gerät auf der Anzeige des Gerätes angezeigt. Auch andere Anwendungen wie eine rechnerunterstützte Bibliothek und ein tragbarer Büroersatz werden offenbart, in dem das Gerät Informationen auf der Basis von Position und Orientierung des tragbaren Gerätes gibt. Wie bei dem zuvor erörterten Patent liegt der Hauptnachteil dieser Lösung in der Notwendigkeit für einen komplizierten 6D-Sensor, der wiederum die Durchführung komplexer Berechnungen erfordert, um Orientierung und Lage des sich bewegenden Gerätes zu bestimmen und solche Lage- und Orientierungsinformationen in den gespeicherten Informationsraum zu korrelieren. In der Tat benötigte der Prototyp des Autors die Verwendung einer fortschrittlichen Desktop-Workstation zur Ausführung dieser Rechenaufgaben.
  • Die WO98/14863A beschreibt ein tragbares Bildanzeigegerät mit Kippsensoren, die auf einen Kippwinkel des Gerätes reagieren. Das Kippen beeinflusst das Rollen durch die Anzeige.
  • Die GB2336747A offenbart ein tragbares Kommunikationsgerät mit einer Anzeigesteuerung, die den Betrieb eines Anzeigeschirms steuert. Ein Anzeigesteuersignal, daß die gemessene Neigung des Terminalgehäuses anzeigt, wird zur Steuerung übertragen, die die auf dem Bildschirm angezeigten Daten abrollen lässt.
  • Die EP805389A offenbart ein tragbares Rechengerät, in dem Informationen auf dem Anzeigeschirm durch Kippen des Gerätes abrollen gelassen werden.
  • Im Hinblick auf diese Probleme ist es Aufgabe der vorliegenden Erfindung, eine bedienerfreundliche und praktische Navigation von angezeigten Informationen in einem tragbaren Gerät bereitzustellen, so dass eine große Datenmenge auf dem relativ kleinen Display des Gerätes betrachtet werden kann. Die vorliegende Erfindung erlaubt es dem Bediener insbesondere, eine solche Navigation der Anzeigeansicht mit derselben Hand auszuführen, die auch das Gerät hält.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein tragbares Gerät mit einer Anzeige bereitstellt, das Folgendes umfasst: einen Prozessor; einen mit dem Prozessor gekoppelten ersten Axialrotationsdetektor mit der Aufgabe, eine erste Rotation des tragbaren Gerätes um eine erste Achse zu erfassen; einen mit dem Prozessor gekoppelten zweiten Axialrotationsdetektor mit der Aufgabe, eine zweite Rotation des tragbaren Gerätes um eine zweite Achse zu erfassen, wobei die erste Achse und die zweite Achse allgemein lotrecht zueinander sind; eine mit dem Prozessor gekoppelte physikalische Anzeige; eine virtuelle Anzeige, die so gestaltet ist, dass sie auf der physikalischen Anzeige gezeigt werden kann, wobei die virtuelle Anzeige größer ist als die physikalische Anzeige; ein mit dem Prozessor gekoppeltes Speichergerät zum Speichern von ablauffähigem Code zwecks Schnittstelle mit dem ersten Axialrotationsdetektor und dem zweiten Axialrotationsdetektor, wobei der ablauffähige Code Folgendes umfasst: (a) einen Code zum Rollenlassen der virtuellen Anzeige in einer ersten Dimension mit einer ersten Geschwindigkeit als Reaktion auf die erste Rotation; (b) Code zum Rollenlassen der virtuellen Anzeige in einer zweiten Dimension mit einer zweiten Geschwindigkeit als Reaktion auf die zweite Rotation; (c) Code zum Ändern der ersten Geschwindigkeit als Reaktion auf eine erste gespeicherte Ansprechkurve; und (d) Code zum Ändern der zweiten Geschwindigkeit als Reaktion auf eine zweite gespeicherte Ansprechkurve; und wobei die erste Ansprechkurve und die zweite Ansprechkurve aus mehreren Ansprechkurven ausgewählt werden.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Verfahren zum Navigieren einer Ansicht einer Anzeige eines tragbaren Gerätes bereitgestellt, das die folgenden Schritte beinhaltet: Erzeugen einer virtuellen Anzeige und Markieren einer Grenze eines auf der Anzeige zu betrachtenden Anfangsabschnitts der virtuellen Anzeige, Identifizieren eines Bedienerbefehls zum Eintreten in einen Ansichtsnavigationsmodus, in dem die Ansicht die virtuelle Anzeige in jeder gewünschten Richtung navigieren kann, Erfassen einer Rotationsorientierung des tragbaren Gerätes im Ansichtsnavigationsmodus, Identifizieren von Änderungen der Rotationsorientierung entlang zwei allgemein lotrechten Achsen, Berechnen von Änderungen der Grenze als Reaktion auf Änderungen der Rotationsorientierung des Gerätes auf der Basis einer gespeicherten Ansprechkurve, auswählbar aus mehreren Ansprechkurven, Ausgeben einer neuen Ansicht an die Anzeige, die die im Berechnungsschritt berechnete Grenze reflektiert, und Zurückbringen der Anzeige in eine feste Ansicht nach dem Verlassen des Ansichtsnavigationsmodus.
  • Die Anzeige kann in einen Navigations- und Rollmodus oder in einen festen Modus eingestellt werden. Wenn der Ansichtsnavigationsmodus eingestellt ist, dann rollt die Anzeige durch das gespeicherte virtuelle Display unter der Anleitung des Verarbeitungsmittels als Reaktion auf die Änderungen der vom Orientierungssensor gemessenen Orientierung des Gerätes.
  • Im festen Modus bleibt die Anzeige fest und folgt den Orientierungsänderungen nicht mehr. Das Display macht den Bediener im Ansichtsnavigationsmodus mit einer deutlich sichtbaren Anzeige darauf aufmerksam, dass es als Reaktion auf Änderungen der Orientierung des Gerätes rollen wird.
  • Gemäß einer speziellen Ausgestaltung der vorliegenden Erfindung umfasst das Gerät ferner einen Satz von zwei ergonomischen Schaltern, die sich auf beiden Seiten des Gehäuses befinden, so dass der Bediener im Ansichtsnavigationsmodus beide Schalter drücken muss. Eine solche Anordnung gewährleistet eine praktische Aktivierung des Ansichtsnavigationsmodus, wie sie für die haltende Hand natürlich ist, um beide Schalter gleichzeitig zu drücken. Ebenso bietet die Notwendigkeit, beide Schalter zum Aktivieren des Ansichtsnavigationsmodus zu drücken, einen besseren Schutz vor einer ungewollten Änderung der angezeigten Ansicht.
  • Eine andere Ausgestaltung der vorliegenden Erfindung hat anstatt der ergonomischen Schalter ein Mittel zum Erfassen eines Klopfens mit dem Finger des Bedieners auf den Boden des Gerätes als Befehl zum Wechseln in den Ansichtsnavigationsmodus nach einer kurzen Zeitverzögerung. Nach dem Einstellen des Ansichtsnavigationsmodus bleibt das Gerät für eine voreingestellte Zeitperiode oder so lange in diesem Modus, wie der Bediener die Orientierung des Gerätes wesentlich verändert.
  • In noch einer anderen Ausgestaltung der vorliegenden Erfindung übermitteln voreingestellte Handbewegungen des Bedieners, gemessen mit einem Satz von Orientierungssensoren, die mit zusätzlichen Höhen- oder Beschleunigungssensoren ausgestattet sind, spezielle Befehle zu dem tragbaren Gerät. So könnte beispielsweise eine schnelle ruckartige Aufwärtsbewegung des tragbaren Gerätes ohne erhebliche Orientierungsänderung benutzt werden, um das Gerät in den Ansichtsnavigationsmodus zu bringen.
  • In noch einer anderen Ausgestaltung der vorliegenden Erfindung akzeptiert ein eingebautes Spracherkennungsmittel einen gesprochenen Wortbefehl vom Bediener, um in den Ansichtsnavigationsmodus zu gehen.
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, ein praktisches Navigationsmittel zum Rollen durch eine in dem tragbaren Gerät gespeicherte virtuelle Anzeige unter Verwendung von nur einer Hand bereitzustellen.
  • Die vorliegende Erfindung ist besonders für eine Anzeigevergrößerungsanwendung geeignet. Nach dem Einstellen in den Vergrößerungsmodus kann die aktuelle Ansicht auf dem Display willkürlich selbst um einen großen Faktor vergrößert werden, dann kann im Ansichtsnavigationsmodus durch die gesamte Ansicht auf dem Display navigiert werden.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, ein solches einhändiges Navigationsmittel mit derselben praktischen Handhabung für rechts- und linkshändige Benutzer bereitzustellen.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, eine minimale Anordnung von Axialrotationssensoren zu benutzen, die nur auf Änderungen in nur zwei Orientierungsachsen des tragbaren Gerätes reagieren.
  • Es ist noch eine weitere Aufgabe der vorliegenden Erfindung, die exakte Korrelation zwischen Orientierungsänderungen und der eigentlichen Navigation der Anzeige zu minimieren, damit die Orientierungsänderungen mit relativ kostenarmen groben Sensoren bestimmt werden können.
  • Es ist auch eine Aufgabe der vorliegenden Erfindung, Smart-Ansprechkurven bereitzustellen, die die Korrelation zwischen Orientierungsänderungen und eigentlicher Navigation der Ansicht auf dynamische Weise ändern, die auch gemäß Benutzerpräferenzen eingerichtet werden kann.
  • Es ist eine weitere Aufgabe der vorliegenden Erfindung, Halbleitersensoren zu benutzen, die leicht in das Einzelchip-Design moderner tragbarer Geräte integriert werden können.
  • Es ist noch eine weitere Aufgabe der vorliegenden Erfindung, es Personen mit beeinträchtigter Sehfähigkeit oder weitsichtigen Personen zu gestatten, die Anzeige eines kleinen mobilen tragbaren Gerätes auf praktische Weise zu vergrößern und durch sie zu navigieren.
  • Es ist noch eine weitere Aufgabe der vorliegenden Erfindung, dass sie für die Herstellung als leicht aufzurüstender Schaltkomplex für die riesige Vielfalt von Palmtop-Rechen- und tragbaren Kommunikationsgeräten angepasst werden kann, die bereits auf dem Markt existieren.
  • Diese sowie weitere Aufgaben, Vorteile und Merkmale gehen nachfolgend aus Ausführungsbeispielen der vorliegenden Erfindung hervor, die illustrationshalber und nicht zur Begrenzung gegeben werden, die in der nachfolgenden ausführlichen Beschreibung beschrieben und in den Begleitzeichnungen illustriert werden, in denen gleiche Bezugsziffern entsprechende Elemente bezeichnen.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • In den Zeichnungen haben eng verwandte Figuren dieselbe Zahl, aber mit unterschiedlichen alphabetischen Suffixen.
  • 1A, 1B und 1C zeigen drei aufeinander folgende Ansichten eines tragbaren Gerätes, das die vorliegende Erfindung beinhaltet, von links nach rechts abgerollt, während durch die virtuelle Anzeige von 1D navigiert wird.
  • 2 zeigt die relativen Roll- und Nickachsen, über die das tragbare Gerät gedreht wird, um durch die Ansicht gemäß der vorliegenden Erfindung zu navigieren.
  • 3 illustriert die Verwendung der vorliegenden Erfindung als Vergrößerungsfunktion für die Anzeige eines tragbaren Gerätes gemäß der vorliegenden Erfindung.
  • 4 zeigt eine ergonomische Ausgestaltung der vorliegenden Erfindung, die zwei Seitenschalter zum Aktivieren des Ansichtsnavigationsmodus benutzt.
  • 5 ist ein Blockdiagramm der Ansicht in 4.
  • 6 umreißt das Software-Fließschema für die Ausgestaltung der Erfindung von 5.
  • 7 ist ein Zeitschema, das ein Beispiel für die zeitabhängige Ansprechkurve des Systems auf Orientierungsänderungen entlang einer Achse zeigt.
  • 8 ist ein Blockdiagramm einer anderen Ausgestaltung der vorliegenden Erfindung, die ein Fingerklopfen des Bedieners benutzt, um das tragbare Gerät in den Ansichtsnavigationsmodus zu bringen.
  • 9 ist eine Perspektivansicht des tragbaren Gerätes von 8, die eine ausgeschnittene Ansicht des Fingerklopfsensors zeigt.
  • 10 ist ein Blockdiagramm der Ausgestaltung der vorliegenden Erfindung in Form eines Zusatzupgrades für ein existierendes tragbares Gerät.
  • 11 zeigt noch eine weitere Ausgestaltung der vorliegenden Erfindung, die unterschiedliche Sensoren zum Verfolgen der Orientierung und ein Spracherkennungsmodul zum Akzeptieren von gesprochenen Befehlen zum Eintreten in den und Austreten aus dem Ansichtsnavigationsmodus benutzt.
  • 12 ist eine Zeitschema, das illustriert, wie in den Ansichtsnavigationsmodus ein- und aus ihm ausgetreten wird, gemäß einigen Ausgestaltungen der vorliegenden Erfindung.
  • 13A umreißt das Software-Fließschema der Ausgestaltung von 12C, die nur für eine feste Zeitperiode im Ansichtsnavigationsmodus bleibt und den Modus dann in den festen Modus verlässt.
  • 13B umreißt das Software-Fließschema für die Ausgestaltung von 12D, die im Ansichtsnavigationsmodus bleibt, solange der Bediener die Orientierung des Gerätes weiter ändert.
  • 14 illustriert eine weitere Ausgestaltung der vorliegenden Erfindung, die einen zusätzlichen Z-Achsen-Beschleunigungsmesser zum Identifizieren von vertikalen Handbewegungen des Bedieners benutzt, um in den Ansichtsnavigationsmodus einzutreten, sowie für andere Befehle.
  • 15 illustriert die Platzierung der drei Beschleunigungsmesser der Ausgestaltung von 14 auf der Hauptleiterplatte des tragbaren Gerätes.
  • 16 ist ein Zeitschema, das die Benutzung der Ausgestaltung der vorliegenden Erfindung von 14 mit drei Beschleunigungsmessern illustriert.
  • 17 umreißt das Software-Fließschema für die Ausgestaltung von 14, die eine vertikale Bewegungsgeste des Bedieners benutzt, um in den Ansichtsnavigationsmodus ein- und wieder daraus auszutreten.
  • AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
  • Die vorliegende Erfindung ermöglicht es, dass mit einem tragbaren Kommunikation- oder Rechengerät mit einer relativ kleinen Anzeige auf praktische Weise mit einer Hand durch eine große gespeicherte virtuelle Anzeige navigiert wird. Solche Geräte können mobile Computer wie die im Handel erhältlichen PALM PILOT, Cassiopea, PSION, Newton und andere Palmtop-Computer sein. Dies können auch verschiedene PDA-Gerate, mobile tragbare Terminals, fortschrittliche Pager und eine Reihe verschiedener Mobiltelefone mit erweiterten Informationsdisplays sein.
  • Das tragbare Gerät gemäß der vorliegenden Erfindung arbeitet mit zwei Betriebsarten, die im gesamten Dokument als Ansichtsnavigationsmodus und als fester Modus bezeichnet werden. Im Ansichtsnavigationsmodus wird automatisch durch die Anzeigeansicht gerollt, so dass sie den Drehbewegungen der haltenden Hand folgt. Wieder zurück im festen Modus, wird die Anzeigeansicht stationär und folgt den Bewegungen der Hand nicht mehr.
  • 1 zeigt einen Überblick über den Betrieb des tragbaren Gerätes 10, konstruiert gemäß der vorliegenden Erfindung, das in den Ansichtsnavigationsmodus geschaltet ist. Das Gerät hat eine Flachanzeige 12, die typischerweise aus einem LCD mit optischer Hintergrundbeleuchtung und mehreren Funktionstasten besteht. Das Display 12 ist zu klein, um die gesamte virtuelle Anzeige 30 zu zeigen, die in dem tragbaren Gerät gespeichert und in 1D gezeigt ist. Der Illustration halber zeigt die virtuelle Anzeige 30 eine Kombination von leicht zu identifizierenden Graphikobjekten wie eine Raumstation 26, ein Space Shuttle 24 und einen Astronauten mit der amerikanischen Flagge 22 zusätzlich zu einer Textnachricht 28.
  • In 1A wird der Navigationsprozess gestartet, wenn die Hand 20 des Bedieners das Gerät 10 nach links schwenkt, so dass das Display 12 den linken Teil der gespeicherten virtuellen Anzeige 30 zeigt. Wenn die Hand 20 des Bedieners nach rechts schwenkt, dann zeigt 1B, wie die Ansicht im Display 12 nach links rollt, wenn das Space Shuttle Bild 24 ins Sichtfeld kommt. 1C zeigt ferner, wie der rechte Teil der virtuellen Anzeige mit der amerikanischen Flagge 22 erscheint, wenn die Hand 20 des Bedieners weiter nach rechts schwenkt.
  • 2 zeigt die relativen Orientierungsachsen, über die das tragbare Gerät 10 gedreht wird, um das Display 12 gemäß der vorliegenden Erfindung zu navigieren. Im gesamten Dokument wird die Achse 32 als die Y-Achse oder, beeinflusst durch Begriffe aus Luftfahrt und Marine, die Rollachse bezeichnet. Ebenso wird die Achse 36 als die X-Achse oder die Nickachse bezeichnet. In einer Ausgestaltung der vorliegenden Erfindung wird der Ansichtsnavigationsmodus durch Ändern der Höhe, in der das Gerät 10 gehalten und die entlang der Z-Achse 40 gemessen wird, eingeschaltet. Wieder zurück zu dem in 1 gezeigten Verfahren, es sollte klar sein, dass das Display, obwohl dies in der Zeichnung nicht dargestellt ist, vertikal navigiert werden kann, wenn das Gerät 10 über die Nickachse vor und zurück gekippt wird.
  • Während das Rollen der Anzeige den Orientierungsänderungen des Gerätes folgt, brauchen die Bildrollgeschwindigkeit und der Bildrollbetrag nicht dem genauen Orientierungsänderungsbetrag zu folgen. Wie nachfolgend erörtert wird, glättet die Steuersoftware der bevorzugten Ausgestaltungen der vorliegenden Erfindung die Handbewegungen, um selbst dann eine praktische Navigation zu ermöglichen, wenn relativ grobe Orientierungssensoren verwendet werden.
  • 3 illustriert, dass die vorliegende Erfindung so ausgelegt ist, dass Anzeigevergrößerung und Navigation durch diese vergrößerte Anzeige möglich sind. 3A zeigt ein tragbares Gerät, das einige Informationen 50 anzeigt, die von einem Benutzer nicht betrachtet werden können, der ein beeinträchtigtes Sehvermögen hat. Wenn der Benutzer das Gerät 10 anweist, die Ansicht zu vergrößern, dann zeigt das Display 12 einen vergrößerten Teil 52 der ursprünglichen Informationen 50, wie in 3B gezeigt. Das Gerät 10 kann jetzt durch die vergrößerte Ansicht gemäß der vorliegenden Erfindung navigieren. Im Ansichtsnavigationsmodus beinhaltet das Display vorzugsweise eine visuelle Anzeige 54 für den Bediener, um ihn darauf aufmerksam zu machen, dass durch die Ansicht gerollt wird, wenn er die Geräteorientierung verändert. Die in der Zeichnung gezeigte Anzeige zeigt vier gedrehte ,L'-förmige Marker 54 an den vier Ecken des Displays 12. Es kann natürlich auch jede andere Form von visueller Anzeige bei Bedarf mit einem hörbaren Piepston verwendet werden, wenn das Gerät 10 mit einem Tonausgabemittel ausgestattet ist. Wie nachfolgend erörtert wird, ist die visuelle Anzeige 54 für diejenigen Ausgestaltungen der vorliegenden Erfindung äußerst vorteilhaft, die keinen tatsächlichen Schalter zum Umschalten in den und aus dem Ansichtsnavigationsmodus haben.
  • Es ist zu bemerken, dass das Display für eine Vergrößerungsanwendung für Personen mit beeinträchtigtem Sehvermögen ein aktives TFT LCD oder eine andere Anzeigetechnik mit scharfen Kontrastmerkmalen anwenden sollte.
  • 4 zeigt eine ergonomische Ausgestaltung der vorliegenden Erfindung, die zwei Seitenschalter 62 und 64 zum Aktivieren des Ansichtsnavigationsmodus haben. Die Zeichnung illustriert mechanische Schalter, die Federn 66 benutzen, um dem Bediener eine taktile Reaktion zu geben. Es können auch andere taktile Schalter wie der Typ mit versiegelter Membran und Schalter mit kapazitiven Streifen verwendet werden. Das tragbare Gerät 10 schaltet nur dann in den Ansichtsnavigationsmodus, wenn der Bediener beide Schalter drückt, und kehrt in den festen Modus zurück, wenn wenigstens einer der Schalter losgelassen wird. Alternativ können die Schalter zum Signalisieren eines Befehls zum Eintreten in den Ansichtsnavigationsmodus benutzt werden, und um es dem Programm zu gestatten, den Modus gemäß der nachfolgenden Beschreibung zu beenden. Die vorliegende Erfindung arbeitet zwar auch mit nur einem Schalter, aber Experimente haben gezeigt, dass diese Anordnung von zwei Seitenschaltern ergonomischer ist und dem Bediener eine bessere intuitive Kontrolle bietet. Die Verwendung von zwei Schaltern auf beiden Seiten des tragbaren Gerätes scheint für rechts- und linkshändige Personen gleichermaßen von Vorteil zu sein.
  • 5 ist ein Blockdiagramm der Ausgestaltung in 4, wo der erfindungsgemäße Schaltkomplex für die Ansichtsnavigation völlig in den Hauptschaltkomplex des tragbaren Gerätes integriert ist. Alle tragbaren Smart-Geräte mit Displays 12 verwenden typischerweise wenigstens eine Mikrosteuerung 100 oder einen Mikroprozessor, einen Speicher 102 zum Speichern von Programm- und Anzeigedaten und eine Anzeigesteuerung 104. Zur Verdeutlichung werden gemeinsame Komponenten wie die Stromversorgung und eine Tastaturschnittstelle aus dieser und allen anderen Zeichnungen weggelassen. Die Orientierungssensorschaltung 80 beinhaltet Beschleunigungsmesser für die X-Achse 82 und die Y-Achse 84, die jeweils in dem tragbaren Gerät montiert sind und mit den Achsen 36 und 32 von 2 fluchten. Da die Ansichtsnavigation gemäß der vorliegenden Erfindung einen geschlossenen Kreis zwischen den Bewegungen des Benutzers und der tatsächlichen Navigation bildet, ist eine exakte Ausrichtung zwischen Sensor und Geräteachsen nicht erforderlich. In der Tat reicht es aus, dass die beiden Sensoren allgemein lotrecht zueinander sind. Ebenso kann jede Fehlausrichtung zwischen den Empfindlichkeitssensorachsen und der X- und Y-Achse des Gerätes vom Programm korrigiert werden. Solche Beschleunigungsmesser werden vorzugsweise mit einer Oberflächen-Mikrobearbeitungstechnik ausgeführt, die elektromechanische Strukturen in Silicium integriert. Die geringe Größe von mikrobearbeiteten Strukturen macht eine Platzierung der Schaltungen und Sensoren auf demselben Chip wirtschaftlich. So wurde beispielsweise mit einem handelsüblichen, als „iMEMS" bekannten 1-Mikrometer-CMOS-Prozess von Analog Devices Inc. der ADXL202-Beschleunigungsmesser erzeugt, der zwei Achsen und die Schaltungen integriert, um digital einen DCM-(Duty Cycle Modulator)-Ausgang zu erzeugen. Mittels eines solchen DCM oder einer anderen Analog-Digital-Umwandlung 86 und 88 wird eine Schnittstelle zwischen den Orientierungsdaten und der Mikrosteuerung 100 erzeugt. Die Beschleunigungsmesser erzeugen Kippwinkelinformationen je nach ihrer Neigung relativ zur Schwerkraft der Erde. Wenn sich der Bediener bewegt, dann nehmen die Beschleunigungsmesser auch geringe Beschleunigungsartefakte auf. Das Programm kann solche Beschleunigungsartefakte ausfiltern oder der Bediener kann die Ansicht nachnavigieren, um unerwünschte Ansichtsbewegungen zu korrigieren.
  • Der rechte Schalter 62 und der linke Schalter 64 sind in Reihe mit dem VCC-Potential 70 (oder einem Massepotential, wenn Umkehrlogik verwendet wird) geschaltet, so dass sie, wenn beide gedrückt werden, ein Aktivierungssignal zur Mikrosteuerung 100 über die Leitung 72 schalten. Dieses Signal weist das Programm der Mikrosteuerung an, in den Ansichtsnavigationsmodus zu geben. Wenn das tragbare Gerät einen Piepser 94 aufweist, dann kann das Programm einen Piepston erzeugen, um den Bediener darauf aufmerksam zu machen, dass der Ansichtsnavigationsmodus eingestellt ist. Die Mikrosteuerung weist die Anzeigesteuerung 104 an, eine visuelle Anzeige 54 wie in 3B für den Bediener zu erzeugen, dass sich das tragbare Gerät im Ansichtsnavigationsmodus befindet.
  • Im Ansichtsnavigationsmodus setzt die Mikrosteuerung 100 die über die Leitungen 90 und 92 übermittelten Nick- und Rollorientierungsänderungen in Navigationsbefehle um, die ein Rollenlassen der virtuellen Anzeige bewirken, die im Speicher 102 gespeichert ist. Wenn beispielsweise der Y-Achsen-Beschleunigungsmesser anzeigt, dass der Bediener das tragbare Gerät 10 wie in 1B gezeigt nach rechts gedreht hat, dann steuert die Mikrosteuerung 100 die virtuelle Anzeige im Speicher 102 und die Anzeigesteuerung 104, so dass sie die Ansicht in dem Display 12 nach rechts rollt.
  • 6 umreißt das Software-Fließschema für die Ausgestaltung der Erfindung von 5. Der Ablauf vom Start 120 bis zum Ende 134 erfolgt mehrere Male pro Sekunde in einem standardmäßigen Abfrageprozess der Mikrosteuerung 100. Beim Initialisierungsschritt in Block 122 wird die aktuelle Grenze der Anzeigeansicht im Vergleich zur gespeicherten virtuellen Anzeige markiert. Der Status beider Navigationsschalter 62 und 64 wird in Block 124 geprüft. Wenn beide Schalter gedrückt werden, wird das System in Block 126 in den Ansichtsnavigationsmodus gesetzt, um die visuelle Anzeige 54 zu erzeugen, um dem Bediener mitzuteilen, dass Orientierungsänderungen des tragbaren Gerätes zur Navigation der Anzeige führen.
  • In Block 128 werden die Nick- und Rolldaten erfasst, gespeichert und mit den vorherigen Werten verglichen. Wenn in Block 130 eine Orientierungsänderung erfasst wird, dann berechnet das Programm in Block 132 die neue Grenze für die Ansicht. Sie frischt das Display auch auf so dass es die neue Ansicht zeigt, und speichert die neue aktuelle Orientierung als Basis für den Vergleich im nächsten Ablauf des Prozesses. Der Prozess endet in Block 134, bis er wieder abgefragt wird. Wenn die Prüfung auf gedrückte Schalter in Block 124 anzeigt, dass wenigstens ein Schalter nicht gedrückt ist, dann schaltet das Programm die Navigationsanzeige 54 ab und der Prozess endet in Block 134, bis er wieder abgefragt wird.
  • Das Programm kann mit unterschiedlichen Ansprechkurven zum Berechnen der neuen Grenze als Reaktion auf Orientierungsänderungen in Block 132 eingestellt werden. Feine und grobe Ansprechmodi können vom Bediener eingestellt oder während der Zeit, in der sich das System im Ansichtsnavigationsmodus befindet, dynamisch verändert werden. Bei einer feinen Ansprechung navigiert die Anzeigeansicht durch das virtuelle Display in Reaktion auf die Orientierungsänderungen relativ langsam. Bei einer groben Ansprechung ändert sich die Anzeigeansicht in Reaktion auf die Orientierungsänderungen schnell.
  • 7 ist ein Zeitschema, das ein Beispiel für die zeitabhängige Ansprechkurve des Systems auf Änderungen der Orientierung entlang einer Achse zeigt. Ähnliche Relationen werden entlang den anderen Orientierungsachsen verwendet, obwohl Ansprechwerte mit einem anderen Bias für jede Achse eingestellt werden können. 7A zeigt die relative Ansprechkurve, die im Programm voreingestellt ist und vom Bediener modifiziert werden kann. Die relative Ansprechung wird durch Dividieren des Änderungsbetrags in der Ansichtsnavigation, bei dem es sich um eine normalisierte Zahl proportional zu dem Prozentanteil handelt, um den die virtuelle Anzeige gerollt wurde, durch die Orientierungsänderung erhalten, die dies bewirkt hat. So kann der Bediener eine feine und langsame Navigation erzielen, wenn der relative Ansprechwert niedrig ist, und eine grobe und schnelle Navigation, wenn der relative Ansprechwert hoch ist. 7B illustriert den Wert vom Orientierungssensor auf einer Achse, repräsentiert durch das Signal 90 oder 92 von 5. 7C zeigt die Zeit, die Orientierungsänderungen entlang der überwachten Achse entspricht, gemessen durch die Mikrosteuerung 100 in Block 128 von 6. 7D illustriert die resultierende Navigation der Ansicht entlang der überwachten Achse, berechnet durch die Mikrosteuerung 100 in Block 132 gemäß einer Betriebsart. 7E illustriert die resultierende Navigation der Ansicht entlang der überwachten Achse, berechnet von der Mikrosteuerung 100 als Reaktion auf dieselben Reize, aber gemäß einer alternativen Betriebsart.
  • 7A zeigt, dass das Gerät zum Zeitpunkt t1 140 in den Ansichtsnavigationsmodus und zum Zeitpunkt t4 zurück in den festen Modus geschaltet wurde. Während der Festmodusperioden 144 und 146 der Zeichnung bleibt die Ansicht auf dem Display während der entsprechenden Perioden 148 und 150 in 7D und 7E fest, obwohl der Orientierungssensor Orientierungsänderungen 147 und 149 in 7C meldet. In diesem Beispiel wird, von Zeitpunkt t1 bis Zeitpunkt t2, die relative Ansprechung des Systems auf feine Navigation 152 eingestellt. Nach dem Zeitpunkt t2 nimmt die relative Ansprechung allmählich bis zum Zeitpunkt t3 zu (154), wo die relative Ansprechung grob wird (156).
  • Im Ansichtsnavigationsmodus reinigt ein Filteralgorithmus die Orientierungsdaten von Rucken und anderen Orientierungs-„Geräuschen". Zum Beispiel, ein ungewolltes Rauschen 160 und 162 in 7B führt zwar zu entsprechenden Orientierungsänderungsimpulsen 164 und 166 in 7C, aber diese werden tatsächlich vom Programm ignoriert und das Programm navigiert die Ansicht nicht, wie in 7D und 7E gezeigt.
  • 7D illustriert die Ansichtsnavigationsansprechung, wenn eine Betriebsart verwendet wird, die die navigierte Ansicht nur während einer Orientierungsänderungsperiode navigiert. In der Periode 170, die während der Feinnavigation auftritt, wird eine Orientierungsänderung erfasst und die Ansicht wird als Reaktion darauf langsam navigiert. In der Periode 174 navigiert die Ansicht, während die relative Ansprechung dynamisch in die grobe Navigation wechselt, mit einer höheren Geschwindigkeit 176. In der Periode 180, die während der groben Navigation auftritt, führt eine relativ langsame Orientierungsänderung 182 zu einer raschen Navigation 184 der Ansicht. In dieser Betriebsart bleibt die Ansicht in Abwesenheit von Orientierungsänderungen stationär.
  • 7E illustriert die Ansichtsnavigationsreaktion, wenn eine alternative kontinuierliche Betriebsart die Ansicht ständig mit der Geschwindigkeit und in der Richtung navigiert, die bei der letzten schnellen Orientierungsänderung etabliert wurden. Auch hier wird wieder in der Periode 170, die während der Feinnavigation auftritt, eine Orientierungsänderung erfasst und die Ansicht als Reaktion darauf langsam navigiert (186). Die Ansicht navigiert jedoch weiter in derselben Richtung, bis in Periode 174 wieder eine Orientierungsänderung auftritt. Eine neue Navigationsgeschwindigkeit 188 in derselben Richtung, aber mit einer Geschwindigkeit entsprechend der reduzierten Orientierungsgeschwindigkeitsänderung in Periode 174, wird mit der höheren relativen Ansprechung bei 154 multipliziert. Diese Navigation wird bis zu Periode 180 fortgesetzt, die während der groben Navigation auftritt. Zu diesem Zeitpunkt führt eine relativ langsame Orientierungsänderung 182 zu einer raschen Navigation 190 der Ansicht. Das Programm wendet eine Mindestansprechschwelle an, so dass die Navigation stoppen kann, wenn der Bediener die Orientierungsrichtung geringfügig umkehrt. Weitere Betriebsarten können als Varianten der in den 7D und 7E gezeigten etabliert werden.
  • Eine solche Ansprechkurve mit wenigstens zwei Einstellungen von feiner und grober Navigation, die eingestellt und für die individuelle Präferenz des Bedieners justiert werden können, ermöglicht eine exakte Ansichtsnavigation. Zunächst drückt der Bediener die Schalter, bis die grobe Navigation aktiviert ist (156), und es wird auf den allgemeinen Bereich der gewünschten Ansicht zugegriffen. An dieser Stelle kann der Bediener die Feinnavigation einfach durch Deaktivieren und dann erneutes Aktivieren der Schalter erreichen. Andere Ansprechkurven können ein fester Wert sein oder können bei jedem nachfolgenden Eintritt in den Ansichtsnavigationsmodus zwischen feiner und grober Navigation umschalten.
  • Es ist auch möglich, Mehrzustandsschalter anstatt der einfachen Schalter 62 und 64 von 5 zu benutzen, so dass der Bediener direkt aus grober und feiner Ansprechung auswählen kann. Und doch erlaubt die Anwendung einer sich dynamisch ändernden Ansprechung wie beschrieben eine gewisse Einfachheit des Designs.
  • Eine weitere Lösung ist es, Schalter insgesamt wegzulassen und die Nick- und Rolländerungen auf benutzerspezifische Gesten hin zu überwachen, die den Ansichtsnavigationsmodus aktivieren. In einer solchen Ausgestaltung der vorliegenden Erfindung verfolgt das Programm ständig die Roll- und Nickorientierung im Speicher und analysiert sie kontinuierlich, um zu sehen, ob Gesten des Bedieners erfasst wurden. Es scheint, dass für eine zuverlässigere Aktivierung des Ansichtsnavigationsmodus ein zusätzlicher Sensor benötigt wird.
  • 8 ist eine weitere Ausgestaltung der vorliegenden Erfindung, die die Schalter 62 und 64 durch einen Aktivierungsdetektor 200 ersetzt, der auf ein Fingerklopfen des Bedieners reagiert, um das tragbare Gerät in den Ansichtsnavigationsmodus zu setzen. Der Fingerklopfdetektor beinhaltet einen Schall/Vibrationswandler 202 zum Erfassen des Fingerklopfens und zum Ausgeben einer Spannung, die die erfassten Klopfvibrationen repräsentiert. Der Ausgang des Sensors 202 ist durch eine Leitung 203 mit dem Eingang des Verstärkers 204 verbunden. Im Verstärker 204 ist ein gewisser Schwellenwert eingestellt, um zu gewährleisten, dass nur Signale über dem Schwellenwert verstärkt werden. Der verstärkte Ausgang des Verstärkers 204 wird mit einem Tiefpassfilter 206 gefiltert, dessen Ausgang mit dem Analog-Digital-Wandler 208 verbunden ist, um digitale Daten über die Verbindung 212 zur Mikrosteuerung 100 zu senden. Wenn die Mikrosteuerung ein Signal auf der Leitung 212 empfangt, dann versucht sie, eine Übereinstimmung zwischen seiner Frequenz und Länge mit den gespeicherten Kennwerten eines Fingerklopfsignals zu finden. Wenn eine Übereinstimmung gefunden wird, dann setzt das Programm das Gerat nach einer voreingestellten Verzögerung nach dem Ende des Fingerklopfsignals in den Ansichtsnavigationsmodus. Im Ansichtsnavigationsmodus verwendet die Mikrosteuerung 100 die Orientierungsänderungsinformationen vom Orientierungssensor 80 zum Navigieren des Displays auf ähnliche Weise wie in der Erörterung von 5.
  • Der Fingerklopfsensor kann ein Elektretkondensatormikrofon oder ein piezoelektrischer Wandler sein. Beide Sensortypen sind relativ kostenarm und lassen sich leicht herstellen. 9 ist eine Perspektivansicht des tragbaren Gerätes 10 gemäß der Ausgestaltung von 8, die eine ausgeschnittene Ansicht des Fingerklopfsensors 202 zeigt. Der Fingerklopfsensor 202 ist am Boden des Gehäuses des Gerätes 10 angebracht oder kann im Bereich unmittelbar unterhalb der Oberseite des Displays 12 an der Stelle platziert werden, auf die der Bediener wahrscheinlich mit dem Finger klopfen wird, wenn das Gerät mit einer Hand gehalten wird. Der Sensor 202 ist durch eine Leitung 203 mit der oben beschriebenen Schaltung verbunden. Eine gute Verstärkung kann sicherstellen, dass das Gerät alle relevanten Fingerklopfer am Boden erfasst. Solche Fingerklopfer erzeugen Vibrationen und Schallmuster, die sich erheblich von dem Schall unterscheiden, der durch Stiftschläge auf den Bildschirm oder das Betätigen einer Taste 13 erzeugt wird. Die Mikrosteuerung kann einen Fingerklopfton von anderen Geräuschen wie denen unterscheiden, die entstehen, wenn das Gerät auf den Tisch gelegt wird. Für eine effizientere Herstellung kann der Fingerklopfsensor 202 am Boden der PCB-Baugruppe 450 in dem Gerät 10 oberflächenmontiert werden.
  • Da es auf dem Markt bereits eine große Vielfalt von tragbaren Smart-Geräten mit Displays gibt, ist es wünschenswert, dass die vorliegende Erfindung als Zusatzgerät zum Aufrüsten adaptiert wird. 10 zeigt das Blockdiagramm der Ausgestaltung der vorliegenden Erfindung in Form eines Zusatzupgrades 300, das an einem existierenden tragbaren Gerät 10 angebracht ist. Das Zusatzupgrade 300 ist auf einer Miniaturleiterplatte aufgebaut, die extern oder intern mit dem mobilen Gerät 10 verbunden ist, je nach der Erweiterungsfähigkeit dieses tragbaren Gerätes.
  • Das Zusatzupgrade 300 umfasst die in anderen Ausgestaltungen der vorliegenden Erfindung beschriebenen Sensoren sowie eine standardmäßige Mikrosteuerung 302. Eine solche Mikrosteuerung hat typischerweise ihren eigenen gespeicherten Programm- und Datenspeicher sowie einen Kommunikationskanal 304 wie UART, SPC und I2C. Die Mikrosteuerung 302 erhält die Orientierungsänderungsinformationen über die Leitungen 90 und 92 sowie das Signal zum Eintreten in den oder Austreten aus dem Ansichtsnavigationsmodus 212. Zum Verarbeiten der Orientierungsänderungsdaten und des Navigationseintrittsbefehls wie oben erläutert berechnet die Mikrosteuerung die gewünschten Navigationsänderungen für das Display des Gerätes und sendet Befehle über den Kommunikationskanal 304 zu dem tragbaren Gerät. Die Befehle, die in Form eines seriellen Protokolls vorliegen könnten, sind über den Applikationsschnittstellenport 310 mit dem tragbaren Gerät verbunden. Diese Befehle werden weiter zum Prozessor auf der Hauptplatine 320 übertragen, mit Anweisungen darüber, wie der Hauptplatinenprozessor durch die Anzeige navigieren soll. Alle anderen Implementationen der vorliegenden Erfindung wie in den 5, 11 und 14 gezeigt können ebenfalls als Zusatzupgrade in einer ähnlichen Ausgestaltung wie in 10 implementiert werden.
  • Die Vorteile der Verwendung des Fingerklopfdetekors zum Befehlen des Eintritts in den Ansichtsnavigationsmodus liegen darin, dass die Herstellung kostenärmer ist als mit den Seitenschaltern von 4. Es ist auch einfacher, ein Ansichtsnavigationssystem mit einem Fingerklopfsensor zu einem existierenden tragbaren Gerät hinzuzufügen.
  • 11 zeigt noch eine weitere Ausgestaltung der vorliegenden Erfindung, die unterschiedliche Sensoren verwendet. Die Orientierungssensorbaugruppe 380, die einen magnetischen Richtungssensor 364 und einen Kippsensor 368 beinhaltet, ersetzt den Orientierungssensor 80 auf Beschleunigungsmesserbasis von 8. Im Handel sind verschiedene Geräte zum Messen der magnetischen Richtung des Gerätes erhältlich. So erzeugen beispielsweise entlang den Achsen 32 und 36 platzierte Magnetwiderstände Orientierungsanzeigen, wenn das Gerät relativ zum Magnetfeld der Erde bewegt wird. Kippsensoren können aus einem Potentiometer und einem kleinen Gewicht bestehen, das mit dem Potentiometer gekoppelt ist und das sich auf einer festen Achse frei drehen kann, um die das Kippen gemessen wird. Andere Typen von handelsüblichen Neigungsmessern sind kleine, flüssigkeitgefüllte Stellwiderstände, deren Widerstandswert sich je nach ihrer Neigung ändert. Anstatt der Beschleunigungsmesser 82 und 84 können andere in der Technik bekannte Orientierungssensoren, wie z. B. Laserkreisel, verwendet werden. Eine weitere Ausgestaltung kann mit mehreren Sätzen von Magnetoresistoren zum Messen von Orientierungsänderungen in zwei Freiheitsgraden ohne Verwendung eines Neigungsmessers oder Beschleunigungsmessers arbeiten.
  • Die Navigationsbefehlseinheit hat ein Spracherkennungsmodul 400 anstatt des Fingerklopfsensors 200 von 8, um die Mikrosteuerung 100 anzuweisen, in den Ansichtsnavigationsmodus einzutreten. Das Spracherkennungsmodul kann ungeachtet des Ansichtsnavigationsmerkmals bereits Teil des tragbaren Gerätes 10 sein und kann es somit dem Bediener gestatten, verbal in den Ansichtsnavigationsmodus umzuschalten, während er das Gerät weiter in einer Hand hält. Zur Verdeutlichung wurden in 11 das Display 12, die Anzeigesteuerung 104 und der Speicher 102 weggelassen, die weiterhin mit der Mikrosteuerung 100 verbunden sind, wie in den 8 und 5 dargestellt ist.
  • Beim Vergleichen der 5, 8, 11 sollte klar sein, dass verschiedene Kombinationen zum Umsetzen der vorliegenden Erfindung verwendet werden können. So können z. B. der magnetische Richtungssensor 364 und der Kippsensor 368 die Beschleunigungsmesser 82 und 84 in 5 ersetzen. In einer anderen Ausgestaltung kann die Spracherkennungsschaltung 400 anstatt des Fingerklopfdetektors 200 wie in 8 verwendet werden oder die Beschleunigungsmesser 82 und 84 der Ausgestaltung von 8 können den Orientierungssensor von 11 ersetzen. Die Auswahl des Sensors sollte im Hinblick auf die Gesamtstruktur des tragbaren Gerätes erfolgen. In den meisten Anwendungen werden sich die Geräte, die keine beweglichen Teile erfordern und in den Siliciumchip des Hauptgerätes integriert werden können, wahrscheinlich als am rentabelsten erweisen.
  • 12 ist ein Zeitschema, das illustriert, wie in den Ausgestaltungen der vorliegenden Erfindung, die den Fingerldopfsensor von 5 verwenden, in den und aus dem Ansichtsnavigationsmodus geschaltet wird. Das vom Sensor 202 auf der Leitung 203 empfangene Signal ist in 12A zu sehen. 12B zeigt das Signal, das die Orientierungsänderung entlang einer Achse repräsentiert. Das ein Fingerklopfen repräsentierende Signal 240 wird zwischen den Zeitpunkten t1 und t2 erfasst. Die Mikrosteuerung bewirkt eine ausreichend große Zeitverzögerung von t3–t2, um eventuelle von der Fingerklopfbewegung resultierende falsche Orientierungsänderungswerte zu eliminieren. Die Orientierungsänderungssignale 242 und 244 werden wahrscheinlich ein Artefakt des Klopfens des Bedieners sein. Zum Zeitpunkt t3 setzt die Mikrosteuerung das Gerät in den Ansichtsnavigationsmodus und teilt dies dem Bediener mit der visuellen Anzeige 54 mit. Die 12C und 12D zeigen Logiksignale, die mit logisch „hoch" anzeigen, dass das Gerät im Ansichtsnavigationsmodus ist. 12C zeigt ein Navigationsaustrittsverfahren, mit dem das Gerät für eine voreingestellte Zeit t4–t3 im Ansichtsnavigationsmodus 254 bleibt. Zum Zeitpunkt t4 wird der Ansichtsnavigationsmodus verlassen, um die angezeigte Ansicht zu fixieren. Wenn weitere Navigation benötigt wird, dann wiederholt der Bediener den Vorgang, indem er nochmals auf den Boden des Gerätes klopft. 12D illustriert ein weiteres Navigationsaustrittsverfahren, bei dem das Gerät im Ansichtsnavigationsmodus 256 bleibt, solange der Bediener die Orientierung des Gerätes ändert. Während der Zeitperiode 246 dreht der Bediener das Gerät in einer Richtung, und in der Zeitperiode 248 ändert der Bediener die Drehrichtung. Während der Zeitperiode 250 (gleich t6–t5) hält der Bediener das Gerät relativ still und daher beendet die Mikrosteuerung den Ansichtsnavigationsmodus 246 zum Zeitpunkt t6. Das Display navigiert als Reaktion auf erneute Orientierungsänderungen 252 nicht.
  • Das Zeitschema von 12 kann für andere Ausgestaltungen der vorliegenden Erfindung verwendet werden.
  • 13A umreißt das Software-Fließschema für die Ausgestaltung von 12C, die nur für eine feste Zeitperiode im Ansichtsnavigationsmodus bleibt und dann in den festen Modus geht. Das Programm beginnt in Block 260, wenn die Mikrosteuerung 100 das Fingerklopfen oder den Sprachbefehl zum Eintreten in den Ansichtsnavigationsmodus erkennt. Im Initialisierungsschritt in Block 262 wird die aktuelle Grenze der Anzeigeansicht im Vergleich zur gespeicherten virtuellen Anzeige markiert. Eine Verzögerung, die der Zeitlänge t3–t2 von 12 entspricht, wird in Block 262 eingefügt, um dem Gerät nach dem Fingerklopfen etwas Zeit zum Stabilisieren zu geben. Nach der Verzögerung wird das System in Block 268 in den Ansichtsnavigationsmodus gesetzt, um die Ansichtsnavigation zu starten. Es erzeugt auch die visuelle Anzeige 54, um den Bediener darauf aufmerksam zu machen, dass Orientierungsänderungen des tragbaren Gerätes zum Navigieren der Anzeige führen werden. Eine Variation des Prozesses kann die Navigationsanzeige 54 vor Block 264 aktivieren, aber nach der Verzögerung in Block 264 weiterhin in den Ansichtsnavigationsmodus gehen. Eine Prozesszeituhr wird in Block 268 aktiviert, um die Verweilzeit im Ansichtsnavigationsmodus auf eine Zeitperiode von t4-t3 zu begrenzen. In Block 270 wird die Prozesszeituhr geprüft. Wenn die Prozesszeituhr nicht abgelaufen ist, dann geht der Prozess weiter zu Block 272, um die Nick- und Rollorientierungsdaten, oder in anderen Ausgestaltungen der vorliegenden Erfindung, die Azimut- und Neigungsdaten zu erfassen. Der Prozess in Block 272 speichert auch die Orientierungsdaten für den nächsten Ablauf und vergleicht die neuen und alten Orientierungsdaten. Wenn eine Orientierungsänderung in Block 274 erfasst wird, dann berechnet das Programm die neue Grenze für die Ansicht in Block 276. Es frischt auch die Ansicht auf, so dass sie die neue Ansicht zeigt, und speichert die neue aktuelle Orientierung als Basis für den Vergleich im nächsten Ablauf des Prozesses. Der Prozess fährt mit dem nächsten Ablauf in Block 270 fort, um den Status der Prozesszeituhr zu prüfen. Nach Ablauf der Zeitperiode t4–t3 schaltet der Prozess die Navigationsanzeige 54 in Block 278 ab und der Prozess endet in Block 280. Wie jeder andere Echtzeitvorgang kann die Mikrosteuerung den Prozess zum Ausführen anderer Aufgaben unterbrechen. Ebenso kann die Mikrosteuerung am Ende von Block 276 durch ihr Betriebssystem Zeit für andere Aufgaben zuweisen oder sogar einfach für eine voreingestellte Zeit warten, um die Zahl der Abläufe des Ansichtsnavigationsprozesses in den Blöcken 270 bis 276 zu begrenzen, die pro Sekunde ausgeführt werden. Eine angemessene Zahl der Abläufe pro Sekunde hängt von der Auswahl eines groben oder feinen Ansichtsnavigationsmodus sowie von der Ansprechzeit der Orientierungssensoren ab und kann für die meisten praktischen Anwendungen im Bereich von 5 bis 30 liegen. Der Vorteil einer höheren Zahl von Abläufen pro Sekunde ist, dass die Navigation enger an die Drehbewegungen der Hand angepasst werden kann, auf Kosten eines erhöhten Overheads für das Betriebssystem der Mikrosteuerung.
  • 13B umreißt das Software-Fließschema für die Ausgestaltung von 12D, die im Ansichtsnavigationsmodus bleibt, solange der Bediener die Orientierung des Gerätes weiter ändert. Sobald der Bediener das Gerät für eine voreingestellte Zeit von t6–t5 relativ still hält, wird der Ansichtsnavigationsmodus beendet. Der Prozess beginnt in den Blöcken 260, 262 und 264, wie in 13A beschrieben. In Block 282 gibt der Prozess die visuelle Anzeige 54, um dem Bediener mitzuteilen, dass Orientierungsänderungen des tragbaren Gerätes ein Navigieren der Anzeige bewirken werden. Die Erfassung von Orientierungsdaten in Block 284 ist der Erörterung für Block 272 von 13A ähnlich. Wenn in Block 286 in den Ausrichtungsdaten keine Änderungen erfasst werden, dann aktiviert der Prozess die Keine-Aktion-Zeituhr von Block 290 auf t6-t5. Er erfasst dann weiter Orientierungsdaten in Block 292. Wenn in Block 294 keine Änderung der Orientierungsdaten erfasst wird, dann prüft der Prozess, ob die Keine-Aktion-Zeituhr abgelaufen ist. Wenn die Zeituhr abgelaufen ist, dann endet der Ansichtsnavigationsmodus in Block 278 und 280 wie in 13A beschrieben.
  • Wenn in Block 286 eine Orientierungsänderung erfasst wird, dann berechnet das Programm die neue Grenze für die Ansicht in Block 288 und frischt das Display mit der neuen Ansicht auf. Es speichert auch die neue aktuelle Orientierung als Basis für den Vergleich im nächsten Ablauf des Prozesses. Ebenso geht es, wenn Block 294 eine Änderung der Orientierungsdaten erfasst, weiter zu Block 288. In Block 288 wird die Keine-Aktion-Zeituhr von Block 290 ebenfalls deaktiviert, weil soeben eine Drehaktion erfasst wurde. Bei der Betrachtung von 13B ist zu verstehen, dass die verschiedenen Prozesse durch die Betriebssysteme geplant werden, um es der Mikrosteuerung zu gestatten, andere Aufgaben auszuführen und die Zahl der Datenerfassungen pro Sekunde zu begrenzen, wie in 13A erörtert.
  • 14 illustriert eine weitere Ausgestaltung der vorliegenden Erfindung, die einen zusätzlichen Z-Achsen-Beschleunigungsmesser benutzt, um die vertikalen Handbewegungen des Bedieners für den Eintritt in den Ansichtsnavigationsmodus und für andere Befehle zu identifizieren. Die Orientierungs- und Bewegungssubsektion 420 beinhaltet einen Z-Achsen-Beschleunigungsmesser 432, der zum Erfassen von Bewegungen in der vertikalen Achse 40 von 2 zusätzlich zu den Orientierungssensoren 82 und 84 eingestellt wird. Der Ausgang des Beschleunigungsmessers 420 ist mit dem Analog-Digital-Wandler 434 verbunden. Der Analog-Digital-Wandler erzeugt ein digitales Signal zur Mikrosteuerung 100, das auf die vertikalen Bewegungen des Gerätes anspricht. Das Programm der Mikrosteuerung überwacht vertikale Beschleunigungsänderungen, um spezielle Handbewegungen des Bedieners zu erfassen. Zum Beispiel kann eine schnelle Auf- und Abbewegung des Bedieners einen Befehl zum Eintreten in den Ansichtsnavigationsmodus bedeuten. Das Programm kann so adaptiert werden, dass es zusätzliche Typen von Handbewegungen als andere Befehle erkennt. Während spezielle Handbewegungen von dem Satz von zwei X- und Y-Beschleunigungsmessem identifiziert werden können, muss das Programm die Handbewegung, die ein Befehl sein soll, von ähnlichen Signalen isolieren, die als Reaktion auf eine Bedienernavigation der Anzeige erfolgen. Der Z-Achsen-Beschleunigungsmesser 432 erzeugt eine zusätzliche Messung, um es dem Programm zu gestatten, vertikale Bewegungen von Drehnavigationsbewegungen zu identifizieren. Zur Verdeutlichung wurden in 14 das Display 12, die Anzeigesteuerung 104 und der Speicher 102 weggelassen, die weiterhin mit der Mikrosteuerung 100 verbunden sind, wie in den 8 und 5 gezeigt ist.
  • Es können anstatt des Z-Achsen-Beschleunigungsmessen auch andere Sensoren benutzt werden, die Höheninformationen geben. Dazu können ein Luftdrucksensor, der für Änderungen des Luftdrucks empfindlich ist, oder ein Abstandsdetektor gehören, der den Abstand des Gerätes vom Boden misst.
  • 15 illustriert die Platzierung der drei Beschleunigungsmesser der Ausgestaltung von 14 auf der Hauptleiterplatte 450 des tragbaren Gerätes. Die Leiterplatte 450 trägt die Mikrosteuerung 100, das Anschlussmittel 452 für das LCD-Display sowie andere Komponenten, die der Deutlichkeit halber nicht dargestellt sind. Viele handelsübliche Beschleunigungsmesser haben zwar zwei oder mehr Beschleunigungsmesser auf demselben Chip, aber die Zeichnung illustriert die Orte der Beschleunigungsmesser unter der Annahme, dass ein Beschleunigungsmesser pro Chip verwendet wird. Der X-Achsen-Beschleunigungsmesser 82 und der Y-Achsen-Beschleunigungsmesser 84 werden im rechten Winkel zueinander platziert. Der Z-Achsen-Beschleunigungsmesser 432 wird so montiert, dass seine Empfindlichkeitsachse lotrecht zur Leiterplatte 450 ist. Bei einer Großserienherstellung können alle drei Beschleunigungsmesser im selben Chip untergebracht werden.
  • 16 ist ein Zeitschema, das die Verwendung der Ausgestaltung der vorliegenden Erfindung von 14 mit drei Beschleunigungsmessern illustriert. 16A zeigt das vom Z-Achsen-Beschleunigungsmesser 432 empfangene Beschleunigungssignal. 16B zeigt das Signal, das die Orientierungsänderung entlang der X-Achse repräsentiert. 16C zeigt das Signal, das die Orientierungsänderung entlang der Y-Achse repräsentiert. 16D ist ein Logiksignal, das mit logisch „hoch" anzeigt, wenn das Gerät im Ansichtsnavigationsmodus ist. Wir nehmen an, dass die Geste zum Eintreten in den oder Austreten aus dem Ansichtsnavigationsmodus eine schnelle vertikale Auf- und Abwärtsbewegung ist, während das Gerät in einer relativ stabilen Orientierung ist. In der Periode 470 zeigt der Z-Achsen-Beschleunigungsmesser ein starkes Signal 472, das einer vertikalen Geste des Bedieners zwischen den Zeitpunkten t10 und t11 entspricht. In derselben Periode zeigen die anderen Beschleunigungsmesser die Signale 474 und 476, da einige Orientierungsänderungen selbst dann beeinflusst werden, wenn der Benutzer versucht, das Gerät in einer relativ stabilen Orientierung zu halten. Das Programm der Mikrosteuerung ermittelt anhand dieser Kombination von Signalen, dass eine gültige Bedienergeste zum Eintreten in den Ansichtsnavigationsmodus empfangen wurde. Nach einer voreingestellten Zeitverzögerung t12–t11 schaltet das Programm das Gerät zum Zeitpunkt t12 in den Ansichtsnavigationsmodus 490. Die relativ kurze Zeitverzögerung gewährleistet, dass das Programm Artefakte 478 und 480 ignoriert, die auf die Eintrittsgeste zu folgen neigen. Im Ansichtsnavigationsmodus erfasst das Programm die Orientierungssignale 482 und 484 zum Navigieren der Anzeige. Das Programm führt im Speicher auch eine kurze Folge der Beschleunigungsmessersignale.
  • Zum Zeitpunkt t14 macht der Bediener eine andere Geste 486. Zum Zeitpunkt t15 hat das Programm die Identifikation der Geste beendet und verlässt den Ansichtsnavigationsmodus. Das Programm bringt dann die Ansicht anhand der gespeicherten Folgen der Beschleunigungsmessersignale wieder auf ihre Einstellung unmittelbar vor dem Beginn der Geste zum Zeitpunkt t14 zurück. Der Bediener versucht daher, die Ansicht zum Zeitpunkt t13 zu stabilisieren, so dass die gewünschte Endansicht in der Periode 488 vor der Geste zum Beenden des Ansichtsnavigationsmodus vorliegt. Wenn die Datenfolge der Beschleunigungsmesser nicht gespeichert werden soll, so dass die Ansicht nach der Austrittsgeste wieder zurückgewonnen wird, dann kann die Austrittsmethode von 12C oder 12D verwendet werden.
  • 17 umreißt das Software-Fließschema für die Ausgestaltung von 14, die eine vertikale Bewegungsgeste des Bedieners zum Eintreten in den und Austreten aus dem Ansichtsnavigationsmodus benutzt. Der Vorgang beginnt in Block 500 gemäß dem Tasking-Gesamtschema der Betriebssysteme der Mikrosteuerung 100. Der Prozess erfasst alle Sensordaten in Block 502 und hält eine Datenfolge im Speicher, damit eine Datenformanalyse in Block 504 erfolgen kann. Wenn die Analyse gerade keine Geste zeigt, dann endet der Prozess in Block 506. Wenn in Block 504 festgestellt wird, dass eine Geste gemacht wurde, dann fährt der Prozess mit dem Initialisierungsblock 508 fort, wo die aktuelle Grenze der Anzeigeansicht im Vergleich zur gespeicherten virtuellen Anzeige markiert wird.
  • In Block 504 wird eine der Zeitperiode t12–t11 von 16 entsprechende Verzögerung eingeführt, um dem Gerät etwas Zeit zum Stabilisieren nach der Geste zu geben. Nach der Verzögerung wird das System in Block 510 in den Ansichtsnavigationsmodus gesetzt, um die Ansichtsnavigation zu starten. Es gibt auch die visuelle Anzeige 54, um den Bediener darauf aufmerksam zu machen, dass Orientierungsänderungen des tragbaren Gerätes zu einer Navigierung der Anzeige führen werden.
  • Der Prozess erfasst alle Sensordaten in Block 512 und hält eine Datenfolge im Speicher, um eine Gestenformanalyse in Block 514 zuzulassen. Wenn eine Orientierungsänderung in Block 516 erfasst wird, dann berechnet das Programm die neue Grenze für die Ansicht in Block 518. Es frischt auch die Anzeige auf, so dass sie die neue Ansicht zeigt, und speichert die neue aktuelle Orientierung als Basis für den Vergleich im nächsten Ablauf des Prozesses. Der Prozess wird mit dem nächsten Ablauf im Block 512 fortgesetzt, um die Navigation der Ansicht fortzusetzen. Wenn in Block 516 keine Orientierungsanderung erfasst wurde, dann fährt das Programm mit dem Überwachen der Sensoren in Block 512 fort. Wenn in Block 514 eine vertikale Geste erfasst wird, dann benutzt das Programm die Datenfolge von den Beschleunigungsmessern, um die Ansicht in ihren Zustand unmittelbar vor der Geste 520 zurückzubringen. Es geht dann zu Block 522 weiter, um die Navigationsanzeige 54 abzuschalten, und der Prozess endet in Block 524.
  • Die obige Beschreibung enthält zwar zahlreiche Spezifikationen, aber diese sind nicht als den Umfang der Erfindung begrenzend anzusehen, sondern dienen lediglich zur Illustration einiger der derzeit bevorzugten Ausgestaltungen der vorliegenden Erfindung.
  • Während z. B. die obigen Ausgestaltungen den Einsatz von Beschleunigungsmessern, Magnetsensoren und Neigungsmessern zeigen, können auch verschiedene andere Sensoren zum Erfassen von Orientierungs- oder Höheninformationen eingesetzt werden. Auch wurde zwar eine einfache Handgeste in Form einer Auf- und Abbewegung beschrieben, aber es können auch viele andere Formen von Handgesten implementiert und erfasst werden.

Claims (30)

  1. Tragbares Gerät mit einer Anzeige (12), das Folgendes umfasst: einen Prozessor (100); einen mit dem Prozessor gekoppelten ersten Axialrotationsdetektor (82) mit der Aufgabe, eine erste Rotation (38) des tragbaren Gerätes um eine erste Achse (36) zu erfassen; einen mit dem Prozessor gekoppelten zweiten Axialrotationsdetektor (84) mit der Aufgabe, eine zweite Rotation (34) des tragbaren Gerätes um eine zweite Achse (32) zu erfassen, wobei die erste Achse (36) und die zweite Achse (32) allgemein lotrecht zueinander sind; eine mit dem Prozessor gekoppelte physikalische Anzeige (12); eine virtuelle Anzeige (30), die so gestaltet ist, dass sie auf der physikalischen Anzeige gezeigt werden kann, wobei die virtuelle Anzeige größer ist als die physikalische Anzeige; ein mit dem Prozessor (100) gekoppeltes Speichergerät (102) zum Speichern von ablauffähigem Code zwecks Schnittstelle mit dem ersten Axialrotationsdetektor (82) und dem zweiten Axialrotationsdetektor (84), wobei der ablauffähige Code Folgendes umfasst: (a) einen Code zum Rollenlassen der virtuellen Anzeige (30) in einer ersten Dimension mit einer ersten Geschwindigkeit als Reaktion auf die erste Rotation (38); (b) Code zum Rollenlassen der virtuellen Anzeige (30) in einer zweiten Dimension mit einer zweiten Geschwindigkeit als Reaktion auf die zweite Rotation (34); dadurch gekennzeichnet, dass das Gerät ferner Folgendes umfasst: (c) Code zum Ändern der ersten Geschwindigkeit als Reaktion auf eine erste gespeicherte Ansprechkurve; und (d) Code zum Ändern der zweiten Geschwindigkeit als Reaktion auf eine zweite gespeicherte Ansprechkurve; und wobei die erste Ansprechkurve und die zweite Ansprechkurve aus mehreren Ansprechkurven ausgewählt werden.
  2. Tragbares Gerät nach Anspruch 2, wobei die erste gespeicherte Ansprechkurve eine zeitabhängige Ansprechkurve ist, und wobei die zweite gespeicherte Ansprechkurve eine zeitabhängige Ansprechkurve ist.
  3. Tragbares Gerät nach Anspruch 1, wobei der ablauffähige Code ferner Folgendes umfasst: Code zum Umschalten des tragbaren Gerätes zwischen einem festen Modus und einem Navigationsmodus, wobei die Codes (a) und (b) die virtuelle Anzeige (30) nur dann rollen lassen, wenn das tragbare Gerät im Navigationsmodus ist.
  4. Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten der tragbaren Anzeige (12) zwischen einem festen Modus und einem Navigationsmodus Folgendes umfasst: Code zum Umschalten des tragbaren Gerätes zwischen dem festen Modus und dem Navigationsmodus als Reaktion auf die Erfassung einer vorbestimmten Bewegung des tragbaren Gerätes.
  5. Tragbares Gerät nach Anspruch 4, das ferner Folgendes umfasst: einen Linearbewegungssensor (432) mit der Aufgabe, ein Signal, das einer Bewegung des tragbaren Gerätes entlang einer dritten Achse entspricht, die allgemein lotrecht zu einer von den beiden Achsen definierten Ebene ist, zu messen und auszugeben; wobei der ablauffähige Code ferner Folgendes umfasst: Code zum Analysieren des Linearbewegungssignals zum Unterstützen der Erfassung der vorbestimmten Bewegung des tragbaren Gerätes.
  6. Tragbares Gerät nach Anspruch 4, das ferner Folgendes umfasst: Mittel zum Messen und Erzeugen eines digitalen Signals als Reaktion auf die Höhe des Gerätes über dem Boden; wobei der ablauffähige Code ferner Folgendes umfasst: Code zum Analysieren des Höhensignals zum Unterstützen der Erfassung der vorbestimmten Bewegung des tragbaren Gerätes.
  7. Tragbares Gerät nach Anspruch 4, wobei der ablauffähige Code ferner Folgendes umfasst: Code zum Speichern mehrerer virtueller Anzeigenavigationszustände, die durch Ausführen der Codes (a) und (b) bewirkt werden; Code zum Wiederherstellen eines der mehreren virtuellen Anzeigenavigationszustände nach der vorbestimmten Bewegung, wobei die vorbestimmte Bewegung eine Verlassensgeste ist, und wobei der eine der mehreren nach der vorbestimmten Bewegung wiederhergestellten virtuellen Anzeigenavigationszustände der virtuelle Anzeigenavigationszustand ist, der unmittelbar vor der Verlassensgeste wirksam war.
  8. Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten der tragbaren Anzeige zwischen einem festen Modus und einem Navigationsmodus Folgendes umfasst: Code zum Umschalten des tragbaren Gerätes (10) zwischen dem festen Modus und dem Navigationsmodus als Reaktion auf die Erfassung eines vorbestimmten Tons.
  9. Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten der tragbaren Anzeige (12) zwischen einem festen Modus und einem Navigationsmodus Folgendes umfasst: Code zum Aktivieren einer visuellen Indikation auf der physikalischen Anzeige, wenn das tragbare Gerät (10) im Navigationsmodus ist.
  10. Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten des tragbaren Gerätes zwischen einem festen Modus und einem Navigationsmodus Folgendes umfasst: Code zum Verzögern der Ausführung der Codes (a) und (b) für eine vorbestimmte Zeit nach dem Umschalten des tragbaren Gerätes in den Navigationsmodus, wobei die vorbestimmte Zeit ausreicht, damit Artefakt-Rotationssignale abklingen können.
  11. Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten des tragbaren Gerätes zwischen einem festen Modus und einem Navigationsmodus Code zum Umschalten des tragbaren Codes (10) vom Navigationsmodus in den festen Modus nach einer vorbestimmten Zeitperiode im Navigationsmodus umfasst.
  12. Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten des tragbaren Gerätes zwischen einem festen Modus und einem Navigationsmodus Code zum Umschalten des tragbaren Gerätes vom Navigationsmodus in den festen Modus umfasst, wenn die Codes (a) und (b) für eine vorbestimmte Zeitperiode nicht ausgeführt werden.
  13. Tragbares Gerät nach Anspruch 1, wobei der erste Axialrotationsdetektor (82) einen ersten Beschleunigungsmesser umfasst; und wobei der zweite Axialrotationsdetektor (84) einen zweiten Beschleunigungsmesser umfasst.
  14. Tragbares Gerät nach Anspruch 1, wobei der erste Axialrotationsdetektor ein erstes Laserkreiselgerät umfasst; und wobei der zweite Axialrotationsdetektor ein zweites Laserkreiselgerät umfasst.
  15. Tragbares Gerät nach Anspruch 1, wobei der erste Axialrotationsdetektor einen magnetischen Richtungssensor (364) umfasst; und wobei der zweite Axialrotationsdetektor einen Neigungssensor (368) umfasst.
  16. Tragbares Gerät nach Anspruch 1, wobei der ablauffähige Code ferner Code zum Ändern der ersten Ansprechkurve durch einen Bediener des tragbaren Gerätes (10) umfasst.
  17. Tragbares Gerät nach Anspruch 1, wobei der ablauffähige Code ferner Code zum Ändern der zweiten Ansprechkurve durch einen Bediener des tragbaren Gerätes umfasst.
  18. Verfahren zum Navigieren einer Ansicht einer Anzeige (12) eines tragbaren Gerätes (10), das die folgenden Schritte beinhaltet: Erzeugen einer virtuellen Anzeige (30) und Markieren einer Grenze eines auf der Anzeige (12) zu betrachtenden Anfangsabschnitts der virtuellen Anzeige; Identifizieren eines Bedienerbefehls zum Eintreten in einen Ansichtsnavigationsmodus, in dem die Ansicht die virtuelle Anzeige (30) in jeder gewünschten Richtung navigieren kann; Erfassen einer Rotationsorientierung des tragbaren Gerätes (10) im Ansichtsnavigationsmodus; Identifizieren von Änderungen der Rotationsorientierung entlang zwei allgemein lotrechten Achsen (36, 32); Berechnen von Änderungen der Grenze als Reaktion auf Änderungen der Rotationsorientierung des Gerätes auf der Basis einer gespeicherten Ansprechkurve, auswählbar aus mehreren Ansprechkurven; Ausgeben einer neuen Ansicht an die Anzeige, die die im Berechnungsschritt berechnete Grenze reflektiert; und Zurückbringen der Anzeige in eine feste Ansicht nach dem Verlassen des Ansichtsnavigationsmodus.
  19. Verfahren nach Anspruch 18, bei dem die Ansprechkurve eine zeitabhängige Ansprechkurve ist, basierend auf einer Dauer des Ansichtsnavigationsmodus.
  20. Verfahren nach Anspruch 18, das ferner den Schritt des Änderns der Ansprechkurve durch einen Bediener des tragbaren Gerätes beinhaltet.
  21. Verfahren nach Anspruch 18, wobei der Schritt des Identifizierens eines Bedienerbefehls den folgenden Schritt beinhaltet: Auswählen zwischen einem groben Navigationsmodus und einem feinen Navigationsmodus, und wobei der Schritt des Berechnen von Änderungen der Grenze den folgenden Schritt beinhaltet: Auswählen eines relativ großen Anprechverhältnisses, wenn der grobe Navigationsmodus gewählt ist, und eines relativ kleinen Ansprechverhältnisses, wenn der feine Navigationsmodus gewählt ist.
  22. Verfahren nach Anspruch 18, wobei der Schritt des Identifizieren eines Bedienerbefehls zum Eintreten in einen Ansichtsnavigationsmodus den Schritt des Vergrößerns einer aktuellen Ansicht der Anzeige (12) nach dem Eintreten in den Ansichtsnavigationsmodus beinhaltet.
  23. Verfahren nach Anspruch 18, das ferner den Schritt des Aktivieren einer visuellen Indikation auf der Anzeige beinhaltet, dass Änderungen der Orientierung des Gerätes die virtuelle Anzeige navigieren, wenn das tragbare Gerät (10) im Ansichtsnavigationsmodus ist.
  24. Verfahren nach Anspruch 18, wobei der Schritt des Identifizieren eines Bedienerbefehls den Schritt des Erfassen eines vordefinierten Bewegungsmusters des tragbaren Gerätes (10) als Gestenbefehl zum Eintreten in den Anichtsnavigationsmodus beinhaltet.
  25. Verfahren nach Anspruch 18, wobei der Schritt des Identifizieren eines Bedienerbefehls den Schritt des Erfassen eines vorbestimmten Sprachbefehls beinhaltet.
  26. Verfahren nach Anspruch 18, wobei der Schritt des Identifizieren eines Bedienerbefehls den Schritt des Erfassens eines vorbestimmten charakteristischen Ton- und Vibrationsmusters des Klopfens eines Bedienerfingers auf einem Gehäuse des tragbaren Gerätes (10) beinhaltet.
  27. Verfahren nach Anspruch 18, das ferner den folgenden Schritt beinhaltet: Speichern einer Mehrzahl von virtuellen Anzeigenavigationszuständen, während das tragbare Gerät (10) im Ansichtsnavigationsmodus ist; und Wiederherstellen eines der mehreren virtuellen Anzeigenavigationszustände nach dem Verlassen des Ansichtsnavigationsmodus, wobei der eine der mehreren nach dem Verlassen des Ansichtsnavigationsmodus wiederhergestellten virtuellen Anzeigenavigationzustände der virtuelle Anzeigenavigationszustand ist, der unmittelbar vor dem Verlassen des Ansichtsnavigationsmodus wirksam war.
  28. Verfahren nach Anspruch 18, das ferner den Schritt beinhaltet: Verzögern des Eintritts in den Ansichtsnavigationsmodus für eine vorbestimmte Zeitperiode, nachdem in dem Schritt des Identifizieren eines Bedienerbefehls der Bedienerbefehl identifiziert wurde, wobei die vorbestimmte Zeitperiode ausreicht, damit Artefakt-Rotationssignale aufgrund des Bedienerbefehls abklingen können.
  29. Verfahren nach Anspruch 18, wobei der Schritt des Zurückbringens der Anzeige in einen festen Modus den Schritt des Verlassen des Ansichtsnavigationsmodus nach einer vorbestimmten Zeitperiode im Ansichtsnavigationsmodus beinhaltet.
  30. Verfahren nach Anspruch 18, wobei der Schritt des Zurückbringens der Anzeige in einen festen Modus den Schritt des Verlassen des Ansichtsnavigationsmodus beinhaltet, wenn der Schritt des Erfassen einer Rotationsorientierung für eine vorbestimmte Zeitperiode keine Änderungen der Rotationsorientierung des tragbaren Gerätes (10) identifiziert.
DE60132201T 2000-04-05 2001-04-04 Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige Expired - Lifetime DE60132201T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US543660 1995-10-16
US09/543,660 US6466198B1 (en) 1999-11-05 2000-04-05 View navigation and magnification of a hand-held device with a display
PCT/US2001/010962 WO2001078055A1 (en) 2000-04-05 2001-04-04 View navigation and magnification of a hand-held device with a display

Publications (2)

Publication Number Publication Date
DE60132201D1 DE60132201D1 (de) 2008-02-14
DE60132201T2 true DE60132201T2 (de) 2008-12-24

Family

ID=24169004

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60132201T Expired - Lifetime DE60132201T2 (de) 2000-04-05 2001-04-04 Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige

Country Status (6)

Country Link
US (2) US6466198B1 (de)
EP (1) EP1290672B1 (de)
AT (1) ATE382889T1 (de)
DE (1) DE60132201T2 (de)
HK (1) HK1054610A1 (de)
WO (1) WO2001078055A1 (de)

Families Citing this family (471)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6345104B1 (en) 1994-03-17 2002-02-05 Digimarc Corporation Digital watermarks and methods for security documents
JP3338777B2 (ja) * 1998-04-22 2002-10-28 日本電気株式会社 携帯端末、及びその画面表示方法
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
US20060061550A1 (en) * 1999-02-12 2006-03-23 Sina Fateh Display size emulation system
US20060061551A1 (en) * 1999-02-12 2006-03-23 Vega Vista, Inc. Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection
US7749089B1 (en) 1999-02-26 2010-07-06 Creative Kingdoms, Llc Multi-media interactive play system
US7760905B2 (en) * 1999-06-29 2010-07-20 Digimarc Corporation Wireless mobile phone with content processing
US7406214B2 (en) 1999-05-19 2008-07-29 Digimarc Corporation Methods and devices employing optical sensors and/or steganography
US20020032734A1 (en) 2000-07-26 2002-03-14 Rhoads Geoffrey B. Collateral data combined with user characteristics to select web site
US7565294B2 (en) * 1999-05-19 2009-07-21 Digimarc Corporation Methods and systems employing digital content
JP3847058B2 (ja) * 1999-10-04 2006-11-15 任天堂株式会社 ゲームシステム及びそれに用いられるゲーム情報記憶媒体
US8391851B2 (en) 1999-11-03 2013-03-05 Digimarc Corporation Gestural techniques with wireless mobile phone devices
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US7187412B1 (en) * 2000-01-18 2007-03-06 Hewlett-Packard Development Company, L.P. Pointing device for digital camera display
US6633314B1 (en) 2000-02-02 2003-10-14 Raja Tuli Portable high speed internet device integrating cellular telephone and palm top computer
US6941382B1 (en) * 2000-02-07 2005-09-06 Raja Tuli Portable high speed internet or desktop device
JP2001306254A (ja) * 2000-02-17 2001-11-02 Seiko Epson Corp 打音検出による入力機能
US7445550B2 (en) 2000-02-22 2008-11-04 Creative Kingdoms, Llc Magical wand and interactive play experience
US7878905B2 (en) 2000-02-22 2011-02-01 Creative Kingdoms, Llc Multi-layered interactive play experience
US6761637B2 (en) 2000-02-22 2004-07-13 Creative Kingdoms, Llc Method of game play using RFID tracking device
US7289102B2 (en) * 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US8120625B2 (en) * 2000-07-17 2012-02-21 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US20110267263A1 (en) 2000-07-17 2011-11-03 Microsoft Corporation Changing input tolerances based on device movement
US7302280B2 (en) * 2000-07-17 2007-11-27 Microsoft Corporation Mobile phone operation based upon context sensing
US6520013B1 (en) * 2000-10-02 2003-02-18 Apple Computer, Inc. Method and apparatus for detecting free fall
US7688306B2 (en) * 2000-10-02 2010-03-30 Apple Inc. Methods and apparatuses for operating a portable device based on an accelerometer
US7191211B2 (en) 2000-10-03 2007-03-13 Raja Tuli Portable high speed internet access device priority protocol
US7066781B2 (en) 2000-10-20 2006-06-27 Denise Chapman Weston Children's toy with wireless tag/transponder
US8130242B2 (en) * 2000-11-06 2012-03-06 Nant Holdings Ip, Llc Interactivity via mobile image recognition
US8817045B2 (en) 2000-11-06 2014-08-26 Nant Holdings Ip, Llc Interactivity via mobile image recognition
US6690358B2 (en) * 2000-11-30 2004-02-10 Alan Edward Kaplan Display control for hand-held devices
JP3655824B2 (ja) * 2000-12-07 2005-06-02 日本電気株式会社 携帯情報端末装置及びその表示方法
US7123212B2 (en) * 2000-12-22 2006-10-17 Harman International Industries, Inc. Information transmission and display method and system for a handheld computing device
US20020109673A1 (en) * 2001-01-04 2002-08-15 Thierry Valet Method and apparatus employing angled single accelerometer sensing multi-directional motion
JP2002268622A (ja) * 2001-03-09 2002-09-20 Denso Corp 携帯端末装置のユーザインターフェース装置
US6834249B2 (en) * 2001-03-29 2004-12-21 Arraycomm, Inc. Method and apparatus for controlling a computing system
US6798429B2 (en) * 2001-03-29 2004-09-28 Intel Corporation Intuitive mobile device interface to virtual spaces
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
DE10125395A1 (de) * 2001-05-23 2002-11-28 Siemens Ag Verfahren und Anordnung zum Navigieren innerhalb eines Bildes
US7177906B2 (en) * 2001-05-31 2007-02-13 Palmsource, Inc. Software application launching method and apparatus
SE523636C2 (sv) * 2001-07-22 2004-05-04 Tomer Shalit Ab Portabelt datoriserat handhållet organ och förfarande för hantering av ett på en skärm visat objekt
US7365734B2 (en) * 2002-08-06 2008-04-29 Rembrandt Ip Management, Llc Control of display content by movement on a fixed spherical space
USRE47457E1 (en) * 2001-08-07 2019-06-25 Facebook, Inc. Control of display content by movement on a fixed spherical space
US6847351B2 (en) * 2001-08-13 2005-01-25 Siemens Information And Communication Mobile, Llc Tilt-based pointing for hand-held devices
FR2828754A1 (fr) * 2001-08-14 2003-02-21 Koninkl Philips Electronics Nv Visualisation d'un montage d'une video panoramique par application de commandes de navigation a ladite video panoramique
SE0103151D0 (en) * 2001-09-19 2001-09-19 Ericsson Telefon Ab L M Method for navigation and selection at a terminal device
US6670947B2 (en) * 2001-10-22 2003-12-30 Robert William Smyth SO3 input device
CN100353293C (zh) * 2001-10-24 2007-12-05 索尼公司 图像信息显示装置
US7714880B2 (en) 2001-11-16 2010-05-11 Honeywell International Inc. Method and apparatus for displaying images on a display
EP1314961B1 (de) * 2001-11-22 2009-07-15 Yamaha Corporation Elektronisches Gerät
US7002553B2 (en) * 2001-12-27 2006-02-21 Mark Shkolnikov Active keyboard system for handheld electronic devices
US7843437B1 (en) * 2002-01-14 2010-11-30 Palm, Inc. Hand-held browser transcoding
WO2003073258A2 (en) * 2002-02-21 2003-09-04 Mobicom Corporation Article comprising an adaptable input device
JP3721141B2 (ja) * 2002-03-25 2005-11-30 松下電器産業株式会社 携帯端末装置
US6967566B2 (en) 2002-04-05 2005-11-22 Creative Kingdoms, Llc Live-action interactive adventure game
US20070066396A1 (en) 2002-04-05 2007-03-22 Denise Chapman Weston Retail methods for providing an interactive product to a consumer
US7079452B2 (en) * 2002-04-16 2006-07-18 Harrison Shelton E Time display system, method and device
FI115258B (fi) 2002-04-23 2005-03-31 Myorigo Oy Menetelmä ja elektroninen laite graafisessa käyttöliittymässä navigoimiseksi
JP2003316502A (ja) * 2002-04-25 2003-11-07 Sony Corp 端末装置、文字入力方法
US7519918B2 (en) * 2002-05-30 2009-04-14 Intel Corporation Mobile virtual desktop
US7184025B2 (en) * 2002-05-31 2007-02-27 Microsoft Corporation Altering a display on a viewing device based upon a user controlled orientation of the viewing device
US20030231189A1 (en) * 2002-05-31 2003-12-18 Microsoft Corporation Altering a display on a viewing device based upon a user controlled orientation of the viewing device
US7055749B2 (en) * 2002-06-03 2006-06-06 Symbol Technologies, Inc. Re-configurable trigger assembly
US7218311B2 (en) * 2002-06-21 2007-05-15 Akins Randy D Sequential image advancing system (the S.I.A.S.)
US7674184B2 (en) 2002-08-01 2010-03-09 Creative Kingdoms, Llc Interactive water attraction and quest game
SG131745A1 (en) * 2002-08-23 2007-05-28 Sony Corp Movement-compensated visual display
TW200407025A (en) * 2002-08-27 2004-05-01 Vitec Co Ltd Pocket terminal device
JP4126045B2 (ja) * 2002-10-07 2008-07-30 マイオリゴ ソシエテ ア リスポンサビリテ リミテ 電子装置、カーソルを表示する方法及びコンピュータプログラム
US20060176294A1 (en) * 2002-10-07 2006-08-10 Johannes Vaananen Cursor for electronic devices
US7064502B2 (en) * 2002-11-22 2006-06-20 Black & Decker Inc. Power tool with remote stop
US8176428B2 (en) 2002-12-03 2012-05-08 Datawind Net Access Corporation Portable internet access device back page cache
JP2004198450A (ja) * 2002-12-16 2004-07-15 Sharp Corp 画像表示システム
US20040119684A1 (en) * 2002-12-18 2004-06-24 Xerox Corporation System and method for navigating information
US20040125073A1 (en) * 2002-12-30 2004-07-01 Scott Potter Portable electronic apparatus and method employing motion sensor for function control
US6977675B2 (en) * 2002-12-30 2005-12-20 Motorola, Inc. Method and apparatus for virtually expanding a display
FI20022282A0 (fi) * 2002-12-30 2002-12-30 Nokia Corp Menetelmä vuorovaikutuksen mahdollistamiseksi elektronisessa laitteessa ja elektroninen laite
AU2003303787A1 (en) * 2003-01-22 2004-08-13 Nokia Corporation Image control
US20040145613A1 (en) * 2003-01-29 2004-07-29 Stavely Donald J. User Interface using acceleration for input
US7426329B2 (en) 2003-03-06 2008-09-16 Microsoft Corporation Systems and methods for receiving, storing, and rendering digital video, music, and pictures on a personal media player
US7538745B2 (en) * 2003-03-24 2009-05-26 Ntag Interactive Corporation Apparatus and method for enhancing face-to-face communication
US20110205056A9 (en) * 2003-03-24 2011-08-25 Borovoy Richard D Adding social networking to devices
US9446319B2 (en) 2003-03-25 2016-09-20 Mq Gaming, Llc Interactive gaming toy
US20040250220A1 (en) * 2003-06-09 2004-12-09 Mika Kalenius System, apparatus, and method for navigation in a hypertext document
JP4144555B2 (ja) * 2003-06-09 2008-09-03 カシオ計算機株式会社 電子機器、表示制御方法及びプログラム
DE10326811A1 (de) * 2003-06-13 2005-01-20 Siemens Ag Verfahren zur Darstellung von Grafikobjekten und Kommunikationsgerät
US20040259591A1 (en) * 2003-06-17 2004-12-23 Motorola, Inc. Gesture-based interface and method for wireless device
US6880258B2 (en) * 2003-08-26 2005-04-19 Horizon Hobby Digital inclinometer and related methods
US7489299B2 (en) * 2003-10-23 2009-02-10 Hillcrest Laboratories, Inc. User interface devices and methods employing accelerometers
JP3791848B2 (ja) * 2003-10-28 2006-06-28 松下電器産業株式会社 画像表示装置、画像表示システム、撮影装置、画像表示方法、およびプログラム
US20080129552A1 (en) * 2003-10-31 2008-06-05 Iota Wireless Llc Concurrent data entry for a portable device
EP1678654A4 (de) * 2003-10-31 2008-07-02 Iota Wireless Llc Gleichzeitige dateneingabe für eine tragbare einrichtung
US7401300B2 (en) * 2004-01-09 2008-07-15 Nokia Corporation Adaptive user interface input device
EP1709609B1 (de) * 2004-01-20 2020-05-27 III Holdings 6, LLC Erweiterte steuereinrichtung für die hausunterhaltung durch verwendung dreidimensionaler bewegungstechnologie
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US10499465B2 (en) 2004-02-25 2019-12-03 Lynk Labs, Inc. High frequency multi-voltage and multi-brightness LED lighting devices and systems and methods of using same
US10575376B2 (en) 2004-02-25 2020-02-25 Lynk Labs, Inc. AC light emitting diode and AC LED drive methods and apparatus
WO2011143510A1 (en) 2010-05-12 2011-11-17 Lynk Labs, Inc. Led lighting system
KR100631834B1 (ko) * 2004-03-03 2006-10-09 삼성전기주식회사 버튼 조작없이 번호입력이 가능한 휴대폰 및 상기 휴대폰의 번호 입력 방법
TWI255681B (en) * 2004-03-11 2006-05-21 Giga Byte Tech Co Ltd Method for controlling cold cathode fluorescent lamp to emit and flicker with digital audio source of main board and device thereof
DE102004012897B4 (de) * 2004-03-16 2006-01-12 Siemens Ag Verfahren zur Darstellung von Grafikobjekten und Kommunikationsgerät
FI20045078A (fi) * 2004-03-16 2005-09-17 Myorigo Oy Laajakulmaoptiikalla ja säteilysensorilla varustettu mobiililaite
US8842070B2 (en) * 2004-03-17 2014-09-23 Intel Corporation Integrated tracking for on screen navigation with small hand held devices
US7301526B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Dynamic adaptation of gestures for motion controlled handheld devices
US7173604B2 (en) * 2004-03-23 2007-02-06 Fujitsu Limited Gesture identification of controlled devices
US7903084B2 (en) * 2004-03-23 2011-03-08 Fujitsu Limited Selective engagement of motion input modes
US7280096B2 (en) * 2004-03-23 2007-10-09 Fujitsu Limited Motion sensor engagement for a handheld device
US7180501B2 (en) * 2004-03-23 2007-02-20 Fujitsu Limited Gesture based navigation of a handheld user interface
US7180500B2 (en) * 2004-03-23 2007-02-20 Fujitsu Limited User definable gestures for motion controlled handheld devices
US7176888B2 (en) * 2004-03-23 2007-02-13 Fujitsu Limited Selective engagement of motion detection
JP2007531113A (ja) * 2004-03-23 2007-11-01 富士通株式会社 携帯装置の傾斜及び並進運動成分の識別
US7301529B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Context dependent gesture response
US7301528B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices
US7180502B2 (en) * 2004-03-23 2007-02-20 Fujitsu Limited Handheld device with preferred motion selection
US20050212753A1 (en) * 2004-03-23 2005-09-29 Marvit David L Motion controlled remote controller
US7365737B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Non-uniform gesture precision
US7176887B2 (en) * 2004-03-23 2007-02-13 Fujitsu Limited Environmental modeling for motion controlled handheld devices
US7365735B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Translation controlled cursor
US20050212760A1 (en) * 2004-03-23 2005-09-29 Marvit David L Gesture based user interface supporting preexisting symbols
US7176886B2 (en) * 2004-03-23 2007-02-13 Fujitsu Limited Spatial signatures
US7365736B2 (en) * 2004-03-23 2008-04-29 Fujitsu Limited Customizable gesture mappings for motion controlled handheld devices
US7301527B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Feedback based user interface for motion controlled handheld devices
US20050219223A1 (en) * 2004-03-31 2005-10-06 Kotzin Michael D Method and apparatus for determining the context of a device
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
TWI248043B (en) * 2004-04-20 2006-01-21 Wistron Corp Electrical device capable of auto-adjusting display direction as a tilt of a display
US7339600B2 (en) * 2004-04-26 2008-03-04 Samsung Electronics Co., Ltd. Apparatus and method for displaying a picture in a wireless terminal
DK2337016T3 (en) * 2004-04-30 2018-04-23 Idhl Holdings Inc Free space pointing device with slope compensation and improved applicability
WO2005109847A2 (en) * 2004-04-30 2005-11-17 Hillcrest Laboratories, Inc. Methods and devices for identifying users based on tremor
US8629836B2 (en) 2004-04-30 2014-01-14 Hillcrest Laboratories, Inc. 3D pointing devices with orientation compensation and improved usability
US7535456B2 (en) * 2004-04-30 2009-05-19 Hillcrest Laboratories, Inc. Methods and devices for removing unintentional movement in 3D pointing devices
JP2007535773A (ja) 2004-04-30 2007-12-06 ヒルクレスト・ラボラトリーズ・インコーポレイテッド 自由空間ポインティングデバイスおよびポインティング方法
JP2005321972A (ja) * 2004-05-07 2005-11-17 Sony Corp 情報処理装置、情報処理装置における処理方法及び情報処理装置における処理プログラム
US7310086B2 (en) * 2004-05-12 2007-12-18 Avago Technologies Ecbu Ip (Singapore) Pte Ltd Finger navigation input device
WO2005119356A2 (en) 2004-05-28 2005-12-15 Erik Jan Banning Interactive direct-pointing system and calibration method
CN1961289A (zh) * 2004-06-04 2007-05-09 皇家飞利浦电子股份有限公司 一种由用户进行内容导航的手持设备
FI119746B (fi) * 2004-06-24 2009-02-27 Nokia Corp Elektronisen laitteen ohjaaminen
JP4559140B2 (ja) * 2004-07-05 2010-10-06 ソフトバンクモバイル株式会社 電子機器
JP4167263B2 (ja) * 2004-07-15 2008-10-15 株式会社シーアンドエヌ 携帯端末装置
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
JP2006031515A (ja) * 2004-07-20 2006-02-02 Vodafone Kk 移動体通信端末、アプリケーションプログラム、画像表示制御装置及び画像表示制御方法
EP1738566A4 (de) * 2004-08-09 2012-11-14 Rpx Corp Verfahren zur sammlung von messdaten und tragbare informationsvorrichtung
US8560972B2 (en) * 2004-08-10 2013-10-15 Microsoft Corporation Surface UI for gesture-based interaction
US7138979B2 (en) * 2004-08-27 2006-11-21 Motorola, Inc. Device orientation based input signal generation
US7446753B2 (en) * 2004-09-10 2008-11-04 Hand Held Products, Inc. Hand held computer device
FR2876470B1 (fr) * 2004-10-12 2006-12-22 Eastman Kodak Co Procede de controle d'affichage utilisant un equipement portable a capteur d'images
US20060097983A1 (en) * 2004-10-25 2006-05-11 Nokia Corporation Tapping input on an electronic device
FR2877451B1 (fr) * 2004-10-29 2008-09-19 Radiotelephone Sfr Systeme de commande a spheres mobiles et terminal equipe d'un tel systeme
US7435177B1 (en) 2004-11-12 2008-10-14 Sprint Spectrum L.P. Method and system for video-based navigation in an application on a handheld game device
JP2006145616A (ja) * 2004-11-16 2006-06-08 Konica Minolta Photo Imaging Inc 画像表示装置、電子機器、画像表示方法
US8137195B2 (en) 2004-11-23 2012-03-20 Hillcrest Laboratories, Inc. Semantic gaming and application transformation
KR100641182B1 (ko) * 2004-12-30 2006-11-02 엘지전자 주식회사 휴대단말기에서의 가상화면 이동장치 및 방법
US7532198B2 (en) 2005-01-14 2009-05-12 Research In Motion Limited Handheld electronic device with roller ball input
US20060164382A1 (en) * 2005-01-25 2006-07-27 Technology Licensing Company, Inc. Image manipulation in response to a movement of a display
US7539513B2 (en) 2005-02-02 2009-05-26 National Telephone Products, Inc. Portable phone with ergonomic image projection system
US7519468B2 (en) 2005-02-28 2009-04-14 Research In Motion Limited System and method for navigating a mobile device user interface with a directional sensing device
EP1696301B8 (de) * 2005-02-28 2010-09-08 Research In Motion Limited System und Methode zum Navigieren anhand eines richtungsempfindlichen Sensors in der Benutzeroberfläche eines mobilen Gerätes
US20060195354A1 (en) * 2005-02-28 2006-08-31 Ntag Interactive Corporation Method of scoring the performance of attendees at a meeting
US20090297062A1 (en) * 2005-03-04 2009-12-03 Molne Anders L Mobile device with wide-angle optics and a radiation sensor
US20090305727A1 (en) * 2005-03-04 2009-12-10 Heikki Pylkko Mobile device with wide range-angle optics and a radiation sensor
US7966084B2 (en) * 2005-03-07 2011-06-21 Sony Ericsson Mobile Communications Ab Communication terminals with a tap determination circuit
KR100702055B1 (ko) * 2005-03-09 2007-04-02 인피닉스 주식회사 디지털 수평 측정기구
US20060259205A1 (en) * 2005-05-13 2006-11-16 Robert Bosch Gmbh Controlling systems through user tapping
US20070002018A1 (en) * 2005-06-30 2007-01-04 Eigo Mori Control of user interface of electronic device
US9285897B2 (en) 2005-07-13 2016-03-15 Ultimate Pointer, L.L.C. Easily deployable interactive direct-pointing system and calibration method therefor
AT502228B1 (de) * 2005-08-11 2007-07-15 Ftw Forschungszentrum Telekomm Tragbare navigationsvorrichtung und verfahren zum funknavigieren
JP4805633B2 (ja) 2005-08-22 2011-11-02 任天堂株式会社 ゲーム用操作装置
US7942745B2 (en) 2005-08-22 2011-05-17 Nintendo Co., Ltd. Game operating device
US8313379B2 (en) 2005-08-22 2012-11-20 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US7927216B2 (en) 2005-09-15 2011-04-19 Nintendo Co., Ltd. Video game system with wireless modular handheld controller
US8870655B2 (en) 2005-08-24 2014-10-28 Nintendo Co., Ltd. Wireless game controllers
JP4262726B2 (ja) 2005-08-24 2009-05-13 任天堂株式会社 ゲームコントローラおよびゲームシステム
CN101273368A (zh) 2005-08-29 2008-09-24 埃韦里克斯技术股份有限公司 经由移动图像识别的交互
US8308563B2 (en) 2005-08-30 2012-11-13 Nintendo Co., Ltd. Game system and storage medium having game program stored thereon
US7647175B2 (en) * 2005-09-09 2010-01-12 Rembrandt Technologies, Lp Discrete inertial display navigation
KR100677613B1 (ko) * 2005-09-09 2007-02-02 삼성전자주식회사 멀티미디어 기기의 동작을 제어하는 방법 및 그 장치
US20070060216A1 (en) * 2005-09-12 2007-03-15 Cheng-Wen Huang Portable communication apparatus
US8157651B2 (en) 2005-09-12 2012-04-17 Nintendo Co., Ltd. Information processing program
US20070057911A1 (en) * 2005-09-12 2007-03-15 Sina Fateh System and method for wireless network content conversion for intuitively controlled portable displays
KR100651368B1 (ko) * 2005-09-15 2006-11-29 삼성전자주식회사 휴대단말기의 움직임에 따른 이미지 제어방법
KR100746995B1 (ko) * 2005-09-22 2007-08-08 한국과학기술원 직관적인 실제 공간적 조준에 따른 시스템 및 그식별방법과 통신방법
FI20055590L (fi) * 2005-11-03 2007-05-04 Wearfone Oy Menetelmä ja laite äänen muodostamiseksi langattomasti käyttäjän korvaan
US20070113207A1 (en) * 2005-11-16 2007-05-17 Hillcrest Laboratories, Inc. Methods and systems for gesture classification in 3D pointing devices
TWI291117B (en) * 2005-12-29 2007-12-11 High Tech Comp Corp A tapping operation method and a mobile electrical apparatus with tapping operation function
TWI309034B (en) * 2005-12-30 2009-04-21 High Tech Comp Corp Display controller
US7509588B2 (en) 2005-12-30 2009-03-24 Apple Inc. Portable electronic device with interface reconfiguration mode
TW200725566A (en) * 2005-12-30 2007-07-01 High Tech Comp Corp Display controller
US20070159456A1 (en) * 2006-01-10 2007-07-12 Unkrich Mark A Navigation system
CN101009089A (zh) * 2006-01-26 2007-08-01 宏达国际电子股份有限公司 屏幕显示控制装置
WO2007086581A1 (ja) * 2006-01-30 2007-08-02 Kyocera Corporation 携帯電子機器とその方位表示方法
US8139030B2 (en) * 2006-02-01 2012-03-20 Memsic, Inc. Magnetic sensor for use with hand-held devices
US7667686B2 (en) * 2006-02-01 2010-02-23 Memsic, Inc. Air-writing and motion sensing input for portable devices
CN101018241A (zh) * 2006-02-06 2007-08-15 宏达国际电子股份有限公司 电子装置的操控方法及具敲击操控功能的可携式电子装置
US20070198324A1 (en) * 2006-02-22 2007-08-23 Borovoy Richard D Enabling connections between and events attended by people
JP2007233753A (ja) * 2006-03-01 2007-09-13 Fujitsu Ltd 加速度センサを備えた情報処理装置
JP4530419B2 (ja) 2006-03-09 2010-08-25 任天堂株式会社 座標算出装置および座標算出プログラム
TW200734913A (en) * 2006-03-10 2007-09-16 Inventec Appliances Corp Electronic device and method using displacement sensor to move position displayed on screen
JP4151982B2 (ja) 2006-03-10 2008-09-17 任天堂株式会社 動き判別装置および動き判別プログラム
CN101042848A (zh) * 2006-03-24 2007-09-26 宏达国际电子股份有限公司 屏幕显示控制装置及其屏幕显示控制方法
JP4684147B2 (ja) 2006-03-28 2011-05-18 任天堂株式会社 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム
US20070229650A1 (en) * 2006-03-30 2007-10-04 Nokia Corporation Mobile communications terminal and method therefor
US20070236334A1 (en) * 2006-03-31 2007-10-11 Borovoy Richard D Enhancing face-to-face communication
US7841967B1 (en) 2006-04-26 2010-11-30 Dp Technologies, Inc. Method and apparatus for providing fitness coaching using a mobile device
US20070268246A1 (en) * 2006-05-17 2007-11-22 Edward Craig Hyatt Electronic equipment with screen pan and zoom functions using motion
WO2008008230A2 (en) * 2006-07-10 2008-01-17 Memsic, Inc. A system for sensing yaw rate using a magnetic field sensor and portable electronic devices using the same
US8902154B1 (en) 2006-07-11 2014-12-02 Dp Technologies, Inc. Method and apparatus for utilizing motion user interface
US8139026B2 (en) 2006-08-02 2012-03-20 Research In Motion Limited System and method for adjusting presentation of text and images on an electronic device according to an orientation of the device
US8493323B2 (en) * 2006-08-02 2013-07-23 Research In Motion Limited System and method for adjusting presentation of moving images on an electronic device according to an orientation of the device
US7864163B2 (en) 2006-09-06 2011-01-04 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US10313505B2 (en) 2006-09-06 2019-06-04 Apple Inc. Portable multifunction device, method, and graphical user interface for configuring and displaying widgets
US7956849B2 (en) 2006-09-06 2011-06-07 Apple Inc. Video manager for portable multifunction device
US8842074B2 (en) * 2006-09-06 2014-09-23 Apple Inc. Portable electronic device performing similar operations for different gestures
EP2067119A2 (de) 2006-09-08 2009-06-10 Exbiblio B.V. Optische scanner, zum beispiel tragbare optische scanner
TWI346494B (en) * 2006-09-08 2011-08-01 High Tech Comp Corp Page movement controller and operating method thereof
JP5173174B2 (ja) * 2006-09-13 2013-03-27 任天堂株式会社 ゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法
US7889173B2 (en) * 2006-09-14 2011-02-15 Microsoft Corporation Defining user input fields on a portable media device
EP1914622A3 (de) * 2006-10-16 2012-11-28 Samsung Electronics Co., Ltd. Verfahren und Vorrichtung zur Bewegung einer Liste auf einer Bildfläche
US8965885B2 (en) 2006-11-14 2015-02-24 Google Technology Holdings LLC System and method for browsing web pages on a mobile communication device
TWI330802B (en) * 2006-12-13 2010-09-21 Ind Tech Res Inst Inertial sensing method and system
US7999797B2 (en) * 2006-12-26 2011-08-16 Sony Ericsson Mobile Communications Ab Detecting and locating a touch or a tap on an input surface
US8214768B2 (en) * 2007-01-05 2012-07-03 Apple Inc. Method, system, and graphical user interface for viewing multiple application windows
US8519964B2 (en) 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
US20080165148A1 (en) * 2007-01-07 2008-07-10 Richard Williamson Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content
JP5127242B2 (ja) 2007-01-19 2013-01-23 任天堂株式会社 加速度データ処理プログラムおよびゲームプログラム
WO2008094458A1 (en) * 2007-01-26 2008-08-07 F-Origin, Inc. Viewing images with tilt control on a hand-held device
US8620353B1 (en) 2007-01-26 2013-12-31 Dp Technologies, Inc. Automatic sharing and publication of multimedia from a mobile device
US8949070B1 (en) 2007-02-08 2015-02-03 Dp Technologies, Inc. Human activity monitoring device with activity identification
JP5607286B2 (ja) * 2007-03-27 2014-10-15 日本電気株式会社 情報処理端末、情報処理端末の制御方法、およびプログラム
EP2147320A1 (de) * 2007-04-13 2010-01-27 Keynetik, Inc. Kräftemessvorrichtung und verfahren zur bestimmung des drehungsradius eines sich bewegenden objekts
US9933937B2 (en) 2007-06-20 2018-04-03 Apple Inc. Portable multifunction device, method, and graphical user interface for playing online videos
CN101330811B (zh) * 2007-06-22 2010-12-08 鸿富锦精密工业(深圳)有限公司 便携式电子装置及其操作方法
US20090002325A1 (en) * 2007-06-27 2009-01-01 Think/Thing System and method for operating an electronic device
US7860676B2 (en) * 2007-06-28 2010-12-28 Hillcrest Laboratories, Inc. Real-time dynamic tracking of bias
US20090007006A1 (en) * 2007-06-29 2009-01-01 Palm, Inc. Automatic scrolling
US9772751B2 (en) 2007-06-29 2017-09-26 Apple Inc. Using gestures to slide between user interfaces
CN101355746B (zh) * 2007-07-27 2012-05-16 深圳富泰宏精密工业有限公司 无线通信装置
US8555282B1 (en) 2007-07-27 2013-10-08 Dp Technologies, Inc. Optimizing preemptive operating system with motion sensing
US11126321B2 (en) 2007-09-04 2021-09-21 Apple Inc. Application menu user interface
US9619143B2 (en) 2008-01-06 2017-04-11 Apple Inc. Device, method, and graphical user interface for viewing application launch icons
US8619038B2 (en) 2007-09-04 2013-12-31 Apple Inc. Editing interface
US8144780B2 (en) * 2007-09-24 2012-03-27 Microsoft Corporation Detecting visual gestural patterns
US20090089705A1 (en) * 2007-09-27 2009-04-02 Microsoft Corporation Virtual object navigation
TW200915960A (en) * 2007-09-28 2009-04-01 Benq Corp Sensing module
US11317495B2 (en) 2007-10-06 2022-04-26 Lynk Labs, Inc. LED circuits and assemblies
US11297705B2 (en) 2007-10-06 2022-04-05 Lynk Labs, Inc. Multi-voltage and multi-brightness LED lighting devices and methods of using same
US20090099812A1 (en) * 2007-10-11 2009-04-16 Philippe Kahn Method and Apparatus for Position-Context Based Actions
US8359545B2 (en) * 2007-10-16 2013-01-22 Hillcrest Laboratories, Inc. Fast and smooth scrolling of user interfaces operating on thin clients
US7800044B1 (en) 2007-11-09 2010-09-21 Dp Technologies, Inc. High ambient motion environment detection eliminate accidental activation of a device
US8418083B1 (en) * 2007-11-26 2013-04-09 Sprint Communications Company L.P. Applying a navigational mode to a device
TWI373708B (en) * 2007-11-27 2012-10-01 Htc Corp Power management method for handheld electronic device
US8213999B2 (en) * 2007-11-27 2012-07-03 Htc Corporation Controlling method and system for handheld communication device and recording medium using the same
US8260367B2 (en) * 2007-12-12 2012-09-04 Sharp Laboratories Of America, Inc. Motion driven follow-up alerts for mobile electronic device
US9569086B2 (en) * 2007-12-12 2017-02-14 Nokia Technologies Oy User interface having realistic physical effects
US8203528B2 (en) * 2007-12-13 2012-06-19 Sony Ericsson Mobile Communications Ab Motion activated user interface for mobile communications device
US20090160666A1 (en) * 2007-12-21 2009-06-25 Think/Thing System and method for operating and powering an electronic device
US20090167702A1 (en) * 2008-01-02 2009-07-02 Nokia Corporation Pointing device detection
US8423076B2 (en) * 2008-02-01 2013-04-16 Lg Electronics Inc. User interface for a mobile device
US8195220B2 (en) * 2008-02-01 2012-06-05 Lg Electronics Inc. User interface for mobile devices
US20110029869A1 (en) * 2008-02-29 2011-02-03 Mclennan Hamish Method and system responsive to intentional movement of a device
US9003315B2 (en) 2008-04-01 2015-04-07 Litl Llc System and method for streamlining user interaction with electronic content
US8289688B2 (en) 2008-04-01 2012-10-16 Litl, Llc Portable computer with multiple display configurations
US8612888B2 (en) 2008-04-01 2013-12-17 Litl, Llc Method and apparatus for managing digital media content
WO2009145854A1 (en) * 2008-04-15 2009-12-03 Hillcrest Laboratories, Inc. Tracking determination based on intensity angular gradient of a wave
US9582049B2 (en) * 2008-04-17 2017-02-28 Lg Electronics Inc. Method and device for controlling user interface based on user's gesture
JP4971241B2 (ja) * 2008-05-09 2012-07-11 株式会社リコー 画像表示装置
US8285344B2 (en) 2008-05-21 2012-10-09 DP Technlogies, Inc. Method and apparatus for adjusting audio for a user environment
JP5537044B2 (ja) * 2008-05-30 2014-07-02 キヤノン株式会社 画像表示装置及びその制御方法、コンピュータプログラム
CN101598972A (zh) * 2008-06-04 2009-12-09 鸿富锦精密工业(深圳)有限公司 电子装置及其功能变换方法
US9253416B2 (en) * 2008-06-19 2016-02-02 Motorola Solutions, Inc. Modulation of background substitution based on camera attitude and motion
US8996332B2 (en) 2008-06-24 2015-03-31 Dp Technologies, Inc. Program setting adjustments based on activity identification
US20090325710A1 (en) * 2008-06-27 2009-12-31 Microsoft Corporation Dynamic Selection Of Sensitivity Of Tilt Functionality
CN101644987A (zh) * 2008-08-08 2010-02-10 深圳富泰宏精密工业有限公司 移动终端及其菜单选择的方法
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
WO2010022386A2 (en) * 2008-08-22 2010-02-25 Google Inc. Navigation in a three dimensional environment on a mobile device
KR101481556B1 (ko) * 2008-09-10 2015-01-13 엘지전자 주식회사 이동 단말기 및 이를 이용한 객체 표시방법
US20100060667A1 (en) * 2008-09-10 2010-03-11 Apple Inc. Angularly dependent display optimized for multiple viewing angles
US8245143B2 (en) * 2008-10-08 2012-08-14 Research In Motion Limited Method and handheld electronic device having a graphical user interface which arranges icons dynamically
US8872646B2 (en) 2008-10-08 2014-10-28 Dp Technologies, Inc. Method and system for waking up a device due to motion
US20100095250A1 (en) * 2008-10-15 2010-04-15 Raytheon Company Facilitating Interaction With An Application
JP5280800B2 (ja) * 2008-10-29 2013-09-04 京セラ株式会社 携帯機器、操作検出方法および操作検出プログラム
KR101569176B1 (ko) 2008-10-30 2015-11-20 삼성전자주식회사 오브젝트 실행 방법 및 장치
KR101185589B1 (ko) * 2008-11-14 2012-09-24 (주)마이크로인피니티 움직임 감지를 통한 사용자 명령 입력 방법 및 디바이스
US8645871B2 (en) 2008-11-21 2014-02-04 Microsoft Corporation Tiltable user interface
US8717283B1 (en) * 2008-11-25 2014-05-06 Sprint Communications Company L.P. Utilizing motion of a device to manipulate a display screen feature
KR20100066036A (ko) * 2008-12-09 2010-06-17 삼성전자주식회사 휴대 단말기 운용 방법 및 장치
US8248371B2 (en) * 2008-12-19 2012-08-21 Verizon Patent And Licensing Inc. Accelerometer sensitive soft input panel
TW201025079A (en) * 2008-12-30 2010-07-01 E Ten Information Sys Co Ltd Hand-held electronic device and operating method thereof
US20100164756A1 (en) * 2008-12-30 2010-07-01 Nokia Corporation Electronic device user input
US8890898B2 (en) 2009-01-28 2014-11-18 Apple Inc. Systems and methods for navigating a scene using deterministic movement of an electronic device
US20100188397A1 (en) * 2009-01-28 2010-07-29 Apple Inc. Three dimensional navigation using deterministic movement of an electronic device
US8294766B2 (en) 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US8704767B2 (en) * 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
DE202010018601U1 (de) 2009-02-18 2018-04-30 Google LLC (n.d.Ges.d. Staates Delaware) Automatisches Erfassen von Informationen, wie etwa Erfassen von Informationen unter Verwendung einer dokumentenerkennenden Vorrichtung
JP4706985B2 (ja) * 2009-03-04 2011-06-22 コニカミノルタビジネステクノロジーズ株式会社 コンテンツ表示装置
KR101549556B1 (ko) * 2009-03-06 2015-09-03 엘지전자 주식회사 휴대 단말기 및 그 제어방법
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
WO2010105245A2 (en) 2009-03-12 2010-09-16 Exbiblio B.V. Automatically providing content associated with captured information, such as information captured in real-time
US8392340B2 (en) 2009-03-13 2013-03-05 Apple Inc. Method and apparatus for detecting conditions of a peripheral device including motion, and determining/predicting temperature(S) wherein at least one temperature is weighted based on detected conditions
US20100248203A1 (en) * 2009-03-26 2010-09-30 Kuo Hsiing Cho Portable LED interactive learning device
US8019903B2 (en) * 2009-03-27 2011-09-13 Microsoft Corporation Removable accessory for a computing device
TWI383315B (zh) * 2009-03-27 2013-01-21 Wistron Corp 電腦螢幕畫面顯示方法、具有直立顯示裝置的電腦、內儲基本輸入輸出系統的紀錄媒體及電腦程式產品
US9529437B2 (en) 2009-05-26 2016-12-27 Dp Technologies, Inc. Method and apparatus for a motion state aware device
US20100302277A1 (en) * 2009-05-27 2010-12-02 International Business Machines Corporation Image Modification for Web Pages
US9298336B2 (en) 2009-05-28 2016-03-29 Apple Inc. Rotation smoothing of a user interface
US8265717B2 (en) 2009-06-26 2012-09-11 Motorola Mobility Llc Implementation of touchpad on rear surface of single-axis hinged device
US20100328219A1 (en) * 2009-06-30 2010-12-30 Motorola, Inc. Method for Integrating an Imager and Flash into a Keypad on a Portable Device
US8095191B2 (en) * 2009-07-06 2012-01-10 Motorola Mobility, Inc. Detection and function of seven self-supported orientations in a portable device
US8497884B2 (en) 2009-07-20 2013-07-30 Motorola Mobility Llc Electronic device and method for manipulating graphic user interface elements
US8462126B2 (en) * 2009-07-20 2013-06-11 Motorola Mobility Llc Method for implementing zoom functionality on a portable device with opposing touch sensitive surfaces
US8531571B1 (en) * 2009-08-05 2013-09-10 Bentley Systmes, Incorporated System and method for browsing a large document on a portable electronic device
US8494544B2 (en) * 2009-12-03 2013-07-23 Osocad Remote Limited Liability Company Method, apparatus and computer program to perform location specific information retrieval using a gesture-controlled handheld mobile device
US8675019B1 (en) 2009-12-03 2014-03-18 Innoventions, Inc. View navigation guidance system for hand held devices with display
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
JP5454133B2 (ja) * 2009-12-25 2014-03-26 富士通株式会社 検知情報補正装置、可搬型装置、検知情報補正方法、およびコンピュータプログラム
US8736561B2 (en) 2010-01-06 2014-05-27 Apple Inc. Device, method, and graphical user interface with content display modes and display rotation heuristics
US8438504B2 (en) 2010-01-06 2013-05-07 Apple Inc. Device, method, and graphical user interface for navigating through multiple viewing areas
US8317615B2 (en) 2010-02-03 2012-11-27 Nintendo Co., Ltd. Display device, game system, and game method
US8339364B2 (en) 2010-02-03 2012-12-25 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8913009B2 (en) 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8814686B2 (en) 2010-02-03 2014-08-26 Nintendo Co., Ltd. Display device, game system, and game method
US8947355B1 (en) 2010-03-25 2015-02-03 Amazon Technologies, Inc. Motion-based character selection
US8452260B2 (en) * 2010-03-25 2013-05-28 Hewlett-Packard Development Company, L.P. Methods and apparatus for unlocking an electronic device
US20110250967A1 (en) * 2010-04-13 2011-10-13 Kulas Charles J Gamepiece controller using a movable position-sensing display device
US8123614B2 (en) * 2010-04-13 2012-02-28 Kulas Charles J Gamepiece controller using a movable position-sensing display device including a movement currency mode of movement
US8267788B2 (en) * 2010-04-13 2012-09-18 Kulas Charles J Gamepiece controller using a movable position-sensing display device including a movement currency mode of movement
DE102010028716A1 (de) * 2010-05-07 2011-11-10 Robert Bosch Gmbh Vorrichtung und Verfahren zum Betrieb einer Vorrichtung
US8581844B2 (en) * 2010-06-23 2013-11-12 Google Inc. Switching between a first operational mode and a second operational mode using a natural motion gesture
US8672837B2 (en) 2010-06-24 2014-03-18 Hansen Medical, Inc. Methods and devices for controlling a shapeable medical device
US20120016641A1 (en) 2010-07-13 2012-01-19 Giuseppe Raffa Efficient gesture processing
JP6243586B2 (ja) 2010-08-06 2017-12-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US10150033B2 (en) 2010-08-20 2018-12-11 Nintendo Co., Ltd. Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method
JP5840386B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
CN101938561A (zh) * 2010-08-30 2011-01-05 惠州Tcl移动通信有限公司 一种挂断来电的方法及移动通信终端
JP5840385B2 (ja) 2010-08-30 2016-01-06 任天堂株式会社 ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法
US8972467B2 (en) 2010-08-31 2015-03-03 Sovanta Ag Method for selecting a data set from a plurality of data sets by means of an input device
US8688966B2 (en) 2010-08-31 2014-04-01 Apple Inc. Systems, methods, and computer-readable media for presenting visual content with a consistent orientation
US8767019B2 (en) 2010-08-31 2014-07-01 Sovanta Ag Computer-implemented method for specifying a processing operation
KR101364826B1 (ko) 2010-11-01 2014-02-20 닌텐도가부시키가이샤 조작 장치 및 조작 시스템
US8723699B2 (en) * 2010-11-09 2014-05-13 Motorola Mobility Llc Method and apparatus for controlling a device
US9285883B2 (en) * 2011-03-01 2016-03-15 Qualcomm Incorporated System and method to display content based on viewing orientation
US9035940B2 (en) * 2011-03-08 2015-05-19 Nokia Corporation Apparatus and associated methods
US20120249595A1 (en) 2011-03-31 2012-10-04 Feinstein David Y Area selection for hand held devices with display
JP5689014B2 (ja) 2011-04-07 2015-03-25 任天堂株式会社 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法
US9041733B2 (en) 2011-05-04 2015-05-26 Blackberry Limited Methods for adjusting a presentation of graphical data displayed on a graphical user interface
US20120314899A1 (en) 2011-06-13 2012-12-13 Microsoft Corporation Natural user interfaces for mobile image viewing
WO2013026053A1 (en) 2011-08-18 2013-02-21 Lynk Labs, Inc. Devices and systems having ac led circuits and methods of driving the same
US9918681B2 (en) * 2011-09-16 2018-03-20 Auris Surgical Robotics, Inc. System and method for virtually tracking a surgical tool on a movable display
US9811255B2 (en) 2011-09-30 2017-11-07 Intel Corporation Detection of gesture data segmentation in mobile devices
US9121724B2 (en) * 2011-09-30 2015-09-01 Apple Inc. 3D position tracking for panoramic imagery navigation
US20130106741A1 (en) 2011-10-28 2013-05-02 Atmel Corporation Active Stylus with Tactile Input and Output
US9164603B2 (en) 2011-10-28 2015-10-20 Atmel Corporation Executing gestures with active stylus
US9116558B2 (en) 2011-10-28 2015-08-25 Atmel Corporation Executing gestures with active stylus
US9247597B2 (en) 2011-12-02 2016-01-26 Lynk Labs, Inc. Color temperature controlled and low THD LED lighting devices and systems and methods of driving the same
DE112011105888T5 (de) * 2011-12-23 2014-09-11 Hewlett-Packard Development Company, L.P. Eingabebefehl, der auf Handgeste basiert
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
US9606586B2 (en) 2012-01-23 2017-03-28 Microsoft Technology Licensing, Llc Heat transfer device
JP2013157959A (ja) * 2012-01-31 2013-08-15 Toshiba Corp 携帯端末機器、携帯端末機器の音声認識処理方法、およびプログラム
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
EP2631743B1 (de) 2012-02-24 2018-05-02 BlackBerry Limited Tragbare Vorrichtung mit Benachrichtigungsmeldungsanzeige
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US20130254674A1 (en) * 2012-03-23 2013-09-26 Oracle International Corporation Development mode activation for a mobile device
US11068049B2 (en) * 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
TW201403446A (zh) * 2012-07-09 2014-01-16 Hon Hai Prec Ind Co Ltd 軟體介面顯示系統及方法
TW201404133A (zh) * 2012-07-09 2014-01-16 Wistron Corp 自動拍照裝置及方法
JP2014035562A (ja) * 2012-08-07 2014-02-24 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
US9081542B2 (en) 2012-08-28 2015-07-14 Google Technology Holdings LLC Systems and methods for a wearable touch-sensitive device
JP6100497B2 (ja) * 2012-10-09 2017-03-22 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
US9245497B2 (en) 2012-11-01 2016-01-26 Google Technology Holdings LLC Systems and methods for configuring the display resolution of an electronic device based on distance and user presbyopia
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
US9160915B1 (en) * 2013-01-09 2015-10-13 Amazon Technologies, Inc. Modifying device functionality based on device orientation
US8769431B1 (en) 2013-02-28 2014-07-01 Roy Varada Prasad Method of single-handed software operation of large form factor mobile electronic devices
US9566414B2 (en) 2013-03-13 2017-02-14 Hansen Medical, Inc. Integrated catheter and guide wire controller
US9057600B2 (en) 2013-03-13 2015-06-16 Hansen Medical, Inc. Reducing incremental measurement sensor error
US9014851B2 (en) 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US9271663B2 (en) 2013-03-15 2016-03-01 Hansen Medical, Inc. Flexible instrument localization from both remote and elongation sensors
US10849702B2 (en) 2013-03-15 2020-12-01 Auris Health, Inc. User input devices for controlling manipulation of guidewires and catheters
US9283046B2 (en) 2013-03-15 2016-03-15 Hansen Medical, Inc. User interface for active drive apparatus with finite range of motion
US9459705B2 (en) 2013-03-18 2016-10-04 Facebook, Inc. Tilting to scroll
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
DE102013214020A1 (de) * 2013-07-17 2015-02-19 Stabilo International Gmbh Digitaler Stift
US10126839B2 (en) 2013-07-24 2018-11-13 Innoventions, Inc. Motion-based view scrolling with augmented tilt control
US9181760B2 (en) * 2013-07-24 2015-11-10 Innovations, Inc. Motion-based view scrolling with proportional and dynamic modes
JP5613314B1 (ja) * 2013-11-14 2014-10-22 Jfeシステムズ株式会社 ジェスチャー検出装置、ジェスチャー検出プログラム、ジェスチャー認識装置およびジェスチャー認識プログラム
US9134764B2 (en) * 2013-12-20 2015-09-15 Sony Corporation Apparatus and method for controlling a display based on a manner of holding the apparatus
USD750620S1 (en) * 2014-02-21 2016-03-01 Huawei Device Co., Ltd. Tablet computer
TWI547866B (zh) * 2014-03-05 2016-09-01 佳世達科技股份有限公司 可攜式電子裝置及其控制方法
EP2923669B1 (de) 2014-03-24 2017-06-28 Hansen Medical, Inc. Systeme und vorrichtungen zur instinktiven führung eines katheters
US9816814B2 (en) * 2014-06-25 2017-11-14 Intel Corporation Magnetometer unit for electronic devices
US9304235B2 (en) 2014-07-30 2016-04-05 Microsoft Technology Licensing, Llc Microfabrication
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
CN104216634A (zh) * 2014-08-27 2014-12-17 小米科技有限责任公司 一种显示稿件的方法和装置
US9535253B2 (en) 2015-02-09 2017-01-03 Microsoft Technology Licensing, Llc Display system
US9513480B2 (en) 2015-02-09 2016-12-06 Microsoft Technology Licensing, Llc Waveguide
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US9429692B1 (en) 2015-02-09 2016-08-30 Microsoft Technology Licensing, Llc Optical components
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US9423360B1 (en) 2015-02-09 2016-08-23 Microsoft Technology Licensing, Llc Optical components
US9827209B2 (en) 2015-02-09 2017-11-28 Microsoft Technology Licensing, Llc Display system
US11086216B2 (en) 2015-02-09 2021-08-10 Microsoft Technology Licensing, Llc Generating electronic components
US9372347B1 (en) 2015-02-09 2016-06-21 Microsoft Technology Licensing, Llc Display system
CN104796514B (zh) * 2015-03-18 2017-12-15 北京佳讯飞鸿电气股份有限公司 一种基于nfc装置的调度终端及其除噪方法
CN104780258B (zh) * 2015-03-18 2017-12-12 北京佳讯飞鸿电气股份有限公司 基于加速度传感器的除噪方法、主机处理器及调度终端
US10310726B2 (en) * 2015-05-14 2019-06-04 Oath Inc. Content navigation based upon motion
US9727963B2 (en) 2015-09-18 2017-08-08 Auris Surgical Robotics, Inc. Navigation of tubular networks
US10143526B2 (en) 2015-11-30 2018-12-04 Auris Health, Inc. Robot-assisted driving systems and methods
KR102509018B1 (ko) * 2016-01-11 2023-03-14 삼성디스플레이 주식회사 표시 장치 및 그의 구동방법
CN107346173A (zh) * 2016-05-06 2017-11-14 中兴通讯股份有限公司 一种终端提醒方法及装置、终端
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
US10600150B2 (en) * 2016-10-31 2020-03-24 Adobe Inc. Utilizing an inertial measurement device to adjust orientation of panorama digital images
US10437070B2 (en) 2016-12-23 2019-10-08 Realwear, Inc. Interchangeable optics for a head-mounted display
US10936872B2 (en) 2016-12-23 2021-03-02 Realwear, Inc. Hands-free contextually aware object interaction for wearable display
US10620910B2 (en) 2016-12-23 2020-04-14 Realwear, Inc. Hands-free navigation of touch-based operating systems
US11099716B2 (en) * 2016-12-23 2021-08-24 Realwear, Inc. Context based content navigation for wearable display
US11507216B2 (en) 2016-12-23 2022-11-22 Realwear, Inc. Customizing user interfaces of binary applications
US10365493B2 (en) 2016-12-23 2019-07-30 Realwear, Incorporated Modular components for a head-mounted display
US10393312B2 (en) 2016-12-23 2019-08-27 Realwear, Inc. Articulating components for a head-mounted display
US10244926B2 (en) 2016-12-28 2019-04-02 Auris Health, Inc. Detecting endolumenal buckling of flexible instruments
CN108268056B (zh) * 2016-12-30 2020-12-15 昊翔电能运动科技(昆山)有限公司 手持云台校准方法、装置和系统
KR102558061B1 (ko) 2017-03-31 2023-07-25 아우리스 헬스, 인코포레이티드 생리적 노이즈를 보상하는 관강내 조직망 항행을 위한 로봇 시스템
WO2018200974A1 (en) * 2017-04-27 2018-11-01 Meyer Intellectual Properties Ltd. Control system for cooking
US10022192B1 (en) 2017-06-23 2018-07-17 Auris Health, Inc. Automatically-initialized robotic systems for navigation of luminal networks
WO2019005696A1 (en) 2017-06-28 2019-01-03 Auris Health, Inc. DETECTION OF ELECTROMAGNETIC DISTORTION
EP3644885B1 (de) 2017-06-28 2023-10-11 Auris Health, Inc. Ausrichtung eines elektromagnetischen feldgenerators
US11439839B2 (en) * 2017-08-09 2022-09-13 Acuity Innovation And Design, Llc Hand-held treatment device using LED light sources with interchangeable emitters
US11079077B2 (en) 2017-08-31 2021-08-03 Lynk Labs, Inc. LED lighting system and installation methods
US11058493B2 (en) 2017-10-13 2021-07-13 Auris Health, Inc. Robotic system configured for navigation path tracing
US10555778B2 (en) 2017-10-13 2020-02-11 Auris Health, Inc. Image-based branch detection and mapping for navigation
EP3684281A4 (de) 2017-12-08 2021-10-13 Auris Health, Inc. System und verfahren für navigation und targeting von medizinischen instrumenten
KR20200100613A (ko) 2017-12-14 2020-08-26 아우리스 헬스, 인코포레이티드 기구 위치 추정을 위한 시스템 및 방법
CN110809453B (zh) 2017-12-18 2023-06-06 奥瑞斯健康公司 用于腔网络内的器械跟踪和导航的方法和系统
US10524866B2 (en) 2018-03-28 2020-01-07 Auris Health, Inc. Systems and methods for registration of location sensors
US10827913B2 (en) 2018-03-28 2020-11-10 Auris Health, Inc. Systems and methods for displaying estimated location of instrument
EP3793465A4 (de) 2018-05-18 2022-03-02 Auris Health, Inc. Steuerungen für roboterfähige telebetriebene systeme
US10905499B2 (en) 2018-05-30 2021-02-02 Auris Health, Inc. Systems and methods for location sensor-based branch prediction
EP3801280A4 (de) 2018-05-31 2022-03-09 Auris Health, Inc. Robotersysteme und verfahren zur navigation eines luminalen netzwerks zur detektion physiologischer geräusche
WO2019231891A1 (en) 2018-05-31 2019-12-05 Auris Health, Inc. Path-based navigation of tubular networks
MX2020012904A (es) 2018-05-31 2021-02-26 Auris Health Inc Analisis y mapeo de vias respiratorias basados en imagen.
CN114025700A (zh) 2019-06-28 2022-02-08 奥瑞斯健康公司 控制台叠加以及其使用方法
CN114340542B (zh) 2019-08-30 2023-07-21 奥瑞斯健康公司 用于位置传感器的基于权重的配准的系统和方法
CN114340540B (zh) 2019-08-30 2023-07-04 奥瑞斯健康公司 器械图像可靠性系统和方法
EP4025921A4 (de) 2019-09-03 2023-09-06 Auris Health, Inc. Detektion und kompensation von elektromagnetischer verzerrung
CN114929148A (zh) 2019-12-31 2022-08-19 奥瑞斯健康公司 用于经皮进入的对准界面
WO2021137072A1 (en) 2019-12-31 2021-07-08 Auris Health, Inc. Anatomical feature identification and targeting
JP2023508525A (ja) 2019-12-31 2023-03-02 オーリス ヘルス インコーポレイテッド 経皮的アクセスのための位置合わせ技術

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4812831A (en) * 1987-02-10 1989-03-14 Amp Incorporated Key switch with controllable illumination
US5142655A (en) 1987-10-14 1992-08-25 Wang Laboratories, Inc. Computer input device using an orientation sensor
DE68925124T2 (de) * 1988-11-14 1996-07-04 Wang Laboratories Durch pressen bedienbare steuervorrichtung für rechneranzeigesysteme
US5543588A (en) * 1992-06-08 1996-08-06 Synaptics, Incorporated Touch pad driven handheld computing device
US5296871A (en) * 1992-07-27 1994-03-22 Paley W Bradford Three-dimensional mouse with tactile feedback
JPH0764754A (ja) * 1993-08-24 1995-03-10 Hitachi Ltd 小型情報処理装置
JPH0895539A (ja) * 1994-09-28 1996-04-12 Nec Corp プレゼンテーション支援装置
CA2159251C (en) 1994-12-19 2000-10-24 Alan Edward Kaplan Interactive pointing device
JP3990744B2 (ja) * 1995-09-08 2007-10-17 キヤノン株式会社 電子機器及びその制御方法
US5703623A (en) * 1996-01-24 1997-12-30 Hall; Malcolm G. Smart orientation sensing circuit for remote control
US6624824B1 (en) * 1996-04-30 2003-09-23 Sun Microsystems, Inc. Tilt-scrolling on the sunpad
CA2264167A1 (en) * 1996-08-28 1998-03-05 Via, Inc. Touch screen systems and methods
GB9620464D0 (en) * 1996-10-01 1996-11-20 Philips Electronics Nv Hand held image display device
US6088023A (en) * 1996-12-10 2000-07-11 Willow Design, Inc. Integrated pointing and drawing graphics system for computers
US6008810A (en) * 1997-03-07 1999-12-28 International Business Machines Corporation Mobile client computer programmed for system message display
US6057554A (en) * 1997-05-12 2000-05-02 Plesko; George A. Reflective switch
US6280327B1 (en) * 1998-06-05 2001-08-28 Arista Interactive Llc Wireless game control units
JP3338777B2 (ja) * 1998-04-22 2002-10-28 日本電気株式会社 携帯端末、及びその画面表示方法
WO2000017848A1 (en) * 1998-09-22 2000-03-30 Vega Vista, Inc. Intuitive control of portable data displays
US6201554B1 (en) * 1999-01-12 2001-03-13 Ericsson Inc. Device control apparatus for hand-held data processing device
US6466198B1 (en) 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
US6245014B1 (en) * 1999-11-18 2001-06-12 Atlantic Limited Partnership Fitness for duty testing device and method

Also Published As

Publication number Publication date
EP1290672A1 (de) 2003-03-12
EP1290672B1 (de) 2008-01-02
US20020190947A1 (en) 2002-12-19
ATE382889T1 (de) 2008-01-15
WO2001078055A1 (en) 2001-10-18
DE60132201D1 (de) 2008-02-14
EP1290672A4 (de) 2005-04-06
US6466198B1 (en) 2002-10-15
US6933923B2 (en) 2005-08-23
HK1054610A1 (zh) 2003-12-05

Similar Documents

Publication Publication Date Title
DE60132201T2 (de) Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige
DE69725525T2 (de) Informationsverarbeitungsvorrichtung und -verfahren für die Eingabe von Information durch Bedienung der gesamten Vorrichtung von Hand
DE60007631T2 (de) Tragbares oder taschenformat elektronisches gerät und tragbares eingabegerät
CN101404152B (zh) 信息显示装置
DE102013007250A1 (de) Verfahren zur Gestensteuerung
DE112010005192T5 (de) Karteninformations-Verarbeitungsvorrichtung
DE102008046278B4 (de) In der Hand gehaltene elektronische Einrichtung mit bewegungsgesteuerter Anzeige
EP3143478A2 (de) Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung, system und verfahren für eine virtuelle anwendung mittels einer recheneinheit
DE112009002462T5 (de) Anzeigeeingabeeinrichtung
DE102009014555A1 (de) Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds
EP1456808B1 (de) Vorrichtung zum erfassen und darstellen von bewegungen
WO2002065898A2 (de) Vorrichtung und verfahren zur blickrichtungsbestimmung bezüglich eines festen referenzkoordinatensystems
DE102005034608A1 (de) Mauseingabevorrichtung mit sekundärer Eingabevorrichtung
DE102011008248A1 (de) In der Hand gehaltene elektronische Einrichtung mit bewegungsgesteuertem Cursor
DE102013004373A1 (de) Informationsverarbeitungsverfahren, verfahren zum ansteuern einer bildsammeleinheit und elektrische vorrichtung
DE102013100328A1 (de) Adaptives Schnittstellensystem
US20060267954A1 (en) Information processing system and recording medium used for presentations
DE102013007914A1 (de) Handgehaltene Vorrichtung und Entriegelungsverfahren von dieser
DE112004002016T5 (de) In der Hand gehaltenes Gerät zur Navigation durch Daten und zur Datenanzeige
DE10063347A1 (de) Vorrichtung zur komfortablen Steuerung und Manipulation von virtuellen Objekten für ein Endgerät zur Ein-/Ausgabe, Übertragung und/oder Speicherung von Text-, Ton- und/oder Bildinformation
DE10124834C2 (de) Verfahren zur Informationseingabe für eine Mensch-Maschine-Schnittstelle, Stift zur Durchführung des Verfahrens und Vorrichtung zur Eingabe von Informationen mittels des Verfahrens
DE102014019648A1 (de) Datenverarbeitungsverfahren und elektronische Vorrichtung
DE112004002015T5 (de) Ein in der Hand gehaltenes Gerät zum Anzeigen von Informationen
DE102004027289A1 (de) Verfahren und Anordnung zur berührungslosen Navigation in einem Dokument
WO2012079764A1 (de) Anzeigevorrichtung mit einem durch bewegung steuerbaren display

Legal Events

Date Code Title Description
8364 No opposition during term of opposition