DE60132201T2 - Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige - Google Patents
Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige Download PDFInfo
- Publication number
- DE60132201T2 DE60132201T2 DE60132201T DE60132201T DE60132201T2 DE 60132201 T2 DE60132201 T2 DE 60132201T2 DE 60132201 T DE60132201 T DE 60132201T DE 60132201 T DE60132201 T DE 60132201T DE 60132201 T2 DE60132201 T2 DE 60132201T2
- Authority
- DE
- Germany
- Prior art keywords
- portable device
- display
- view
- navigation mode
- code
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
- G06Q10/087—Inventory or stock management, e.g. order filling, procurement or balancing against orders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/161—Indexing scheme relating to constructional details of the monitor
- G06F2200/1614—Image rotation following screen orientation, e.g. switching from landscape to portrait mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1636—Sensing arrangement for detection of a tap gesture on the housing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2200/00—Indexing scheme relating to G06F1/04 - G06F1/32
- G06F2200/16—Indexing scheme relating to G06F1/16 - G06F1/18
- G06F2200/163—Indexing scheme relating to constructional details of the computer
- G06F2200/1637—Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72445—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting Internet browser applications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
Description
- QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
-
- Nicht zutreffend
- HINTERGRUND – BEREICH DER ERFINDUNG
- Die vorliegende Erfindung betrifft im Allgemeinen den Bereich mobile Rechen- und Kommunikationshandgeräte mit einer Informationsanzeige, im Speziellen die Ansichtsnavigation und das Rollenlassen einer gespeicherten virtuellen Anzeige oder eines vergrößerten Bildes der Anzeige als Reaktion auf Änderungen der Orientierung, in der das Gerät in einer Hand gehalten wird.
- HINTERGRUND – BESCHREIBUNG DES STANDES DER TECHNIK
- Mit der raschen Miniaturisierung komplexer elektronischer Schaltungen und dem Aufkommen von Flüssigkristallanzeigen mit hoher Auflösung haben die Zahl und Vielfalt von tragbaren Smart-Geräten mit Informationsanzeigen stark zugenommen. Zu solchen Geräten gehören tragbare Computer, Mobiltelefone, Pager und andere Kommunikations- und Rechenlösungen. Der Erfolg des Internets in den letzten Jahren hat die Notwendigkeit für mobile Geräte weiter erhöht, die dem unterwegs befindlichen Benutzer eine große Informationsmenge bieten.
- Der riesige und vielfältige Inhalt des Internets erlaubt es dem Benutzer, auf große Informationsmengen zuzugreifen. Tragbare Smart-Geräte wurden rasche verbessert, so dass sie dem Benutzer solche Informationen übermitteln können. Während sich Verarbeitungsleistung, Datenspeicherkapazität, Kommunikationsgeschwindigkeit und Batterielebensdauer moderner tragbarer Geräte immer schneller weiterentwickeln, scheint es, dass der Informationsfluss durch die geringe Größe der Anzeige begrenzt wird. Es ist jedoch klar, dass große Anzeigen, die in Desktop- und Laptop-Computern verwendet werden, in einem kleinen tragbaren Gerät nicht zum Einsatz kommen können.
- Es wurden verschiedene Ansätze zum Überwinden der Anzeigegrößenbeschränkungen in tragbaren Informationsgeräten versucht. Web-Clipping ist ein von Palm Inc. angewendeter Ansatz, um deren im Handel erhältliche Palm Series zum Browsen auf dem Internet zu ermöglichen. Web-Clipping-Anwendungen wurden für beliebte Websites entwickelt, die auf Anfragen von Benutzern von den Sites, auf die zugegriffen werden, minimale Informationsmengen gewöhnlich in Textform ausschneiden. Der Nachteil von Web-Clipping ist, dass der Benutzer nur begrenzte Informationen erhält, und nicht alle Websites sind in der Lage, Web-Clippings für den Benutzer zu erzeugen. In vielen Fällen ist auch nach dem Ausschneiden die Menge der verfügbaren Informationen noch viel größer, als auf eine Anzeigeansicht passt.
- Die Verwendung von optischer Vergrößerung einer kleinen Anzeige wurde für Virtual-Reality-Helme und andere Anwendungen angewendet, bei denen die Anzeige in einem festen Abstand vom Auge des Benutzers sitzt. So offenbart beispielsweise das
US-Patent Nr. 5739955 einen solchen Virtual-Reality-Helm mit Fernglasvergrößerungsoptik. Optische Vergrößerer können für Personen mit beeinträchtigter Sehfähigkeit attraktiv sein, die keine detaillierten Informationen in einem kleinen tragbaren Anzeigegerät - Da große virtuelle Anzeigen leicht im internen Speicher des tragbaren Gerätes gespeichert werden können, wurden verschiedene Lösungen adaptiert, um durch relativ große Datenmengen auf einer relativ kleinen Anzeige zu rollen. Das
US-Patent Nr. 3976995 (Neuausgabepatent32365 ) lehrt die Verwendung einer Verarbeitungsanzeige, die die Nachricht kontinuierlich über die Anzeige bewegt, so dass die Anzeige nur groß genug zu sein braucht, um einen relativ kleinen Teil der gesamten Nachricht anzuzeigen. Dieser Ansatz mag zwar zum Anzeigen einfacher Sätze nützlich sein, ist aber nicht praktisch, wenn komplexe Graphikinformationen angezeigt werden. Und selbst bei einfachen Zeichenanzeigen muss der Benutzer geduldig warten, während die Nachricht abläuft. - Ein weiterer üblicher Ansatz besteht darin, das Gerät mit Bildrolltasten auszustatten, gewöhnlich mit Pfeilen markiert, so dass der Bediener die Anzeige in der gewünschten Richtung abrollen lassen kann. Das
US-Patent 5774109 offenbart ein tragbares Elektronikbuch mit Tastatureingabe, so dass der Bediener die Informationen leichter abrollen lassen kann. Das Problem mit einer solchen manuellen Bildrollaktivität ist, dass sie für den Bediener sehr umständlich ist, weil beim Lesen eines großen Dokumentes beide Hände benutzt werden müssen. - Das
US-Patent 5311203 offenbart eine tragbare Sichtvorrichtung, die die dreidimensionale Richtung bestimmt, in die sie zeigt und automatisch Informationen präsentiert, die mit den im jeweiligen Sichtfeld sichtbaren Merkmalen übereinstimmen. Dieses Gerät soll Sterne oder Sternkonstellationen in einem beobachteten Teil des Nachthimmels beobachten, identifizieren und orten. Nach dem Messen der genauen Richtung des Gerätes korreliert das Gerät die betrachteten Objekte und die in seiner Datenbank gespeicherten Informationen und zeigt identifizierende Kommentare in der Nähe der entsprechenden Objekte an. Da das Gerät genau zwischen den Datenbankinformationen und den beobachteten Objekten korrelieren muss, ist ein genauer Raumwinkel relativ zu Erde nötig, so dass das Gerät zu komplex und teuer wird. - Ein Artikel mit dem Titel „Situated Information Spaces und Spatially Aware Palmtop Computers" von George W. Fitzmaurice, Communication of the ACM, 35(7), Juli 1993, lehrt auf den Seiten 38–49, wie ein kleiner, tragbarer und raumbewusster Palmtop-Computer als Fenster in einen dreidimensionalen Informationsraum dienen kann. Der Artikel lehrt die Verwendung eines komplexen Sensors mit sechs Freiheitsgraden, der komplette Orientierungs- und Lageinformationen bietet, so dass die Anzeige durch den Informationsraum navigieren kann. In einer in dem Artikel vorgeschlagenen Active-Map-Anwendung dient die experimentelle Einheit als elektronische Informationsliste für eine an der Wand montierte Karte. Wenn die Einheit auf der Karte umher bewegt wird, werden Informationen über den Ort auf der Karte unmittelbar unter dem Gerät auf der Anzeige des Gerätes angezeigt. Auch andere Anwendungen wie eine rechnerunterstützte Bibliothek und ein tragbarer Büroersatz werden offenbart, in dem das Gerät Informationen auf der Basis von Position und Orientierung des tragbaren Gerätes gibt. Wie bei dem zuvor erörterten Patent liegt der Hauptnachteil dieser Lösung in der Notwendigkeit für einen komplizierten 6D-Sensor, der wiederum die Durchführung komplexer Berechnungen erfordert, um Orientierung und Lage des sich bewegenden Gerätes zu bestimmen und solche Lage- und Orientierungsinformationen in den gespeicherten Informationsraum zu korrelieren. In der Tat benötigte der Prototyp des Autors die Verwendung einer fortschrittlichen Desktop-Workstation zur Ausführung dieser Rechenaufgaben.
- Die
WO98/14863A - Die
GB2336747A - Die
EP805389A - Im Hinblick auf diese Probleme ist es Aufgabe der vorliegenden Erfindung, eine bedienerfreundliche und praktische Navigation von angezeigten Informationen in einem tragbaren Gerät bereitzustellen, so dass eine große Datenmenge auf dem relativ kleinen Display des Gerätes betrachtet werden kann. Die vorliegende Erfindung erlaubt es dem Bediener insbesondere, eine solche Navigation der Anzeigeansicht mit derselben Hand auszuführen, die auch das Gerät hält.
- Gemäß einem ersten Aspekt der vorliegenden Erfindung wird ein tragbares Gerät mit einer Anzeige bereitstellt, das Folgendes umfasst: einen Prozessor; einen mit dem Prozessor gekoppelten ersten Axialrotationsdetektor mit der Aufgabe, eine erste Rotation des tragbaren Gerätes um eine erste Achse zu erfassen; einen mit dem Prozessor gekoppelten zweiten Axialrotationsdetektor mit der Aufgabe, eine zweite Rotation des tragbaren Gerätes um eine zweite Achse zu erfassen, wobei die erste Achse und die zweite Achse allgemein lotrecht zueinander sind; eine mit dem Prozessor gekoppelte physikalische Anzeige; eine virtuelle Anzeige, die so gestaltet ist, dass sie auf der physikalischen Anzeige gezeigt werden kann, wobei die virtuelle Anzeige größer ist als die physikalische Anzeige; ein mit dem Prozessor gekoppeltes Speichergerät zum Speichern von ablauffähigem Code zwecks Schnittstelle mit dem ersten Axialrotationsdetektor und dem zweiten Axialrotationsdetektor, wobei der ablauffähige Code Folgendes umfasst: (a) einen Code zum Rollenlassen der virtuellen Anzeige in einer ersten Dimension mit einer ersten Geschwindigkeit als Reaktion auf die erste Rotation; (b) Code zum Rollenlassen der virtuellen Anzeige in einer zweiten Dimension mit einer zweiten Geschwindigkeit als Reaktion auf die zweite Rotation; (c) Code zum Ändern der ersten Geschwindigkeit als Reaktion auf eine erste gespeicherte Ansprechkurve; und (d) Code zum Ändern der zweiten Geschwindigkeit als Reaktion auf eine zweite gespeicherte Ansprechkurve; und wobei die erste Ansprechkurve und die zweite Ansprechkurve aus mehreren Ansprechkurven ausgewählt werden.
- Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Verfahren zum Navigieren einer Ansicht einer Anzeige eines tragbaren Gerätes bereitgestellt, das die folgenden Schritte beinhaltet: Erzeugen einer virtuellen Anzeige und Markieren einer Grenze eines auf der Anzeige zu betrachtenden Anfangsabschnitts der virtuellen Anzeige, Identifizieren eines Bedienerbefehls zum Eintreten in einen Ansichtsnavigationsmodus, in dem die Ansicht die virtuelle Anzeige in jeder gewünschten Richtung navigieren kann, Erfassen einer Rotationsorientierung des tragbaren Gerätes im Ansichtsnavigationsmodus, Identifizieren von Änderungen der Rotationsorientierung entlang zwei allgemein lotrechten Achsen, Berechnen von Änderungen der Grenze als Reaktion auf Änderungen der Rotationsorientierung des Gerätes auf der Basis einer gespeicherten Ansprechkurve, auswählbar aus mehreren Ansprechkurven, Ausgeben einer neuen Ansicht an die Anzeige, die die im Berechnungsschritt berechnete Grenze reflektiert, und Zurückbringen der Anzeige in eine feste Ansicht nach dem Verlassen des Ansichtsnavigationsmodus.
- Die Anzeige kann in einen Navigations- und Rollmodus oder in einen festen Modus eingestellt werden. Wenn der Ansichtsnavigationsmodus eingestellt ist, dann rollt die Anzeige durch das gespeicherte virtuelle Display unter der Anleitung des Verarbeitungsmittels als Reaktion auf die Änderungen der vom Orientierungssensor gemessenen Orientierung des Gerätes.
- Im festen Modus bleibt die Anzeige fest und folgt den Orientierungsänderungen nicht mehr. Das Display macht den Bediener im Ansichtsnavigationsmodus mit einer deutlich sichtbaren Anzeige darauf aufmerksam, dass es als Reaktion auf Änderungen der Orientierung des Gerätes rollen wird.
- Gemäß einer speziellen Ausgestaltung der vorliegenden Erfindung umfasst das Gerät ferner einen Satz von zwei ergonomischen Schaltern, die sich auf beiden Seiten des Gehäuses befinden, so dass der Bediener im Ansichtsnavigationsmodus beide Schalter drücken muss. Eine solche Anordnung gewährleistet eine praktische Aktivierung des Ansichtsnavigationsmodus, wie sie für die haltende Hand natürlich ist, um beide Schalter gleichzeitig zu drücken. Ebenso bietet die Notwendigkeit, beide Schalter zum Aktivieren des Ansichtsnavigationsmodus zu drücken, einen besseren Schutz vor einer ungewollten Änderung der angezeigten Ansicht.
- Eine andere Ausgestaltung der vorliegenden Erfindung hat anstatt der ergonomischen Schalter ein Mittel zum Erfassen eines Klopfens mit dem Finger des Bedieners auf den Boden des Gerätes als Befehl zum Wechseln in den Ansichtsnavigationsmodus nach einer kurzen Zeitverzögerung. Nach dem Einstellen des Ansichtsnavigationsmodus bleibt das Gerät für eine voreingestellte Zeitperiode oder so lange in diesem Modus, wie der Bediener die Orientierung des Gerätes wesentlich verändert.
- In noch einer anderen Ausgestaltung der vorliegenden Erfindung übermitteln voreingestellte Handbewegungen des Bedieners, gemessen mit einem Satz von Orientierungssensoren, die mit zusätzlichen Höhen- oder Beschleunigungssensoren ausgestattet sind, spezielle Befehle zu dem tragbaren Gerät. So könnte beispielsweise eine schnelle ruckartige Aufwärtsbewegung des tragbaren Gerätes ohne erhebliche Orientierungsänderung benutzt werden, um das Gerät in den Ansichtsnavigationsmodus zu bringen.
- In noch einer anderen Ausgestaltung der vorliegenden Erfindung akzeptiert ein eingebautes Spracherkennungsmittel einen gesprochenen Wortbefehl vom Bediener, um in den Ansichtsnavigationsmodus zu gehen.
- Es ist daher eine Aufgabe der vorliegenden Erfindung, ein praktisches Navigationsmittel zum Rollen durch eine in dem tragbaren Gerät gespeicherte virtuelle Anzeige unter Verwendung von nur einer Hand bereitzustellen.
- Die vorliegende Erfindung ist besonders für eine Anzeigevergrößerungsanwendung geeignet. Nach dem Einstellen in den Vergrößerungsmodus kann die aktuelle Ansicht auf dem Display willkürlich selbst um einen großen Faktor vergrößert werden, dann kann im Ansichtsnavigationsmodus durch die gesamte Ansicht auf dem Display navigiert werden.
- Es ist eine weitere Aufgabe der vorliegenden Erfindung, ein solches einhändiges Navigationsmittel mit derselben praktischen Handhabung für rechts- und linkshändige Benutzer bereitzustellen.
- Es ist eine weitere Aufgabe der vorliegenden Erfindung, eine minimale Anordnung von Axialrotationssensoren zu benutzen, die nur auf Änderungen in nur zwei Orientierungsachsen des tragbaren Gerätes reagieren.
- Es ist noch eine weitere Aufgabe der vorliegenden Erfindung, die exakte Korrelation zwischen Orientierungsänderungen und der eigentlichen Navigation der Anzeige zu minimieren, damit die Orientierungsänderungen mit relativ kostenarmen groben Sensoren bestimmt werden können.
- Es ist auch eine Aufgabe der vorliegenden Erfindung, Smart-Ansprechkurven bereitzustellen, die die Korrelation zwischen Orientierungsänderungen und eigentlicher Navigation der Ansicht auf dynamische Weise ändern, die auch gemäß Benutzerpräferenzen eingerichtet werden kann.
- Es ist eine weitere Aufgabe der vorliegenden Erfindung, Halbleitersensoren zu benutzen, die leicht in das Einzelchip-Design moderner tragbarer Geräte integriert werden können.
- Es ist noch eine weitere Aufgabe der vorliegenden Erfindung, es Personen mit beeinträchtigter Sehfähigkeit oder weitsichtigen Personen zu gestatten, die Anzeige eines kleinen mobilen tragbaren Gerätes auf praktische Weise zu vergrößern und durch sie zu navigieren.
- Es ist noch eine weitere Aufgabe der vorliegenden Erfindung, dass sie für die Herstellung als leicht aufzurüstender Schaltkomplex für die riesige Vielfalt von Palmtop-Rechen- und tragbaren Kommunikationsgeräten angepasst werden kann, die bereits auf dem Markt existieren.
- Diese sowie weitere Aufgaben, Vorteile und Merkmale gehen nachfolgend aus Ausführungsbeispielen der vorliegenden Erfindung hervor, die illustrationshalber und nicht zur Begrenzung gegeben werden, die in der nachfolgenden ausführlichen Beschreibung beschrieben und in den Begleitzeichnungen illustriert werden, in denen gleiche Bezugsziffern entsprechende Elemente bezeichnen.
- KURZBESCHREIBUNG DER ZEICHNUNGEN
- In den Zeichnungen haben eng verwandte Figuren dieselbe Zahl, aber mit unterschiedlichen alphabetischen Suffixen.
-
1A ,1B und1C zeigen drei aufeinander folgende Ansichten eines tragbaren Gerätes, das die vorliegende Erfindung beinhaltet, von links nach rechts abgerollt, während durch die virtuelle Anzeige von1D navigiert wird. -
2 zeigt die relativen Roll- und Nickachsen, über die das tragbare Gerät gedreht wird, um durch die Ansicht gemäß der vorliegenden Erfindung zu navigieren. -
3 illustriert die Verwendung der vorliegenden Erfindung als Vergrößerungsfunktion für die Anzeige eines tragbaren Gerätes gemäß der vorliegenden Erfindung. -
4 zeigt eine ergonomische Ausgestaltung der vorliegenden Erfindung, die zwei Seitenschalter zum Aktivieren des Ansichtsnavigationsmodus benutzt. -
5 ist ein Blockdiagramm der Ansicht in4 . -
6 umreißt das Software-Fließschema für die Ausgestaltung der Erfindung von5 . -
7 ist ein Zeitschema, das ein Beispiel für die zeitabhängige Ansprechkurve des Systems auf Orientierungsänderungen entlang einer Achse zeigt. -
8 ist ein Blockdiagramm einer anderen Ausgestaltung der vorliegenden Erfindung, die ein Fingerklopfen des Bedieners benutzt, um das tragbare Gerät in den Ansichtsnavigationsmodus zu bringen. -
9 ist eine Perspektivansicht des tragbaren Gerätes von8 , die eine ausgeschnittene Ansicht des Fingerklopfsensors zeigt. -
10 ist ein Blockdiagramm der Ausgestaltung der vorliegenden Erfindung in Form eines Zusatzupgrades für ein existierendes tragbares Gerät. -
11 zeigt noch eine weitere Ausgestaltung der vorliegenden Erfindung, die unterschiedliche Sensoren zum Verfolgen der Orientierung und ein Spracherkennungsmodul zum Akzeptieren von gesprochenen Befehlen zum Eintreten in den und Austreten aus dem Ansichtsnavigationsmodus benutzt. -
12 ist eine Zeitschema, das illustriert, wie in den Ansichtsnavigationsmodus ein- und aus ihm ausgetreten wird, gemäß einigen Ausgestaltungen der vorliegenden Erfindung. -
13A umreißt das Software-Fließschema der Ausgestaltung von12C , die nur für eine feste Zeitperiode im Ansichtsnavigationsmodus bleibt und den Modus dann in den festen Modus verlässt. -
13B umreißt das Software-Fließschema für die Ausgestaltung von12D , die im Ansichtsnavigationsmodus bleibt, solange der Bediener die Orientierung des Gerätes weiter ändert. -
14 illustriert eine weitere Ausgestaltung der vorliegenden Erfindung, die einen zusätzlichen Z-Achsen-Beschleunigungsmesser zum Identifizieren von vertikalen Handbewegungen des Bedieners benutzt, um in den Ansichtsnavigationsmodus einzutreten, sowie für andere Befehle. -
15 illustriert die Platzierung der drei Beschleunigungsmesser der Ausgestaltung von14 auf der Hauptleiterplatte des tragbaren Gerätes. -
16 ist ein Zeitschema, das die Benutzung der Ausgestaltung der vorliegenden Erfindung von14 mit drei Beschleunigungsmessern illustriert. -
17 umreißt das Software-Fließschema für die Ausgestaltung von14 , die eine vertikale Bewegungsgeste des Bedieners benutzt, um in den Ansichtsnavigationsmodus ein- und wieder daraus auszutreten. - AUSFÜHRLICHE BESCHREIBUNG DER ERFINDUNG
- Die vorliegende Erfindung ermöglicht es, dass mit einem tragbaren Kommunikation- oder Rechengerät mit einer relativ kleinen Anzeige auf praktische Weise mit einer Hand durch eine große gespeicherte virtuelle Anzeige navigiert wird. Solche Geräte können mobile Computer wie die im Handel erhältlichen PALM PILOT, Cassiopea, PSION, Newton und andere Palmtop-Computer sein. Dies können auch verschiedene PDA-Gerate, mobile tragbare Terminals, fortschrittliche Pager und eine Reihe verschiedener Mobiltelefone mit erweiterten Informationsdisplays sein.
- Das tragbare Gerät gemäß der vorliegenden Erfindung arbeitet mit zwei Betriebsarten, die im gesamten Dokument als Ansichtsnavigationsmodus und als fester Modus bezeichnet werden. Im Ansichtsnavigationsmodus wird automatisch durch die Anzeigeansicht gerollt, so dass sie den Drehbewegungen der haltenden Hand folgt. Wieder zurück im festen Modus, wird die Anzeigeansicht stationär und folgt den Bewegungen der Hand nicht mehr.
-
1 zeigt einen Überblick über den Betrieb des tragbaren Gerätes10 , konstruiert gemäß der vorliegenden Erfindung, das in den Ansichtsnavigationsmodus geschaltet ist. Das Gerät hat eine Flachanzeige12 , die typischerweise aus einem LCD mit optischer Hintergrundbeleuchtung und mehreren Funktionstasten besteht. Das Display12 ist zu klein, um die gesamte virtuelle Anzeige30 zu zeigen, die in dem tragbaren Gerät gespeichert und in1D gezeigt ist. Der Illustration halber zeigt die virtuelle Anzeige30 eine Kombination von leicht zu identifizierenden Graphikobjekten wie eine Raumstation26 , ein Space Shuttle24 und einen Astronauten mit der amerikanischen Flagge22 zusätzlich zu einer Textnachricht28 . - In
1A wird der Navigationsprozess gestartet, wenn die Hand20 des Bedieners das Gerät10 nach links schwenkt, so dass das Display12 den linken Teil der gespeicherten virtuellen Anzeige30 zeigt. Wenn die Hand20 des Bedieners nach rechts schwenkt, dann zeigt1B , wie die Ansicht im Display12 nach links rollt, wenn das Space Shuttle Bild24 ins Sichtfeld kommt.1C zeigt ferner, wie der rechte Teil der virtuellen Anzeige mit der amerikanischen Flagge22 erscheint, wenn die Hand20 des Bedieners weiter nach rechts schwenkt. -
2 zeigt die relativen Orientierungsachsen, über die das tragbare Gerät10 gedreht wird, um das Display12 gemäß der vorliegenden Erfindung zu navigieren. Im gesamten Dokument wird die Achse32 als die Y-Achse oder, beeinflusst durch Begriffe aus Luftfahrt und Marine, die Rollachse bezeichnet. Ebenso wird die Achse36 als die X-Achse oder die Nickachse bezeichnet. In einer Ausgestaltung der vorliegenden Erfindung wird der Ansichtsnavigationsmodus durch Ändern der Höhe, in der das Gerät10 gehalten und die entlang der Z-Achse40 gemessen wird, eingeschaltet. Wieder zurück zu dem in1 gezeigten Verfahren, es sollte klar sein, dass das Display, obwohl dies in der Zeichnung nicht dargestellt ist, vertikal navigiert werden kann, wenn das Gerät10 über die Nickachse vor und zurück gekippt wird. - Während das Rollen der Anzeige den Orientierungsänderungen des Gerätes folgt, brauchen die Bildrollgeschwindigkeit und der Bildrollbetrag nicht dem genauen Orientierungsänderungsbetrag zu folgen. Wie nachfolgend erörtert wird, glättet die Steuersoftware der bevorzugten Ausgestaltungen der vorliegenden Erfindung die Handbewegungen, um selbst dann eine praktische Navigation zu ermöglichen, wenn relativ grobe Orientierungssensoren verwendet werden.
-
3 illustriert, dass die vorliegende Erfindung so ausgelegt ist, dass Anzeigevergrößerung und Navigation durch diese vergrößerte Anzeige möglich sind.3A zeigt ein tragbares Gerät, das einige Informationen50 anzeigt, die von einem Benutzer nicht betrachtet werden können, der ein beeinträchtigtes Sehvermögen hat. Wenn der Benutzer das Gerät10 anweist, die Ansicht zu vergrößern, dann zeigt das Display12 einen vergrößerten Teil52 der ursprünglichen Informationen50 , wie in3B gezeigt. Das Gerät10 kann jetzt durch die vergrößerte Ansicht gemäß der vorliegenden Erfindung navigieren. Im Ansichtsnavigationsmodus beinhaltet das Display vorzugsweise eine visuelle Anzeige54 für den Bediener, um ihn darauf aufmerksam zu machen, dass durch die Ansicht gerollt wird, wenn er die Geräteorientierung verändert. Die in der Zeichnung gezeigte Anzeige zeigt vier gedrehte ,L'-förmige Marker54 an den vier Ecken des Displays12 . Es kann natürlich auch jede andere Form von visueller Anzeige bei Bedarf mit einem hörbaren Piepston verwendet werden, wenn das Gerät10 mit einem Tonausgabemittel ausgestattet ist. Wie nachfolgend erörtert wird, ist die visuelle Anzeige54 für diejenigen Ausgestaltungen der vorliegenden Erfindung äußerst vorteilhaft, die keinen tatsächlichen Schalter zum Umschalten in den und aus dem Ansichtsnavigationsmodus haben. - Es ist zu bemerken, dass das Display für eine Vergrößerungsanwendung für Personen mit beeinträchtigtem Sehvermögen ein aktives TFT LCD oder eine andere Anzeigetechnik mit scharfen Kontrastmerkmalen anwenden sollte.
-
4 zeigt eine ergonomische Ausgestaltung der vorliegenden Erfindung, die zwei Seitenschalter62 und64 zum Aktivieren des Ansichtsnavigationsmodus haben. Die Zeichnung illustriert mechanische Schalter, die Federn66 benutzen, um dem Bediener eine taktile Reaktion zu geben. Es können auch andere taktile Schalter wie der Typ mit versiegelter Membran und Schalter mit kapazitiven Streifen verwendet werden. Das tragbare Gerät10 schaltet nur dann in den Ansichtsnavigationsmodus, wenn der Bediener beide Schalter drückt, und kehrt in den festen Modus zurück, wenn wenigstens einer der Schalter losgelassen wird. Alternativ können die Schalter zum Signalisieren eines Befehls zum Eintreten in den Ansichtsnavigationsmodus benutzt werden, und um es dem Programm zu gestatten, den Modus gemäß der nachfolgenden Beschreibung zu beenden. Die vorliegende Erfindung arbeitet zwar auch mit nur einem Schalter, aber Experimente haben gezeigt, dass diese Anordnung von zwei Seitenschaltern ergonomischer ist und dem Bediener eine bessere intuitive Kontrolle bietet. Die Verwendung von zwei Schaltern auf beiden Seiten des tragbaren Gerätes scheint für rechts- und linkshändige Personen gleichermaßen von Vorteil zu sein. -
5 ist ein Blockdiagramm der Ausgestaltung in4 , wo der erfindungsgemäße Schaltkomplex für die Ansichtsnavigation völlig in den Hauptschaltkomplex des tragbaren Gerätes integriert ist. Alle tragbaren Smart-Geräte mit Displays12 verwenden typischerweise wenigstens eine Mikrosteuerung100 oder einen Mikroprozessor, einen Speicher102 zum Speichern von Programm- und Anzeigedaten und eine Anzeigesteuerung104 . Zur Verdeutlichung werden gemeinsame Komponenten wie die Stromversorgung und eine Tastaturschnittstelle aus dieser und allen anderen Zeichnungen weggelassen. Die Orientierungssensorschaltung80 beinhaltet Beschleunigungsmesser für die X-Achse82 und die Y-Achse84 , die jeweils in dem tragbaren Gerät montiert sind und mit den Achsen36 und32 von2 fluchten. Da die Ansichtsnavigation gemäß der vorliegenden Erfindung einen geschlossenen Kreis zwischen den Bewegungen des Benutzers und der tatsächlichen Navigation bildet, ist eine exakte Ausrichtung zwischen Sensor und Geräteachsen nicht erforderlich. In der Tat reicht es aus, dass die beiden Sensoren allgemein lotrecht zueinander sind. Ebenso kann jede Fehlausrichtung zwischen den Empfindlichkeitssensorachsen und der X- und Y-Achse des Gerätes vom Programm korrigiert werden. Solche Beschleunigungsmesser werden vorzugsweise mit einer Oberflächen-Mikrobearbeitungstechnik ausgeführt, die elektromechanische Strukturen in Silicium integriert. Die geringe Größe von mikrobearbeiteten Strukturen macht eine Platzierung der Schaltungen und Sensoren auf demselben Chip wirtschaftlich. So wurde beispielsweise mit einem handelsüblichen, als „iMEMS" bekannten 1-Mikrometer-CMOS-Prozess von Analog Devices Inc. der ADXL202-Beschleunigungsmesser erzeugt, der zwei Achsen und die Schaltungen integriert, um digital einen DCM-(Duty Cycle Modulator)-Ausgang zu erzeugen. Mittels eines solchen DCM oder einer anderen Analog-Digital-Umwandlung86 und88 wird eine Schnittstelle zwischen den Orientierungsdaten und der Mikrosteuerung100 erzeugt. Die Beschleunigungsmesser erzeugen Kippwinkelinformationen je nach ihrer Neigung relativ zur Schwerkraft der Erde. Wenn sich der Bediener bewegt, dann nehmen die Beschleunigungsmesser auch geringe Beschleunigungsartefakte auf. Das Programm kann solche Beschleunigungsartefakte ausfiltern oder der Bediener kann die Ansicht nachnavigieren, um unerwünschte Ansichtsbewegungen zu korrigieren. - Der rechte Schalter
62 und der linke Schalter64 sind in Reihe mit dem VCC-Potential70 (oder einem Massepotential, wenn Umkehrlogik verwendet wird) geschaltet, so dass sie, wenn beide gedrückt werden, ein Aktivierungssignal zur Mikrosteuerung100 über die Leitung72 schalten. Dieses Signal weist das Programm der Mikrosteuerung an, in den Ansichtsnavigationsmodus zu geben. Wenn das tragbare Gerät einen Piepser94 aufweist, dann kann das Programm einen Piepston erzeugen, um den Bediener darauf aufmerksam zu machen, dass der Ansichtsnavigationsmodus eingestellt ist. Die Mikrosteuerung weist die Anzeigesteuerung104 an, eine visuelle Anzeige54 wie in3B für den Bediener zu erzeugen, dass sich das tragbare Gerät im Ansichtsnavigationsmodus befindet. - Im Ansichtsnavigationsmodus setzt die Mikrosteuerung
100 die über die Leitungen90 und92 übermittelten Nick- und Rollorientierungsänderungen in Navigationsbefehle um, die ein Rollenlassen der virtuellen Anzeige bewirken, die im Speicher102 gespeichert ist. Wenn beispielsweise der Y-Achsen-Beschleunigungsmesser anzeigt, dass der Bediener das tragbare Gerät10 wie in1B gezeigt nach rechts gedreht hat, dann steuert die Mikrosteuerung100 die virtuelle Anzeige im Speicher102 und die Anzeigesteuerung104 , so dass sie die Ansicht in dem Display12 nach rechts rollt. -
6 umreißt das Software-Fließschema für die Ausgestaltung der Erfindung von5 . Der Ablauf vom Start120 bis zum Ende134 erfolgt mehrere Male pro Sekunde in einem standardmäßigen Abfrageprozess der Mikrosteuerung100 . Beim Initialisierungsschritt in Block122 wird die aktuelle Grenze der Anzeigeansicht im Vergleich zur gespeicherten virtuellen Anzeige markiert. Der Status beider Navigationsschalter62 und64 wird in Block124 geprüft. Wenn beide Schalter gedrückt werden, wird das System in Block126 in den Ansichtsnavigationsmodus gesetzt, um die visuelle Anzeige54 zu erzeugen, um dem Bediener mitzuteilen, dass Orientierungsänderungen des tragbaren Gerätes zur Navigation der Anzeige führen. - In Block
128 werden die Nick- und Rolldaten erfasst, gespeichert und mit den vorherigen Werten verglichen. Wenn in Block130 eine Orientierungsänderung erfasst wird, dann berechnet das Programm in Block132 die neue Grenze für die Ansicht. Sie frischt das Display auch auf so dass es die neue Ansicht zeigt, und speichert die neue aktuelle Orientierung als Basis für den Vergleich im nächsten Ablauf des Prozesses. Der Prozess endet in Block134 , bis er wieder abgefragt wird. Wenn die Prüfung auf gedrückte Schalter in Block124 anzeigt, dass wenigstens ein Schalter nicht gedrückt ist, dann schaltet das Programm die Navigationsanzeige54 ab und der Prozess endet in Block134 , bis er wieder abgefragt wird. - Das Programm kann mit unterschiedlichen Ansprechkurven zum Berechnen der neuen Grenze als Reaktion auf Orientierungsänderungen in Block
132 eingestellt werden. Feine und grobe Ansprechmodi können vom Bediener eingestellt oder während der Zeit, in der sich das System im Ansichtsnavigationsmodus befindet, dynamisch verändert werden. Bei einer feinen Ansprechung navigiert die Anzeigeansicht durch das virtuelle Display in Reaktion auf die Orientierungsänderungen relativ langsam. Bei einer groben Ansprechung ändert sich die Anzeigeansicht in Reaktion auf die Orientierungsänderungen schnell. -
7 ist ein Zeitschema, das ein Beispiel für die zeitabhängige Ansprechkurve des Systems auf Änderungen der Orientierung entlang einer Achse zeigt. Ähnliche Relationen werden entlang den anderen Orientierungsachsen verwendet, obwohl Ansprechwerte mit einem anderen Bias für jede Achse eingestellt werden können.7A zeigt die relative Ansprechkurve, die im Programm voreingestellt ist und vom Bediener modifiziert werden kann. Die relative Ansprechung wird durch Dividieren des Änderungsbetrags in der Ansichtsnavigation, bei dem es sich um eine normalisierte Zahl proportional zu dem Prozentanteil handelt, um den die virtuelle Anzeige gerollt wurde, durch die Orientierungsänderung erhalten, die dies bewirkt hat. So kann der Bediener eine feine und langsame Navigation erzielen, wenn der relative Ansprechwert niedrig ist, und eine grobe und schnelle Navigation, wenn der relative Ansprechwert hoch ist.7B illustriert den Wert vom Orientierungssensor auf einer Achse, repräsentiert durch das Signal90 oder92 von5 .7C zeigt die Zeit, die Orientierungsänderungen entlang der überwachten Achse entspricht, gemessen durch die Mikrosteuerung100 in Block128 von6 .7D illustriert die resultierende Navigation der Ansicht entlang der überwachten Achse, berechnet durch die Mikrosteuerung100 in Block132 gemäß einer Betriebsart.7E illustriert die resultierende Navigation der Ansicht entlang der überwachten Achse, berechnet von der Mikrosteuerung100 als Reaktion auf dieselben Reize, aber gemäß einer alternativen Betriebsart. -
7A zeigt, dass das Gerät zum Zeitpunkt t1140 in den Ansichtsnavigationsmodus und zum Zeitpunkt t4 zurück in den festen Modus geschaltet wurde. Während der Festmodusperioden144 und146 der Zeichnung bleibt die Ansicht auf dem Display während der entsprechenden Perioden148 und150 in7D und7E fest, obwohl der Orientierungssensor Orientierungsänderungen147 und149 in7C meldet. In diesem Beispiel wird, von Zeitpunkt t1 bis Zeitpunkt t2, die relative Ansprechung des Systems auf feine Navigation152 eingestellt. Nach dem Zeitpunkt t2 nimmt die relative Ansprechung allmählich bis zum Zeitpunkt t3 zu (154 ), wo die relative Ansprechung grob wird (156 ). - Im Ansichtsnavigationsmodus reinigt ein Filteralgorithmus die Orientierungsdaten von Rucken und anderen Orientierungs-„Geräuschen". Zum Beispiel, ein ungewolltes Rauschen
160 und162 in7B führt zwar zu entsprechenden Orientierungsänderungsimpulsen164 und166 in7C , aber diese werden tatsächlich vom Programm ignoriert und das Programm navigiert die Ansicht nicht, wie in7D und7E gezeigt. -
7D illustriert die Ansichtsnavigationsansprechung, wenn eine Betriebsart verwendet wird, die die navigierte Ansicht nur während einer Orientierungsänderungsperiode navigiert. In der Periode170 , die während der Feinnavigation auftritt, wird eine Orientierungsänderung erfasst und die Ansicht wird als Reaktion darauf langsam navigiert. In der Periode174 navigiert die Ansicht, während die relative Ansprechung dynamisch in die grobe Navigation wechselt, mit einer höheren Geschwindigkeit176 . In der Periode180 , die während der groben Navigation auftritt, führt eine relativ langsame Orientierungsänderung182 zu einer raschen Navigation184 der Ansicht. In dieser Betriebsart bleibt die Ansicht in Abwesenheit von Orientierungsänderungen stationär. -
7E illustriert die Ansichtsnavigationsreaktion, wenn eine alternative kontinuierliche Betriebsart die Ansicht ständig mit der Geschwindigkeit und in der Richtung navigiert, die bei der letzten schnellen Orientierungsänderung etabliert wurden. Auch hier wird wieder in der Periode170 , die während der Feinnavigation auftritt, eine Orientierungsänderung erfasst und die Ansicht als Reaktion darauf langsam navigiert (186 ). Die Ansicht navigiert jedoch weiter in derselben Richtung, bis in Periode174 wieder eine Orientierungsänderung auftritt. Eine neue Navigationsgeschwindigkeit188 in derselben Richtung, aber mit einer Geschwindigkeit entsprechend der reduzierten Orientierungsgeschwindigkeitsänderung in Periode174 , wird mit der höheren relativen Ansprechung bei154 multipliziert. Diese Navigation wird bis zu Periode180 fortgesetzt, die während der groben Navigation auftritt. Zu diesem Zeitpunkt führt eine relativ langsame Orientierungsänderung182 zu einer raschen Navigation190 der Ansicht. Das Programm wendet eine Mindestansprechschwelle an, so dass die Navigation stoppen kann, wenn der Bediener die Orientierungsrichtung geringfügig umkehrt. Weitere Betriebsarten können als Varianten der in den7D und7E gezeigten etabliert werden. - Eine solche Ansprechkurve mit wenigstens zwei Einstellungen von feiner und grober Navigation, die eingestellt und für die individuelle Präferenz des Bedieners justiert werden können, ermöglicht eine exakte Ansichtsnavigation. Zunächst drückt der Bediener die Schalter, bis die grobe Navigation aktiviert ist (
156 ), und es wird auf den allgemeinen Bereich der gewünschten Ansicht zugegriffen. An dieser Stelle kann der Bediener die Feinnavigation einfach durch Deaktivieren und dann erneutes Aktivieren der Schalter erreichen. Andere Ansprechkurven können ein fester Wert sein oder können bei jedem nachfolgenden Eintritt in den Ansichtsnavigationsmodus zwischen feiner und grober Navigation umschalten. - Es ist auch möglich, Mehrzustandsschalter anstatt der einfachen Schalter
62 und64 von5 zu benutzen, so dass der Bediener direkt aus grober und feiner Ansprechung auswählen kann. Und doch erlaubt die Anwendung einer sich dynamisch ändernden Ansprechung wie beschrieben eine gewisse Einfachheit des Designs. - Eine weitere Lösung ist es, Schalter insgesamt wegzulassen und die Nick- und Rolländerungen auf benutzerspezifische Gesten hin zu überwachen, die den Ansichtsnavigationsmodus aktivieren. In einer solchen Ausgestaltung der vorliegenden Erfindung verfolgt das Programm ständig die Roll- und Nickorientierung im Speicher und analysiert sie kontinuierlich, um zu sehen, ob Gesten des Bedieners erfasst wurden. Es scheint, dass für eine zuverlässigere Aktivierung des Ansichtsnavigationsmodus ein zusätzlicher Sensor benötigt wird.
-
8 ist eine weitere Ausgestaltung der vorliegenden Erfindung, die die Schalter62 und64 durch einen Aktivierungsdetektor200 ersetzt, der auf ein Fingerklopfen des Bedieners reagiert, um das tragbare Gerät in den Ansichtsnavigationsmodus zu setzen. Der Fingerklopfdetektor beinhaltet einen Schall/Vibrationswandler202 zum Erfassen des Fingerklopfens und zum Ausgeben einer Spannung, die die erfassten Klopfvibrationen repräsentiert. Der Ausgang des Sensors202 ist durch eine Leitung203 mit dem Eingang des Verstärkers204 verbunden. Im Verstärker204 ist ein gewisser Schwellenwert eingestellt, um zu gewährleisten, dass nur Signale über dem Schwellenwert verstärkt werden. Der verstärkte Ausgang des Verstärkers204 wird mit einem Tiefpassfilter206 gefiltert, dessen Ausgang mit dem Analog-Digital-Wandler208 verbunden ist, um digitale Daten über die Verbindung212 zur Mikrosteuerung100 zu senden. Wenn die Mikrosteuerung ein Signal auf der Leitung212 empfangt, dann versucht sie, eine Übereinstimmung zwischen seiner Frequenz und Länge mit den gespeicherten Kennwerten eines Fingerklopfsignals zu finden. Wenn eine Übereinstimmung gefunden wird, dann setzt das Programm das Gerat nach einer voreingestellten Verzögerung nach dem Ende des Fingerklopfsignals in den Ansichtsnavigationsmodus. Im Ansichtsnavigationsmodus verwendet die Mikrosteuerung100 die Orientierungsänderungsinformationen vom Orientierungssensor80 zum Navigieren des Displays auf ähnliche Weise wie in der Erörterung von5 . - Der Fingerklopfsensor kann ein Elektretkondensatormikrofon oder ein piezoelektrischer Wandler sein. Beide Sensortypen sind relativ kostenarm und lassen sich leicht herstellen.
9 ist eine Perspektivansicht des tragbaren Gerätes10 gemäß der Ausgestaltung von8 , die eine ausgeschnittene Ansicht des Fingerklopfsensors202 zeigt. Der Fingerklopfsensor202 ist am Boden des Gehäuses des Gerätes10 angebracht oder kann im Bereich unmittelbar unterhalb der Oberseite des Displays12 an der Stelle platziert werden, auf die der Bediener wahrscheinlich mit dem Finger klopfen wird, wenn das Gerät mit einer Hand gehalten wird. Der Sensor202 ist durch eine Leitung203 mit der oben beschriebenen Schaltung verbunden. Eine gute Verstärkung kann sicherstellen, dass das Gerät alle relevanten Fingerklopfer am Boden erfasst. Solche Fingerklopfer erzeugen Vibrationen und Schallmuster, die sich erheblich von dem Schall unterscheiden, der durch Stiftschläge auf den Bildschirm oder das Betätigen einer Taste13 erzeugt wird. Die Mikrosteuerung kann einen Fingerklopfton von anderen Geräuschen wie denen unterscheiden, die entstehen, wenn das Gerät auf den Tisch gelegt wird. Für eine effizientere Herstellung kann der Fingerklopfsensor202 am Boden der PCB-Baugruppe450 in dem Gerät10 oberflächenmontiert werden. - Da es auf dem Markt bereits eine große Vielfalt von tragbaren Smart-Geräten mit Displays gibt, ist es wünschenswert, dass die vorliegende Erfindung als Zusatzgerät zum Aufrüsten adaptiert wird.
10 zeigt das Blockdiagramm der Ausgestaltung der vorliegenden Erfindung in Form eines Zusatzupgrades300 , das an einem existierenden tragbaren Gerät10 angebracht ist. Das Zusatzupgrade300 ist auf einer Miniaturleiterplatte aufgebaut, die extern oder intern mit dem mobilen Gerät10 verbunden ist, je nach der Erweiterungsfähigkeit dieses tragbaren Gerätes. - Das Zusatzupgrade
300 umfasst die in anderen Ausgestaltungen der vorliegenden Erfindung beschriebenen Sensoren sowie eine standardmäßige Mikrosteuerung302 . Eine solche Mikrosteuerung hat typischerweise ihren eigenen gespeicherten Programm- und Datenspeicher sowie einen Kommunikationskanal304 wie UART, SPC und I2C. Die Mikrosteuerung302 erhält die Orientierungsänderungsinformationen über die Leitungen90 und92 sowie das Signal zum Eintreten in den oder Austreten aus dem Ansichtsnavigationsmodus212 . Zum Verarbeiten der Orientierungsänderungsdaten und des Navigationseintrittsbefehls wie oben erläutert berechnet die Mikrosteuerung die gewünschten Navigationsänderungen für das Display des Gerätes und sendet Befehle über den Kommunikationskanal304 zu dem tragbaren Gerät. Die Befehle, die in Form eines seriellen Protokolls vorliegen könnten, sind über den Applikationsschnittstellenport310 mit dem tragbaren Gerät verbunden. Diese Befehle werden weiter zum Prozessor auf der Hauptplatine320 übertragen, mit Anweisungen darüber, wie der Hauptplatinenprozessor durch die Anzeige navigieren soll. Alle anderen Implementationen der vorliegenden Erfindung wie in den5 ,11 und14 gezeigt können ebenfalls als Zusatzupgrade in einer ähnlichen Ausgestaltung wie in10 implementiert werden. - Die Vorteile der Verwendung des Fingerklopfdetekors zum Befehlen des Eintritts in den Ansichtsnavigationsmodus liegen darin, dass die Herstellung kostenärmer ist als mit den Seitenschaltern von
4 . Es ist auch einfacher, ein Ansichtsnavigationssystem mit einem Fingerklopfsensor zu einem existierenden tragbaren Gerät hinzuzufügen. -
11 zeigt noch eine weitere Ausgestaltung der vorliegenden Erfindung, die unterschiedliche Sensoren verwendet. Die Orientierungssensorbaugruppe380 , die einen magnetischen Richtungssensor364 und einen Kippsensor368 beinhaltet, ersetzt den Orientierungssensor80 auf Beschleunigungsmesserbasis von8 . Im Handel sind verschiedene Geräte zum Messen der magnetischen Richtung des Gerätes erhältlich. So erzeugen beispielsweise entlang den Achsen32 und36 platzierte Magnetwiderstände Orientierungsanzeigen, wenn das Gerät relativ zum Magnetfeld der Erde bewegt wird. Kippsensoren können aus einem Potentiometer und einem kleinen Gewicht bestehen, das mit dem Potentiometer gekoppelt ist und das sich auf einer festen Achse frei drehen kann, um die das Kippen gemessen wird. Andere Typen von handelsüblichen Neigungsmessern sind kleine, flüssigkeitgefüllte Stellwiderstände, deren Widerstandswert sich je nach ihrer Neigung ändert. Anstatt der Beschleunigungsmesser82 und84 können andere in der Technik bekannte Orientierungssensoren, wie z. B. Laserkreisel, verwendet werden. Eine weitere Ausgestaltung kann mit mehreren Sätzen von Magnetoresistoren zum Messen von Orientierungsänderungen in zwei Freiheitsgraden ohne Verwendung eines Neigungsmessers oder Beschleunigungsmessers arbeiten. - Die Navigationsbefehlseinheit hat ein Spracherkennungsmodul
400 anstatt des Fingerklopfsensors200 von8 , um die Mikrosteuerung100 anzuweisen, in den Ansichtsnavigationsmodus einzutreten. Das Spracherkennungsmodul kann ungeachtet des Ansichtsnavigationsmerkmals bereits Teil des tragbaren Gerätes10 sein und kann es somit dem Bediener gestatten, verbal in den Ansichtsnavigationsmodus umzuschalten, während er das Gerät weiter in einer Hand hält. Zur Verdeutlichung wurden in11 das Display12 , die Anzeigesteuerung104 und der Speicher102 weggelassen, die weiterhin mit der Mikrosteuerung100 verbunden sind, wie in den8 und5 dargestellt ist. - Beim Vergleichen der
5 ,8 ,11 sollte klar sein, dass verschiedene Kombinationen zum Umsetzen der vorliegenden Erfindung verwendet werden können. So können z. B. der magnetische Richtungssensor364 und der Kippsensor368 die Beschleunigungsmesser82 und84 in5 ersetzen. In einer anderen Ausgestaltung kann die Spracherkennungsschaltung400 anstatt des Fingerklopfdetektors200 wie in8 verwendet werden oder die Beschleunigungsmesser82 und84 der Ausgestaltung von8 können den Orientierungssensor von11 ersetzen. Die Auswahl des Sensors sollte im Hinblick auf die Gesamtstruktur des tragbaren Gerätes erfolgen. In den meisten Anwendungen werden sich die Geräte, die keine beweglichen Teile erfordern und in den Siliciumchip des Hauptgerätes integriert werden können, wahrscheinlich als am rentabelsten erweisen. -
12 ist ein Zeitschema, das illustriert, wie in den Ausgestaltungen der vorliegenden Erfindung, die den Fingerldopfsensor von5 verwenden, in den und aus dem Ansichtsnavigationsmodus geschaltet wird. Das vom Sensor202 auf der Leitung203 empfangene Signal ist in12A zu sehen.12B zeigt das Signal, das die Orientierungsänderung entlang einer Achse repräsentiert. Das ein Fingerklopfen repräsentierende Signal240 wird zwischen den Zeitpunkten t1 und t2 erfasst. Die Mikrosteuerung bewirkt eine ausreichend große Zeitverzögerung von t3–t2, um eventuelle von der Fingerklopfbewegung resultierende falsche Orientierungsänderungswerte zu eliminieren. Die Orientierungsänderungssignale242 und244 werden wahrscheinlich ein Artefakt des Klopfens des Bedieners sein. Zum Zeitpunkt t3 setzt die Mikrosteuerung das Gerät in den Ansichtsnavigationsmodus und teilt dies dem Bediener mit der visuellen Anzeige54 mit. Die12C und12D zeigen Logiksignale, die mit logisch „hoch" anzeigen, dass das Gerät im Ansichtsnavigationsmodus ist.12C zeigt ein Navigationsaustrittsverfahren, mit dem das Gerät für eine voreingestellte Zeit t4–t3 im Ansichtsnavigationsmodus254 bleibt. Zum Zeitpunkt t4 wird der Ansichtsnavigationsmodus verlassen, um die angezeigte Ansicht zu fixieren. Wenn weitere Navigation benötigt wird, dann wiederholt der Bediener den Vorgang, indem er nochmals auf den Boden des Gerätes klopft.12D illustriert ein weiteres Navigationsaustrittsverfahren, bei dem das Gerät im Ansichtsnavigationsmodus256 bleibt, solange der Bediener die Orientierung des Gerätes ändert. Während der Zeitperiode246 dreht der Bediener das Gerät in einer Richtung, und in der Zeitperiode248 ändert der Bediener die Drehrichtung. Während der Zeitperiode250 (gleich t6–t5) hält der Bediener das Gerät relativ still und daher beendet die Mikrosteuerung den Ansichtsnavigationsmodus246 zum Zeitpunkt t6. Das Display navigiert als Reaktion auf erneute Orientierungsänderungen252 nicht. - Das Zeitschema von
12 kann für andere Ausgestaltungen der vorliegenden Erfindung verwendet werden. -
13A umreißt das Software-Fließschema für die Ausgestaltung von12C , die nur für eine feste Zeitperiode im Ansichtsnavigationsmodus bleibt und dann in den festen Modus geht. Das Programm beginnt in Block260 , wenn die Mikrosteuerung100 das Fingerklopfen oder den Sprachbefehl zum Eintreten in den Ansichtsnavigationsmodus erkennt. Im Initialisierungsschritt in Block262 wird die aktuelle Grenze der Anzeigeansicht im Vergleich zur gespeicherten virtuellen Anzeige markiert. Eine Verzögerung, die der Zeitlänge t3–t2 von12 entspricht, wird in Block262 eingefügt, um dem Gerät nach dem Fingerklopfen etwas Zeit zum Stabilisieren zu geben. Nach der Verzögerung wird das System in Block268 in den Ansichtsnavigationsmodus gesetzt, um die Ansichtsnavigation zu starten. Es erzeugt auch die visuelle Anzeige54 , um den Bediener darauf aufmerksam zu machen, dass Orientierungsänderungen des tragbaren Gerätes zum Navigieren der Anzeige führen werden. Eine Variation des Prozesses kann die Navigationsanzeige54 vor Block264 aktivieren, aber nach der Verzögerung in Block264 weiterhin in den Ansichtsnavigationsmodus gehen. Eine Prozesszeituhr wird in Block268 aktiviert, um die Verweilzeit im Ansichtsnavigationsmodus auf eine Zeitperiode von t4-t3 zu begrenzen. In Block270 wird die Prozesszeituhr geprüft. Wenn die Prozesszeituhr nicht abgelaufen ist, dann geht der Prozess weiter zu Block272 , um die Nick- und Rollorientierungsdaten, oder in anderen Ausgestaltungen der vorliegenden Erfindung, die Azimut- und Neigungsdaten zu erfassen. Der Prozess in Block272 speichert auch die Orientierungsdaten für den nächsten Ablauf und vergleicht die neuen und alten Orientierungsdaten. Wenn eine Orientierungsänderung in Block274 erfasst wird, dann berechnet das Programm die neue Grenze für die Ansicht in Block276 . Es frischt auch die Ansicht auf, so dass sie die neue Ansicht zeigt, und speichert die neue aktuelle Orientierung als Basis für den Vergleich im nächsten Ablauf des Prozesses. Der Prozess fährt mit dem nächsten Ablauf in Block270 fort, um den Status der Prozesszeituhr zu prüfen. Nach Ablauf der Zeitperiode t4–t3 schaltet der Prozess die Navigationsanzeige54 in Block278 ab und der Prozess endet in Block280 . Wie jeder andere Echtzeitvorgang kann die Mikrosteuerung den Prozess zum Ausführen anderer Aufgaben unterbrechen. Ebenso kann die Mikrosteuerung am Ende von Block276 durch ihr Betriebssystem Zeit für andere Aufgaben zuweisen oder sogar einfach für eine voreingestellte Zeit warten, um die Zahl der Abläufe des Ansichtsnavigationsprozesses in den Blöcken270 bis276 zu begrenzen, die pro Sekunde ausgeführt werden. Eine angemessene Zahl der Abläufe pro Sekunde hängt von der Auswahl eines groben oder feinen Ansichtsnavigationsmodus sowie von der Ansprechzeit der Orientierungssensoren ab und kann für die meisten praktischen Anwendungen im Bereich von 5 bis 30 liegen. Der Vorteil einer höheren Zahl von Abläufen pro Sekunde ist, dass die Navigation enger an die Drehbewegungen der Hand angepasst werden kann, auf Kosten eines erhöhten Overheads für das Betriebssystem der Mikrosteuerung. -
13B umreißt das Software-Fließschema für die Ausgestaltung von12D , die im Ansichtsnavigationsmodus bleibt, solange der Bediener die Orientierung des Gerätes weiter ändert. Sobald der Bediener das Gerät für eine voreingestellte Zeit von t6–t5 relativ still hält, wird der Ansichtsnavigationsmodus beendet. Der Prozess beginnt in den Blöcken260 ,262 und264 , wie in13A beschrieben. In Block282 gibt der Prozess die visuelle Anzeige54 , um dem Bediener mitzuteilen, dass Orientierungsänderungen des tragbaren Gerätes ein Navigieren der Anzeige bewirken werden. Die Erfassung von Orientierungsdaten in Block284 ist der Erörterung für Block272 von13A ähnlich. Wenn in Block286 in den Ausrichtungsdaten keine Änderungen erfasst werden, dann aktiviert der Prozess die Keine-Aktion-Zeituhr von Block290 auf t6-t5. Er erfasst dann weiter Orientierungsdaten in Block292 . Wenn in Block294 keine Änderung der Orientierungsdaten erfasst wird, dann prüft der Prozess, ob die Keine-Aktion-Zeituhr abgelaufen ist. Wenn die Zeituhr abgelaufen ist, dann endet der Ansichtsnavigationsmodus in Block278 und280 wie in13A beschrieben. - Wenn in Block
286 eine Orientierungsänderung erfasst wird, dann berechnet das Programm die neue Grenze für die Ansicht in Block288 und frischt das Display mit der neuen Ansicht auf. Es speichert auch die neue aktuelle Orientierung als Basis für den Vergleich im nächsten Ablauf des Prozesses. Ebenso geht es, wenn Block294 eine Änderung der Orientierungsdaten erfasst, weiter zu Block288 . In Block288 wird die Keine-Aktion-Zeituhr von Block290 ebenfalls deaktiviert, weil soeben eine Drehaktion erfasst wurde. Bei der Betrachtung von13B ist zu verstehen, dass die verschiedenen Prozesse durch die Betriebssysteme geplant werden, um es der Mikrosteuerung zu gestatten, andere Aufgaben auszuführen und die Zahl der Datenerfassungen pro Sekunde zu begrenzen, wie in13A erörtert. -
14 illustriert eine weitere Ausgestaltung der vorliegenden Erfindung, die einen zusätzlichen Z-Achsen-Beschleunigungsmesser benutzt, um die vertikalen Handbewegungen des Bedieners für den Eintritt in den Ansichtsnavigationsmodus und für andere Befehle zu identifizieren. Die Orientierungs- und Bewegungssubsektion420 beinhaltet einen Z-Achsen-Beschleunigungsmesser432 , der zum Erfassen von Bewegungen in der vertikalen Achse40 von2 zusätzlich zu den Orientierungssensoren82 und84 eingestellt wird. Der Ausgang des Beschleunigungsmessers420 ist mit dem Analog-Digital-Wandler434 verbunden. Der Analog-Digital-Wandler erzeugt ein digitales Signal zur Mikrosteuerung100 , das auf die vertikalen Bewegungen des Gerätes anspricht. Das Programm der Mikrosteuerung überwacht vertikale Beschleunigungsänderungen, um spezielle Handbewegungen des Bedieners zu erfassen. Zum Beispiel kann eine schnelle Auf- und Abbewegung des Bedieners einen Befehl zum Eintreten in den Ansichtsnavigationsmodus bedeuten. Das Programm kann so adaptiert werden, dass es zusätzliche Typen von Handbewegungen als andere Befehle erkennt. Während spezielle Handbewegungen von dem Satz von zwei X- und Y-Beschleunigungsmessem identifiziert werden können, muss das Programm die Handbewegung, die ein Befehl sein soll, von ähnlichen Signalen isolieren, die als Reaktion auf eine Bedienernavigation der Anzeige erfolgen. Der Z-Achsen-Beschleunigungsmesser432 erzeugt eine zusätzliche Messung, um es dem Programm zu gestatten, vertikale Bewegungen von Drehnavigationsbewegungen zu identifizieren. Zur Verdeutlichung wurden in14 das Display12 , die Anzeigesteuerung104 und der Speicher102 weggelassen, die weiterhin mit der Mikrosteuerung100 verbunden sind, wie in den8 und5 gezeigt ist. - Es können anstatt des Z-Achsen-Beschleunigungsmessen auch andere Sensoren benutzt werden, die Höheninformationen geben. Dazu können ein Luftdrucksensor, der für Änderungen des Luftdrucks empfindlich ist, oder ein Abstandsdetektor gehören, der den Abstand des Gerätes vom Boden misst.
-
15 illustriert die Platzierung der drei Beschleunigungsmesser der Ausgestaltung von14 auf der Hauptleiterplatte450 des tragbaren Gerätes. Die Leiterplatte450 trägt die Mikrosteuerung100 , das Anschlussmittel452 für das LCD-Display sowie andere Komponenten, die der Deutlichkeit halber nicht dargestellt sind. Viele handelsübliche Beschleunigungsmesser haben zwar zwei oder mehr Beschleunigungsmesser auf demselben Chip, aber die Zeichnung illustriert die Orte der Beschleunigungsmesser unter der Annahme, dass ein Beschleunigungsmesser pro Chip verwendet wird. Der X-Achsen-Beschleunigungsmesser82 und der Y-Achsen-Beschleunigungsmesser84 werden im rechten Winkel zueinander platziert. Der Z-Achsen-Beschleunigungsmesser432 wird so montiert, dass seine Empfindlichkeitsachse lotrecht zur Leiterplatte450 ist. Bei einer Großserienherstellung können alle drei Beschleunigungsmesser im selben Chip untergebracht werden. -
16 ist ein Zeitschema, das die Verwendung der Ausgestaltung der vorliegenden Erfindung von14 mit drei Beschleunigungsmessern illustriert.16A zeigt das vom Z-Achsen-Beschleunigungsmesser432 empfangene Beschleunigungssignal.16B zeigt das Signal, das die Orientierungsänderung entlang der X-Achse repräsentiert.16C zeigt das Signal, das die Orientierungsänderung entlang der Y-Achse repräsentiert.16D ist ein Logiksignal, das mit logisch „hoch" anzeigt, wenn das Gerät im Ansichtsnavigationsmodus ist. Wir nehmen an, dass die Geste zum Eintreten in den oder Austreten aus dem Ansichtsnavigationsmodus eine schnelle vertikale Auf- und Abwärtsbewegung ist, während das Gerät in einer relativ stabilen Orientierung ist. In der Periode470 zeigt der Z-Achsen-Beschleunigungsmesser ein starkes Signal472 , das einer vertikalen Geste des Bedieners zwischen den Zeitpunkten t10 und t11 entspricht. In derselben Periode zeigen die anderen Beschleunigungsmesser die Signale474 und476 , da einige Orientierungsänderungen selbst dann beeinflusst werden, wenn der Benutzer versucht, das Gerät in einer relativ stabilen Orientierung zu halten. Das Programm der Mikrosteuerung ermittelt anhand dieser Kombination von Signalen, dass eine gültige Bedienergeste zum Eintreten in den Ansichtsnavigationsmodus empfangen wurde. Nach einer voreingestellten Zeitverzögerung t12–t11 schaltet das Programm das Gerät zum Zeitpunkt t12 in den Ansichtsnavigationsmodus490 . Die relativ kurze Zeitverzögerung gewährleistet, dass das Programm Artefakte478 und480 ignoriert, die auf die Eintrittsgeste zu folgen neigen. Im Ansichtsnavigationsmodus erfasst das Programm die Orientierungssignale482 und484 zum Navigieren der Anzeige. Das Programm führt im Speicher auch eine kurze Folge der Beschleunigungsmessersignale. - Zum Zeitpunkt t14 macht der Bediener eine andere Geste
486 . Zum Zeitpunkt t15 hat das Programm die Identifikation der Geste beendet und verlässt den Ansichtsnavigationsmodus. Das Programm bringt dann die Ansicht anhand der gespeicherten Folgen der Beschleunigungsmessersignale wieder auf ihre Einstellung unmittelbar vor dem Beginn der Geste zum Zeitpunkt t14 zurück. Der Bediener versucht daher, die Ansicht zum Zeitpunkt t13 zu stabilisieren, so dass die gewünschte Endansicht in der Periode488 vor der Geste zum Beenden des Ansichtsnavigationsmodus vorliegt. Wenn die Datenfolge der Beschleunigungsmesser nicht gespeichert werden soll, so dass die Ansicht nach der Austrittsgeste wieder zurückgewonnen wird, dann kann die Austrittsmethode von12C oder12D verwendet werden. -
17 umreißt das Software-Fließschema für die Ausgestaltung von14 , die eine vertikale Bewegungsgeste des Bedieners zum Eintreten in den und Austreten aus dem Ansichtsnavigationsmodus benutzt. Der Vorgang beginnt in Block500 gemäß dem Tasking-Gesamtschema der Betriebssysteme der Mikrosteuerung100 . Der Prozess erfasst alle Sensordaten in Block502 und hält eine Datenfolge im Speicher, damit eine Datenformanalyse in Block504 erfolgen kann. Wenn die Analyse gerade keine Geste zeigt, dann endet der Prozess in Block506 . Wenn in Block504 festgestellt wird, dass eine Geste gemacht wurde, dann fährt der Prozess mit dem Initialisierungsblock508 fort, wo die aktuelle Grenze der Anzeigeansicht im Vergleich zur gespeicherten virtuellen Anzeige markiert wird. - In Block
504 wird eine der Zeitperiode t12–t11 von16 entsprechende Verzögerung eingeführt, um dem Gerät etwas Zeit zum Stabilisieren nach der Geste zu geben. Nach der Verzögerung wird das System in Block510 in den Ansichtsnavigationsmodus gesetzt, um die Ansichtsnavigation zu starten. Es gibt auch die visuelle Anzeige54 , um den Bediener darauf aufmerksam zu machen, dass Orientierungsänderungen des tragbaren Gerätes zu einer Navigierung der Anzeige führen werden. - Der Prozess erfasst alle Sensordaten in Block
512 und hält eine Datenfolge im Speicher, um eine Gestenformanalyse in Block514 zuzulassen. Wenn eine Orientierungsänderung in Block516 erfasst wird, dann berechnet das Programm die neue Grenze für die Ansicht in Block518 . Es frischt auch die Anzeige auf, so dass sie die neue Ansicht zeigt, und speichert die neue aktuelle Orientierung als Basis für den Vergleich im nächsten Ablauf des Prozesses. Der Prozess wird mit dem nächsten Ablauf im Block512 fortgesetzt, um die Navigation der Ansicht fortzusetzen. Wenn in Block516 keine Orientierungsanderung erfasst wurde, dann fährt das Programm mit dem Überwachen der Sensoren in Block512 fort. Wenn in Block514 eine vertikale Geste erfasst wird, dann benutzt das Programm die Datenfolge von den Beschleunigungsmessern, um die Ansicht in ihren Zustand unmittelbar vor der Geste520 zurückzubringen. Es geht dann zu Block522 weiter, um die Navigationsanzeige54 abzuschalten, und der Prozess endet in Block524 . - Die obige Beschreibung enthält zwar zahlreiche Spezifikationen, aber diese sind nicht als den Umfang der Erfindung begrenzend anzusehen, sondern dienen lediglich zur Illustration einiger der derzeit bevorzugten Ausgestaltungen der vorliegenden Erfindung.
- Während z. B. die obigen Ausgestaltungen den Einsatz von Beschleunigungsmessern, Magnetsensoren und Neigungsmessern zeigen, können auch verschiedene andere Sensoren zum Erfassen von Orientierungs- oder Höheninformationen eingesetzt werden. Auch wurde zwar eine einfache Handgeste in Form einer Auf- und Abbewegung beschrieben, aber es können auch viele andere Formen von Handgesten implementiert und erfasst werden.
Claims (30)
- Tragbares Gerät mit einer Anzeige (
12 ), das Folgendes umfasst: einen Prozessor (100 ); einen mit dem Prozessor gekoppelten ersten Axialrotationsdetektor (82 ) mit der Aufgabe, eine erste Rotation (38 ) des tragbaren Gerätes um eine erste Achse (36 ) zu erfassen; einen mit dem Prozessor gekoppelten zweiten Axialrotationsdetektor (84 ) mit der Aufgabe, eine zweite Rotation (34 ) des tragbaren Gerätes um eine zweite Achse (32 ) zu erfassen, wobei die erste Achse (36 ) und die zweite Achse (32 ) allgemein lotrecht zueinander sind; eine mit dem Prozessor gekoppelte physikalische Anzeige (12 ); eine virtuelle Anzeige (30 ), die so gestaltet ist, dass sie auf der physikalischen Anzeige gezeigt werden kann, wobei die virtuelle Anzeige größer ist als die physikalische Anzeige; ein mit dem Prozessor (100 ) gekoppeltes Speichergerät (102 ) zum Speichern von ablauffähigem Code zwecks Schnittstelle mit dem ersten Axialrotationsdetektor (82 ) und dem zweiten Axialrotationsdetektor (84 ), wobei der ablauffähige Code Folgendes umfasst: (a) einen Code zum Rollenlassen der virtuellen Anzeige (30 ) in einer ersten Dimension mit einer ersten Geschwindigkeit als Reaktion auf die erste Rotation (38 ); (b) Code zum Rollenlassen der virtuellen Anzeige (30 ) in einer zweiten Dimension mit einer zweiten Geschwindigkeit als Reaktion auf die zweite Rotation (34 ); dadurch gekennzeichnet, dass das Gerät ferner Folgendes umfasst: (c) Code zum Ändern der ersten Geschwindigkeit als Reaktion auf eine erste gespeicherte Ansprechkurve; und (d) Code zum Ändern der zweiten Geschwindigkeit als Reaktion auf eine zweite gespeicherte Ansprechkurve; und wobei die erste Ansprechkurve und die zweite Ansprechkurve aus mehreren Ansprechkurven ausgewählt werden. - Tragbares Gerät nach Anspruch 2, wobei die erste gespeicherte Ansprechkurve eine zeitabhängige Ansprechkurve ist, und wobei die zweite gespeicherte Ansprechkurve eine zeitabhängige Ansprechkurve ist.
- Tragbares Gerät nach Anspruch 1, wobei der ablauffähige Code ferner Folgendes umfasst: Code zum Umschalten des tragbaren Gerätes zwischen einem festen Modus und einem Navigationsmodus, wobei die Codes (a) und (b) die virtuelle Anzeige (
30 ) nur dann rollen lassen, wenn das tragbare Gerät im Navigationsmodus ist. - Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten der tragbaren Anzeige (
12 ) zwischen einem festen Modus und einem Navigationsmodus Folgendes umfasst: Code zum Umschalten des tragbaren Gerätes zwischen dem festen Modus und dem Navigationsmodus als Reaktion auf die Erfassung einer vorbestimmten Bewegung des tragbaren Gerätes. - Tragbares Gerät nach Anspruch 4, das ferner Folgendes umfasst: einen Linearbewegungssensor (
432 ) mit der Aufgabe, ein Signal, das einer Bewegung des tragbaren Gerätes entlang einer dritten Achse entspricht, die allgemein lotrecht zu einer von den beiden Achsen definierten Ebene ist, zu messen und auszugeben; wobei der ablauffähige Code ferner Folgendes umfasst: Code zum Analysieren des Linearbewegungssignals zum Unterstützen der Erfassung der vorbestimmten Bewegung des tragbaren Gerätes. - Tragbares Gerät nach Anspruch 4, das ferner Folgendes umfasst: Mittel zum Messen und Erzeugen eines digitalen Signals als Reaktion auf die Höhe des Gerätes über dem Boden; wobei der ablauffähige Code ferner Folgendes umfasst: Code zum Analysieren des Höhensignals zum Unterstützen der Erfassung der vorbestimmten Bewegung des tragbaren Gerätes.
- Tragbares Gerät nach Anspruch 4, wobei der ablauffähige Code ferner Folgendes umfasst: Code zum Speichern mehrerer virtueller Anzeigenavigationszustände, die durch Ausführen der Codes (a) und (b) bewirkt werden; Code zum Wiederherstellen eines der mehreren virtuellen Anzeigenavigationszustände nach der vorbestimmten Bewegung, wobei die vorbestimmte Bewegung eine Verlassensgeste ist, und wobei der eine der mehreren nach der vorbestimmten Bewegung wiederhergestellten virtuellen Anzeigenavigationszustände der virtuelle Anzeigenavigationszustand ist, der unmittelbar vor der Verlassensgeste wirksam war.
- Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten der tragbaren Anzeige zwischen einem festen Modus und einem Navigationsmodus Folgendes umfasst: Code zum Umschalten des tragbaren Gerätes (
10 ) zwischen dem festen Modus und dem Navigationsmodus als Reaktion auf die Erfassung eines vorbestimmten Tons. - Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten der tragbaren Anzeige (
12 ) zwischen einem festen Modus und einem Navigationsmodus Folgendes umfasst: Code zum Aktivieren einer visuellen Indikation auf der physikalischen Anzeige, wenn das tragbare Gerät (10 ) im Navigationsmodus ist. - Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten des tragbaren Gerätes zwischen einem festen Modus und einem Navigationsmodus Folgendes umfasst: Code zum Verzögern der Ausführung der Codes (a) und (b) für eine vorbestimmte Zeit nach dem Umschalten des tragbaren Gerätes in den Navigationsmodus, wobei die vorbestimmte Zeit ausreicht, damit Artefakt-Rotationssignale abklingen können.
- Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten des tragbaren Gerätes zwischen einem festen Modus und einem Navigationsmodus Code zum Umschalten des tragbaren Codes (
10 ) vom Navigationsmodus in den festen Modus nach einer vorbestimmten Zeitperiode im Navigationsmodus umfasst. - Tragbares Gerät nach Anspruch 3, wobei der Code zum Umschalten des tragbaren Gerätes zwischen einem festen Modus und einem Navigationsmodus Code zum Umschalten des tragbaren Gerätes vom Navigationsmodus in den festen Modus umfasst, wenn die Codes (a) und (b) für eine vorbestimmte Zeitperiode nicht ausgeführt werden.
- Tragbares Gerät nach Anspruch 1, wobei der erste Axialrotationsdetektor (
82 ) einen ersten Beschleunigungsmesser umfasst; und wobei der zweite Axialrotationsdetektor (84 ) einen zweiten Beschleunigungsmesser umfasst. - Tragbares Gerät nach Anspruch 1, wobei der erste Axialrotationsdetektor ein erstes Laserkreiselgerät umfasst; und wobei der zweite Axialrotationsdetektor ein zweites Laserkreiselgerät umfasst.
- Tragbares Gerät nach Anspruch 1, wobei der erste Axialrotationsdetektor einen magnetischen Richtungssensor (
364 ) umfasst; und wobei der zweite Axialrotationsdetektor einen Neigungssensor (368 ) umfasst. - Tragbares Gerät nach Anspruch 1, wobei der ablauffähige Code ferner Code zum Ändern der ersten Ansprechkurve durch einen Bediener des tragbaren Gerätes (
10 ) umfasst. - Tragbares Gerät nach Anspruch 1, wobei der ablauffähige Code ferner Code zum Ändern der zweiten Ansprechkurve durch einen Bediener des tragbaren Gerätes umfasst.
- Verfahren zum Navigieren einer Ansicht einer Anzeige (
12 ) eines tragbaren Gerätes (10 ), das die folgenden Schritte beinhaltet: Erzeugen einer virtuellen Anzeige (30 ) und Markieren einer Grenze eines auf der Anzeige (12 ) zu betrachtenden Anfangsabschnitts der virtuellen Anzeige; Identifizieren eines Bedienerbefehls zum Eintreten in einen Ansichtsnavigationsmodus, in dem die Ansicht die virtuelle Anzeige (30 ) in jeder gewünschten Richtung navigieren kann; Erfassen einer Rotationsorientierung des tragbaren Gerätes (10 ) im Ansichtsnavigationsmodus; Identifizieren von Änderungen der Rotationsorientierung entlang zwei allgemein lotrechten Achsen (36 ,32 ); Berechnen von Änderungen der Grenze als Reaktion auf Änderungen der Rotationsorientierung des Gerätes auf der Basis einer gespeicherten Ansprechkurve, auswählbar aus mehreren Ansprechkurven; Ausgeben einer neuen Ansicht an die Anzeige, die die im Berechnungsschritt berechnete Grenze reflektiert; und Zurückbringen der Anzeige in eine feste Ansicht nach dem Verlassen des Ansichtsnavigationsmodus. - Verfahren nach Anspruch 18, bei dem die Ansprechkurve eine zeitabhängige Ansprechkurve ist, basierend auf einer Dauer des Ansichtsnavigationsmodus.
- Verfahren nach Anspruch 18, das ferner den Schritt des Änderns der Ansprechkurve durch einen Bediener des tragbaren Gerätes beinhaltet.
- Verfahren nach Anspruch 18, wobei der Schritt des Identifizierens eines Bedienerbefehls den folgenden Schritt beinhaltet: Auswählen zwischen einem groben Navigationsmodus und einem feinen Navigationsmodus, und wobei der Schritt des Berechnen von Änderungen der Grenze den folgenden Schritt beinhaltet: Auswählen eines relativ großen Anprechverhältnisses, wenn der grobe Navigationsmodus gewählt ist, und eines relativ kleinen Ansprechverhältnisses, wenn der feine Navigationsmodus gewählt ist.
- Verfahren nach Anspruch 18, wobei der Schritt des Identifizieren eines Bedienerbefehls zum Eintreten in einen Ansichtsnavigationsmodus den Schritt des Vergrößerns einer aktuellen Ansicht der Anzeige (
12 ) nach dem Eintreten in den Ansichtsnavigationsmodus beinhaltet. - Verfahren nach Anspruch 18, das ferner den Schritt des Aktivieren einer visuellen Indikation auf der Anzeige beinhaltet, dass Änderungen der Orientierung des Gerätes die virtuelle Anzeige navigieren, wenn das tragbare Gerät (
10 ) im Ansichtsnavigationsmodus ist. - Verfahren nach Anspruch 18, wobei der Schritt des Identifizieren eines Bedienerbefehls den Schritt des Erfassen eines vordefinierten Bewegungsmusters des tragbaren Gerätes (
10 ) als Gestenbefehl zum Eintreten in den Anichtsnavigationsmodus beinhaltet. - Verfahren nach Anspruch 18, wobei der Schritt des Identifizieren eines Bedienerbefehls den Schritt des Erfassen eines vorbestimmten Sprachbefehls beinhaltet.
- Verfahren nach Anspruch 18, wobei der Schritt des Identifizieren eines Bedienerbefehls den Schritt des Erfassens eines vorbestimmten charakteristischen Ton- und Vibrationsmusters des Klopfens eines Bedienerfingers auf einem Gehäuse des tragbaren Gerätes (
10 ) beinhaltet. - Verfahren nach Anspruch 18, das ferner den folgenden Schritt beinhaltet: Speichern einer Mehrzahl von virtuellen Anzeigenavigationszuständen, während das tragbare Gerät (
10 ) im Ansichtsnavigationsmodus ist; und Wiederherstellen eines der mehreren virtuellen Anzeigenavigationszustände nach dem Verlassen des Ansichtsnavigationsmodus, wobei der eine der mehreren nach dem Verlassen des Ansichtsnavigationsmodus wiederhergestellten virtuellen Anzeigenavigationzustände der virtuelle Anzeigenavigationszustand ist, der unmittelbar vor dem Verlassen des Ansichtsnavigationsmodus wirksam war. - Verfahren nach Anspruch 18, das ferner den Schritt beinhaltet: Verzögern des Eintritts in den Ansichtsnavigationsmodus für eine vorbestimmte Zeitperiode, nachdem in dem Schritt des Identifizieren eines Bedienerbefehls der Bedienerbefehl identifiziert wurde, wobei die vorbestimmte Zeitperiode ausreicht, damit Artefakt-Rotationssignale aufgrund des Bedienerbefehls abklingen können.
- Verfahren nach Anspruch 18, wobei der Schritt des Zurückbringens der Anzeige in einen festen Modus den Schritt des Verlassen des Ansichtsnavigationsmodus nach einer vorbestimmten Zeitperiode im Ansichtsnavigationsmodus beinhaltet.
- Verfahren nach Anspruch 18, wobei der Schritt des Zurückbringens der Anzeige in einen festen Modus den Schritt des Verlassen des Ansichtsnavigationsmodus beinhaltet, wenn der Schritt des Erfassen einer Rotationsorientierung für eine vorbestimmte Zeitperiode keine Änderungen der Rotationsorientierung des tragbaren Gerätes (
10 ) identifiziert.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US543660 | 1995-10-16 | ||
US09/543,660 US6466198B1 (en) | 1999-11-05 | 2000-04-05 | View navigation and magnification of a hand-held device with a display |
PCT/US2001/010962 WO2001078055A1 (en) | 2000-04-05 | 2001-04-04 | View navigation and magnification of a hand-held device with a display |
Publications (2)
Publication Number | Publication Date |
---|---|
DE60132201D1 DE60132201D1 (de) | 2008-02-14 |
DE60132201T2 true DE60132201T2 (de) | 2008-12-24 |
Family
ID=24169004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE60132201T Expired - Lifetime DE60132201T2 (de) | 2000-04-05 | 2001-04-04 | Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige |
Country Status (6)
Country | Link |
---|---|
US (2) | US6466198B1 (de) |
EP (1) | EP1290672B1 (de) |
AT (1) | ATE382889T1 (de) |
DE (1) | DE60132201T2 (de) |
HK (1) | HK1054610A1 (de) |
WO (1) | WO2001078055A1 (de) |
Families Citing this family (471)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US6345104B1 (en) | 1994-03-17 | 2002-02-05 | Digimarc Corporation | Digital watermarks and methods for security documents |
JP3338777B2 (ja) * | 1998-04-22 | 2002-10-28 | 日本電気株式会社 | 携帯端末、及びその画面表示方法 |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
US20060061550A1 (en) * | 1999-02-12 | 2006-03-23 | Sina Fateh | Display size emulation system |
US20060061551A1 (en) * | 1999-02-12 | 2006-03-23 | Vega Vista, Inc. | Motion detection and tracking system to control navigation and display of portable displays including on-chip gesture detection |
US7749089B1 (en) | 1999-02-26 | 2010-07-06 | Creative Kingdoms, Llc | Multi-media interactive play system |
US7760905B2 (en) * | 1999-06-29 | 2010-07-20 | Digimarc Corporation | Wireless mobile phone with content processing |
US7406214B2 (en) | 1999-05-19 | 2008-07-29 | Digimarc Corporation | Methods and devices employing optical sensors and/or steganography |
US20020032734A1 (en) | 2000-07-26 | 2002-03-14 | Rhoads Geoffrey B. | Collateral data combined with user characteristics to select web site |
US7565294B2 (en) * | 1999-05-19 | 2009-07-21 | Digimarc Corporation | Methods and systems employing digital content |
JP3847058B2 (ja) * | 1999-10-04 | 2006-11-15 | 任天堂株式会社 | ゲームシステム及びそれに用いられるゲーム情報記憶媒体 |
US8391851B2 (en) | 1999-11-03 | 2013-03-05 | Digimarc Corporation | Gestural techniques with wireless mobile phone devices |
JP2001134382A (ja) * | 1999-11-04 | 2001-05-18 | Sony Corp | 図形処理装置 |
US6466198B1 (en) | 1999-11-05 | 2002-10-15 | Innoventions, Inc. | View navigation and magnification of a hand-held device with a display |
US7187412B1 (en) * | 2000-01-18 | 2007-03-06 | Hewlett-Packard Development Company, L.P. | Pointing device for digital camera display |
US6633314B1 (en) | 2000-02-02 | 2003-10-14 | Raja Tuli | Portable high speed internet device integrating cellular telephone and palm top computer |
US6941382B1 (en) * | 2000-02-07 | 2005-09-06 | Raja Tuli | Portable high speed internet or desktop device |
JP2001306254A (ja) * | 2000-02-17 | 2001-11-02 | Seiko Epson Corp | 打音検出による入力機能 |
US7445550B2 (en) | 2000-02-22 | 2008-11-04 | Creative Kingdoms, Llc | Magical wand and interactive play experience |
US7878905B2 (en) | 2000-02-22 | 2011-02-01 | Creative Kingdoms, Llc | Multi-layered interactive play experience |
US6761637B2 (en) | 2000-02-22 | 2004-07-13 | Creative Kingdoms, Llc | Method of game play using RFID tracking device |
US7289102B2 (en) * | 2000-07-17 | 2007-10-30 | Microsoft Corporation | Method and apparatus using multiple sensors in a device with a display |
US8120625B2 (en) * | 2000-07-17 | 2012-02-21 | Microsoft Corporation | Method and apparatus using multiple sensors in a device with a display |
US20110267263A1 (en) | 2000-07-17 | 2011-11-03 | Microsoft Corporation | Changing input tolerances based on device movement |
US7302280B2 (en) * | 2000-07-17 | 2007-11-27 | Microsoft Corporation | Mobile phone operation based upon context sensing |
US6520013B1 (en) * | 2000-10-02 | 2003-02-18 | Apple Computer, Inc. | Method and apparatus for detecting free fall |
US7688306B2 (en) * | 2000-10-02 | 2010-03-30 | Apple Inc. | Methods and apparatuses for operating a portable device based on an accelerometer |
US7191211B2 (en) | 2000-10-03 | 2007-03-13 | Raja Tuli | Portable high speed internet access device priority protocol |
US7066781B2 (en) | 2000-10-20 | 2006-06-27 | Denise Chapman Weston | Children's toy with wireless tag/transponder |
US8130242B2 (en) * | 2000-11-06 | 2012-03-06 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
US8817045B2 (en) | 2000-11-06 | 2014-08-26 | Nant Holdings Ip, Llc | Interactivity via mobile image recognition |
US6690358B2 (en) * | 2000-11-30 | 2004-02-10 | Alan Edward Kaplan | Display control for hand-held devices |
JP3655824B2 (ja) * | 2000-12-07 | 2005-06-02 | 日本電気株式会社 | 携帯情報端末装置及びその表示方法 |
US7123212B2 (en) * | 2000-12-22 | 2006-10-17 | Harman International Industries, Inc. | Information transmission and display method and system for a handheld computing device |
US20020109673A1 (en) * | 2001-01-04 | 2002-08-15 | Thierry Valet | Method and apparatus employing angled single accelerometer sensing multi-directional motion |
JP2002268622A (ja) * | 2001-03-09 | 2002-09-20 | Denso Corp | 携帯端末装置のユーザインターフェース装置 |
US6834249B2 (en) * | 2001-03-29 | 2004-12-21 | Arraycomm, Inc. | Method and apparatus for controlling a computing system |
US6798429B2 (en) * | 2001-03-29 | 2004-09-28 | Intel Corporation | Intuitive mobile device interface to virtual spaces |
FI117488B (fi) * | 2001-05-16 | 2006-10-31 | Myorigo Sarl | Informaation selaus näytöllä |
DE10125395A1 (de) * | 2001-05-23 | 2002-11-28 | Siemens Ag | Verfahren und Anordnung zum Navigieren innerhalb eines Bildes |
US7177906B2 (en) * | 2001-05-31 | 2007-02-13 | Palmsource, Inc. | Software application launching method and apparatus |
SE523636C2 (sv) * | 2001-07-22 | 2004-05-04 | Tomer Shalit Ab | Portabelt datoriserat handhållet organ och förfarande för hantering av ett på en skärm visat objekt |
US7365734B2 (en) * | 2002-08-06 | 2008-04-29 | Rembrandt Ip Management, Llc | Control of display content by movement on a fixed spherical space |
USRE47457E1 (en) * | 2001-08-07 | 2019-06-25 | Facebook, Inc. | Control of display content by movement on a fixed spherical space |
US6847351B2 (en) * | 2001-08-13 | 2005-01-25 | Siemens Information And Communication Mobile, Llc | Tilt-based pointing for hand-held devices |
FR2828754A1 (fr) * | 2001-08-14 | 2003-02-21 | Koninkl Philips Electronics Nv | Visualisation d'un montage d'une video panoramique par application de commandes de navigation a ladite video panoramique |
SE0103151D0 (en) * | 2001-09-19 | 2001-09-19 | Ericsson Telefon Ab L M | Method for navigation and selection at a terminal device |
US6670947B2 (en) * | 2001-10-22 | 2003-12-30 | Robert William Smyth | SO3 input device |
CN100353293C (zh) * | 2001-10-24 | 2007-12-05 | 索尼公司 | 图像信息显示装置 |
US7714880B2 (en) | 2001-11-16 | 2010-05-11 | Honeywell International Inc. | Method and apparatus for displaying images on a display |
EP1314961B1 (de) * | 2001-11-22 | 2009-07-15 | Yamaha Corporation | Elektronisches Gerät |
US7002553B2 (en) * | 2001-12-27 | 2006-02-21 | Mark Shkolnikov | Active keyboard system for handheld electronic devices |
US7843437B1 (en) * | 2002-01-14 | 2010-11-30 | Palm, Inc. | Hand-held browser transcoding |
WO2003073258A2 (en) * | 2002-02-21 | 2003-09-04 | Mobicom Corporation | Article comprising an adaptable input device |
JP3721141B2 (ja) * | 2002-03-25 | 2005-11-30 | 松下電器産業株式会社 | 携帯端末装置 |
US6967566B2 (en) | 2002-04-05 | 2005-11-22 | Creative Kingdoms, Llc | Live-action interactive adventure game |
US20070066396A1 (en) | 2002-04-05 | 2007-03-22 | Denise Chapman Weston | Retail methods for providing an interactive product to a consumer |
US7079452B2 (en) * | 2002-04-16 | 2006-07-18 | Harrison Shelton E | Time display system, method and device |
FI115258B (fi) | 2002-04-23 | 2005-03-31 | Myorigo Oy | Menetelmä ja elektroninen laite graafisessa käyttöliittymässä navigoimiseksi |
JP2003316502A (ja) * | 2002-04-25 | 2003-11-07 | Sony Corp | 端末装置、文字入力方法 |
US7519918B2 (en) * | 2002-05-30 | 2009-04-14 | Intel Corporation | Mobile virtual desktop |
US7184025B2 (en) * | 2002-05-31 | 2007-02-27 | Microsoft Corporation | Altering a display on a viewing device based upon a user controlled orientation of the viewing device |
US20030231189A1 (en) * | 2002-05-31 | 2003-12-18 | Microsoft Corporation | Altering a display on a viewing device based upon a user controlled orientation of the viewing device |
US7055749B2 (en) * | 2002-06-03 | 2006-06-06 | Symbol Technologies, Inc. | Re-configurable trigger assembly |
US7218311B2 (en) * | 2002-06-21 | 2007-05-15 | Akins Randy D | Sequential image advancing system (the S.I.A.S.) |
US7674184B2 (en) | 2002-08-01 | 2010-03-09 | Creative Kingdoms, Llc | Interactive water attraction and quest game |
SG131745A1 (en) * | 2002-08-23 | 2007-05-28 | Sony Corp | Movement-compensated visual display |
TW200407025A (en) * | 2002-08-27 | 2004-05-01 | Vitec Co Ltd | Pocket terminal device |
JP4126045B2 (ja) * | 2002-10-07 | 2008-07-30 | マイオリゴ ソシエテ ア リスポンサビリテ リミテ | 電子装置、カーソルを表示する方法及びコンピュータプログラム |
US20060176294A1 (en) * | 2002-10-07 | 2006-08-10 | Johannes Vaananen | Cursor for electronic devices |
US7064502B2 (en) * | 2002-11-22 | 2006-06-20 | Black & Decker Inc. | Power tool with remote stop |
US8176428B2 (en) | 2002-12-03 | 2012-05-08 | Datawind Net Access Corporation | Portable internet access device back page cache |
JP2004198450A (ja) * | 2002-12-16 | 2004-07-15 | Sharp Corp | 画像表示システム |
US20040119684A1 (en) * | 2002-12-18 | 2004-06-24 | Xerox Corporation | System and method for navigating information |
US20040125073A1 (en) * | 2002-12-30 | 2004-07-01 | Scott Potter | Portable electronic apparatus and method employing motion sensor for function control |
US6977675B2 (en) * | 2002-12-30 | 2005-12-20 | Motorola, Inc. | Method and apparatus for virtually expanding a display |
FI20022282A0 (fi) * | 2002-12-30 | 2002-12-30 | Nokia Corp | Menetelmä vuorovaikutuksen mahdollistamiseksi elektronisessa laitteessa ja elektroninen laite |
AU2003303787A1 (en) * | 2003-01-22 | 2004-08-13 | Nokia Corporation | Image control |
US20040145613A1 (en) * | 2003-01-29 | 2004-07-29 | Stavely Donald J. | User Interface using acceleration for input |
US7426329B2 (en) | 2003-03-06 | 2008-09-16 | Microsoft Corporation | Systems and methods for receiving, storing, and rendering digital video, music, and pictures on a personal media player |
US7538745B2 (en) * | 2003-03-24 | 2009-05-26 | Ntag Interactive Corporation | Apparatus and method for enhancing face-to-face communication |
US20110205056A9 (en) * | 2003-03-24 | 2011-08-25 | Borovoy Richard D | Adding social networking to devices |
US9446319B2 (en) | 2003-03-25 | 2016-09-20 | Mq Gaming, Llc | Interactive gaming toy |
US20040250220A1 (en) * | 2003-06-09 | 2004-12-09 | Mika Kalenius | System, apparatus, and method for navigation in a hypertext document |
JP4144555B2 (ja) * | 2003-06-09 | 2008-09-03 | カシオ計算機株式会社 | 電子機器、表示制御方法及びプログラム |
DE10326811A1 (de) * | 2003-06-13 | 2005-01-20 | Siemens Ag | Verfahren zur Darstellung von Grafikobjekten und Kommunikationsgerät |
US20040259591A1 (en) * | 2003-06-17 | 2004-12-23 | Motorola, Inc. | Gesture-based interface and method for wireless device |
US6880258B2 (en) * | 2003-08-26 | 2005-04-19 | Horizon Hobby | Digital inclinometer and related methods |
US7489299B2 (en) * | 2003-10-23 | 2009-02-10 | Hillcrest Laboratories, Inc. | User interface devices and methods employing accelerometers |
JP3791848B2 (ja) * | 2003-10-28 | 2006-06-28 | 松下電器産業株式会社 | 画像表示装置、画像表示システム、撮影装置、画像表示方法、およびプログラム |
US20080129552A1 (en) * | 2003-10-31 | 2008-06-05 | Iota Wireless Llc | Concurrent data entry for a portable device |
EP1678654A4 (de) * | 2003-10-31 | 2008-07-02 | Iota Wireless Llc | Gleichzeitige dateneingabe für eine tragbare einrichtung |
US7401300B2 (en) * | 2004-01-09 | 2008-07-15 | Nokia Corporation | Adaptive user interface input device |
EP1709609B1 (de) * | 2004-01-20 | 2020-05-27 | III Holdings 6, LLC | Erweiterte steuereinrichtung für die hausunterhaltung durch verwendung dreidimensionaler bewegungstechnologie |
US7707039B2 (en) | 2004-02-15 | 2010-04-27 | Exbiblio B.V. | Automatic modification of web pages |
US8442331B2 (en) | 2004-02-15 | 2013-05-14 | Google Inc. | Capturing text from rendered documents using supplemental information |
US10635723B2 (en) | 2004-02-15 | 2020-04-28 | Google Llc | Search engines and systems with handheld document data capture devices |
US7812860B2 (en) | 2004-04-01 | 2010-10-12 | Exbiblio B.V. | Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device |
US10499465B2 (en) | 2004-02-25 | 2019-12-03 | Lynk Labs, Inc. | High frequency multi-voltage and multi-brightness LED lighting devices and systems and methods of using same |
US10575376B2 (en) | 2004-02-25 | 2020-02-25 | Lynk Labs, Inc. | AC light emitting diode and AC LED drive methods and apparatus |
WO2011143510A1 (en) | 2010-05-12 | 2011-11-17 | Lynk Labs, Inc. | Led lighting system |
KR100631834B1 (ko) * | 2004-03-03 | 2006-10-09 | 삼성전기주식회사 | 버튼 조작없이 번호입력이 가능한 휴대폰 및 상기 휴대폰의 번호 입력 방법 |
TWI255681B (en) * | 2004-03-11 | 2006-05-21 | Giga Byte Tech Co Ltd | Method for controlling cold cathode fluorescent lamp to emit and flicker with digital audio source of main board and device thereof |
DE102004012897B4 (de) * | 2004-03-16 | 2006-01-12 | Siemens Ag | Verfahren zur Darstellung von Grafikobjekten und Kommunikationsgerät |
FI20045078A (fi) * | 2004-03-16 | 2005-09-17 | Myorigo Oy | Laajakulmaoptiikalla ja säteilysensorilla varustettu mobiililaite |
US8842070B2 (en) * | 2004-03-17 | 2014-09-23 | Intel Corporation | Integrated tracking for on screen navigation with small hand held devices |
US7301526B2 (en) * | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Dynamic adaptation of gestures for motion controlled handheld devices |
US7173604B2 (en) * | 2004-03-23 | 2007-02-06 | Fujitsu Limited | Gesture identification of controlled devices |
US7903084B2 (en) * | 2004-03-23 | 2011-03-08 | Fujitsu Limited | Selective engagement of motion input modes |
US7280096B2 (en) * | 2004-03-23 | 2007-10-09 | Fujitsu Limited | Motion sensor engagement for a handheld device |
US7180501B2 (en) * | 2004-03-23 | 2007-02-20 | Fujitsu Limited | Gesture based navigation of a handheld user interface |
US7180500B2 (en) * | 2004-03-23 | 2007-02-20 | Fujitsu Limited | User definable gestures for motion controlled handheld devices |
US7176888B2 (en) * | 2004-03-23 | 2007-02-13 | Fujitsu Limited | Selective engagement of motion detection |
JP2007531113A (ja) * | 2004-03-23 | 2007-11-01 | 富士通株式会社 | 携帯装置の傾斜及び並進運動成分の識別 |
US7301529B2 (en) * | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Context dependent gesture response |
US7301528B2 (en) * | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Distinguishing tilt and translation motion components in handheld devices |
US7180502B2 (en) * | 2004-03-23 | 2007-02-20 | Fujitsu Limited | Handheld device with preferred motion selection |
US20050212753A1 (en) * | 2004-03-23 | 2005-09-29 | Marvit David L | Motion controlled remote controller |
US7365737B2 (en) * | 2004-03-23 | 2008-04-29 | Fujitsu Limited | Non-uniform gesture precision |
US7176887B2 (en) * | 2004-03-23 | 2007-02-13 | Fujitsu Limited | Environmental modeling for motion controlled handheld devices |
US7365735B2 (en) * | 2004-03-23 | 2008-04-29 | Fujitsu Limited | Translation controlled cursor |
US20050212760A1 (en) * | 2004-03-23 | 2005-09-29 | Marvit David L | Gesture based user interface supporting preexisting symbols |
US7176886B2 (en) * | 2004-03-23 | 2007-02-13 | Fujitsu Limited | Spatial signatures |
US7365736B2 (en) * | 2004-03-23 | 2008-04-29 | Fujitsu Limited | Customizable gesture mappings for motion controlled handheld devices |
US7301527B2 (en) * | 2004-03-23 | 2007-11-27 | Fujitsu Limited | Feedback based user interface for motion controlled handheld devices |
US20050219223A1 (en) * | 2004-03-31 | 2005-10-06 | Kotzin Michael D | Method and apparatus for determining the context of a device |
US7894670B2 (en) | 2004-04-01 | 2011-02-22 | Exbiblio B.V. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US8146156B2 (en) | 2004-04-01 | 2012-03-27 | Google Inc. | Archive of text captures from rendered documents |
US20060098900A1 (en) | 2004-09-27 | 2006-05-11 | King Martin T | Secure data gathering from rendered documents |
US7990556B2 (en) | 2004-12-03 | 2011-08-02 | Google Inc. | Association of a portable scanner with input/output and storage devices |
US9008447B2 (en) | 2004-04-01 | 2015-04-14 | Google Inc. | Method and system for character recognition |
US8081849B2 (en) | 2004-12-03 | 2011-12-20 | Google Inc. | Portable scanning and memory device |
US9143638B2 (en) | 2004-04-01 | 2015-09-22 | Google Inc. | Data capture from rendered documents using handheld device |
US20060081714A1 (en) | 2004-08-23 | 2006-04-20 | King Martin T | Portable scanning device |
US9116890B2 (en) | 2004-04-01 | 2015-08-25 | Google Inc. | Triggering actions in response to optically or acoustically capturing keywords from a rendered document |
US8713418B2 (en) | 2004-04-12 | 2014-04-29 | Google Inc. | Adding value to a rendered document |
US8489624B2 (en) | 2004-05-17 | 2013-07-16 | Google, Inc. | Processing techniques for text capture from a rendered document |
US8620083B2 (en) | 2004-12-03 | 2013-12-31 | Google Inc. | Method and system for character recognition |
US8874504B2 (en) | 2004-12-03 | 2014-10-28 | Google Inc. | Processing techniques for visual capture data from a rendered document |
TWI248043B (en) * | 2004-04-20 | 2006-01-21 | Wistron Corp | Electrical device capable of auto-adjusting display direction as a tilt of a display |
US7339600B2 (en) * | 2004-04-26 | 2008-03-04 | Samsung Electronics Co., Ltd. | Apparatus and method for displaying a picture in a wireless terminal |
DK2337016T3 (en) * | 2004-04-30 | 2018-04-23 | Idhl Holdings Inc | Free space pointing device with slope compensation and improved applicability |
WO2005109847A2 (en) * | 2004-04-30 | 2005-11-17 | Hillcrest Laboratories, Inc. | Methods and devices for identifying users based on tremor |
US8629836B2 (en) | 2004-04-30 | 2014-01-14 | Hillcrest Laboratories, Inc. | 3D pointing devices with orientation compensation and improved usability |
US7535456B2 (en) * | 2004-04-30 | 2009-05-19 | Hillcrest Laboratories, Inc. | Methods and devices for removing unintentional movement in 3D pointing devices |
JP2007535773A (ja) | 2004-04-30 | 2007-12-06 | ヒルクレスト・ラボラトリーズ・インコーポレイテッド | 自由空間ポインティングデバイスおよびポインティング方法 |
JP2005321972A (ja) * | 2004-05-07 | 2005-11-17 | Sony Corp | 情報処理装置、情報処理装置における処理方法及び情報処理装置における処理プログラム |
US7310086B2 (en) * | 2004-05-12 | 2007-12-18 | Avago Technologies Ecbu Ip (Singapore) Pte Ltd | Finger navigation input device |
WO2005119356A2 (en) | 2004-05-28 | 2005-12-15 | Erik Jan Banning | Interactive direct-pointing system and calibration method |
CN1961289A (zh) * | 2004-06-04 | 2007-05-09 | 皇家飞利浦电子股份有限公司 | 一种由用户进行内容导航的手持设备 |
FI119746B (fi) * | 2004-06-24 | 2009-02-27 | Nokia Corp | Elektronisen laitteen ohjaaminen |
JP4559140B2 (ja) * | 2004-07-05 | 2010-10-06 | ソフトバンクモバイル株式会社 | 電子機器 |
JP4167263B2 (ja) * | 2004-07-15 | 2008-10-15 | 株式会社シーアンドエヌ | 携帯端末装置 |
US8346620B2 (en) | 2004-07-19 | 2013-01-01 | Google Inc. | Automatic modification of web pages |
JP2006031515A (ja) * | 2004-07-20 | 2006-02-02 | Vodafone Kk | 移動体通信端末、アプリケーションプログラム、画像表示制御装置及び画像表示制御方法 |
EP1738566A4 (de) * | 2004-08-09 | 2012-11-14 | Rpx Corp | Verfahren zur sammlung von messdaten und tragbare informationsvorrichtung |
US8560972B2 (en) * | 2004-08-10 | 2013-10-15 | Microsoft Corporation | Surface UI for gesture-based interaction |
US7138979B2 (en) * | 2004-08-27 | 2006-11-21 | Motorola, Inc. | Device orientation based input signal generation |
US7446753B2 (en) * | 2004-09-10 | 2008-11-04 | Hand Held Products, Inc. | Hand held computer device |
FR2876470B1 (fr) * | 2004-10-12 | 2006-12-22 | Eastman Kodak Co | Procede de controle d'affichage utilisant un equipement portable a capteur d'images |
US20060097983A1 (en) * | 2004-10-25 | 2006-05-11 | Nokia Corporation | Tapping input on an electronic device |
FR2877451B1 (fr) * | 2004-10-29 | 2008-09-19 | Radiotelephone Sfr | Systeme de commande a spheres mobiles et terminal equipe d'un tel systeme |
US7435177B1 (en) | 2004-11-12 | 2008-10-14 | Sprint Spectrum L.P. | Method and system for video-based navigation in an application on a handheld game device |
JP2006145616A (ja) * | 2004-11-16 | 2006-06-08 | Konica Minolta Photo Imaging Inc | 画像表示装置、電子機器、画像表示方法 |
US8137195B2 (en) | 2004-11-23 | 2012-03-20 | Hillcrest Laboratories, Inc. | Semantic gaming and application transformation |
KR100641182B1 (ko) * | 2004-12-30 | 2006-11-02 | 엘지전자 주식회사 | 휴대단말기에서의 가상화면 이동장치 및 방법 |
US7532198B2 (en) | 2005-01-14 | 2009-05-12 | Research In Motion Limited | Handheld electronic device with roller ball input |
US20060164382A1 (en) * | 2005-01-25 | 2006-07-27 | Technology Licensing Company, Inc. | Image manipulation in response to a movement of a display |
US7539513B2 (en) | 2005-02-02 | 2009-05-26 | National Telephone Products, Inc. | Portable phone with ergonomic image projection system |
US7519468B2 (en) | 2005-02-28 | 2009-04-14 | Research In Motion Limited | System and method for navigating a mobile device user interface with a directional sensing device |
EP1696301B8 (de) * | 2005-02-28 | 2010-09-08 | Research In Motion Limited | System und Methode zum Navigieren anhand eines richtungsempfindlichen Sensors in der Benutzeroberfläche eines mobilen Gerätes |
US20060195354A1 (en) * | 2005-02-28 | 2006-08-31 | Ntag Interactive Corporation | Method of scoring the performance of attendees at a meeting |
US20090297062A1 (en) * | 2005-03-04 | 2009-12-03 | Molne Anders L | Mobile device with wide-angle optics and a radiation sensor |
US20090305727A1 (en) * | 2005-03-04 | 2009-12-10 | Heikki Pylkko | Mobile device with wide range-angle optics and a radiation sensor |
US7966084B2 (en) * | 2005-03-07 | 2011-06-21 | Sony Ericsson Mobile Communications Ab | Communication terminals with a tap determination circuit |
KR100702055B1 (ko) * | 2005-03-09 | 2007-04-02 | 인피닉스 주식회사 | 디지털 수평 측정기구 |
US20060259205A1 (en) * | 2005-05-13 | 2006-11-16 | Robert Bosch Gmbh | Controlling systems through user tapping |
US20070002018A1 (en) * | 2005-06-30 | 2007-01-04 | Eigo Mori | Control of user interface of electronic device |
US9285897B2 (en) | 2005-07-13 | 2016-03-15 | Ultimate Pointer, L.L.C. | Easily deployable interactive direct-pointing system and calibration method therefor |
AT502228B1 (de) * | 2005-08-11 | 2007-07-15 | Ftw Forschungszentrum Telekomm | Tragbare navigationsvorrichtung und verfahren zum funknavigieren |
JP4805633B2 (ja) | 2005-08-22 | 2011-11-02 | 任天堂株式会社 | ゲーム用操作装置 |
US7942745B2 (en) | 2005-08-22 | 2011-05-17 | Nintendo Co., Ltd. | Game operating device |
US8313379B2 (en) | 2005-08-22 | 2012-11-20 | Nintendo Co., Ltd. | Video game system with wireless modular handheld controller |
US7927216B2 (en) | 2005-09-15 | 2011-04-19 | Nintendo Co., Ltd. | Video game system with wireless modular handheld controller |
US8870655B2 (en) | 2005-08-24 | 2014-10-28 | Nintendo Co., Ltd. | Wireless game controllers |
JP4262726B2 (ja) | 2005-08-24 | 2009-05-13 | 任天堂株式会社 | ゲームコントローラおよびゲームシステム |
CN101273368A (zh) | 2005-08-29 | 2008-09-24 | 埃韦里克斯技术股份有限公司 | 经由移动图像识别的交互 |
US8308563B2 (en) | 2005-08-30 | 2012-11-13 | Nintendo Co., Ltd. | Game system and storage medium having game program stored thereon |
US7647175B2 (en) * | 2005-09-09 | 2010-01-12 | Rembrandt Technologies, Lp | Discrete inertial display navigation |
KR100677613B1 (ko) * | 2005-09-09 | 2007-02-02 | 삼성전자주식회사 | 멀티미디어 기기의 동작을 제어하는 방법 및 그 장치 |
US20070060216A1 (en) * | 2005-09-12 | 2007-03-15 | Cheng-Wen Huang | Portable communication apparatus |
US8157651B2 (en) | 2005-09-12 | 2012-04-17 | Nintendo Co., Ltd. | Information processing program |
US20070057911A1 (en) * | 2005-09-12 | 2007-03-15 | Sina Fateh | System and method for wireless network content conversion for intuitively controlled portable displays |
KR100651368B1 (ko) * | 2005-09-15 | 2006-11-29 | 삼성전자주식회사 | 휴대단말기의 움직임에 따른 이미지 제어방법 |
KR100746995B1 (ko) * | 2005-09-22 | 2007-08-08 | 한국과학기술원 | 직관적인 실제 공간적 조준에 따른 시스템 및 그식별방법과 통신방법 |
FI20055590L (fi) * | 2005-11-03 | 2007-05-04 | Wearfone Oy | Menetelmä ja laite äänen muodostamiseksi langattomasti käyttäjän korvaan |
US20070113207A1 (en) * | 2005-11-16 | 2007-05-17 | Hillcrest Laboratories, Inc. | Methods and systems for gesture classification in 3D pointing devices |
TWI291117B (en) * | 2005-12-29 | 2007-12-11 | High Tech Comp Corp | A tapping operation method and a mobile electrical apparatus with tapping operation function |
TWI309034B (en) * | 2005-12-30 | 2009-04-21 | High Tech Comp Corp | Display controller |
US7509588B2 (en) | 2005-12-30 | 2009-03-24 | Apple Inc. | Portable electronic device with interface reconfiguration mode |
TW200725566A (en) * | 2005-12-30 | 2007-07-01 | High Tech Comp Corp | Display controller |
US20070159456A1 (en) * | 2006-01-10 | 2007-07-12 | Unkrich Mark A | Navigation system |
CN101009089A (zh) * | 2006-01-26 | 2007-08-01 | 宏达国际电子股份有限公司 | 屏幕显示控制装置 |
WO2007086581A1 (ja) * | 2006-01-30 | 2007-08-02 | Kyocera Corporation | 携帯電子機器とその方位表示方法 |
US8139030B2 (en) * | 2006-02-01 | 2012-03-20 | Memsic, Inc. | Magnetic sensor for use with hand-held devices |
US7667686B2 (en) * | 2006-02-01 | 2010-02-23 | Memsic, Inc. | Air-writing and motion sensing input for portable devices |
CN101018241A (zh) * | 2006-02-06 | 2007-08-15 | 宏达国际电子股份有限公司 | 电子装置的操控方法及具敲击操控功能的可携式电子装置 |
US20070198324A1 (en) * | 2006-02-22 | 2007-08-23 | Borovoy Richard D | Enabling connections between and events attended by people |
JP2007233753A (ja) * | 2006-03-01 | 2007-09-13 | Fujitsu Ltd | 加速度センサを備えた情報処理装置 |
JP4530419B2 (ja) | 2006-03-09 | 2010-08-25 | 任天堂株式会社 | 座標算出装置および座標算出プログラム |
TW200734913A (en) * | 2006-03-10 | 2007-09-16 | Inventec Appliances Corp | Electronic device and method using displacement sensor to move position displayed on screen |
JP4151982B2 (ja) | 2006-03-10 | 2008-09-17 | 任天堂株式会社 | 動き判別装置および動き判別プログラム |
CN101042848A (zh) * | 2006-03-24 | 2007-09-26 | 宏达国际电子股份有限公司 | 屏幕显示控制装置及其屏幕显示控制方法 |
JP4684147B2 (ja) | 2006-03-28 | 2011-05-18 | 任天堂株式会社 | 傾き算出装置、傾き算出プログラム、ゲーム装置およびゲームプログラム |
US20070229650A1 (en) * | 2006-03-30 | 2007-10-04 | Nokia Corporation | Mobile communications terminal and method therefor |
US20070236334A1 (en) * | 2006-03-31 | 2007-10-11 | Borovoy Richard D | Enhancing face-to-face communication |
US7841967B1 (en) | 2006-04-26 | 2010-11-30 | Dp Technologies, Inc. | Method and apparatus for providing fitness coaching using a mobile device |
US20070268246A1 (en) * | 2006-05-17 | 2007-11-22 | Edward Craig Hyatt | Electronic equipment with screen pan and zoom functions using motion |
WO2008008230A2 (en) * | 2006-07-10 | 2008-01-17 | Memsic, Inc. | A system for sensing yaw rate using a magnetic field sensor and portable electronic devices using the same |
US8902154B1 (en) | 2006-07-11 | 2014-12-02 | Dp Technologies, Inc. | Method and apparatus for utilizing motion user interface |
US8139026B2 (en) | 2006-08-02 | 2012-03-20 | Research In Motion Limited | System and method for adjusting presentation of text and images on an electronic device according to an orientation of the device |
US8493323B2 (en) * | 2006-08-02 | 2013-07-23 | Research In Motion Limited | System and method for adjusting presentation of moving images on an electronic device according to an orientation of the device |
US7864163B2 (en) | 2006-09-06 | 2011-01-04 | Apple Inc. | Portable electronic device, method, and graphical user interface for displaying structured electronic documents |
US10313505B2 (en) | 2006-09-06 | 2019-06-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for configuring and displaying widgets |
US7956849B2 (en) | 2006-09-06 | 2011-06-07 | Apple Inc. | Video manager for portable multifunction device |
US8842074B2 (en) * | 2006-09-06 | 2014-09-23 | Apple Inc. | Portable electronic device performing similar operations for different gestures |
EP2067119A2 (de) | 2006-09-08 | 2009-06-10 | Exbiblio B.V. | Optische scanner, zum beispiel tragbare optische scanner |
TWI346494B (en) * | 2006-09-08 | 2011-08-01 | High Tech Comp Corp | Page movement controller and operating method thereof |
JP5173174B2 (ja) * | 2006-09-13 | 2013-03-27 | 任天堂株式会社 | ゲーム装置、ゲームプログラム、ゲームシステム、およびゲーム処理方法 |
US7889173B2 (en) * | 2006-09-14 | 2011-02-15 | Microsoft Corporation | Defining user input fields on a portable media device |
EP1914622A3 (de) * | 2006-10-16 | 2012-11-28 | Samsung Electronics Co., Ltd. | Verfahren und Vorrichtung zur Bewegung einer Liste auf einer Bildfläche |
US8965885B2 (en) | 2006-11-14 | 2015-02-24 | Google Technology Holdings LLC | System and method for browsing web pages on a mobile communication device |
TWI330802B (en) * | 2006-12-13 | 2010-09-21 | Ind Tech Res Inst | Inertial sensing method and system |
US7999797B2 (en) * | 2006-12-26 | 2011-08-16 | Sony Ericsson Mobile Communications Ab | Detecting and locating a touch or a tap on an input surface |
US8214768B2 (en) * | 2007-01-05 | 2012-07-03 | Apple Inc. | Method, system, and graphical user interface for viewing multiple application windows |
US8519964B2 (en) | 2007-01-07 | 2013-08-27 | Apple Inc. | Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display |
US20080165148A1 (en) * | 2007-01-07 | 2008-07-10 | Richard Williamson | Portable Electronic Device, Method, and Graphical User Interface for Displaying Inline Multimedia Content |
JP5127242B2 (ja) | 2007-01-19 | 2013-01-23 | 任天堂株式会社 | 加速度データ処理プログラムおよびゲームプログラム |
WO2008094458A1 (en) * | 2007-01-26 | 2008-08-07 | F-Origin, Inc. | Viewing images with tilt control on a hand-held device |
US8620353B1 (en) | 2007-01-26 | 2013-12-31 | Dp Technologies, Inc. | Automatic sharing and publication of multimedia from a mobile device |
US8949070B1 (en) | 2007-02-08 | 2015-02-03 | Dp Technologies, Inc. | Human activity monitoring device with activity identification |
JP5607286B2 (ja) * | 2007-03-27 | 2014-10-15 | 日本電気株式会社 | 情報処理端末、情報処理端末の制御方法、およびプログラム |
EP2147320A1 (de) * | 2007-04-13 | 2010-01-27 | Keynetik, Inc. | Kräftemessvorrichtung und verfahren zur bestimmung des drehungsradius eines sich bewegenden objekts |
US9933937B2 (en) | 2007-06-20 | 2018-04-03 | Apple Inc. | Portable multifunction device, method, and graphical user interface for playing online videos |
CN101330811B (zh) * | 2007-06-22 | 2010-12-08 | 鸿富锦精密工业(深圳)有限公司 | 便携式电子装置及其操作方法 |
US20090002325A1 (en) * | 2007-06-27 | 2009-01-01 | Think/Thing | System and method for operating an electronic device |
US7860676B2 (en) * | 2007-06-28 | 2010-12-28 | Hillcrest Laboratories, Inc. | Real-time dynamic tracking of bias |
US20090007006A1 (en) * | 2007-06-29 | 2009-01-01 | Palm, Inc. | Automatic scrolling |
US9772751B2 (en) | 2007-06-29 | 2017-09-26 | Apple Inc. | Using gestures to slide between user interfaces |
CN101355746B (zh) * | 2007-07-27 | 2012-05-16 | 深圳富泰宏精密工业有限公司 | 无线通信装置 |
US8555282B1 (en) | 2007-07-27 | 2013-10-08 | Dp Technologies, Inc. | Optimizing preemptive operating system with motion sensing |
US11126321B2 (en) | 2007-09-04 | 2021-09-21 | Apple Inc. | Application menu user interface |
US9619143B2 (en) | 2008-01-06 | 2017-04-11 | Apple Inc. | Device, method, and graphical user interface for viewing application launch icons |
US8619038B2 (en) | 2007-09-04 | 2013-12-31 | Apple Inc. | Editing interface |
US8144780B2 (en) * | 2007-09-24 | 2012-03-27 | Microsoft Corporation | Detecting visual gestural patterns |
US20090089705A1 (en) * | 2007-09-27 | 2009-04-02 | Microsoft Corporation | Virtual object navigation |
TW200915960A (en) * | 2007-09-28 | 2009-04-01 | Benq Corp | Sensing module |
US11317495B2 (en) | 2007-10-06 | 2022-04-26 | Lynk Labs, Inc. | LED circuits and assemblies |
US11297705B2 (en) | 2007-10-06 | 2022-04-05 | Lynk Labs, Inc. | Multi-voltage and multi-brightness LED lighting devices and methods of using same |
US20090099812A1 (en) * | 2007-10-11 | 2009-04-16 | Philippe Kahn | Method and Apparatus for Position-Context Based Actions |
US8359545B2 (en) * | 2007-10-16 | 2013-01-22 | Hillcrest Laboratories, Inc. | Fast and smooth scrolling of user interfaces operating on thin clients |
US7800044B1 (en) | 2007-11-09 | 2010-09-21 | Dp Technologies, Inc. | High ambient motion environment detection eliminate accidental activation of a device |
US8418083B1 (en) * | 2007-11-26 | 2013-04-09 | Sprint Communications Company L.P. | Applying a navigational mode to a device |
TWI373708B (en) * | 2007-11-27 | 2012-10-01 | Htc Corp | Power management method for handheld electronic device |
US8213999B2 (en) * | 2007-11-27 | 2012-07-03 | Htc Corporation | Controlling method and system for handheld communication device and recording medium using the same |
US8260367B2 (en) * | 2007-12-12 | 2012-09-04 | Sharp Laboratories Of America, Inc. | Motion driven follow-up alerts for mobile electronic device |
US9569086B2 (en) * | 2007-12-12 | 2017-02-14 | Nokia Technologies Oy | User interface having realistic physical effects |
US8203528B2 (en) * | 2007-12-13 | 2012-06-19 | Sony Ericsson Mobile Communications Ab | Motion activated user interface for mobile communications device |
US20090160666A1 (en) * | 2007-12-21 | 2009-06-25 | Think/Thing | System and method for operating and powering an electronic device |
US20090167702A1 (en) * | 2008-01-02 | 2009-07-02 | Nokia Corporation | Pointing device detection |
US8423076B2 (en) * | 2008-02-01 | 2013-04-16 | Lg Electronics Inc. | User interface for a mobile device |
US8195220B2 (en) * | 2008-02-01 | 2012-06-05 | Lg Electronics Inc. | User interface for mobile devices |
US20110029869A1 (en) * | 2008-02-29 | 2011-02-03 | Mclennan Hamish | Method and system responsive to intentional movement of a device |
US9003315B2 (en) | 2008-04-01 | 2015-04-07 | Litl Llc | System and method for streamlining user interaction with electronic content |
US8289688B2 (en) | 2008-04-01 | 2012-10-16 | Litl, Llc | Portable computer with multiple display configurations |
US8612888B2 (en) | 2008-04-01 | 2013-12-17 | Litl, Llc | Method and apparatus for managing digital media content |
WO2009145854A1 (en) * | 2008-04-15 | 2009-12-03 | Hillcrest Laboratories, Inc. | Tracking determination based on intensity angular gradient of a wave |
US9582049B2 (en) * | 2008-04-17 | 2017-02-28 | Lg Electronics Inc. | Method and device for controlling user interface based on user's gesture |
JP4971241B2 (ja) * | 2008-05-09 | 2012-07-11 | 株式会社リコー | 画像表示装置 |
US8285344B2 (en) | 2008-05-21 | 2012-10-09 | DP Technlogies, Inc. | Method and apparatus for adjusting audio for a user environment |
JP5537044B2 (ja) * | 2008-05-30 | 2014-07-02 | キヤノン株式会社 | 画像表示装置及びその制御方法、コンピュータプログラム |
CN101598972A (zh) * | 2008-06-04 | 2009-12-09 | 鸿富锦精密工业(深圳)有限公司 | 电子装置及其功能变换方法 |
US9253416B2 (en) * | 2008-06-19 | 2016-02-02 | Motorola Solutions, Inc. | Modulation of background substitution based on camera attitude and motion |
US8996332B2 (en) | 2008-06-24 | 2015-03-31 | Dp Technologies, Inc. | Program setting adjustments based on activity identification |
US20090325710A1 (en) * | 2008-06-27 | 2009-12-31 | Microsoft Corporation | Dynamic Selection Of Sensitivity Of Tilt Functionality |
CN101644987A (zh) * | 2008-08-08 | 2010-02-10 | 深圳富泰宏精密工业有限公司 | 移动终端及其菜单选择的方法 |
US8385971B2 (en) * | 2008-08-19 | 2013-02-26 | Digimarc Corporation | Methods and systems for content processing |
WO2010022386A2 (en) * | 2008-08-22 | 2010-02-25 | Google Inc. | Navigation in a three dimensional environment on a mobile device |
KR101481556B1 (ko) * | 2008-09-10 | 2015-01-13 | 엘지전자 주식회사 | 이동 단말기 및 이를 이용한 객체 표시방법 |
US20100060667A1 (en) * | 2008-09-10 | 2010-03-11 | Apple Inc. | Angularly dependent display optimized for multiple viewing angles |
US8245143B2 (en) * | 2008-10-08 | 2012-08-14 | Research In Motion Limited | Method and handheld electronic device having a graphical user interface which arranges icons dynamically |
US8872646B2 (en) | 2008-10-08 | 2014-10-28 | Dp Technologies, Inc. | Method and system for waking up a device due to motion |
US20100095250A1 (en) * | 2008-10-15 | 2010-04-15 | Raytheon Company | Facilitating Interaction With An Application |
JP5280800B2 (ja) * | 2008-10-29 | 2013-09-04 | 京セラ株式会社 | 携帯機器、操作検出方法および操作検出プログラム |
KR101569176B1 (ko) | 2008-10-30 | 2015-11-20 | 삼성전자주식회사 | 오브젝트 실행 방법 및 장치 |
KR101185589B1 (ko) * | 2008-11-14 | 2012-09-24 | (주)마이크로인피니티 | 움직임 감지를 통한 사용자 명령 입력 방법 및 디바이스 |
US8645871B2 (en) | 2008-11-21 | 2014-02-04 | Microsoft Corporation | Tiltable user interface |
US8717283B1 (en) * | 2008-11-25 | 2014-05-06 | Sprint Communications Company L.P. | Utilizing motion of a device to manipulate a display screen feature |
KR20100066036A (ko) * | 2008-12-09 | 2010-06-17 | 삼성전자주식회사 | 휴대 단말기 운용 방법 및 장치 |
US8248371B2 (en) * | 2008-12-19 | 2012-08-21 | Verizon Patent And Licensing Inc. | Accelerometer sensitive soft input panel |
TW201025079A (en) * | 2008-12-30 | 2010-07-01 | E Ten Information Sys Co Ltd | Hand-held electronic device and operating method thereof |
US20100164756A1 (en) * | 2008-12-30 | 2010-07-01 | Nokia Corporation | Electronic device user input |
US8890898B2 (en) | 2009-01-28 | 2014-11-18 | Apple Inc. | Systems and methods for navigating a scene using deterministic movement of an electronic device |
US20100188397A1 (en) * | 2009-01-28 | 2010-07-29 | Apple Inc. | Three dimensional navigation using deterministic movement of an electronic device |
US8294766B2 (en) | 2009-01-28 | 2012-10-23 | Apple Inc. | Generating a three-dimensional model using a portable electronic device recording |
US8704767B2 (en) * | 2009-01-29 | 2014-04-22 | Microsoft Corporation | Environmental gesture recognition |
DE202010018601U1 (de) | 2009-02-18 | 2018-04-30 | Google LLC (n.d.Ges.d. Staates Delaware) | Automatisches Erfassen von Informationen, wie etwa Erfassen von Informationen unter Verwendung einer dokumentenerkennenden Vorrichtung |
JP4706985B2 (ja) * | 2009-03-04 | 2011-06-22 | コニカミノルタビジネステクノロジーズ株式会社 | コンテンツ表示装置 |
KR101549556B1 (ko) * | 2009-03-06 | 2015-09-03 | 엘지전자 주식회사 | 휴대 단말기 및 그 제어방법 |
US8447066B2 (en) | 2009-03-12 | 2013-05-21 | Google Inc. | Performing actions based on capturing information from rendered documents, such as documents under copyright |
WO2010105245A2 (en) | 2009-03-12 | 2010-09-16 | Exbiblio B.V. | Automatically providing content associated with captured information, such as information captured in real-time |
US8392340B2 (en) | 2009-03-13 | 2013-03-05 | Apple Inc. | Method and apparatus for detecting conditions of a peripheral device including motion, and determining/predicting temperature(S) wherein at least one temperature is weighted based on detected conditions |
US20100248203A1 (en) * | 2009-03-26 | 2010-09-30 | Kuo Hsiing Cho | Portable LED interactive learning device |
US8019903B2 (en) * | 2009-03-27 | 2011-09-13 | Microsoft Corporation | Removable accessory for a computing device |
TWI383315B (zh) * | 2009-03-27 | 2013-01-21 | Wistron Corp | 電腦螢幕畫面顯示方法、具有直立顯示裝置的電腦、內儲基本輸入輸出系統的紀錄媒體及電腦程式產品 |
US9529437B2 (en) | 2009-05-26 | 2016-12-27 | Dp Technologies, Inc. | Method and apparatus for a motion state aware device |
US20100302277A1 (en) * | 2009-05-27 | 2010-12-02 | International Business Machines Corporation | Image Modification for Web Pages |
US9298336B2 (en) | 2009-05-28 | 2016-03-29 | Apple Inc. | Rotation smoothing of a user interface |
US8265717B2 (en) | 2009-06-26 | 2012-09-11 | Motorola Mobility Llc | Implementation of touchpad on rear surface of single-axis hinged device |
US20100328219A1 (en) * | 2009-06-30 | 2010-12-30 | Motorola, Inc. | Method for Integrating an Imager and Flash into a Keypad on a Portable Device |
US8095191B2 (en) * | 2009-07-06 | 2012-01-10 | Motorola Mobility, Inc. | Detection and function of seven self-supported orientations in a portable device |
US8497884B2 (en) | 2009-07-20 | 2013-07-30 | Motorola Mobility Llc | Electronic device and method for manipulating graphic user interface elements |
US8462126B2 (en) * | 2009-07-20 | 2013-06-11 | Motorola Mobility Llc | Method for implementing zoom functionality on a portable device with opposing touch sensitive surfaces |
US8531571B1 (en) * | 2009-08-05 | 2013-09-10 | Bentley Systmes, Incorporated | System and method for browsing a large document on a portable electronic device |
US8494544B2 (en) * | 2009-12-03 | 2013-07-23 | Osocad Remote Limited Liability Company | Method, apparatus and computer program to perform location specific information retrieval using a gesture-controlled handheld mobile device |
US8675019B1 (en) | 2009-12-03 | 2014-03-18 | Innoventions, Inc. | View navigation guidance system for hand held devices with display |
US9081799B2 (en) | 2009-12-04 | 2015-07-14 | Google Inc. | Using gestalt information to identify locations in printed information |
US9323784B2 (en) | 2009-12-09 | 2016-04-26 | Google Inc. | Image search using text-based elements within the contents of images |
JP5454133B2 (ja) * | 2009-12-25 | 2014-03-26 | 富士通株式会社 | 検知情報補正装置、可搬型装置、検知情報補正方法、およびコンピュータプログラム |
US8736561B2 (en) | 2010-01-06 | 2014-05-27 | Apple Inc. | Device, method, and graphical user interface with content display modes and display rotation heuristics |
US8438504B2 (en) | 2010-01-06 | 2013-05-07 | Apple Inc. | Device, method, and graphical user interface for navigating through multiple viewing areas |
US8317615B2 (en) | 2010-02-03 | 2012-11-27 | Nintendo Co., Ltd. | Display device, game system, and game method |
US8339364B2 (en) | 2010-02-03 | 2012-12-25 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
US8913009B2 (en) | 2010-02-03 | 2014-12-16 | Nintendo Co., Ltd. | Spatially-correlated multi-display human-machine interface |
US8814686B2 (en) | 2010-02-03 | 2014-08-26 | Nintendo Co., Ltd. | Display device, game system, and game method |
US8947355B1 (en) | 2010-03-25 | 2015-02-03 | Amazon Technologies, Inc. | Motion-based character selection |
US8452260B2 (en) * | 2010-03-25 | 2013-05-28 | Hewlett-Packard Development Company, L.P. | Methods and apparatus for unlocking an electronic device |
US20110250967A1 (en) * | 2010-04-13 | 2011-10-13 | Kulas Charles J | Gamepiece controller using a movable position-sensing display device |
US8123614B2 (en) * | 2010-04-13 | 2012-02-28 | Kulas Charles J | Gamepiece controller using a movable position-sensing display device including a movement currency mode of movement |
US8267788B2 (en) * | 2010-04-13 | 2012-09-18 | Kulas Charles J | Gamepiece controller using a movable position-sensing display device including a movement currency mode of movement |
DE102010028716A1 (de) * | 2010-05-07 | 2011-11-10 | Robert Bosch Gmbh | Vorrichtung und Verfahren zum Betrieb einer Vorrichtung |
US8581844B2 (en) * | 2010-06-23 | 2013-11-12 | Google Inc. | Switching between a first operational mode and a second operational mode using a natural motion gesture |
US8672837B2 (en) | 2010-06-24 | 2014-03-18 | Hansen Medical, Inc. | Methods and devices for controlling a shapeable medical device |
US20120016641A1 (en) | 2010-07-13 | 2012-01-19 | Giuseppe Raffa | Efficient gesture processing |
JP6243586B2 (ja) | 2010-08-06 | 2017-12-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
US10150033B2 (en) | 2010-08-20 | 2018-12-11 | Nintendo Co., Ltd. | Position calculation system, position calculation device, storage medium storing position calculation program, and position calculation method |
JP5840386B2 (ja) | 2010-08-30 | 2016-01-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
CN101938561A (zh) * | 2010-08-30 | 2011-01-05 | 惠州Tcl移动通信有限公司 | 一种挂断来电的方法及移动通信终端 |
JP5840385B2 (ja) | 2010-08-30 | 2016-01-06 | 任天堂株式会社 | ゲームシステム、ゲーム装置、ゲームプログラム、および、ゲーム処理方法 |
US8972467B2 (en) | 2010-08-31 | 2015-03-03 | Sovanta Ag | Method for selecting a data set from a plurality of data sets by means of an input device |
US8688966B2 (en) | 2010-08-31 | 2014-04-01 | Apple Inc. | Systems, methods, and computer-readable media for presenting visual content with a consistent orientation |
US8767019B2 (en) | 2010-08-31 | 2014-07-01 | Sovanta Ag | Computer-implemented method for specifying a processing operation |
KR101364826B1 (ko) | 2010-11-01 | 2014-02-20 | 닌텐도가부시키가이샤 | 조작 장치 및 조작 시스템 |
US8723699B2 (en) * | 2010-11-09 | 2014-05-13 | Motorola Mobility Llc | Method and apparatus for controlling a device |
US9285883B2 (en) * | 2011-03-01 | 2016-03-15 | Qualcomm Incorporated | System and method to display content based on viewing orientation |
US9035940B2 (en) * | 2011-03-08 | 2015-05-19 | Nokia Corporation | Apparatus and associated methods |
US20120249595A1 (en) | 2011-03-31 | 2012-10-04 | Feinstein David Y | Area selection for hand held devices with display |
JP5689014B2 (ja) | 2011-04-07 | 2015-03-25 | 任天堂株式会社 | 入力システム、情報処理装置、情報処理プログラム、および3次元位置算出方法 |
US9041733B2 (en) | 2011-05-04 | 2015-05-26 | Blackberry Limited | Methods for adjusting a presentation of graphical data displayed on a graphical user interface |
US20120314899A1 (en) | 2011-06-13 | 2012-12-13 | Microsoft Corporation | Natural user interfaces for mobile image viewing |
WO2013026053A1 (en) | 2011-08-18 | 2013-02-21 | Lynk Labs, Inc. | Devices and systems having ac led circuits and methods of driving the same |
US9918681B2 (en) * | 2011-09-16 | 2018-03-20 | Auris Surgical Robotics, Inc. | System and method for virtually tracking a surgical tool on a movable display |
US9811255B2 (en) | 2011-09-30 | 2017-11-07 | Intel Corporation | Detection of gesture data segmentation in mobile devices |
US9121724B2 (en) * | 2011-09-30 | 2015-09-01 | Apple Inc. | 3D position tracking for panoramic imagery navigation |
US20130106741A1 (en) | 2011-10-28 | 2013-05-02 | Atmel Corporation | Active Stylus with Tactile Input and Output |
US9164603B2 (en) | 2011-10-28 | 2015-10-20 | Atmel Corporation | Executing gestures with active stylus |
US9116558B2 (en) | 2011-10-28 | 2015-08-25 | Atmel Corporation | Executing gestures with active stylus |
US9247597B2 (en) | 2011-12-02 | 2016-01-26 | Lynk Labs, Inc. | Color temperature controlled and low THD LED lighting devices and systems and methods of driving the same |
DE112011105888T5 (de) * | 2011-12-23 | 2014-09-11 | Hewlett-Packard Development Company, L.P. | Eingabebefehl, der auf Handgeste basiert |
US9223138B2 (en) | 2011-12-23 | 2015-12-29 | Microsoft Technology Licensing, Llc | Pixel opacity for augmented reality |
US9606586B2 (en) | 2012-01-23 | 2017-03-28 | Microsoft Technology Licensing, Llc | Heat transfer device |
JP2013157959A (ja) * | 2012-01-31 | 2013-08-15 | Toshiba Corp | 携帯端末機器、携帯端末機器の音声認識処理方法、およびプログラム |
US9297996B2 (en) | 2012-02-15 | 2016-03-29 | Microsoft Technology Licensing, Llc | Laser illumination scanning |
US9368546B2 (en) | 2012-02-15 | 2016-06-14 | Microsoft Technology Licensing, Llc | Imaging structure with embedded light sources |
US9779643B2 (en) | 2012-02-15 | 2017-10-03 | Microsoft Technology Licensing, Llc | Imaging structure emitter configurations |
US9726887B2 (en) | 2012-02-15 | 2017-08-08 | Microsoft Technology Licensing, Llc | Imaging structure color conversion |
EP2631743B1 (de) | 2012-02-24 | 2018-05-02 | BlackBerry Limited | Tragbare Vorrichtung mit Benachrichtigungsmeldungsanzeige |
US9578318B2 (en) | 2012-03-14 | 2017-02-21 | Microsoft Technology Licensing, Llc | Imaging structure emitter calibration |
US20130254674A1 (en) * | 2012-03-23 | 2013-09-26 | Oracle International Corporation | Development mode activation for a mobile device |
US11068049B2 (en) * | 2012-03-23 | 2021-07-20 | Microsoft Technology Licensing, Llc | Light guide display and field of view |
US10191515B2 (en) | 2012-03-28 | 2019-01-29 | Microsoft Technology Licensing, Llc | Mobile device light guide display |
US9558590B2 (en) | 2012-03-28 | 2017-01-31 | Microsoft Technology Licensing, Llc | Augmented reality light guide display |
US9717981B2 (en) | 2012-04-05 | 2017-08-01 | Microsoft Technology Licensing, Llc | Augmented reality and physical games |
US10502876B2 (en) | 2012-05-22 | 2019-12-10 | Microsoft Technology Licensing, Llc | Waveguide optics focus elements |
US8989535B2 (en) | 2012-06-04 | 2015-03-24 | Microsoft Technology Licensing, Llc | Multiple waveguide imaging structure |
TW201403446A (zh) * | 2012-07-09 | 2014-01-16 | Hon Hai Prec Ind Co Ltd | 軟體介面顯示系統及方法 |
TW201404133A (zh) * | 2012-07-09 | 2014-01-16 | Wistron Corp | 自動拍照裝置及方法 |
JP2014035562A (ja) * | 2012-08-07 | 2014-02-24 | Sony Corp | 情報処理装置、情報処理方法及びコンピュータプログラム |
US9081542B2 (en) | 2012-08-28 | 2015-07-14 | Google Technology Holdings LLC | Systems and methods for a wearable touch-sensitive device |
JP6100497B2 (ja) * | 2012-10-09 | 2017-03-22 | 任天堂株式会社 | 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法 |
US9245497B2 (en) | 2012-11-01 | 2016-01-26 | Google Technology Holdings LLC | Systems and methods for configuring the display resolution of an electronic device based on distance and user presbyopia |
US10192358B2 (en) | 2012-12-20 | 2019-01-29 | Microsoft Technology Licensing, Llc | Auto-stereoscopic augmented reality display |
US9160915B1 (en) * | 2013-01-09 | 2015-10-13 | Amazon Technologies, Inc. | Modifying device functionality based on device orientation |
US8769431B1 (en) | 2013-02-28 | 2014-07-01 | Roy Varada Prasad | Method of single-handed software operation of large form factor mobile electronic devices |
US9566414B2 (en) | 2013-03-13 | 2017-02-14 | Hansen Medical, Inc. | Integrated catheter and guide wire controller |
US9057600B2 (en) | 2013-03-13 | 2015-06-16 | Hansen Medical, Inc. | Reducing incremental measurement sensor error |
US9014851B2 (en) | 2013-03-15 | 2015-04-21 | Hansen Medical, Inc. | Systems and methods for tracking robotically controlled medical instruments |
US9629595B2 (en) | 2013-03-15 | 2017-04-25 | Hansen Medical, Inc. | Systems and methods for localizing, tracking and/or controlling medical instruments |
US9271663B2 (en) | 2013-03-15 | 2016-03-01 | Hansen Medical, Inc. | Flexible instrument localization from both remote and elongation sensors |
US10849702B2 (en) | 2013-03-15 | 2020-12-01 | Auris Health, Inc. | User input devices for controlling manipulation of guidewires and catheters |
US9283046B2 (en) | 2013-03-15 | 2016-03-15 | Hansen Medical, Inc. | User interface for active drive apparatus with finite range of motion |
US9459705B2 (en) | 2013-03-18 | 2016-10-04 | Facebook, Inc. | Tilting to scroll |
US11020016B2 (en) | 2013-05-30 | 2021-06-01 | Auris Health, Inc. | System and method for displaying anatomy and devices on a movable display |
DE102013214020A1 (de) * | 2013-07-17 | 2015-02-19 | Stabilo International Gmbh | Digitaler Stift |
US10126839B2 (en) | 2013-07-24 | 2018-11-13 | Innoventions, Inc. | Motion-based view scrolling with augmented tilt control |
US9181760B2 (en) * | 2013-07-24 | 2015-11-10 | Innovations, Inc. | Motion-based view scrolling with proportional and dynamic modes |
JP5613314B1 (ja) * | 2013-11-14 | 2014-10-22 | Jfeシステムズ株式会社 | ジェスチャー検出装置、ジェスチャー検出プログラム、ジェスチャー認識装置およびジェスチャー認識プログラム |
US9134764B2 (en) * | 2013-12-20 | 2015-09-15 | Sony Corporation | Apparatus and method for controlling a display based on a manner of holding the apparatus |
USD750620S1 (en) * | 2014-02-21 | 2016-03-01 | Huawei Device Co., Ltd. | Tablet computer |
TWI547866B (zh) * | 2014-03-05 | 2016-09-01 | 佳世達科技股份有限公司 | 可攜式電子裝置及其控制方法 |
EP2923669B1 (de) | 2014-03-24 | 2017-06-28 | Hansen Medical, Inc. | Systeme und vorrichtungen zur instinktiven führung eines katheters |
US9816814B2 (en) * | 2014-06-25 | 2017-11-14 | Intel Corporation | Magnetometer unit for electronic devices |
US9304235B2 (en) | 2014-07-30 | 2016-04-05 | Microsoft Technology Licensing, Llc | Microfabrication |
US10592080B2 (en) | 2014-07-31 | 2020-03-17 | Microsoft Technology Licensing, Llc | Assisted presentation of application windows |
US10678412B2 (en) | 2014-07-31 | 2020-06-09 | Microsoft Technology Licensing, Llc | Dynamic joint dividers for application windows |
US10254942B2 (en) | 2014-07-31 | 2019-04-09 | Microsoft Technology Licensing, Llc | Adaptive sizing and positioning of application windows |
CN104216634A (zh) * | 2014-08-27 | 2014-12-17 | 小米科技有限责任公司 | 一种显示稿件的方法和装置 |
US9535253B2 (en) | 2015-02-09 | 2017-01-03 | Microsoft Technology Licensing, Llc | Display system |
US9513480B2 (en) | 2015-02-09 | 2016-12-06 | Microsoft Technology Licensing, Llc | Waveguide |
US10018844B2 (en) | 2015-02-09 | 2018-07-10 | Microsoft Technology Licensing, Llc | Wearable image display system |
US9429692B1 (en) | 2015-02-09 | 2016-08-30 | Microsoft Technology Licensing, Llc | Optical components |
US10317677B2 (en) | 2015-02-09 | 2019-06-11 | Microsoft Technology Licensing, Llc | Display system |
US9423360B1 (en) | 2015-02-09 | 2016-08-23 | Microsoft Technology Licensing, Llc | Optical components |
US9827209B2 (en) | 2015-02-09 | 2017-11-28 | Microsoft Technology Licensing, Llc | Display system |
US11086216B2 (en) | 2015-02-09 | 2021-08-10 | Microsoft Technology Licensing, Llc | Generating electronic components |
US9372347B1 (en) | 2015-02-09 | 2016-06-21 | Microsoft Technology Licensing, Llc | Display system |
CN104796514B (zh) * | 2015-03-18 | 2017-12-15 | 北京佳讯飞鸿电气股份有限公司 | 一种基于nfc装置的调度终端及其除噪方法 |
CN104780258B (zh) * | 2015-03-18 | 2017-12-12 | 北京佳讯飞鸿电气股份有限公司 | 基于加速度传感器的除噪方法、主机处理器及调度终端 |
US10310726B2 (en) * | 2015-05-14 | 2019-06-04 | Oath Inc. | Content navigation based upon motion |
US9727963B2 (en) | 2015-09-18 | 2017-08-08 | Auris Surgical Robotics, Inc. | Navigation of tubular networks |
US10143526B2 (en) | 2015-11-30 | 2018-12-04 | Auris Health, Inc. | Robot-assisted driving systems and methods |
KR102509018B1 (ko) * | 2016-01-11 | 2023-03-14 | 삼성디스플레이 주식회사 | 표시 장치 및 그의 구동방법 |
CN107346173A (zh) * | 2016-05-06 | 2017-11-14 | 中兴通讯股份有限公司 | 一种终端提醒方法及装置、终端 |
US11037464B2 (en) | 2016-07-21 | 2021-06-15 | Auris Health, Inc. | System with emulator movement tracking for controlling medical devices |
US10600150B2 (en) * | 2016-10-31 | 2020-03-24 | Adobe Inc. | Utilizing an inertial measurement device to adjust orientation of panorama digital images |
US10437070B2 (en) | 2016-12-23 | 2019-10-08 | Realwear, Inc. | Interchangeable optics for a head-mounted display |
US10936872B2 (en) | 2016-12-23 | 2021-03-02 | Realwear, Inc. | Hands-free contextually aware object interaction for wearable display |
US10620910B2 (en) | 2016-12-23 | 2020-04-14 | Realwear, Inc. | Hands-free navigation of touch-based operating systems |
US11099716B2 (en) * | 2016-12-23 | 2021-08-24 | Realwear, Inc. | Context based content navigation for wearable display |
US11507216B2 (en) | 2016-12-23 | 2022-11-22 | Realwear, Inc. | Customizing user interfaces of binary applications |
US10365493B2 (en) | 2016-12-23 | 2019-07-30 | Realwear, Incorporated | Modular components for a head-mounted display |
US10393312B2 (en) | 2016-12-23 | 2019-08-27 | Realwear, Inc. | Articulating components for a head-mounted display |
US10244926B2 (en) | 2016-12-28 | 2019-04-02 | Auris Health, Inc. | Detecting endolumenal buckling of flexible instruments |
CN108268056B (zh) * | 2016-12-30 | 2020-12-15 | 昊翔电能运动科技(昆山)有限公司 | 手持云台校准方法、装置和系统 |
KR102558061B1 (ko) | 2017-03-31 | 2023-07-25 | 아우리스 헬스, 인코포레이티드 | 생리적 노이즈를 보상하는 관강내 조직망 항행을 위한 로봇 시스템 |
WO2018200974A1 (en) * | 2017-04-27 | 2018-11-01 | Meyer Intellectual Properties Ltd. | Control system for cooking |
US10022192B1 (en) | 2017-06-23 | 2018-07-17 | Auris Health, Inc. | Automatically-initialized robotic systems for navigation of luminal networks |
WO2019005696A1 (en) | 2017-06-28 | 2019-01-03 | Auris Health, Inc. | DETECTION OF ELECTROMAGNETIC DISTORTION |
EP3644885B1 (de) | 2017-06-28 | 2023-10-11 | Auris Health, Inc. | Ausrichtung eines elektromagnetischen feldgenerators |
US11439839B2 (en) * | 2017-08-09 | 2022-09-13 | Acuity Innovation And Design, Llc | Hand-held treatment device using LED light sources with interchangeable emitters |
US11079077B2 (en) | 2017-08-31 | 2021-08-03 | Lynk Labs, Inc. | LED lighting system and installation methods |
US11058493B2 (en) | 2017-10-13 | 2021-07-13 | Auris Health, Inc. | Robotic system configured for navigation path tracing |
US10555778B2 (en) | 2017-10-13 | 2020-02-11 | Auris Health, Inc. | Image-based branch detection and mapping for navigation |
EP3684281A4 (de) | 2017-12-08 | 2021-10-13 | Auris Health, Inc. | System und verfahren für navigation und targeting von medizinischen instrumenten |
KR20200100613A (ko) | 2017-12-14 | 2020-08-26 | 아우리스 헬스, 인코포레이티드 | 기구 위치 추정을 위한 시스템 및 방법 |
CN110809453B (zh) | 2017-12-18 | 2023-06-06 | 奥瑞斯健康公司 | 用于腔网络内的器械跟踪和导航的方法和系统 |
US10524866B2 (en) | 2018-03-28 | 2020-01-07 | Auris Health, Inc. | Systems and methods for registration of location sensors |
US10827913B2 (en) | 2018-03-28 | 2020-11-10 | Auris Health, Inc. | Systems and methods for displaying estimated location of instrument |
EP3793465A4 (de) | 2018-05-18 | 2022-03-02 | Auris Health, Inc. | Steuerungen für roboterfähige telebetriebene systeme |
US10905499B2 (en) | 2018-05-30 | 2021-02-02 | Auris Health, Inc. | Systems and methods for location sensor-based branch prediction |
EP3801280A4 (de) | 2018-05-31 | 2022-03-09 | Auris Health, Inc. | Robotersysteme und verfahren zur navigation eines luminalen netzwerks zur detektion physiologischer geräusche |
WO2019231891A1 (en) | 2018-05-31 | 2019-12-05 | Auris Health, Inc. | Path-based navigation of tubular networks |
MX2020012904A (es) | 2018-05-31 | 2021-02-26 | Auris Health Inc | Analisis y mapeo de vias respiratorias basados en imagen. |
CN114025700A (zh) | 2019-06-28 | 2022-02-08 | 奥瑞斯健康公司 | 控制台叠加以及其使用方法 |
CN114340542B (zh) | 2019-08-30 | 2023-07-21 | 奥瑞斯健康公司 | 用于位置传感器的基于权重的配准的系统和方法 |
CN114340540B (zh) | 2019-08-30 | 2023-07-04 | 奥瑞斯健康公司 | 器械图像可靠性系统和方法 |
EP4025921A4 (de) | 2019-09-03 | 2023-09-06 | Auris Health, Inc. | Detektion und kompensation von elektromagnetischer verzerrung |
CN114929148A (zh) | 2019-12-31 | 2022-08-19 | 奥瑞斯健康公司 | 用于经皮进入的对准界面 |
WO2021137072A1 (en) | 2019-12-31 | 2021-07-08 | Auris Health, Inc. | Anatomical feature identification and targeting |
JP2023508525A (ja) | 2019-12-31 | 2023-03-02 | オーリス ヘルス インコーポレイテッド | 経皮的アクセスのための位置合わせ技術 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4812831A (en) * | 1987-02-10 | 1989-03-14 | Amp Incorporated | Key switch with controllable illumination |
US5142655A (en) | 1987-10-14 | 1992-08-25 | Wang Laboratories, Inc. | Computer input device using an orientation sensor |
DE68925124T2 (de) * | 1988-11-14 | 1996-07-04 | Wang Laboratories | Durch pressen bedienbare steuervorrichtung für rechneranzeigesysteme |
US5543588A (en) * | 1992-06-08 | 1996-08-06 | Synaptics, Incorporated | Touch pad driven handheld computing device |
US5296871A (en) * | 1992-07-27 | 1994-03-22 | Paley W Bradford | Three-dimensional mouse with tactile feedback |
JPH0764754A (ja) * | 1993-08-24 | 1995-03-10 | Hitachi Ltd | 小型情報処理装置 |
JPH0895539A (ja) * | 1994-09-28 | 1996-04-12 | Nec Corp | プレゼンテーション支援装置 |
CA2159251C (en) | 1994-12-19 | 2000-10-24 | Alan Edward Kaplan | Interactive pointing device |
JP3990744B2 (ja) * | 1995-09-08 | 2007-10-17 | キヤノン株式会社 | 電子機器及びその制御方法 |
US5703623A (en) * | 1996-01-24 | 1997-12-30 | Hall; Malcolm G. | Smart orientation sensing circuit for remote control |
US6624824B1 (en) * | 1996-04-30 | 2003-09-23 | Sun Microsystems, Inc. | Tilt-scrolling on the sunpad |
CA2264167A1 (en) * | 1996-08-28 | 1998-03-05 | Via, Inc. | Touch screen systems and methods |
GB9620464D0 (en) * | 1996-10-01 | 1996-11-20 | Philips Electronics Nv | Hand held image display device |
US6088023A (en) * | 1996-12-10 | 2000-07-11 | Willow Design, Inc. | Integrated pointing and drawing graphics system for computers |
US6008810A (en) * | 1997-03-07 | 1999-12-28 | International Business Machines Corporation | Mobile client computer programmed for system message display |
US6057554A (en) * | 1997-05-12 | 2000-05-02 | Plesko; George A. | Reflective switch |
US6280327B1 (en) * | 1998-06-05 | 2001-08-28 | Arista Interactive Llc | Wireless game control units |
JP3338777B2 (ja) * | 1998-04-22 | 2002-10-28 | 日本電気株式会社 | 携帯端末、及びその画面表示方法 |
WO2000017848A1 (en) * | 1998-09-22 | 2000-03-30 | Vega Vista, Inc. | Intuitive control of portable data displays |
US6201554B1 (en) * | 1999-01-12 | 2001-03-13 | Ericsson Inc. | Device control apparatus for hand-held data processing device |
US6466198B1 (en) | 1999-11-05 | 2002-10-15 | Innoventions, Inc. | View navigation and magnification of a hand-held device with a display |
US6245014B1 (en) * | 1999-11-18 | 2001-06-12 | Atlantic Limited Partnership | Fitness for duty testing device and method |
-
2000
- 2000-04-05 US US09/543,660 patent/US6466198B1/en not_active Expired - Lifetime
-
2001
- 2001-04-04 AT AT01928361T patent/ATE382889T1/de not_active IP Right Cessation
- 2001-04-04 DE DE60132201T patent/DE60132201T2/de not_active Expired - Lifetime
- 2001-04-04 WO PCT/US2001/010962 patent/WO2001078055A1/en active Search and Examination
- 2001-04-04 EP EP01928361A patent/EP1290672B1/de not_active Expired - Lifetime
-
2002
- 2002-08-20 US US10/224,073 patent/US6933923B2/en not_active Expired - Lifetime
-
2003
- 2003-09-10 HK HK03106445.5A patent/HK1054610A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
EP1290672A1 (de) | 2003-03-12 |
EP1290672B1 (de) | 2008-01-02 |
US20020190947A1 (en) | 2002-12-19 |
ATE382889T1 (de) | 2008-01-15 |
WO2001078055A1 (en) | 2001-10-18 |
DE60132201D1 (de) | 2008-02-14 |
EP1290672A4 (de) | 2005-04-06 |
US6466198B1 (en) | 2002-10-15 |
US6933923B2 (en) | 2005-08-23 |
HK1054610A1 (zh) | 2003-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE60132201T2 (de) | Ansichtsnavigation und vergrösserung eines tragbaren geräts mit einer anzeige | |
DE69725525T2 (de) | Informationsverarbeitungsvorrichtung und -verfahren für die Eingabe von Information durch Bedienung der gesamten Vorrichtung von Hand | |
DE60007631T2 (de) | Tragbares oder taschenformat elektronisches gerät und tragbares eingabegerät | |
CN101404152B (zh) | 信息显示装置 | |
DE102013007250A1 (de) | Verfahren zur Gestensteuerung | |
DE112010005192T5 (de) | Karteninformations-Verarbeitungsvorrichtung | |
DE102008046278B4 (de) | In der Hand gehaltene elektronische Einrichtung mit bewegungsgesteuerter Anzeige | |
EP3143478A2 (de) | Verfahren zur darstellung einer virtuellen interaktion auf zumindest einem bildschirm und eingabevorrichtung, system und verfahren für eine virtuelle anwendung mittels einer recheneinheit | |
DE112009002462T5 (de) | Anzeigeeingabeeinrichtung | |
DE102009014555A1 (de) | Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds | |
EP1456808B1 (de) | Vorrichtung zum erfassen und darstellen von bewegungen | |
WO2002065898A2 (de) | Vorrichtung und verfahren zur blickrichtungsbestimmung bezüglich eines festen referenzkoordinatensystems | |
DE102005034608A1 (de) | Mauseingabevorrichtung mit sekundärer Eingabevorrichtung | |
DE102011008248A1 (de) | In der Hand gehaltene elektronische Einrichtung mit bewegungsgesteuertem Cursor | |
DE102013004373A1 (de) | Informationsverarbeitungsverfahren, verfahren zum ansteuern einer bildsammeleinheit und elektrische vorrichtung | |
DE102013100328A1 (de) | Adaptives Schnittstellensystem | |
US20060267954A1 (en) | Information processing system and recording medium used for presentations | |
DE102013007914A1 (de) | Handgehaltene Vorrichtung und Entriegelungsverfahren von dieser | |
DE112004002016T5 (de) | In der Hand gehaltenes Gerät zur Navigation durch Daten und zur Datenanzeige | |
DE10063347A1 (de) | Vorrichtung zur komfortablen Steuerung und Manipulation von virtuellen Objekten für ein Endgerät zur Ein-/Ausgabe, Übertragung und/oder Speicherung von Text-, Ton- und/oder Bildinformation | |
DE10124834C2 (de) | Verfahren zur Informationseingabe für eine Mensch-Maschine-Schnittstelle, Stift zur Durchführung des Verfahrens und Vorrichtung zur Eingabe von Informationen mittels des Verfahrens | |
DE102014019648A1 (de) | Datenverarbeitungsverfahren und elektronische Vorrichtung | |
DE112004002015T5 (de) | Ein in der Hand gehaltenes Gerät zum Anzeigen von Informationen | |
DE102004027289A1 (de) | Verfahren und Anordnung zur berührungslosen Navigation in einem Dokument | |
WO2012079764A1 (de) | Anzeigevorrichtung mit einem durch bewegung steuerbaren display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition |