DE69233600T2 - Gerät zur Manipulation eines auf einem Bildschirm angezeigten Objektes - Google Patents

Gerät zur Manipulation eines auf einem Bildschirm angezeigten Objektes Download PDF

Info

Publication number
DE69233600T2
DE69233600T2 DE69233600T DE69233600T DE69233600T2 DE 69233600 T2 DE69233600 T2 DE 69233600T2 DE 69233600 T DE69233600 T DE 69233600T DE 69233600 T DE69233600 T DE 69233600T DE 69233600 T2 DE69233600 T2 DE 69233600T2
Authority
DE
Germany
Prior art keywords
display
manipulation
information
display device
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69233600T
Other languages
English (en)
Other versions
DE69233600D1 (de
Inventor
c/o Fujitsu Limited Yu Kawasaki-shi Minakuchi
c/o Fujitsu Limited Satoshi Kawasaki-shi Okuyama
c/o Fujitsu Limited Hajime Kawasaki-shi Kamata
Akiko Suginami-ku Fukue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Application granted granted Critical
Publication of DE69233600D1 publication Critical patent/DE69233600D1/de
Publication of DE69233600T2 publication Critical patent/DE69233600T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung zur Verwendung mit einer Anzeigeeinrichtung, um ein Objekt zu manipulieren, das an einer Anzeigeeinrichtung angezeigt wird.
  • Da sich der Einsatz von Computersystemen zur Datenverarbeitung in den letzten Jahren weit verbreitet hat, müssen immer mehr Benutzer Daten in Datenprozessoren wie etwa an graphischen Arbeitsplätzen und Personalcomputern eingeben und mit ihnen in Dialog treten. Ein breiter Bereich von Anwendungsprogrammen steht für moderne Datenprozessoren zur Verfügung, und unter Verwendung von solchen Anwendungsprogrammen in der Kombination kann selbst eine komplizierte Anwendung verarbeitet werden. Jedoch ist das Problem vorhanden, daß Personen, die geringe Computerkenntnisse haben, Schwierigkeiten im Umgang mit solchen Datenprozessoren haben, besonders dann, wenn ein Objekt zu manipulieren ist, das an einer Anzeigeeinrichtung angezeigt wird.
  • Deshalb ist großer Bedarf an einer Vorrichtung zum Manipulieren eines Objektes vorhanden, das an einer Anzeigeeinrichtung angezeigt wird, die selbst für eine Person, die keine speziellen Computerkenntnisse hat, leicht zu verwenden ist.
  • 1 zeigt ein Computersystem mit einer herkömmlichen Benutzerschnittstelle.
  • Ein Computersystem mit einer herkömmlichen Benutzerschnittstelle umfaßt hauptsächlich eine zentrale Verarbeitungseinheit [central processing unit] (CPU) 4, einen Hauptspeicher 5, eine Tastatur/Maus 2, einen Rahmenspeicher 60 und eine Festplattenschnittstelle 71, die über eine System busschnittstelle miteinander verbunden sind, und auch eine Festplatte 7 und eine Anzeigeeinheit 3, die über die Festplattenschnittstelle bzw. den Rahmenspeicher 6 mit der Systembusschnittstelle verbunden sind. Der Hauptspeicher 5 speichert ein Systemsteuerprogramm und Anwendungsprogramme, die die Graphikverarbeitung durchführen, und sieht einen Arbeitsbereich zur Verwendung durch die Programme vor. Die CPU 4 führt Anzeigeoperationen unter der Steuerung der Programme aus. Die Festplatte 7 speichert eine Datendatei für Graphiken, die an der Anzeigeeinheit 3 anzuzeigen sind. Der Rahmenspeicher 6 speichert einen Rahmen von Bild- (oder Objekt-)Daten, die an der Anzeigeeinheit 3 anzuzeigen sind.
  • Um in dem obigen System ein Objekt zu manipulieren, das an einer Anzeigeeinheit 3 angezeigt wird, muß ein Bediener einen Befehl zum Manipulieren des Objektes unter Verwendung einer Tastatur/Maus 2 eingeben oder ein Ikon (eine symbolische Darstellung einer Computerfunktion) unter Verwendung der Tastatur/Maus 2 selektieren, das an einer Anzeigeeinheit 3 angezeigt wird, um eine gewünschte Funktion anzuweisen. Es ist jedoch mühsam und lästig, eine Tastatur/Maus und Ikons zu verwenden, und eine Person mit geringeren Computerkenntnissen neigt dazu, schon das Berühren einer Tastatur/Maus nicht ausstehen zu können.
  • Deshalb ist es großes Problem, daß solche Datenprozessoren für diejenigen, die geringere Computerkenntnisse haben, sehr schwer zu bedienen sind.
  • Es ist deshalb wünschenswert, eine Vorrichtung vorzusehen, durch die ein Objekt, das an einer Anzeigeeinheit angezeigt wird, leicht manipuliert werden kann.
  • Es ist ferner wünschenswert, eine Benutzerschnittstelle vorzusehen, mit der ein Benutzer ein Objekt, das an einer Anzeigeeinheit angezeigt wird, leicht manipulieren kann.
  • Im IBM Technical Disclosure Bulletin, Bd. 33, Nr. 1B, Juni 1990, Seiten 277–278, ist eine Vorrichtung gemäß der Präambel des beiliegenden Anspruches 1 offenbart. Nach diesem Stand der Technik werden Ikons, die dreidimensionalen Schaltflächen ähneln, auf dem Feld (Bildschirm) angezeigt. Diese Ikons können "manipuliert" werden, indem sie ein- oder ausgeschaltet werden, wobei die Ikonanzeige ihr Aussehen verändert, um den Betrag des Niederdrückens der Schaltfläche zu reflektieren. Es ist nur ein Typ von Objekt (Ikon) vorhanden, und sie können an feststehenden Positionen auf dem Bildschirm angezeigt werden.
  • JP 62 150477A von Canon Inc. offenbart ein Berührungsfeld, das über eine Anzeigevorrichtung montiert ist, so daß ein Graphik-Cursor durch Fingerberührung auf einem vorgeschriebenen Bereich des Feldes bewegt werden kann (Graphikbewegungsbefehlsbereich). Ein Koordinatenversetzungsdetektionsmittel detektiert die Richtung, die Distanz und die Geschwindigkeit einer Koordinatenversetzung des Fingers. Das heißt, daß die Manipulation auf der Basis einer Positionsveränderung des Graphikbewegungsbefehlsbereichs bestimmt wird.
  • EP-A-0 314 395 von Crosfield Electronics Ltd. offenbart ein Verfahren zum interaktiven Manipulieren (Bewegen und Deformieren) eines Bildes auf einem Bildschirm durch das Selektieren von einigen Punkten (z. B. von zwei Punkten auf dem Bild und einem Punkt auf dem Bildschirm) und Bewegen eines Cursors auf dem Bildschirm. Das heißt, die Manipulation wird auf der Basis der durch den Nutzer selektierten feststehenden Punkte und einer Veränderung der durch den Nutzer spezifizierten Cursor-Position bestimmt.
  • EP-A-0 279 652 von Sensor Frame Inc. offenbart ein Berührungsfeld, das auf einen Bildschirm montiert ist, wobei Lichtstrahlen und Sensoren verwendet werden, die angeordnet sind, um die Okklusion der Lichtstrahlen durch Finger zu detektieren. Objekte auf dem Bildschirm werden durch das Interpretieren der Bewegungen der Finger manipuliert. Zum Beispiel können virtuelle Drehknöpfe, die auf dem Bildschirm angezeigt werden, unter Verwendung zweier Finger rotiert werden; andere Objekte können rotiert und umgesetzt werden.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung ist eine Vorrichtung zur Verwendung mit einer Anzeigeeinrichtung vorgesehen, um ein Objekt zu manipulieren, das an der Anzeigeeinrichtung angezeigt wird, welche Vorrichtung umfaßt: ein Berührungsfeld, das eine Anzeigeoberfläche der Anzeigeeinrichtung darstellt und gegenüber Charakteristiken eines Berührungskontaktes auf dem Berührungsfeld empfindlich ist, welche Charakteristiken wenigstens Druck- und Koordinatenpositionen des Berührungskontaktes enthalten, zum Ausgeben von entsprechenden Berührungsfeldinformationen, die die Charakteristiken des Berührungskontaktes auf dem Berührungsfeld darstellen; und ein Objektmanipulationsmittel zum Manipulieren und Anzeigen des Objektes an der Anzeigeeinrichtung als Reaktion auf die Berührungsfeldinformationen, welches Objektmanipulationsmittel umfaßt: ein Dateispeichermittel zum Speichern wenigstens einer Datendatei, die Ob jektdaten zum Anzeigen des Objektes speichert; ein Anzeigeinformationsspeichermittel zum Speichern von Objektinformationen, die einen Objekttyp enthalten, der die Form oder die physischen Eigenschaften des Objektes spezifiziert, und von Anzeigepositionsinformationen, die die Position des Objektes an der Anzeigeeinrichtung spezifizieren; und ein Anzeigesteuermittel, das auf die Berührungsfeldinformationen und auf die Objektinformationen, die in dem Anzeigeinformationsspeichermittel enthalten sind, reagiert, zum Erkennen des Manipulationstyps des Objektes gemäß den Berührungsfeldinformationen, den Anzeigepositionsinformationen und dem Objekttyp und zum Ausführen der Manipulation des Objektes an der Anzeigeeinrichtung gemäß dem erkannten Manipulationstyp; wobei der Manipulationstyp eine Deformierungs-/Wiederherstellungsmanipulation des Objektes enthält, bei der das Anzeigesteuermittel auf die Druckcharakteristiken des Berührungskontaktes reagiert, um das Objekt an der Anzeigeeinrichtung zu deformieren und wiederherzustellen, wobei der Deformierungsbetrag des Objektes auf der Basis der Druckcharakteristiken des Berührungskontaktes berechnet wird.
  • Somit kann die vorliegende Erfindung ein berührungsempfindliches Feld (z. B. einen Berührungsbildschirm) enthalten, ein Mittel, das eine Vielzahl von Datendateien speichert, ein Anzeigeinformationsspeichermittel und ein Anzeigesteuermittel, die mit einer Anzeigeeinrichtung eines Controllers zum Steuern der obigen Vorrichtung verwendet werden können.
  • Als Beispiel wird Bezug auf die beiliegenden Zeichnungen genommen, in denen besonders 7 für die vorliegende Erfindung relevant ist. Zu den Zeichnungen:
  • 1 zeigt ein Computersystem mit einer herkömmlichen Benutzerschnittstelle;
  • 2 ist ein Konfigurationsdiagramm eines graphischen Arbeitsplatzes, der mit einem Berührungsbildschirm ausgestattet ist, worauf die vorliegende Erfindung angewendet werden kann;
  • 3 ist ein schematisches Diagramm, das das Prinzip der vorliegenden Erfindung zeigt;
  • 4(a) zeigt eine Anzeigeinformationstabelle;
  • 4(b) zeigt Berührungsbildschirminformationen;
  • 5 ist ein Flußdiagramm, das eine Aufnahmemanipulation erläutert;
  • 6 ist ein Diagramm, das eine Aufnahmemanipulation erläutert;
  • 7 ist ein Diagramm, das eine Scrollmanipulation erläutert;
  • 8 ist ein Diagramm, das eine Schiebemanipulation erläutert;
  • 9 ist ein Diagramm, das eine Flippermanipulation erläutert;
  • 10 ist ein Diagramm, das eine Rollmanipulation erläutert; und
  • 11 ist ein Diagramm, das eine Deformierungs-/Wiederherstellungsmanipulation erläutert.
  • In den oben erwähnten Zeichnungen werden durchgängig identische Bezugszeichen verwendet, um dieselben oder ähnliche Bestandteile zu bezeichnen.
  • 2 ist ein Konfigurationsdiagramm eines graphischen Arbeitsplatzes, der mit einem Berührungsbildschirm ausgestattet ist, zum Implementieren der vorliegenden Erfindung.
  • Zusätzlich zu dem herkömmlichen System, das in 1 gezeigt ist, enthält das System einen Eingabe/Ausgabe-(abgekürzt: E/A)-Port 8, einen Berührungsbildschirmcontroller 15 und eine Berührungsbildschirmeinheit 1 mit einem Berührungsbildschirm 11. Der Berührungsbildschirmcontroller 15, der mit dem Eingabe/Ausgabe-Port 8 durch eine RS-232C-Schnittstelle verbunden ist, steuert die Berührungsbildschirmeinheit 1. Die Berührungsbildschirmeinheit 1, die an einer Position oder an Positionen (X-Y-Koordinaten), wo sie berührt wird, empfindlich ist, und vorzugsweise auch gegenüber einem Druck, der auf sie angewendet wird, dient als Benutzerschnittstelle, die es einem Benutzer gestattet, Signale an die CPU zu senden, indem ein Bereich auf ihr mit dem Körper wie etwa einem Finger oder mit einem Stift berührt wird.
  • 3 ist ein schematisches Diagramm, das das Prinzip der vorliegenden Erfindung zeigt.
  • Zum einfachen Verstehen des Prinzips sind der Eingabe/Ausgabe-Port 8, der Berührungsbildschirmcontroller 15 und die Berührungsbildschirmeinheit 1, die in 2 gezeigt sind, durch die Berührungsbildschirmeinheit 1 dargestellt; und der Rahmenspeicher 6 und die Anzeigeeinheit 3 sind durch die Anzeigeeinheit 3 dargestellt.
  • Ein Systemcontroller 50, ein Berührungsdiskriminator 51, ein Anzeigecontroller 52 und eine Anzeigeinformationstabelle 1T, die in dem Hauptspeicher 5 gespeichert sind, steuern Anzeigeoperationen, die für die vorliegende Erfindung charakteristisch sind.
  • 4(a) zeigt eine Anzeigeinformationstabelle. 4(b) zeigt Berührungsbildschirminformationen.
  • Eine Anzeigeinformationstabelle 1T, die in dem Hauptspeicher 5 vorgesehen ist und Objekten entspricht, enthält einen Objekttyp, Anzeigepositionsinformationen, Dateiinformationen, einen Normalanzeigedateinamen und einen Spezialzustandsdateinamen. Der Objekttyp definiert den Typ einschließlich von Form, Eigenschaften, Umständen, etc., des Objektes. Die Anzeigepositionsinformationen definieren die Größe des Objektes (Breite, Höhe) und die Position (obere linke Koordinaten X, Y) und den Winkel, mit dem das Objekt an der Anzeigeeinheit 1 angezeigt wird. Die Dateiinformationen, die in der Anzeigedatendatei gespeichert sind, die für ein Objekt verwendet wird, das so groß ist, daß ein Scrollen erforderlich ist, um das gesamte Objekt anzusehen, definieren die Größe (Breite W, Höhe H) des gesamten Objektes bezüglich der Anzeigeschirmgröße und auch die Position (obere linke Koordinaten X, Y) des Objektabschnittes, der an der Anzeigeeinrichtung gerade angezeigt wird, bezüglich der gesamten Objektdaten. Der Normalanzeigedateiname spezifiziert eine Normalanzeigedatei, in der Objektdaten zum Anzeigen eines Normalzustandes des Objektes gespeichert sind. Der Spezialzustandsdateiname spezifiziert eine Spezialzustandsdatei, in der Objektdaten zum Anzeigen eines Spezialzustan des (z. B. Umwandlungsanzeige der Anzeigefarbe, die zum Anzeigen eines Zwischenprozesses beim Manipulieren des Objektes verwendet wird) des Objektes gespeichert sind.
  • Berührungsbildschirminformationen 2I, die von der Berührungsbildschirmeinheit 1 gesendet werden, enthalten eine Berührungsposition (X-Y-Koordinaten), wo der Berührungsbildschirm 11 berührt wurde und ein Druck auf ihn angewendet wurde.
  • Es folgen nun Ausführungsformen der Erfindung.
  • (1) Der Berührungsdiskriminator 51 unterscheidet auf der Basis der Berührungsbildschirminformationen 2I von der Berührungsbildschirmeinheit 1 den Typ einer Berührung, die ein Finger eines Bedieners auf den Berührungsbildschirm 11 ausübt, das heißt, einen Berührungstyp, der einen "Start der kontinuierlichen Berührung" und ein "Ende der kontinuierlichen Berührung" enthält, die später erläutert werden. Der Berührungsdiskriminator 51 sendet das Resultat der Unterscheidung als Berührungsmeldung 3R, die einen Berührungstyp und Berührungskoordinaten enthält, an den Systemcontroller 50.
  • Auf der Basis der Berührungsmeldung 3R von dem Berührungsdiskriminator 51 und der Anzeigeinformationstabelle 1T bestimmt der Systemcontroller 50 den Typ einer Manipulation, die durch einen Bediener ausgeführt wird, und aktualisiert die Anzeigeinformationstabelle 1T gemäß der Bestimmung. Dann sendet der Systemcontroller 50 an den Anzeigecontroller 52 eine Anzeigeaktualisierungsanforderung 4Q zusammen mit "Anzeigeaktualisierungsdaten", die den aktualisierten Inhalt der Anzeigeinformationstabelle 1T enthalten (mit Anzeige positionsinformationen, Dateiinformationen, dem Normalanzeigedateinamen und dem Spezialzustandsdateinamen).
  • Bei Empfang der Anzeigeaktualisierungsanforderung 4Q von dem Systemcontroller 50 liest der Anzeigecontroller 52 Anzeigedateidaten (die Objektdaten enthalten), die durch den Dateinamen spezifiziert werden, von der Festplatte 7 und speichert die Daten in dem Hauptspeicher 5. Der Anzeigecontroller 52 aktualisiert dann die Objektdaten gemäß den Anzeigeaktualisierungsdaten von dem Systemcontroller 50 und lädt die so aktualisierten Objektdaten in den Rahmenspeicher 6, um das Objekt so anzuzeigen, wie es durch den Bediener an der Berührungsbildschirmeinheit 1 manipuliert wurde.
  • Somit wird durch die vorliegende Erfindung die Ausführung einer Manipulation an dem angezeigten Objekt auf der Basis der Berührungsbildschirminformationen 2I, die aus einer Berührung des Berührungsbildschirms 11 durch den Bediener resultieren, und der Anzeigeinformationstabelle 1T, die Form, physische Eigenschaften, Anzeigeposition, etc., des Objektes definiert, bestimmt. Dann wird das Objekt gemäß der bestimmten Manipulation so angezeigt, wie es der Bediener wünscht.
  • (2) Aufnahmemanipulation (siehe 5 und 6)
  • Eine Aufnahmemanipulation wird auf solch eine Weise ausgeführt, daß ein Objekt an einer Position auf der Anzeigeoberfläche der Anzeigeeinheit 3 aufgenommen wird und an einer anderen Position angeordnet wird.
  • 5 ist ein Flußdiagramm, das eine Aufnahmemanipulation erläutert. 6 ist ein Diagramm, das eine Aufnahmemanipulation erläutert.
  • Eine Aufnahmemanipulation wird in 5 gemäß den folgenden Schritten (S1–S8) ausgeführt:
    (S1) Der Systemcontroller 50 empfängt eine Berührungsmeldung 3R von dem Berührungsdiskriminator 51.
    (S2) Der Systemcontroller 50 prüft die Berührungsmeldung 3R, um festzustellen, ob die Objekt-Finger-Beziehung eine Aufnahmemanipulation ist, wie sie in 6(a) gezeigt ist, auf der Basis der Berührungsmeldung 3R und des Inhaltes der Anzeigeinformationstabelle 1T, die in 6(c) gezeigt ist. Wenn die Beziehung keine Aufnahmemanipulation ist, überprüft der Systemcontroller 50 die Berührungsmeldung 3R auf eine andere Manipulation.
    (S3) Wenn eine Beziehung eine Aufnahmemanipulation ist, sendet der Systemcontroller 50 eine Anzeigeaktualisierungsanforderung 4Q, die "Anzeigeaktualisierungsdaten" enthält und das Anzeigen der Spezialzustandsdatei (Umwandlungsanzeige) an der Position anweist, die durch die Anzeigeinformationstabelle 1T spezifiziert ist.
    (S4) Der Systemcontroller 50 empfängt eine Berührungsmeldung 3R.
    (S5) Der Systemcontroller 50 bestimmt, ob die Berührungsmeldung 3R ein "Ende der kontinuierlichen Berührung" enthält, das auftritt, wenn die Finger-Objekt-Beziehung so wie in 6(b) ist. Wenn ein "Ende der kontinuierlichen Berührung" gemeldet wird, geht die Operation zu Schritt (S8) über.
    (S6) Anderenfalls aktualisiert der Systemcontroller 50 die Anzeigepositionsinformationen "Koordinaten (X, Y)" der Anzeigeinformationstabelle 1T, so daß das Objekt zwischen den zwei Fingern positioniert wird.
    (S7) Der Systemcontroller 50 sendet eine Anzeigeaktualisierungsanforderung 4Q an den Anzeigecontroller 52, die das Anzeigen der Spezialzustandsdatei gemäß der aktualisierten Anzeigeinformationstabelle 1T anweist, und kehrt zu Schritt (S4) zurück.
    (S8) Wenn durch eine Berührungsmeldung 3R ein "Ende der kontinuierlichen Berührung" gemeldet wird, sendet der Systemcontroller 50 eine Anzeigeaktualisierungsanforderung 4Q an den Anzeigecontroller 52, die das Anzeigen der Normalanzeigedatei an der Position anweist, die in der Anzeigeinformationstabelle 1T spezifiziert ist.
  • Die folgenden Manipulationen werden auf dieselbe Weise ausgeführt, wie es in dem obigen Flußdiagramm der Aufnahmemanipulation beschrieben ist.
  • (3) Scrollmanipulation (siehe 7)
  • Eine Scrollmanipulation wird auf solch eine Weise ausgeführt, daß ein Objekt, das sich außerhalb der Anzeigeoberfläche der Anzeigeeinheit erstreckt, in die Anzeigeoberfläche hinein und aus ihr heraus bewegt wird.
  • 7 ist ein Diagramm, das eine Scrollmanipulation zeigt.
  • Beim Bestimmen dessen, daß sich der Finger bewegt, während der Berührungsbildschirm 11 berührt wird, auf der Basis der Berührungsbildschirminformationen 2I von der Berührungsbildschirmeinheit 1 sendet der Diskriminator 51 an den Systemcontroller 50 eine Berührungsmeldung 3R, die den "Start der kontinuierlichen Berührung" für den Berührungstyp und auch "Koordinaten (800, 800)" für die Berührungsposition enthält. Wenn andere Berührungsbildschirminformationen 2I eintreffen, sendet der Diskriminator 51 eine Berührungsmeldung 3R, die die "laufende kontinuierliche Berührung" und Koordinaten (780, 800) enthält. Wenn die Berührungsbildschirminformationen 2I nicht länger als zum Beispiel 100 Millisekunden gesendet werden, sendet der Diskriminator 51 eine Berührungsmeldung 3R, die das "Ende der kontinuierlichen Berührung" und Koordinaten (700, 800) enthält, an den Systemcontroller 50.
  • Wenn ein "Start der kontinuierlichen Berührung" gemeldet wird und der "Objekttyp" in der Anzeigeinformationstabelle 1T als "außerhalb des Bildschirms" definiert ist, erkennt der Systemcontroller 50 das Objekt als ein großes Objekt, das sich über den Anzeigeschirm hinaus erstreckt. Dann bestimmt der Systemcontroller 50 die Geschwindigkeit, mit der sich der Finger zum Beispiel von rechts nach links bewegt hat, auf der Basis einer Veränderung der X-Koordinate in der Berührungsmeldung 3R.
  • In Abhängigkeit davon, ob sich der Finger mit einer Geschwindigkeit von zum Beispiel über (Hochgeschwindigkeit) oder unter (Normalgeschwindigkeit) 20 Punkten (Pixels) z. B. seit der letzten Überprüfung bewegt hat, wird der Anzeigeschirm zuerst jeweilig in einem Intervall von 100 oder 500 Millisekunden gescrollt. Dann wird das Intervall, in dem die Anzeigeaktualisierungsanforderung 4Q zu dem Anzeigecontroller 52 gesendet wird, um einen Faktor von 1,5 bei jeder Berührungsmeldung 3R erhöht, und wenn das Intervall 2 Sekunden erreicht, wird das Scrollen gestoppt.
  • Der Bildschirm wird praktisch so gesteuert, daß das Scrollen mit einer obengenannten Geschwindigkeit beginnt, nachdem sich ein Finger über eine Distanz von 4 Punkten oder mehr bewegt hat. Das heißt, beim Erkennen, daß sich der Finger über jene Distanz bewegt hat, aktualisiert der Systemcontroller 50 die Dateiinformationen "Anzeigeposition X" der Anzeigeinformationstabelle 1T, so daß das Objekt zum Beispiel 10 Punkte weiter links angezeigt wird. Dann sendet er an den Anzeigecontroller 52 eine Anzeigeaktualisierungsanforderung, die Anzeigepositionsinformationen, Dateiinformationen und den Normalanzeigedateinamen aus der aktualisierten Anzeigeinformationstabelle 1T enthält.
  • Der Anzeigecontroller 52 liest von der Festplatte eine Anzeigedatei, die durch den Normalanzeigedateinamen spezifiziert ist, und lädt sie in den Hauptspeicher 5. Der Anzeigecontroller 52 überträgt dann nur den Teil der Anzeigedatei, der durch die Dateiinformationen "Anzeigeposition X" der Anzeigeinformationstabelle 1T spezifiziert wird, aus dem Hauptspeicher 5 zu der entsprechenden Stelle des Rahmenspeichers 6.
  • Auf dieselbe Weise sendet der Systemcontroller 50 immer dann, wenn er eine Berührungsmeldung 3R empfängt, eine Anzeigeaktualisierungsanforderung 4Q an den Anzeigecontroller 52.
  • Wenn eine andere "kontinuierliche Berührung" gemeldet wird, bevor das zur Zeit laufende Scrollen stoppt, kann ab diesem Punkt und mit der ersten oben beschriebenen Geschwindigkeit ein neues Scrollen starten.
  • (4) Scroll-Stopp-Manipulation (siehe 7)
  • 7 ist ein Diagramm, das eine Scrollmanipulation zeigt.
  • Wenn eine Berührungsposition, die durch eine Berührungsmeldung 3R gegeben ist, dieselbe wie die Position des zur Zeit laufenden Scrollens ist oder etwa 5 Punkte von ihr getrennt ist, verdoppelt der Systemcontroller 50 die Frequenz, mit der Anzeigeaktualisierungsanforderungen 4Q zu dem Anzeigecontroller 52 gesendet werden, um dem Scrollen ein Ende zu bereiten.
  • (5) Schiebemanipulation (siehe 8)
  • Eine Schiebemanipulation wird auf solch eine Weise ausgeführt, daß ein Objekt auf der Anzeigeoberfläche der Anzeigeeinheit 3 verschoben wird.
  • 8 ist ein Diagramm, das eine Schiebemanipulation zeigt.
  • Der Systemcontroller 50 bestimmt den Typ einer Manipulation auf der Basis der Berührungsmeldung 3R und des Inhaltes der Anzeigeinformationstabelle 1T, die in 8(c) gezeigt ist. Wenn die Manipulation eine Schiebemanipulation ist, wie in 8(a) gezeigt, sendet der Systemcontroller 50 an den Anzeigecontroller 52 eine Anzeigeaktualisierungsanforderung 4Q, die Anzeigepositionsinformationen, Dateiinformationen und den Normalanzeigedateinamen enthält, so daß das Objekt dicht an der Fingerposition angezeigt wird, die durch die Berührungsmeldung 3R gemeldet wurde. Die obige Anzeigeoperation wird wiederholt, bis durch eine Berührungsmeldung 3R ein "Ende der kontinuierlichen Berührung" gemeldet wird.
  • (6) Schiebe- und Rotationsmanipulation (siehe 8)
  • Eine Schiebe- und Rotationsmanipulation wird auf solch eine Weise ausgeführt, daß ein Objekt an einer Position außerhalb seiner Mitte (oder seines Schwerezentrums) geschoben wird und sich rotierend auf der Anzeigeoberfläche der Anzeigeeinheit 3 bewegt.
  • 8 ist ein Diagramm, das eine Schiebemanipulation zeigt.
  • Der Systemcontroller 50 bestimmt den Typ einer Manipulation auf der Basis der Berührungsmeldung 3R und des Inhaltes der Anzeigeinformationstabelle 1T, die in 8(c) gezeigt ist. Wenn die Manipulation eine Schiebe- und Rotationsmanipulation ist, wie in 8(b) gezeigt, sendet der Systemcontroller 50 an den Anzeigecontroller 52 Anzeigeaktualisierungsanforderungen 4Q, wobei der Rotationswinkel um 2 Grad zunimmt, d. h., während der Winkel in der Anzeigeinformationstabelle 1T, die in 8(c) gezeigt ist, vergrößert wird.
  • Der Anzeigecontroller 52 liest die Anzeigedatei von der Festplatte und lädt die Daten in den Hauptspeicher 5, rotiert das Objekt um den Winkel und mit den linken oberen Koordinaten (X, Y) als Rotationszentrum, wie es durch die Anzeigeaktualisierungsanforderung 4Q spezifiziert ist, und überträgt die Daten bei dem rotierten Objekt von dem Hauptspeicher 5 zu dem Rahmenspeicher 6.
  • (7) Flippermanipulation (siehe 9)
  • Eine Flippermanipulation wird auf solch eine weise ausgeführt, daß ein Finger ein Objekt flippert oder das Objekt von einer entfernten Position aus mit hoher Geschwindigkeit auf der Anzeigeoberfläche der Anzeigeeinheit 3 berührt.
  • 9 ist ein Diagramm, das eine Flippermanipulation zeigt.
  • Wenn eine Berührungsmeldung 3R von dem Berührungsdiskriminator 51 eingegeben wird, unterscheidet der Systemcontroller 50 den Typ einer Manipulation auf der Basis der Berührungsmeldung 3R und des Inhaltes der Anzeigeinformationstabelle 1T, die in 9(c) gezeigt ist. Wenn die Manipulation eine Flippermanipulation ist, wie in 9(a) gezeigt, erhält der Systemcontroller 50 eine Fingergeschwindigkeit auf der Basis der Berührungsmeldung 3R und auch eine Objektgeschwindigkeit (d. h., das Intervall, in dem Anzeigeaktualisierungsanforderungen 4Q zu dem Anzeigecontroller 52 gesendet werden) genauso, wie es bei Punkt (3) beschrieben wurde. Der Systemcontroller 50 sendet Anzeigeaktualisierungsanforderungen 4Q zu dem Anzeigecontroller 52, während die linken oberen Koordinaten (X, Y) der Anzeigepositionsinformationen der Anzeigeinformationstabelle 1T aktualisiert werden, so daß sich das Objekt in der Richtung bewegt, in der sich der Finger bewegt. Der Systemcontroller 50 stoppt das Bewegen des Objektes, wenn das obengenannte Intervall 2 Sekunden erreicht.
  • (8) Flippermanipulation unter Schwerkraft (siehe 9)
  • Eine Flippermanipulation unter Schwerkraft wird auf solch eine Weise ausgeführt, daß ein Objekt, das einer Schwerkraft unterliegt, durch einen Finger auf der Anzeigeoberfläche der Anzeigeeinheit 3 geflippert wird.
  • 9 ist ein Diagramm, das eine Flippermanipulation zeigt.
  • Wenn die Fingermanipulation so wie bei dem obigen Punkt (8) ein Flippern ist und die Anzeigeinformationstabelle 1T den Objekttyp als "Schwerkraft" definiert, mit der Bedeutung, daß das Objekt der Schwerkraft unterliegt, bewegt sich das Objekt zum Beispiel unter den kombinierten Einflüssen von Trägheit und simulierter Schwerkraft, d. h., es "fällt", wie in 9(b) gezeigt. Deshalb sendet der Systemcontroller 50 Anzeigeaktualisierungsanforderungen 4Q an den Anzeigecontroller 52, während die linken oberen Koordinaten (X, Y) der Anzeigepositionsinformationen aktualisiert werden, indem ein Wert zu der Y-Koordinate der Anzeigeinformationstabelle 1T hinzugefügt wird. Der Wert wird durch 2 hoch N dargestellt (N: Anzahl der gesendeten Anzeigeaktualisierungsanforderungen 4Q). Auch in diesem Fall stoppt der Systemcontroller 50 die Bewegung des Objektes, wenn das obengenannte Intervall 2 Sekunden erreicht. Die resultierende Bahn kann eine Parabel sein.
  • (9) Rollmanipulation (siehe 10)
  • Eine Rollmanipulation wird auf solch eine Weise ausgeführt, daß ein rollfähiges Objekt mit einem Finger auf der Anzeigeoberfläche der Anzeigeeinheit 3 gerollt wird.
  • 10 ist ein Diagramm, das eine Rollmanipulation zeigt.
  • Wenn eine Berührungsmeldung 3R von dem Berührungsdiskriminator 51 eingegeben wird und die Anzeigeinformationstabelle 1T den Objekttyp als "rollfähig" definiert, mit der Bedeutung, daß das Objekt so konstruiert ist, daß es wie eine Kugel oder ein Zylinder rollt, wenn es geflippert wird, wie in 10(a) gezeigt, sendet der Systemcontroller 50 Anzeigeaktualisierungsanforderungen 4Q an den Anzeigecontroller 52, während die linken oberen Koordinaten (X, Y) der Anzeigepositionsinformationen der Anzeigeinformationstabelle 1T aktualisiert werden, so daß sich das Objekt über eine Distanz von 10 Prozent hinter der Distanz und in die Richtung bewegt, über die und in die sich der Finger bewegt.
  • (10) Deformierungs-/Wiederherstellungsmanipulation (siehe 11)
  • Eine Deformierungs-/Wiederherstellungsmanipulation wird auf solch eine Weise ausgeführt, daß ein Finger auf ein "elastisches" Objekt auf der Anzeigeoberfläche der Anzeigeeinheit 3 gepreßt wird, um dadurch das angezeigte Objekt zu deformieren.
  • 11 ist ein Diagramm, das eine Deformierungs-/Wiederherstellungsmanipulation zeigt.
  • Wenn eine Berührungsmeldung 3R von dem Berührungsdiskriminator 51 eingegeben wird und die Anzeigeinformationstabelle 1T den Objekttyp als "elastisch" definiert, mit der Bedeutung, daß das Objekt gemäß einem Druck, der mit einem Finger darauf ausgeübt wird, deformiert und wiederhergestellt werden kann, wie in 11(a) gezeigt, berechnet der Systemcontroller 50 einen Deformierungsbetrag des Objektes auf der Basis des Drucks, der durch die Berührungsmeldung 3R gemeldet wird. Er speichert in der Anzeigeinformationstabelle 1T einen Spezialzustandsdateinamen, der eine der Spezialzustandsdateien (zum Anzeigen eines deformierten Zustandes des Objektes in Umwandlungsanzeige) spezifiziert, die dem berechneten Deformierungsbetrag entspricht. Dann sendet der Systemcontroller 50 eine Anzeigeaktualisierungsanforderung 4Q an den Anzeigecontroller 52, die das Anzeigen der Spezialzustandsdatei an der gegenwärtigen Anzeigeposition anweist. Wenn die obige Operation nach Bedarf wiederholt wird und durch eine Berührungsmeldung 3R ein "Ende der kontinuierlichen Bewegung" gemeldet wird, sendet der Systemcontroller 50 eine Anzeigeaktualisierungsanforderung 4Q (mit einem spezifizierten Normalanzeigedateinamen) an den Anzeigecontroller 52, die das Anzeigen einer Normalanzeigedatei (normale Anzeige) an der gegenwärtigen Anzeigeposition anweist. Auf der Festplatte 7 ist eine Vielzahl von Spezialzustandsdateien vorgesehen, die dem Deformierungsbetrag des Objektes entsprechen, der aus einem Druck resultiert, der auf den Berührungsbildschirm 11 angewendet wird.
  • Wie aus der obigen Beschreibung hervorgeht, wird bei der vorliegenden Erfindung ein Anzeigeschirm als virtueller Raum angesehen. In der Anzeigeinformationstabelle 1T werden Bedingungen und physische Eigenschaften eines Objektes (z. B. das Gewicht, die Härte, der Reibungswiderstand, das Schwerezentrum) definiert. Es werden auch Berührungsbildschirminformationen 2I empfangen, die eine Position angeben, die mit einem Finger berührt wurde, und der Druck wird von einer Berührungsbildschirmeinheit 1 eingegeben. Auf der Basis der Berührungsbildschirminformationen 2I und der Anzeigeinformationstabelle 1T wird bei der vorliegenden Erfindung die Ausführung einer Manipulation an dem angezeigten Objekt bestimmt, wie z. B. des Scrollens, des (Auf)Nehmens, des Schiebens, des Rollens, des Deformierens des Objektes auf der Anzeigeoberfläche der Anzeigeeinheit 3. Somit gestattet es die vorliegende Erfindung einem Benutzer, ein Objekt, das an einer Anzeigeeinrichtung angezeigt wird, ganz leicht zu manipulieren, selbst wenn der Benutzer geringe Computerkenntnisse hat.

Claims (5)

  1. Vorrichtung zur Verwendung mit einer Anzeigeeinrichtung (3), um ein Objekt zu manipulieren, das an der Anzeigeeinrichtung angezeigt wird, welche Vorrichtung umfaßt: ein Berührungsfeld (11), das eine Anzeigeoberfläche der Anzeigeeinrichtung (3) darstellt und gegenüber Charakteristiken eines Berührungskontaktes auf dem Berührungsfeld empfindlich ist, welche Charakteristiken wenigstens Druck- und Koordinatenpositionen des Berührungskontaktes enthalten, zum Ausgeben von entsprechenden Berührungsfeldinformationen (2I), die die Charakteristiken des Berührungskontaktes auf dem Berührungsfeld (11) darstellen; und ein Objektmanipulationsmittel (7, 50, 51, 52, 1T) zum Manipulieren und Anzeigen des Objektes an der Anzeigeeinrichtung als Reaktion auf die Berührungsfeldinformationen (2I), welches Objektmanipulationsmittel umfaßt: ein Dateispeichermittel (7) zum Speichern wenigstens einer Datendatei, die Objektdaten zum Anzeigen des Objektes speichert; ein Anzeigeinformationsspeichermittel (1T) zum Speichern von Objektinformationen, die einen Objekttyp enthalten, der die Form oder die physischen Eigenschaften des Objektes spezifiziert, und von Anzeigepositionsinformationen, die die Position des Objektes an der Anzeigeeinrichtung (3) spezifizieren; und ein Anzeigesteuermittel (52), das auf die Berührungsfeldinformationen (2I) und auf die Objektinformationen, die in dem Anzeigeinformationsspeichermittel enthalten sind, reagiert, zum Erkennen des Manipulationstyps des Objektes gemäß den Berührungsfeldinformationen (2I), den Anzeigepositionsinformationen und dem Objekttyp und zum Ausführen der Manipulation des Objektes an der Anzeigeeinrichtung (3) gemäß dem erkannten Manipulationstyp; wobei der Manipulationstyp eine Deformierungs-/Wiederherstellungsmanipulation des Objektes enthält, bei der das Anzeigesteuermittel (52) auf die Druckcharakteristiken des Berührungskontaktes reagiert, um das Objekt an der Anzeigeeinrichtung zu deformieren und wiederherzustellen, wobei der Deformierungsbetrag des Objektes auf der Basis der Druckcharakteristiken des Berührungskontaktes berechnet wird.
  2. Vorrichtung nach Anspruch 1, wobei der Manipulationstyp ferner eine Bewegungsmanipulation des Objektes enthält, bei der das Anzeigesteuermittel (52) auf die Positionsveränderungen des Berührungskontaktes reagiert, um das Objekt an der Anzeigeeinrichtung (3) von einer Position zu einer anderen zu bewegen.
  3. Vorrichtung nach Anspruch 1, bei der das Dateispeichermittel (7) ferner eine Vielzahl von Spezialzustandsdateien zum Anzeigen des Objektes in einem deformierten Zustand speichert, wobei jede Spezialzustandsdatei einem jeweiligen Deformierungsbetrag entspricht und auf der Basis der Druckcharakteristiken des Berührungskontaktes spezifiziert ist.
  4. Vorrichtung nach Anspruch 1, 2 oder 3, bei der das Berührungsfeld (11) an die Anzeigeeinrichtung (3) montiert ist.
  5. Controller zum Steuern einer Anzeigeeinrichtung (3), um ein Objekt zu manipulieren, das an der Anzeigeeinrichtung angezeigt wird, auf der Basis von Informationen von einem Berührungsfeld (11), das eine Anzeigeoberfläche der Anzeigeeinrichtung (3) darstellt und gegenüber Charakteristiken eines Berührungskontaktes auf dem Berührungsfeld empfindlich ist, die wenigstens Druck- und Koordinatenpositionen des Berührungskontaktes enthalten; welcher Controller umfaßt: ein Ausgabemittel (51) zum Ausgeben von entsprechenden Berührungsfeldinformationen (2I), die die Charakteristiken des Berührungskontaktes auf dem Berührungsfeld (11) darstellen; und ein Objektmanipulationsmittel (50, 52, 1T) zum Manipulieren und Anzeigen des Objektes an der Anzeigeeinrichtung als Reaktion auf die Berührungsfeldinformationen (2I), welches Objektmanipulationsmittel umfaßt: ein Anzeigeinformationsspeichermittel (1T) zum Speichern von Objektinformationen, die einen Objekttyp enthalten, der die Form oder die physischen Eigenschaften des Objektes spezifiziert, und von Anzeigepositionsinformationen, die die Position des Objektes an der Anzeigeeinrichtung (3) spezifizieren; und ein Anzeigesteuermittel (52), das auf die Berührungsfeldinformationen (2I) und auf die Objektinformationen, die in dem Anzeigeinformationsspeichermittel enthalten sind, reagiert, zum Erkennen des Manipulationstyps des Objektes gemäß den Berührungsfeldinformationen (2I), den Anzeigepositionsinformationen und dem Objekttyp und zum Ausführen der Manipulation des Objektes an der Anzeigeeinrichtung (3) gemäß dem erkannten Manipulationstyp; wobei der Manipulationstyp eine Deformierungs-/Wiederherstellungsmanipulation des Objektes enthält, bei der das Anzeigesteuermittel (52) auf die Druckcharakteristiken des Berührungskontaktes reagiert, um das Objekt an der Anzeigeeinrichtung zu deformieren und wiederherzustellen, wobei der Deformierungsbetrag des Objektes auf der Basis der Druckcharakteristiken des Berührungskontaktes berechnet wird.
DE69233600T 1991-10-07 1992-10-07 Gerät zur Manipulation eines auf einem Bildschirm angezeigten Objektes Expired - Lifetime DE69233600T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP25823291 1991-10-07
JP25823291A JP2827612B2 (ja) 1991-10-07 1991-10-07 タッチパネル装置およびタッチパネル装置におけるオブジェクトの表示方法。

Publications (2)

Publication Number Publication Date
DE69233600D1 DE69233600D1 (de) 2006-04-20
DE69233600T2 true DE69233600T2 (de) 2006-08-10

Family

ID=17317357

Family Applications (5)

Application Number Title Priority Date Filing Date
DE69233600T Expired - Lifetime DE69233600T2 (de) 1991-10-07 1992-10-07 Gerät zur Manipulation eines auf einem Bildschirm angezeigten Objektes
DE69233284T Expired - Lifetime DE69233284T2 (de) 1991-10-07 1992-10-07 Gerät zur Manipulation eines auf einem Bildschirm angezeigten Objektes
DE69233133T Expired - Lifetime DE69233133T2 (de) 1991-10-07 1992-10-07 Gerät zur auf einem Anzeigeschirm angezeigten Manipulation eines Objektes
DE69233211T Expired - Lifetime DE69233211T2 (de) 1991-10-07 1992-10-07 Gerät zur Manipulation eines auf einem Bildschirm angezeigten Objektes
DE69231270T Expired - Lifetime DE69231270T2 (de) 1991-10-07 1992-10-07 Gerät zur auf einem Anzeigeschirm angezeigten Manipulation eines Objektes

Family Applications After (4)

Application Number Title Priority Date Filing Date
DE69233284T Expired - Lifetime DE69233284T2 (de) 1991-10-07 1992-10-07 Gerät zur Manipulation eines auf einem Bildschirm angezeigten Objektes
DE69233133T Expired - Lifetime DE69233133T2 (de) 1991-10-07 1992-10-07 Gerät zur auf einem Anzeigeschirm angezeigten Manipulation eines Objektes
DE69233211T Expired - Lifetime DE69233211T2 (de) 1991-10-07 1992-10-07 Gerät zur Manipulation eines auf einem Bildschirm angezeigten Objektes
DE69231270T Expired - Lifetime DE69231270T2 (de) 1991-10-07 1992-10-07 Gerät zur auf einem Anzeigeschirm angezeigten Manipulation eines Objektes

Country Status (5)

Country Link
US (1) US5844547A (de)
EP (6) EP0938038B1 (de)
JP (1) JP2827612B2 (de)
KR (1) KR950012490B1 (de)
DE (5) DE69233600T2 (de)

Families Citing this family (216)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5452240A (en) * 1993-11-23 1995-09-19 Roca Productions, Inc. Electronically simulated rotary-type cardfile
CN1059303C (zh) * 1994-07-25 2000-12-06 国际商业机器公司 在个人通讯设备的显示屏幕上标记文本的装置和方法
KR100426295B1 (ko) * 1995-07-20 2004-05-17 가부시키가이샤 세가 화상처리장치및게임장치
US6243619B1 (en) 1996-05-10 2001-06-05 Amada Company, Ltd. Control method and apparatus for plate material processing machine
WO1997046926A2 (en) * 1996-06-07 1997-12-11 Amada Company, Limited Control method and apparatus for plate material processing machine
US6417844B1 (en) * 1996-06-25 2002-07-09 Seiko Epson Corporation Data processing apparatus and data processing method
JPH10111776A (ja) * 1996-10-08 1998-04-28 Sharp Corp 情報処理装置
JP4044169B2 (ja) * 1997-02-26 2008-02-06 株式会社アマダ 工程の流れに沿った情報設定画面の表示方法及びその機能を有するマルチウィンドウ方式のnc装置
KR100224998B1 (ko) * 1997-04-09 1999-10-15 구자홍 Pc 시스템의 원격 조정 사용자 인터 페이스 구현장치 및 방법
JP3504464B2 (ja) * 1997-07-30 2004-03-08 インターナショナル・ビジネス・マシーンズ・コーポレーション データ入力装置およびその方法
US6920619B1 (en) * 1997-08-28 2005-07-19 Slavoljub Milekic User interface for removing an object from a display
USRE43318E1 (en) * 1997-08-28 2012-04-17 Flatworld Interactives, Llc User interface for removing an object from a display
EP0910011A3 (de) * 1997-10-14 2000-12-06 Canon Kabushiki Kaisha Verfahren und Gerät zum Anzeigen von Aufgabelisten und Speichermedium für ein seolches Programm
GB9722766D0 (en) 1997-10-28 1997-12-24 British Telecomm Portable computers
WO1999028811A1 (en) * 1997-12-04 1999-06-10 Northern Telecom Limited Contextual gesture interface
US6131047A (en) 1997-12-30 2000-10-10 Ericsson Inc. Radiotelephones having contact-sensitive user interfaces and methods of operating same
JPH11203044A (ja) * 1998-01-16 1999-07-30 Sony Corp 情報処理システム
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7614008B2 (en) 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
EP1717684A3 (de) * 1998-01-26 2008-01-23 Fingerworks, Inc. Verfahren und Vorrichtung zur Integration von manuellen Eingaben
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US6038333A (en) * 1998-03-16 2000-03-14 Hewlett-Packard Company Person identifier and management system
US6610917B2 (en) 1998-05-15 2003-08-26 Lester F. Ludwig Activity indication, external source, and processing loop provisions for driven vibrating-element environments
US6456275B1 (en) * 1998-09-14 2002-09-24 Microsoft Corporation Proximity sensor in a computer input device
US6396477B1 (en) 1998-09-14 2002-05-28 Microsoft Corp. Method of interacting with a computer using a proximity sensor in a computer input device
US7256770B2 (en) 1998-09-14 2007-08-14 Microsoft Corporation Method for displaying information responsive to sensing a physical presence proximate to a computer input device
US6333753B1 (en) 1998-09-14 2001-12-25 Microsoft Corporation Technique for implementing an on-demand display widget through controlled fading initiated by user contact with a touch sensitive input device
US7358956B2 (en) * 1998-09-14 2008-04-15 Microsoft Corporation Method for providing feedback responsive to sensing a physical presence proximate to a control of an electronic device
US20020018051A1 (en) * 1998-09-15 2002-02-14 Mona Singh Apparatus and method for moving objects on a touchscreen display
US6933919B1 (en) * 1998-12-03 2005-08-23 Gateway Inc. Pointing device with storage
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
SE515077C2 (sv) * 1999-04-27 2001-06-05 Kjell Soederlund Databehandlingsanordning
US6793619B1 (en) 1999-06-09 2004-09-21 Yaacov Blumental Computer-implemented method and system for giving a user an impression of tactile feedback
WO2001029641A2 (en) * 1999-10-20 2001-04-26 Koninklijke Philips Electronics N.V. Information processing device
JP2001134382A (ja) * 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US7142205B2 (en) * 2000-03-29 2006-11-28 Autodesk, Inc. Single gesture map navigation graphical user interface for a personal digital assistant
US7009626B2 (en) * 2000-04-14 2006-03-07 Picsel Technologies Limited Systems and methods for generating visual representations of graphical data and digital document processing
US7576730B2 (en) 2000-04-14 2009-08-18 Picsel (Research) Limited User interface systems and methods for viewing and manipulating digital documents
JP4686886B2 (ja) * 2001-04-06 2011-05-25 ソニー株式会社 情報処理装置
US7730401B2 (en) * 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US6816154B2 (en) * 2001-05-30 2004-11-09 Palmone, Inc. Optical sensor based user interface for a portable electronic device
US20020180811A1 (en) * 2001-05-31 2002-12-05 Chu Sing Yun Systems, methods, and articles of manufacture for providing a user interface with selection and scrolling
US20030048280A1 (en) * 2001-09-12 2003-03-13 Russell Ryan S. Interactive environment using computer vision and touchscreens
US6690387B2 (en) * 2001-12-28 2004-02-10 Koninklijke Philips Electronics N.V. Touch-screen image scrolling system and method
JP3847641B2 (ja) * 2002-02-28 2006-11-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理プログラム、情報処理プログラムを記録したコンピュータ読み取り可能な記録媒体、及び情報処理方法
US7193609B2 (en) 2002-03-19 2007-03-20 America Online, Inc. Constraining display motion in display navigation
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US8949716B2 (en) * 2002-07-23 2015-02-03 Motorola Mobility Llc Adjusting target size of display images based on input device detection
US20040021698A1 (en) * 2002-08-05 2004-02-05 Baldwin Amanda K. Intuitive touchscreen interface for a multifunction device and method therefor
US7980936B2 (en) * 2002-09-30 2011-07-19 Igt Apparatus and method for player interaction
AU2003283739A1 (en) * 2002-12-30 2004-07-22 Koninklijke Philips Electronics N.V. Device for playing optical discs
US20050014560A1 (en) * 2003-05-19 2005-01-20 Yacob Blumenthal Method and system for simulating interaction with a pictorial representation of a model
WO2004104807A1 (ja) * 2003-05-26 2004-12-02 Fujitsu Limited アイテム選択方法、情報処理装置及びコンピュータ読み取り可能な記憶媒体
JP4723799B2 (ja) * 2003-07-08 2011-07-13 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
US8164573B2 (en) 2003-11-26 2012-04-24 Immersion Corporation Systems and methods for adaptive interpretation of input from a touch-sensitive input device
CN1934525B (zh) * 2004-03-18 2010-06-16 皇家飞利浦电子股份有限公司 扫描显示装置及其操作方法
CN1905924B (zh) * 2004-06-21 2012-08-29 威科私人有限公司 虚拟纸牌游戏系统
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
JP2008508630A (ja) * 2004-08-02 2008-03-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 仮想オブジェクトをモデル化するのを可能にする方法
JP4658544B2 (ja) * 2004-09-03 2011-03-23 任天堂株式会社 ゲームプログラム、ゲーム装置、および入力装置
US7794324B2 (en) 2004-09-13 2010-09-14 Pokertek, Inc. Electronic player interaction area with player customer interaction features
JP2008521070A (ja) * 2004-09-19 2008-06-19 イー.ビー.ティー.インタラクティブ・リミテッド ユーザに触感フィードバックの印象を与えるためのコンピュータ実装方法およびシステム
US7762945B2 (en) * 2004-10-13 2010-07-27 E.B.T. Interactive Ltd. Computer-implemented method and system for providing feedback during sex play
US8035620B2 (en) * 2005-01-14 2011-10-11 Koninklijke Philips Electronics N.V. Moving objects presented by a touch input display device
AU2006201734A1 (en) * 2005-04-27 2006-11-16 Aruze Corp. Gaming machine
JP4405430B2 (ja) * 2005-05-12 2010-01-27 任天堂株式会社 ゲームプログラムおよびゲーム装置
JP3888382B2 (ja) * 2005-07-05 2007-02-28 松下電器産業株式会社 データ処理装置
JP4832826B2 (ja) 2005-07-26 2011-12-07 任天堂株式会社 オブジェクト制御プログラムおよび情報処理装置
JP4611147B2 (ja) 2005-08-15 2011-01-12 富士通コンポーネント株式会社 遠隔操作システム及び遠隔操作方法
US8225231B2 (en) 2005-08-30 2012-07-17 Microsoft Corporation Aggregation of PC settings
JP4743602B2 (ja) 2005-10-04 2011-08-10 任天堂株式会社 画像処理装置、画像処理プログラム、ゲーム装置およびゲームプログラム
TW200715192A (en) * 2005-10-07 2007-04-16 Elan Microelectronics Corp Method for a window to generate different moving speed
EP2390154A1 (de) * 2005-10-31 2011-11-30 Toyota Jidosha Kabushiki Kaisha Parkhilfevorrichtung
US20070132789A1 (en) * 2005-12-08 2007-06-14 Bas Ording List scrolling in response to moving contact over list of index symbols
US7958456B2 (en) * 2005-12-23 2011-06-07 Apple Inc. Scrolling list with floating adjacent index symbols
US7786975B2 (en) * 2005-12-23 2010-08-31 Apple Inc. Continuous scrolling list with acceleration
JP2007232776A (ja) * 2006-02-27 2007-09-13 Mitsubishi Electric Corp プログラマブル表示器、ドキュメント表示方法とその方法を実行するプログラムおよびそれを記録した記録媒体、並びにドキュメント作成方法とその方法を実行するプログラムおよびそれを記録した記録媒体
KR100833862B1 (ko) * 2006-03-30 2008-06-02 엘지전자 주식회사 이동 단말기 및 이것의 객체 표시 방법
KR100686165B1 (ko) * 2006-04-18 2007-02-26 엘지전자 주식회사 오에스디 기능 아이콘을 갖는 휴대용 단말기 및 이를이용한 오에스디 기능 아이콘의 디스플레이 방법
JP2008012199A (ja) * 2006-07-10 2008-01-24 Aruze Corp ゲーム装置及びゲーム装置の画像表示制御方法
US8564544B2 (en) 2006-09-06 2013-10-22 Apple Inc. Touch screen device, method, and graphical user interface for customizing display of content category icons
AU2007328233B2 (en) 2006-12-04 2012-09-13 Deka Products Limited Partnership Medical device including a slider assembly
US7844915B2 (en) 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
US20080168402A1 (en) 2007-01-07 2008-07-10 Christopher Blumenberg Application Programming Interfaces for Gesture Operations
US20080168478A1 (en) 2007-01-07 2008-07-10 Andrew Platzer Application Programming Interfaces for Scrolling
US7750895B2 (en) * 2007-06-29 2010-07-06 Microsoft Corporation Navigating lists using input motions
US7911453B2 (en) * 2007-06-29 2011-03-22 Microsoft Corporation Creating virtual replicas of physical objects
DE102007039444A1 (de) 2007-08-21 2009-02-26 Volkswagen Ag Verfahren zum Anzeigen von Informationen in einem Kraftfahrzeug und Anzeigeeinrichtung für ein Kraftfahrzeug
DE102007039446A1 (de) * 2007-08-21 2009-02-26 Volkswagen Ag Verfahren zum Anzeigen von Informationen in einem Kraftfahrzeug mit veränderbarem Maßstab und Anzeigeeinrichtung
CN101399897B (zh) * 2007-09-30 2010-12-29 宏达国际电子股份有限公司 图像处理方法
TWI405454B (zh) * 2007-10-01 2013-08-11 Htc Corp 影像處理方法
KR20090042342A (ko) * 2007-10-26 2009-04-30 주식회사 메디슨 소프트 버튼을 포함하는 장치 및 그의 속성 변경 방법
EP2060970A1 (de) * 2007-11-12 2009-05-20 Research In Motion Limited Benutzerschnittstelle für ein Gerät mit Touchscreen
US20090122018A1 (en) * 2007-11-12 2009-05-14 Leonid Vymenets User Interface for Touchscreen Device
US8405621B2 (en) 2008-01-06 2013-03-26 Apple Inc. Variable rate media playback methods for electronic devices with touch interfaces
US8645827B2 (en) 2008-03-04 2014-02-04 Apple Inc. Touch event model
US8205157B2 (en) 2008-03-04 2012-06-19 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
US8717305B2 (en) 2008-03-04 2014-05-06 Apple Inc. Touch event model for web pages
US8416196B2 (en) 2008-03-04 2013-04-09 Apple Inc. Touch event model programming interface
US9256342B2 (en) 2008-04-10 2016-02-09 Perceptive Pixel, Inc. Methods of interfacing with multi-input devices and multi-input display systems employing interfacing techniques
US8745514B1 (en) 2008-04-11 2014-06-03 Perceptive Pixel, Inc. Pressure-sensitive layering of displayed objects
US10180714B1 (en) 2008-04-24 2019-01-15 Pixar Two-handed multi-stroke marking menus for multi-touch devices
US8799821B1 (en) * 2008-04-24 2014-08-05 Pixar Method and apparatus for user inputs for three-dimensional animation
EP3130983B1 (de) * 2008-07-15 2018-11-14 Immersion Corporation Systeme und verfahren zum umschalten einer haptischen rückmeldungsfunktion zwischen passiven und aktiven modi
JP5100556B2 (ja) 2008-07-30 2012-12-19 キヤノン株式会社 情報処理方法及び装置
JP5858005B2 (ja) * 2008-08-07 2016-02-10 株式会社リコー 表示システム
JP5304478B2 (ja) * 2008-08-07 2013-10-02 株式会社リコー 画像形成装置、操作画面更新方法およびプログラム
WO2010022386A2 (en) 2008-08-22 2010-02-25 Google Inc. Navigation in a three dimensional environment on a mobile device
US8466879B2 (en) 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
US8477103B2 (en) 2008-10-26 2013-07-02 Microsoft Corporation Multi-touch object inertia simulation
US8302026B2 (en) * 2008-11-28 2012-10-30 Microsoft Corporation Multi-panel user interface
JP5184384B2 (ja) * 2009-01-05 2013-04-17 株式会社ソニー・コンピュータエンタテインメント 制御システムおよび制御方法
US8289288B2 (en) * 2009-01-15 2012-10-16 Microsoft Corporation Virtual object adjustment via physical object detection
US8631354B2 (en) * 2009-03-06 2014-01-14 Microsoft Corporation Focal-control user interface
US8984431B2 (en) 2009-03-16 2015-03-17 Apple Inc. Device, method, and graphical user interface for moving a current position in content at a variable scrubbing rate
US8589374B2 (en) 2009-03-16 2013-11-19 Apple Inc. Multifunction device with integrated search and application selection
US9684521B2 (en) 2010-01-26 2017-06-20 Apple Inc. Systems having discrete and continuous gesture recognizers
US8285499B2 (en) 2009-03-16 2012-10-09 Apple Inc. Event recognition
US9311112B2 (en) 2009-03-16 2016-04-12 Apple Inc. Event recognition
US8839155B2 (en) 2009-03-16 2014-09-16 Apple Inc. Accelerated scrolling for a multifunction device
US8566045B2 (en) 2009-03-16 2013-10-22 Apple Inc. Event recognition
US9703411B2 (en) 2009-04-30 2017-07-11 Synaptics Incorporated Reduction in latency between user input and visual feedback
JP5141984B2 (ja) 2009-05-11 2013-02-13 ソニー株式会社 情報処理装置および方法
JP2010262555A (ja) 2009-05-11 2010-11-18 Sony Corp 情報処理装置および方法
US8352884B2 (en) 2009-05-21 2013-01-08 Sony Computer Entertainment Inc. Dynamic reconfiguration of GUI display decomposition based on predictive model
JP5378884B2 (ja) * 2009-06-01 2013-12-25 パナソニック株式会社 文字入力装置および文字変換方法
KR101451999B1 (ko) * 2009-07-28 2014-10-21 삼성전자주식회사 데이터 스크롤 방법 및 장치
DE102010026291A1 (de) 2009-08-06 2011-02-10 Volkswagen Ag Kraftfahrzeug
US8624933B2 (en) 2009-09-25 2014-01-07 Apple Inc. Device, method, and graphical user interface for scrolling a multi-section document
KR101631273B1 (ko) * 2009-10-26 2016-06-17 삼성전자주식회사 Ui 애니메이션 제공 방법 및 장치
US20110148438A1 (en) * 2009-12-18 2011-06-23 Synaptics Incorporated System and method for determining a number of objects in a capacitive sensing region using a shape factor
US20110148436A1 (en) * 2009-12-18 2011-06-23 Synaptics Incorporated System and method for determining a number of objects in a capacitive sensing region using signal grouping
JP2011177203A (ja) 2010-02-26 2011-09-15 Nintendo Co Ltd オブジェクト制御プログラムおよびオブジェクト制御装置
US8448084B2 (en) * 2010-04-08 2013-05-21 Twitter, Inc. User interface mechanics
JP5533254B2 (ja) * 2010-05-24 2014-06-25 アイシン・エィ・ダブリュ株式会社 情報表示装置、情報表示方法及びプログラム
JP5354548B2 (ja) * 2010-06-11 2013-11-27 サミー株式会社 ゲーム装置
US8552999B2 (en) 2010-06-14 2013-10-08 Apple Inc. Control selection approximation
JP5241038B2 (ja) 2010-07-01 2013-07-17 パナソニック株式会社 電子機器、表示制御方法、及びプログラム
CN102314297B (zh) * 2010-07-07 2016-04-13 腾讯科技(深圳)有限公司 一种窗口对象惯性移动方法及实现装置
JP5711479B2 (ja) 2010-08-17 2015-04-30 キヤノン株式会社 表示制御装置及びその制御方法
US8797283B2 (en) 2010-11-22 2014-08-05 Sony Computer Entertainment America Llc Method and apparatus for performing user-defined macros
US20120159395A1 (en) 2010-12-20 2012-06-21 Microsoft Corporation Application-launching interface for multiple modes
US8612874B2 (en) 2010-12-23 2013-12-17 Microsoft Corporation Presenting an application change through a tile
US8689123B2 (en) 2010-12-23 2014-04-01 Microsoft Corporation Application reporting in an application-selectable user interface
US9423951B2 (en) 2010-12-31 2016-08-23 Microsoft Technology Licensing, Llc Content-based snap point
US8907903B2 (en) 2011-01-13 2014-12-09 Sony Computer Entertainment America Llc Handing control of an object from one touch input to another touch input
JP5651494B2 (ja) 2011-02-09 2015-01-14 日立マクセル株式会社 情報処理装置
US9383917B2 (en) 2011-03-28 2016-07-05 Microsoft Technology Licensing, Llc Predictive tiling
US9298363B2 (en) 2011-04-11 2016-03-29 Apple Inc. Region activation for touch sensitive surface
US10097875B2 (en) 2011-05-25 2018-10-09 Echostar Technologies L.L.C. Apparatus, systems and methods for presentation management of erotica-related media content
US9158445B2 (en) 2011-05-27 2015-10-13 Microsoft Technology Licensing, Llc Managing an immersive interface in a multi-application immersive environment
US9104440B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9104307B2 (en) 2011-05-27 2015-08-11 Microsoft Technology Licensing, Llc Multi-application environment
US9658766B2 (en) 2011-05-27 2017-05-23 Microsoft Technology Licensing, Llc Edge gesture
US8893033B2 (en) 2011-05-27 2014-11-18 Microsoft Corporation Application notifications
KR101794000B1 (ko) * 2011-06-13 2017-11-06 삼성전자주식회사 터치 스크린을 구비하는 기기에서 스크롤 장치 및 방법
US8687023B2 (en) 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
JP5694883B2 (ja) * 2011-08-23 2015-04-01 京セラ株式会社 表示機器
US20130057587A1 (en) 2011-09-01 2013-03-07 Microsoft Corporation Arranging tiles
US20130067390A1 (en) * 2011-09-09 2013-03-14 Paul J. Kwiatkowski Programming Interface for Semantic Zoom
US8922575B2 (en) 2011-09-09 2014-12-30 Microsoft Corporation Tile cache
US9557909B2 (en) 2011-09-09 2017-01-31 Microsoft Technology Licensing, Llc Semantic zoom linguistic helpers
US10353566B2 (en) 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US9146670B2 (en) 2011-09-10 2015-09-29 Microsoft Technology Licensing, Llc Progressively indicating new content in an application-selectable user interface
US9244802B2 (en) 2011-09-10 2016-01-26 Microsoft Technology Licensing, Llc Resource user interface
US8933952B2 (en) 2011-09-10 2015-01-13 Microsoft Corporation Pre-rendering new content for an application-selectable user interface
CN108762577A (zh) 2011-10-18 2018-11-06 卡内基梅隆大学 用于分类触敏表面上的触摸事件的方法和设备
US9223761B2 (en) * 2011-11-04 2015-12-29 Microsoft Technology Licensing, Llc Real time visual feedback during move, resize and/or rotate actions in an electronic document
US9223472B2 (en) 2011-12-22 2015-12-29 Microsoft Technology Licensing, Llc Closing applications
JP6196017B2 (ja) * 2012-01-13 2017-09-13 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
JP5994991B2 (ja) 2012-01-24 2016-09-21 パナソニックIpマネジメント株式会社 電子機器
JP5936381B2 (ja) * 2012-02-09 2016-06-22 キヤノン株式会社 画像処理装置及びその制御方法とプログラム
DE112013002430T5 (de) 2012-05-11 2015-02-19 Semiconductor Energy Laboratory Co., Ltd. Elektronisches Gerät, Speichermedium, Programm und Anzeigeverfahren
US8949735B2 (en) 2012-11-02 2015-02-03 Google Inc. Determining scroll direction intent
US9298970B2 (en) * 2012-11-27 2016-03-29 Nokia Technologies Oy Method and apparatus for facilitating interaction with an object viewable via a display
US10691230B2 (en) 2012-12-29 2020-06-23 Apple Inc. Crown input for a wearable electronic device
KR20140114766A (ko) 2013-03-19 2014-09-29 퀵소 코 터치 입력을 감지하기 위한 방법 및 장치
US9612689B2 (en) 2015-02-02 2017-04-04 Qeexo, Co. Method and apparatus for classifying a touch event on a touchscreen as related to one of multiple function generating interaction layers and activating a function in the selected interaction layer
US9013452B2 (en) 2013-03-25 2015-04-21 Qeexo, Co. Method and system for activating different interactive functions using different types of finger contacts
US9213403B1 (en) 2013-03-27 2015-12-15 Google Inc. Methods to pan, zoom, crop, and proportionally move on a head mountable display
US9507426B2 (en) 2013-03-27 2016-11-29 Google Inc. Using the Z-axis in user interfaces for head mountable displays
JP5787238B2 (ja) 2013-04-10 2015-09-30 コニカミノルタ株式会社 制御装置及び操作制御方法並びに操作制御プログラム
JP5511040B2 (ja) * 2013-05-29 2014-06-04 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
JP5686422B2 (ja) * 2013-05-29 2015-03-18 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
US9733716B2 (en) 2013-06-09 2017-08-15 Apple Inc. Proxy gesture recognizer
JP2015035092A (ja) 2013-08-08 2015-02-19 キヤノン株式会社 表示制御装置及び表示制御装置の制御方法
US10503388B2 (en) 2013-09-03 2019-12-10 Apple Inc. Crown input for a wearable electronic device
JP6200270B2 (ja) * 2013-10-11 2017-09-20 サターン ライセンシング エルエルシーSaturn Licensing LLC 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
CN110413190B (zh) * 2014-02-12 2022-08-23 齐科斯欧公司 为触摸屏交互确定俯仰和偏航
JP6300604B2 (ja) 2014-04-01 2018-03-28 キヤノン株式会社 触感制御装置、触感制御方法及びプログラム
KR102298602B1 (ko) 2014-04-04 2021-09-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 확장가능한 애플리케이션 표시
EP3129847A4 (de) 2014-04-10 2017-04-19 Microsoft Technology Licensing, LLC Schiebeabdeckung für computervorrichtung
EP3129846A4 (de) 2014-04-10 2017-05-03 Microsoft Technology Licensing, LLC Gehäuse mit zusammenklappbarer hülle für eine rechnervorrichtung
JP6482196B2 (ja) * 2014-07-09 2019-03-13 キヤノン株式会社 画像処理装置、その制御方法、プログラム、及び記憶媒体
JP6478502B2 (ja) * 2014-07-11 2019-03-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US10642365B2 (en) 2014-09-09 2020-05-05 Microsoft Technology Licensing, Llc Parametric inertia and APIs
US9329715B2 (en) 2014-09-11 2016-05-03 Qeexo, Co. Method and apparatus for differentiating touch screen users based on touch event analysis
US11619983B2 (en) 2014-09-15 2023-04-04 Qeexo, Co. Method and apparatus for resolving touch screen ambiguities
US10606417B2 (en) 2014-09-24 2020-03-31 Qeexo, Co. Method for improving accuracy of touch screen event analysis by use of spatiotemporal touch patterns
US10282024B2 (en) 2014-09-25 2019-05-07 Qeexo, Co. Classifying contacts or associations with a touch sensitive device
CN106662891B (zh) 2014-10-30 2019-10-11 微软技术许可有限责任公司 多配置输入设备
US20160202865A1 (en) 2015-01-08 2016-07-14 Apple Inc. Coordination of static backgrounds and rubberbanding
KR20160138806A (ko) * 2015-05-26 2016-12-06 엘지전자 주식회사 글래스타입 단말기 및 그 제어방법
JP6643776B2 (ja) * 2015-06-11 2020-02-12 株式会社バンダイナムコエンターテインメント 端末装置及びプログラム
US10642404B2 (en) 2015-08-24 2020-05-05 Qeexo, Co. Touch sensitive device with multi-sensor stream synchronized data
JP6455489B2 (ja) 2016-06-20 2019-01-23 京セラドキュメントソリューションズ株式会社 表示装置及び表示制御プログラム
US10984179B2 (en) * 2017-12-04 2021-04-20 Microsoft Technology Licensing, Llc Intelligent object movement
US11009989B2 (en) 2018-08-21 2021-05-18 Qeexo, Co. Recognizing and rejecting unintentional touch events associated with a touch sensitive device
US11252322B2 (en) 2019-04-26 2022-02-15 Canon Kabushiki Kaisha Electronic device capable of performing control in accordance with a movement operation of an operating body and control method thereof
US10942603B2 (en) 2019-05-06 2021-03-09 Qeexo, Co. Managing activity states of an application processor in relation to touch or hover interactions with a touch sensitive device
US11231815B2 (en) 2019-06-28 2022-01-25 Qeexo, Co. Detecting object proximity using touch sensitive surface sensing and ultrasonic sensing
US11592423B2 (en) 2020-01-29 2023-02-28 Qeexo, Co. Adaptive ultrasonic sensing techniques and systems to mitigate interference

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3673327A (en) * 1970-11-02 1972-06-27 Atomic Energy Commission Touch actuable data input panel assembly
JPS6066298A (ja) * 1983-09-21 1985-04-16 キヤノン株式会社 情報処理装置
DE3572878D1 (en) * 1984-05-07 1989-10-12 Siemens Ag Device for moving symbols on the screen of a display unit
JP2568174B2 (ja) * 1985-12-25 1996-12-25 キヤノン株式会社 表示制御装置
US4746770A (en) * 1987-02-17 1988-05-24 Sensor Frame Incorporated Method and apparatus for isolating and manipulating graphic objects on computer video monitor
JPS63201816A (ja) * 1987-02-18 1988-08-19 Hitachi Ltd カ−ソル表示装置
JPH083785B2 (ja) * 1987-02-24 1996-01-17 富士通株式会社 表示スクロ−ル方式
GB8725033D0 (en) * 1987-10-26 1987-12-02 Crosfield Electronics Ltd Interactive image display
US4914624A (en) * 1988-05-06 1990-04-03 Dunthorn David I Virtual button for touch screen
JP2595045B2 (ja) * 1988-06-14 1997-03-26 株式会社日立製作所 タッチパネル入力装置
US5174759A (en) * 1988-08-04 1992-12-29 Preston Frank S TV animation interactively controlled by the viewer through input above a book page
US5075673A (en) * 1989-06-16 1991-12-24 International Business Machines Corp. Variable speed, image pan method and apparatus
US5347628A (en) * 1990-01-18 1994-09-13 International Business Machines Corporation Method of graphically accessing electronic data
CA2035671A1 (en) * 1990-03-12 1991-09-13 John Frederick Fedak Dynamic selective correlation of graphic entities

Also Published As

Publication number Publication date
EP0536715A3 (en) 1993-05-26
EP0938037B1 (de) 2004-01-07
EP0938039B1 (de) 2006-02-15
EP0938037A2 (de) 1999-08-25
JP2827612B2 (ja) 1998-11-25
DE69231270T2 (de) 2000-11-30
DE69233133T2 (de) 2004-02-05
EP0938040A2 (de) 1999-08-25
KR950012490B1 (ko) 1995-10-18
DE69233284D1 (de) 2004-02-12
EP1645946A2 (de) 2006-04-12
EP1645946B1 (de) 2011-06-08
DE69233284T2 (de) 2004-06-03
DE69233211T2 (de) 2004-04-29
EP0938038A2 (de) 1999-08-25
EP0938037A3 (de) 2000-03-22
DE69233133D1 (de) 2003-08-21
KR930008594A (ko) 1993-05-21
DE69233211D1 (de) 2003-10-23
EP0536715A2 (de) 1993-04-14
EP1645946A3 (de) 2006-06-07
JPH05100809A (ja) 1993-04-23
US5844547A (en) 1998-12-01
EP0938039A2 (de) 1999-08-25
DE69233600D1 (de) 2006-04-20
EP0938040B1 (de) 2003-07-16
EP0938040A3 (de) 2000-03-29
EP0938038A3 (de) 2000-03-22
EP0938039A3 (de) 2000-04-05
DE69231270D1 (de) 2000-08-24
EP0938038B1 (de) 2003-09-17
EP0536715B1 (de) 2000-07-19

Similar Documents

Publication Publication Date Title
DE69233600T2 (de) Gerät zur Manipulation eines auf einem Bildschirm angezeigten Objektes
DE69724416T2 (de) Zeigersteuerung mit benutzerrückführungsmechanismus
DE19648487C1 (de) Fenstersteuersystem zur Steuerung der Verschiebung eines Fensterausschnitts auf einem Monitor
DE4406668C2 (de) Verfahren und Vorrichtung zum Betreiben eines berührungsempfindlichen Anzeigegeräts
DE19744861C2 (de) Verfahren zum Einsatz einer dreidimensionalen Maus in fensterorientierten Betriebssystemen
DE60025926T2 (de) Steuerung der tiefenbewegung in einer anzeigevorrichtung mit mehrschichtigem bildschirm
DE3838937C2 (de)
DE4230494C2 (de) Handschrifteingabevorrichtung für die Eingabe handschriftlicher Daten aus beliebiger Richtung
EP2017756A1 (de) Verfahren zur Anzeige und/oder Bearbeitung bzw. Verarbeitung von Bilddaten medizinischen oder medizintechnischen Ursprungs mit Gestenerkennung
DE4446431C2 (de) Verfahren zur direkten Manipulation von Bildern auf einem Monitor mit einer Maus
DE102009043655A1 (de) Maus mit Schwenk-, Zoom- und Bildlaufsteuerelementen
EP1513056B1 (de) 3D-Eingabegerät mit integrierter Anzeigevorrichtung
DE102009014555A1 (de) Verfahren zum Unterstützen der Steuerung der Bewegung eines Positionsanzeigers mittels eines Tastfelds
DE102013007250A1 (de) Verfahren zur Gestensteuerung
DE19751262A1 (de) Koordinateneingabevorrichtung
DE102008061039A1 (de) Verfahren zur optischen Multitouchsteuerung für grafische Benutzerschnittstelle
EP3400515A1 (de) Benutzerschnittstelle mit mehreren anzeigen und verfahren zur positionierung von inhalten auf mehreren anzeigen
DE102017121342A1 (de) Anzeigesteuerungsvorrichtung, anzeigesteuerungssystem und anzeigesteuerungsverfahren
WO2003023592A2 (de) Desktopmanager
DE10084249T5 (de) Zusätzliches LCD-Feld mit Sensorbildschirm
EP3686700B1 (de) Verfahren zur überwachung einer automatisierungsanlage
WO2006032442A1 (de) Steuereinrichtung für anzeigen
DE102009003995A1 (de) Verfahren zur Vergrößerung eines Darstellungsbereichs auf einer Darstellungseinrichtung
EP1019800B1 (de) System zum erfassen und zum verarbeiten von benutzer-eingaben
DE102009021216A1 (de) Eingabevorrichtung für eine Displayeinheit

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Representative=s name: SEEGER SEEGER LINDNER PARTNERSCHAFT PATENTANWAELTE

8327 Change in the person/name/address of the patent owner

Owner name: APPLE INC., CUPERTINO, CALIF., US

R071 Expiry of right

Ref document number: 938039

Country of ref document: EP