DE3724833A1 - Informationsverarbeitungsgeraet - Google Patents

Informationsverarbeitungsgeraet

Info

Publication number
DE3724833A1
DE3724833A1 DE19873724833 DE3724833A DE3724833A1 DE 3724833 A1 DE3724833 A1 DE 3724833A1 DE 19873724833 DE19873724833 DE 19873724833 DE 3724833 A DE3724833 A DE 3724833A DE 3724833 A1 DE3724833 A1 DE 3724833A1
Authority
DE
Germany
Prior art keywords
operator
information
mental condition
machine
output device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19873724833
Other languages
English (en)
Other versions
DE3724833C2 (de
Inventor
Hirokazu Negishi
Masao Hosaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of DE3724833A1 publication Critical patent/DE3724833A1/de
Application granted granted Critical
Publication of DE3724833C2 publication Critical patent/DE3724833C2/de
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/905Feedback to patient of biological signal other than brain electric signal
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics

Description

Die Erfindung bezieht sich auf ein Gerät zur Informations­ verarbeitung.
In den letzten Jahren wurden auf verschiedenerlei Anwendungs­ gebieten mit zunehmender Bedeutung Büroautomatisierungsanla­ gen eingesetzt. Zugleich mit dem Ablauf der "Zweiten Indu­ striellen Revolution" wurde die Wichtigkeit einer Mensch- Maschine-Beziehung erkannt, für die zunehmend höhere Anforde­ rungen gestellt wurden.
Hinsichtlich der Mensch-Maschine-Beziehung ergibt sich die Frage, wie eine Maschine vom menschlichen Standpunkt aus gesehen wird, und damit das Ziel, eine "freundschaftliche" Beziehung mit dem Benutzer herzustellen.
Die Zweite industrielle Revolution ist aber eine Neuerung, die auf einem Computer beruht, der einen Teil des menschli­ chen Denkens ersetzt, insbesondere auf einem Mikrocomputer als Halbleitercomputer hoher Leistungsfähigkeit. In einem gewissen Sinne ist eine Maschine dem Menschen überlegen, so daß bei dem gegenwärtigen Stand der Mensch-Maschine-Beziehung die "intelligente" Maschine auf den Menschen herabzusehen scheint.
In den Zeiten der Ersten Industriellen Revolution, in denen die Maschine die Arbeit übernahm, ist als Nebenwirkung eine Entfremdung des Menschen von der Maschine entstanden. Diese Entfremdung ist in dem Film "Moderne Zeiten" von Charlie Chaplin auf zynische Weise karikiert. Um zweite "moderne Zeiten" zu vermeiden, muß eine "menschliche" Mensch-Maschine- Beziehung entwickelt werden.
Die durch einen Mikrocomputer verkörperte intelligente Maschine ruft im Menschen eine schwerwiegende Abneigung hervor, die schlimmer als die Entfremdung bei der ersten industriellen Revolution ist. Die auf dem Computer beruhende gegenwärtige Neuerung ist von einem Computerraum ausgehend hinsichtlich der Qualität und der Menge zur Büroautomatisie­ rung, Fabrikautomatisierung und Heimautomatisierung weiter­ entwickelt und von der Fabrik bis zu dem Haushalt über einem weiten Bereich verbreitet. Insgesamt gesehen stellt dies jedoch lediglich eine Vorläuferwelle dar. Es ist ins Auge zu fassen, daß die große Welle über den Kopf steigen könnte. Bei gefühlmäßig gestörten Individuen entwickelt sich das Gefühl der Abneigung gegen intelligente Maschinen zu seelischen Anspannungen oder Neurosen. In den jetzigen Tagen entsteht gerade durch die Computer der fünften Generation eine dritte industrielle Revolution, die von einer wissenschaftlichen Neuerung getragen ist. Dies ist nur ein soziales Bedürfnis.
Beispielsweise wird bei neueren Informationsverarbeitungsge­ räten ein auf einem Bildschirm dargestelltes Ikon mittels einer Maus als einer von Koordinateneingabevorrichtungen bewegt, um ein erwünschtes Menü oder eine erwünschte Verar­ beitung zu wählen. Daher sind die neueren Informationsverar­ beitungsgeräte vom Menschen leicht zu bedienen.
Da aber die Tastatur und die Maus selektiv eingesetzt werden müssen, sind die Maus und das Ikon vortäuschende, aber keine (letztlich) entscheidenden Einrichtungen. Dies beruht darauf, daß die Maschine nicht mit dem Menschen in Verbindung treten kann. Insbesondere neigt der Mensch instinktiv dazu, mit einem Lebewesen, nämlich einem Menschen in Verbindung zu treten. Die neueren Informationsverarbeitungsgeräte haben noch nicht dieses Niveau erreicht.
Ein weiteres Problem entsteht durch den Umstand, daß der Mensch durch eine Maschine geleitet wird. Ein Endziel ist es, die Maschine "freundlich" zu gestalten bzw. einen "Kyborg" oder Hochleistungsroboter zu entwickeln. In diesem Sinne stellt die Personifizierung bzw. Verpersönlichung verschiede­ ner Informationsgeräte einen großen Sprung dar. Gegenwärtig werden jedoch nahezu keine Untersuchungen oder Entwicklungen vorgenommen.
Der Erfindung liegt die Aufgabe zugrunde, ein Gerät zur Informationsverarbeitung zu schaffen, mit dem die Mensch- Maschine-Beziehung dadurch zu einer Person-Maschine-Beziehung verbessert wird, daß in Informationsgeräte, Programme und dergleichen auf der Grundlage psychologischer Neigungen der Menschen ein freundschaftliches Zeichen wie ein Ikon zweiter Generation eingeführt wird.
Es ist anzumerken, daß mit der Person-Maschine-Beziehung (Person-Maschine-Schnittstelle bzw. personifizierte Maschi­ nenschnittstelle) die Verbesserung der Mensch-Maschine-Bezie­ hung bezweckt ist und daß mit "Verpersönlichung" sowohl Personifizierung als auch Ausrichtung auf die Einzelperson gemeint ist.
Mit der Erfindung soll ein Informationsverarbeitungsgerät geschaffen werden, das zumindest eine der folgenden Bedingun­ gen erfüllt:
  • 1) Der Benutzer wird einzeln für sich identifiziert, um automatisch die für diese Person geeignete Mensch-Maschine- Beziehung bzw. -Schnittstelle zu wählen.
  • 2) Anpassung an das Können: Wahl entsprechend der gesamten Zugriff- bzw. Suchzeit, der Fehlerhäufigkeit, der Neigungen und der tatsächlichen Ergebnisse.
  • 3) Überwachung der Person-Maschine-Beziehung: Das Gerät muß eine schaltungstechnische Ausstattung und ein Betriebssystem haben, die die Ausführung der vorstehenden Punkte ermögli­ chen.
  • 4) Die schaltungstechnische Ausstattung muß mit Einrichtun­ gen für das Herbeiführen der Person-Maschine-Beziehung und Einrichtungen für die Gerätesteuerung aufgebaut sein und innerhalb eines angemessenen Kostenbereichs realisiert werden können.
  • 5) Das Gerät muß nur ein zum Anregen einer Assoziation ausreichendes Informationsvolumen haben, da sich das Gerät an die Psyche des Benutzers wendet. Daher braucht nicht immer die Sichtanzeige ein Vollfarbenbild hoher Qualität zu sein, so daß stattdessen nur ein kleines Zeichen in der Art eines Ikons in Form eines Linienbilds angezeigt werden kann.
  • 6) Das Gerät muß sich an die Psyche des Benutzers wenden bzw. diesem psychologisch entsprechen, damit der Benutzer den Zustand der Einrichtung, die Art des Betriebsvorgangs, eine Eigenfehlerdiagnose und Befehle erkennt und darauf antwortet, während dabei eine Maschine personifiziert bzw. verpersön­ licht ist, ohne daß eine schwere Belastung der Ausstattung bzw. der Einrichtung entsteht.
Mit der Erfindung sollen die herkömmlichen Mängel in Anbe­ tracht der vorstehend geschilderten Lage ausgeschaltet wer­ den.
In dem erfindungsgemäßen Gerät soll mit einer Detektorein­ richtung die geistige Kondition bzw. Bereitschaft einer Be­ dienungsperson erfaßt werden und es sollen mit einer Ausgabe­ einrichtung auf der erfaßten geistigen Kondition basierende Informationen abgegeben werden.
Ferner sollen im erfindungsgemäßen Gerät mit einer Wählein­ richtung Grundinformationen über eine Bedienungsperson aus in einer Speichereinrichtung gespeicherten Informationen über eine Vielzahl unterschiedlicher Bedienungspersonen gewählt werden und auf den gewählten Grundinformationen beruhend mittels einer Ausgabeeinrichtung Informationen abgegeben werden, die der mittels einer Detektoreinrichtung erfaßten geistigen Kondition der Bedienungsperson entsprechen.
Die Erfindung wird nachstehend anhand von Ausführungsbeispie­ len unter Bezugnahme auf die Zeichnung näher erläutert.
Fig. 1 ist eine Ansicht, die einen Zustand zeigt, bei dem eine Bedienungsperson ein Informationsverarbeitungs­ gerät gemäß einem Ausführungsbeispiel benutzt.
Fig. 2 veranschaulicht einen Zustand, bei dem die Bedie­ nungsperson eine besondere Brille für das Büroauto­ matisierungsgerät trägt.
Fig. 3 zeigt einen mittels der Brille erfaßten Pupillen­ bewegungsbereich.
Fig. 4 zeigt ein Beispiel für die bei dem Ausführungsbei­ spiel abgegebenen Informationen.
Fig. 5 ist eine Ansicht, die die Architektur einer Steuer­ einrichtung zeigt, welche die Informationsverarbei­ tungseinrichtung bei dem Ausführungsbeispiel bildet.
Fig. 6 veranschaulicht den Zusammenhang zwischen Ausgaben und einem Betriebssystem.
Fig. 7 zeigt die grundlegende Gestaltung des Informations­ verarbeitungsgeräts gemäß dem Ausführungsbeispiel.
Fig. 8 ist eine Tabelle, die Betriebszustände bei dem Aus­ führungsbeispiel zeigt, welche sich mit dem Ablauf der Zeit ändern.
Die charakteristischen Merkmale des Geräts können bei einem einzelnen Gerät oder bei einem System aus mehreren Geräten erreicht werden.
Gegenwärtig wird als einfaches Verfahren für die Mensch- Maschine-Beziehung eine Spracheingabevorrichtung vorgeschla­ gen. Auch durch diese Vorrichtung wird der Benutzer bzw. die Bedienungsperson nur von einer umständlichen Tasteneingabe befreit, jedoch bildet eine solche Vorrichtung keine Endlö­ sung für die Mensch-Maschine-Beziehung. Es ist insbesondere bei den gerade bestehenden Techniken schwierig, eine Sprach­ erkennung bei einer Vielzahl von Benutzern zu realisieren.
Ein charakteristisches Merkmal des beschriebenen Geräts be­ steht darin, daß von einer Maschine die psychologische Nei­ gung einer Bedienungsperson als Benutzer erfaßt und von der Maschine her eine Nachrichtenverbindung zum Menschen hin angefordert wird.
Zu diesem Zweck wird ein Verfahren vorgeschlagen, bei dem ein Zugriff zur Maschine oder ein Ruhezustand einer Bedienungs­ person erfaßt wird, um von der Maschine her sprachlich zu antworten oder zu ermitteln, ob die Bedienungsperson die Maschine zu benützen wünscht oder nicht; die Maschine wartet eine Einschaltung ab (Netzeinschaltung oder Anfangsvorberei­ tung), wobei eine Spracherkennungsfunktion derart gestaltet ist, daß eine Sprachverbindung mit einer Bedienungsperson hergestellt wird. Dieses Verfahren ist jedoch nicht besser als die Mensch-Maschine-Schnittstelle bzw. -Beziehung und vereinfacht lediglich eine Schnittstelle bzw. Kommunikation mit der Maschine. Die Person-Maschine-Beziehung kann nicht herbeigeführt werden, falls nicht die Maschine die geistige Kondition der Bedienungsperson abfrägt.
Bei diesem Ausführungsbeispiel wird das Informationsverarbei­ tungsgerät als Arbeitsplatzcomputer oder als Textverarbei­ tungsgerät benutzt. Die erfindungsgemäße Gestaltung ist jedoch nicht darauf beschränkt; vielmehr kann eine äquivalen­ te Beziehung zwischen einer Maschine zur numerischen Steue­ rung, einer Großanlage oder dergleichen und einer Bedienungs­ person hergestellt werden.
Eine Bedienungsperson betätigt normalerweise eine Tastatur unter Beobachtung eines Sichtgeräts, woraufhin die Maschine verschiedenerlei Verarbeitungsvorgänge entsprechend den ein­ gegebenen Daten, entsprechend in einem Speicher gespeicherten Daten oder einem Befehl aus der Tastatur ausführt. Es stellt sich jedoch die Frage, wie die Maschine die geistige Kondition der Bedienungsperson erfassen kann.
Nach einem ersten Verfahren werden im voraus in die Maschine zusammen mit einer eigenen Kennziffer Daten eingegeben, die Daten über die Persönlichkeit, den Charakter und dergleichen einer Bedienungsperson wiedergeben. Nach einem zweiten Ver­ fahren wird die geistige Kondition der Bedienungsperson aus der Pupillenbewegung der Bedienungsperson, der Körpertempera­ tur, der Raumtemperatur, dem Puls, dem Blutdruck und mittels eines Sensors der Maschine erfaßten Eingabefehlern ermittelt. Nach diesem Verfahren werden nur gewöhnliche Vorgänge erfaßt.
Mit diesem Verfahren kann die Maschine jedoch die Persönlich­ keit und die geistige Kondition der Bedienungsperson erfassen und durch eine Nachricht auf einem Bildschirm oder eine gesprochene Nachricht in der Weise reagieren, als ob es sich um einen guten Freund handeln würde. Es ist anzumerken, daß die vorstehend beschriebenen Daten auch durch das Überwachen einer Suchzeit der Bedienungsperson ermittelt werden können.
Die Fig. 1 zeigt ein Beispiel für die Erfassung von Bioinfor­ mationen. Die Fig. 1 zeigt einen Zustand, bei dem eine Bedie­ nungsperson 1 ein Büroautomatisierungsgerät (wie beispiels­ weise ein Textverarbeitungsgerät) bedient.
Bei diesem Zustand wird die geistige Kondition der Bedie­ nungsperson 1 auf die vorstehend beschriebene Weise erfaßt. Zunächst wird eine Brille 4 für das Büroautomatisierungsgerät beschrieben.
Die Brille 4 hat einen Sensor für den fernen Infratrotbe­ reich, der das ständige Aufnehmen der Pupillenbewegung der Bedienungsperson 1 ermöglicht. In der Praxis wird an einem Rand der Brille 4 ein Leuchtelement zum Erzeugen eines schwa­ chen Strahls im fernen Infrarotbereich angebracht, das den Strahl auf die Pupille richtet. Da die Pupille der Bedie­ nungsperson schwärzlich ist, wird kein von der Pupille re­ flektiertes Licht erhalten (oder das Licht abgeschwächt). Wenn der Strahl außerhalb der Pupille einfällt, wird das dadurch reflektierte Licht mittels eines Lichtempfangsele­ ments aufgenommen. Die Richtwirkung des Leuchtelements kann derart eingestellt werden, daß kein reflektiertes Licht auf­ genommen wird, wenn sich die Pupille innerhalb eines Bereichs bewegt, in welchem die Bedienungsperson den Bildschirm eines Sichtgeräts 2 beobachtet. Aus der Fig. 3 ist ersichtlich, daß ein Bereich der Pupillenbewegung bei dem Betrachten einer Tastatur 3 und ein Bereich der Pupillenbewegung bei dem Betrachten des Sichtgeräts erkannt werden können. Wenn sich die Pupille aus diesen Bereichen oder häufig aus diesen Bereichen herausbewegt, wird daraus erkannt, daß die Bedie­ nungsperson 1 beträchtlich ermüdet ist oder sich nicht auf den Bedienungsvorgang konzentrieren kann, so daß daher an einem Bereich des Bildschirms eine Nachricht "kurze Pause?" angezeigt oder ein Bild dargestellt wird, das die Bedienungs­ person gerne sehen möchte. In der Fig. 4 ist ein solcher Zustand dargestellt. Nach Fig. 4 wird an einem Bereich des Bildschirms eine Landschaft dargestellt, die die Bedienungs­ person gerne sehen möchte, während zugleich eine der Bedie­ nungsperson angenehme Hintergrundmusik wiedergegeben werden kann. Daher muß vor dem Einschalten des Geräts in das Gerät eine eigene Kennziffer eingegeben werden, da verschiedene Personen verschiedene Bilder oder verschiedene Hintergrund­ musik bevorzugen. Auf diese Weise kann das Gerät mit hoher Genauigkeit auf der Grundlage der der eingegebenen Kennziffer entsprechenden Daten die geistige Kondition der Bedienungs­ person ermitteln.
Hinsichtlich der Einrichtung für das Erfassen der geistigen Kondition der Bedienungsperson besteht keine Einschränkung auf die vorstehend beschriebene Brille für das Büroautomati­ sierungsgerät. Beispielsweise kann gemäß der vorangehenden Beschreibung die geistige Kondition der Bedienungsperson aus den Umgebungsbedingungen bei der Benutzung des Geräts durch die Bedienungsperson und aus der Körpertemperatur, dem Puls, dem Blutdruck und Eingabefehlern der Bedienungsperson ermit­ telt werden. Zu diesem Zweck werden zum Erfassen einer Ände­ rung der geistigen Kondition ein Temperaturfühler, ein Puls­ fühler, ein Blutdruckfühler und/oder ein Sensor für das Er­ fassen der Druckkraft bei dem Herunterdrücken in einigen Tasten der Tastatur 3 angebracht (wie z.B. in einer Wagen­ rücklauftaste und einer Leertaste, die häufig benutzt werden). Mit der Tastatur 3 mit der vorstehend genannten Funktion kann ermittelt werden, daß die Druckkraft bei der Betätigung der Tastatur 3 höher als eine normale Druckkraft wird, oder die Anzahl von Fehlerkorrekturen bei dem Drücken falscher Tasten gezählt werden. Entsprechend der Häufigkeit kann das Gerät mit der Bedienungsperson in Verbindung treten, wodurch eine Mensch-Maschine-Wechselwirkung entsteht.
Von dem Gerät werden die Informationen über die geistige Kondition der Bedienungsperson wie über Änderungen der Pupil­ lenbewegung, die Häufigkeit von Eingabefehlern, den Puls, die Körpertemperatur, den Blutdruck und dergleichen erfaßt, wo­ raus das Gerät das Ausmaß der Ermüdung ermittelt, so daß eine von dem erfaßten Zustand abhängige Nachrichtenverbindung herbeigeführt werden kann.
Die Fig. 5 zeigt die Architektur einer Steuereinheit, die eine Büroautomatisierungs-Einrichtung als Informationsverar­ beitungsgerät bildet. Mit der Halbleiter-Herstellungstechnik gemäß der neueren Entwicklung kann die Steuereinheit auf einem einzelnen Halbleiterplättchen ausgebildet werden. Ein Merkmal der Steuereinheit nach Fig. 5 besteht darin, daß zusätzlich zu einer Zentraleinheit CPU auf einem einzigen Halbleiterplättchen eine Vielzahl von Kanälen von Koprozesso­ ren COP für die Steuerung tatsächlicher Aufgaben vorgesehen ist. Daher muß die Zentraleinheit CPU lediglich das Betriebs­ system für das Verwalten der Koprozessoren COP steuern. Bei diesem Ausführungsbeispiel bedeutet der Umstand, daß die Maschine die Funktion zum Erfassen und Lernen der geistigen Kondition der Bedienungsperson hat, eine Annäherung an eine künstliche Intelligenz. Daher wird vorzugsweise eine Vielzahl von Prozessoren angeordnet, die eine schnelle parallele Ver­ arbeitung ermöglichen.
Eine Schicht 2 nach Fig. 5 enthält ein Mikroprogramm, das den Betrieb der Zentraleinheit CPU mit hoher Geschwindigkeit ermöglicht. Dieses Programm ist derart ausgelegt, daß auf das Zusammenwirken mit einer Bedienungsperson hin mit hoher Ge­ schwindigkeit ein kompliziertes Programm für das Verstehen bzw. Beurteilen einer Bedienungsperson ausgeführt wird.
Eine Schicht 3 enthält eine Gruppe von Koprozessoren COP. Koprozessoren für Kanäle 0 bis 16 können unabhängig voneinan­ der parallel betrieben werden. Diese Prozessoren stehen nicht direkt in Zusammenhang mit der erfindungsgemäßen Gestaltung des Geräts, so daß sich eine ausführliche Beschreibung der­ selben erübrigt.
Eine Schicht 4 enthält eine Zeitgeber/Zähler-Anordnung, die von der Zentraleinheit CPU und den Koprozessoren COP abgeru­ fen werden kann. Es ist anzumerken, daß jeder Koprozessor COP 14 Kanäle von Zeitgebern/Zählern enthält. Für den Datenaus­ tausch zwischen der Zentraleinheit CPU und dem Koprozessor COP und zwischen den Koprozessoren COP wird ein Doppelkanal- Schreib/Lesespeicher DPRAM benutzt. Von den Koprozessoren COP und der Zentraleinheit CPU kann ein Arbeitsspeicher RAM abge­ rufen werden. Eine Schicht 5 enthält Sammelleitungen, die als Schnittstellen zu einer externen Schaltung (außerhalb der Steuereinheit) eingesetzt werden. Eine Sammelleitung SBUS wird für eine Erweiterung mit einem externen Speicher und externen Eingabe/Ausgabeeinheiten benutzt.
Eine Sammelleitung IBUS wird insbesondere für einen Emula­ tions- und Testadapter (ICE) benutzt. Bei der Fehlerbeseiti­ gung im System kann über diese Sammelleitung der Inhalt eines (nicht gezeigten) Registrier-Arbeitsspeichers herausgeleitet und überprüft werden.
Eine Sammelleitung OBUS ist eine Eingabe/Ausgabeleitung, die für die Erweiterung mit einem Eingabe/Ausgabe-Element benutzt werden kann.
In einer seriellen Schnittstelle LAN zur Ein- und Ausgabe wird durch ein Programm ein vorbestimmtes Protokoll gebildet, wobei die Koprozessoren COP zu einer seriellen Datenverbin­ dung mit der Schnittstelle ausgebildet sind.
Die Fig. 6 zeigt Aufgaben, die mit dem Informationsverarbei­ tungsgerät gemäß dem Ausführungsbeispiel auszuführen sind, und Schichten des Betriebssystems. Gemäß der vorstehenden Beschreibung ist bei diesem Ausführungsbeispiel um die Zen­ traleinheit CPU herum eine Vielzahl parallel betreibbarer Koprozessoren COP angeordnet, von denen einige zur Steuerung der Person-Maschine-Beziehung bzw. -Schnittstelle herangezo­ gen werden können. Dieses Betriebssystem enthält ein Be­ triebssystem zur normalen Maschinensteuerung und ein Be­ triebssystem für die Person-Maschine-Beziehung. Das Betriebs­ system für die Person-Maschine-Beziehung kann als ein Be­ triebssystem mit künstlicher Intelligenz für das allmähliche Lernen der Angewohnheit oder Personalität einer Bedienungs­ person durch das Zusammenwirken mit der Bedienungsperson und für das bessere Verstehen angesehen werden. Die Koprozessoren COP sind um das Betriebssystem für die Person-Maschine-Bezie­ hung bzw. -Schnittstelle (PMI OS) herum angeordnet und führen parallel entsprechende Aufgaben 0 bis 15 aus.
Die Zuordnung der Aufgaben 0 bis 15 für die Person-Maschine- Beziehung kann in Abhängigkeit von der Programmarchitektur festgelegt werden. Entsprechend einer Arbeitsbelastung kann die Anzahl der Koprozessoren COP gesteigert oder vermindert werden.
Zum Ausführen der vorstehend beschriebenen Verarbeitung ist ein besonderes Betriebssystem erforderlich. Für das Ausführen des einer künstlichen Intelligenz ähnlichen Betriebssystems für die Person-Maschine-Beziehung mit Lernfunktion sind Pro­ zessoren zur Parallelverarbeitung mit hoher Geschwindigkeit erforderlich. Die Architektur bei diesem Ausführungsbeispiel ist für diese Betriebssysteme und Prozessoren geeignet.
Die Fig. 7 zeigt eine Anordnung bei der Verwendung dieses Systems in einem Büroautomatisierungsgerät. Für die Person- Maschine-Beziehung sind ein Bioinformations-Sensor 6, ein Sichtgerät 2 für die Sichtanzeige zur Person-Maschine-Kommuni­ kation an einem Teilbereich des Bildschirms und ein Lautspre­ cher 7 für akustische Meldungen vorgesehen. Das ganze Gerät wird mittels einer Steuereinheit 5 gesteuert, die einen Grunddatenspeicher 5 a zum Speichern von Grunddaten für eine jede Bedienungsperson enthält (nämlich von Daten, die die Personalitäten und Vorlieben der jeweiligen Bedienungsperso­ nen wiedergeben).
Mit dieser Anordnung kann auf einfache Weise eine preisgün­ stige Person-Maschine-Beziehung bzw. -Schnittstelle auf einem Niveau erzielt werden, das höher als dasjenige bei der her­ kömmlichen Mensch-Maschine-Beziehung bzw. -Schnittstelle ist.
Die Fig. 8 zeigt Nachrichten und Ankündigungen der Person- Maschine-Schnittstelle bei diesem Ausführungsbeispiel im zeitlichen Ablauf. Wenn das Gerät eingeschaltet wird, wird zuerst "Guten Morgen" angezeigt oder ausgesprochen. Da das Gerät nicht immer am Morgen eingeschaltet wird, können dem Einschaltzeitpunkt entsprechende Begrüßungsdaten ausgegeben werden. Falls es erforderlich ist, wird ein Kennwort oder eine Kennziffer eingegeben. Wenn die Kennziffer eingegeben ist, kann daraus das Gerät die Bedienungsperson identifizie­ ren. Wenn daher für die Ausgabe einer Nachricht danach die geistige Kondition erfaßt wird, werden die für die Bedie­ nungsperson am besten geeigneten Daten ausgegeben. Beispiels­ weise wird gemäß Fig. 8 (um 10 Uhr vormittags und um 3 Uhr nachmittags) die Nachricht "Teepause?" angezeigt. Falls die Bedienungsperson Kaffee vorzieht, kann die Nachricht auf "Kaffeepause?" abgeändert werden. Da eine Bildausgabe zu diesem Zeitpunkt sich in Abhängigkeit von den Unterschieden zwischen den Personen ändert, ist ein auf dem Sichtgerät dargestelltes Bild nicht immer das gleiche. Beispielsweise kann in Abhängigkeit von der Vorliebe der Bedienungsperson ein Berg, das Meer, ein populärer Sänger, ein Idol, Buddha oder dergleichen abgebildet werden. Ferner können auch zu­ sätzlich klassische Musik, Volkslieder, Vogelgesang, Meeres­ rauschen und dergleichen wiedergegeben werden. Daher können Bild und Ton abgegeben werden, die die Bedienungsperson er­ freuen bzw. der Bedienungsperson Entspannung bringen. Auf diese Weise dient die Eingabe der Kennziffer zum Wählen der in dem Gerät vorgespeicherten persönlichen Grunddaten, wobei der Inhalt der abgegebenen Nachrichten nach Bedarf verändert werden kann. Falls keine Kennziffern benutzt werden, können natürlich allgemein gültige Daten ausgegeben werden.
Bei dem Gerät gemäß diesem Ausführungsbeispiel können die Maschine und der Mensch sich verständigen bzw. einander ver­ stehen, so daß die Bedienungsperson keine geistigen Schädi­ gungen wie Neurosen erleidet, wobei die Zusammenwirkung mit der Maschine reibungslos abgewickelt werden kann.
Da die Maschine die Bioinformationen erfaßt und Informationen für die Bedienungsperson abruft, wird dadurch ein gutes Ver­ hältnis zwischen der Bedienungsperson und der Maschine gewährleistet, wobei die Maschine die einer zum jeweiligen Zeitpunkt bestehenden Kondition entsprechende Bekanntgabe macht, um Fehler auszuschalten.
Falls in dem Gerät im voraus persönliche Grunddaten für die Bedienungspersonen gespeichert werden, können noch besser angemessene Nachrichten abgegeben werden.
Ein Informationsverarbeitungsgerät enthält einen Prozessor für die Ausführung verschiedenartiger Informationsverarbei­ tungsvorgänge entsprechend Befehlen einer Bedienungsperson, einen Bioinformations-Sensor für das Erfassen der geistigen Kondition der Bedienungsperson und eine Ausgabeeinheit für die Ausgabe entsprechender Informationen an die Bedienungs­ person gemäß der erfaßten geistigen Kondition. Durch die von der Ausgabeeinheit abgegebenen Informationen wird eine Ent­ spannung der Bedienungsperson hervorgerufen.

Claims (19)

1. Gerät zur Informationsverarbeitung, gekennzeichnet durch eine Verarbeitungseinrichtung (3, 5) zum Ausführen von ver­ schiedenartigen Informationsverarbeitungsvorgängen entspre­ chend Befehlen einer Bedienungsperson, eine Detektoreinrich­ tung (4; 6) für das Erfassen der geistigen Kondition der Bedienungsperson und eine Ausgabeeinrichtung (2, 7) für die Abgabe entsprechender Informationen an die Bedienungsperson gemäß der erfaßten geistigen Kondition, wobei die von der Ausgabeeinrichtung abgegebenen entsprechenden Daten bei der Bedienungsperson Entspannung hervorrufen.
2. Gerät nach Anspruch 1, dadurch gekennzeichnet, daß die Detektoreinrichtung (6) Informationen über die Persönlichkeit der Bedienungsperson erfaßt.
3. Gerät nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Detektoreinrichtung (4; 6) die geistige Kondition aus Informationen über das Ausmaß der Konzentration der Bedie­ nungsperson auf einen Arbeitsvorgang ermittelt.
4. Gerät nach Anspruch 3, dadurch gekennzeichnet, daß das Ausmaß der Konzentration aus der Pupillenbewegung der Bedie­ nungsperson ermittelt wird.
5. Gerät nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß das Ausmaß der Konzentration aus der Häufigkeit von Eingabe­ fehlern der Bedienungsperson ermittelt wird.
6. Gerät nach einem der Ansprüche 1 bis 5, dadurch gekenn­ zeichnet, daß die Detektoreinrichtung (6) die geistige Kondi­ tion entsprechend der Arbeitszeitdauer der Bedienungsperson erfaßt.
7. Gerät nach einem der Ansprüche 1 bis 6, dadurch gekenn­ zeichnet, daß die Ausgabeeinrichtung (2, 7) eine Tonausgabe­ vorrichtung (7) für die Abgabe einer gesprochenen Nachricht, einer Melodie oder dergleichen aufweist.
8. Gerät nach einem der Ansprüche 1 bis 7, dadurch gekenn­ zeichnet, daß die Ausgabeeinrichtung (2, 7) Bildinformationen abgibt.
9. Gerät zur Informationsverarbeitung, gekennzeichnet durch eine Speichereinrichtung (5 a) zum Speichern von Grundinforma­ tionen über jede von mehreren Bedienungspersonen, eine Wähl­ einrichtung (3, 5) zum Wählen der Grundinformationen über eine bestimmte Bedienungsperson aus den Grundinformationen über die Bedienungspersonen, eine Detektoreinrichtung (4; 6) zum Erfassen der geistigen Kondition der bestimmten Bedie­ nungsperson und eine Ausgabeeinrichtung (2, 7) für die Abgabe von der geistigen Kondition der bestimmten Bedienungsperson entsprechenden Informationen gemäß den Grundinformationen über die Bedienungsperson, wobei durch die von der Ausgabe­ einrichtung abgegebenen Informationen bei der bestimmten Bedienungsperson Entspannung hervorgerufen wird.
10. Gerät nach Anspruch 9, dadurch gekennzeichnet, daß die Wähleinrichtung (3, 5) die Grundinformationen entsprechend einer Kennziffer der Bedienungsperson wählt.
11. Gerät nach Anspruch 9 oder 10, dadurch gekennzeichnet, daß die Grundinformationen die Persönlichkeit der Bedienungs­ person wiedergeben.
12. Gerät nach einem der Ansprüche 9 bis 11, dadurch gekenn­ zeichnet, daß die Grundinformationen eine Vorliebe der Bedie­ nungsperson wiedergeben.
13. Gerät nach einem der Ansprüche 9 bis 12, dadurch gekenn­ zeichnet, daß die Detektoreinrichtung (4; 6) die geistige Kondition entsprechend der Persönlichkeit der Bedienungsper­ son erfaßt.
14. Gerät nach einem der Ansprüche 9 bis 13, dadurch gekenn­ zeichnet, daß die Detektoreinrichtung (4; 6) die geistige Kondition aus Informationen über das Ausmaß der Konzentration der Bedienungsperson auf einen Arbeitsvorgang ermittelt.
15. Gerät nach Anspruch 14, dadurch gekennzeichnet, daß das Ausmaß der Konzentration aus der Pupillenbewegung der Bedie­ nungsperson ermittelt wird.
16. Gerät nach Anspruch 14 oder 15, dadurch gekennzeichnet, daß das Ausmaß der Konzentration aus der Häufigkeit von Eingabefehlern der Bedienungsperson ermittelt wird.
17. Gerät nach einem der Ansprüche 9 bis 16, dadurch gekenn­ zeichnet, daß die Detektoreinrichtung (6) die geistige Kondi­ tion entsprechend der Arbeitszeitdauer der Bedienungsperson erfaßt.
18. Gerät nach einem der Ansprüche 9 bis 17, dadurch gekenn­ zeichnet, daß die Ausgabeeinrichtung (2, 7) eine Tonausgabe­ vorrichtung (7) für die Abgabe einer gesprochenen Nachricht, einer Melodie oder dergleichen aufweist.
19. Gerät nach einem der Ansprüche 9 bis 18, dadurch gekenn­ zeichnet, daß die Ausgabeeinrichtung (2, 7) Bildinformationen wie eine Schriftzeichennachricht, ein Bild oder dergleichen abgibt.
DE19873724833 1986-07-28 1987-07-27 Informationsverarbeitungsgeraet Granted DE3724833A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61175718A JPS6332624A (ja) 1986-07-28 1986-07-28 情報処理装置

Publications (2)

Publication Number Publication Date
DE3724833A1 true DE3724833A1 (de) 1988-02-18
DE3724833C2 DE3724833C2 (de) 1990-10-25

Family

ID=16001023

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19873724833 Granted DE3724833A1 (de) 1986-07-28 1987-07-27 Informationsverarbeitungsgeraet

Country Status (3)

Country Link
US (1) US4894777A (de)
JP (1) JPS6332624A (de)
DE (1) DE3724833A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3808260C1 (en) * 1988-03-12 1989-03-16 Fred 6991 Igersheim De Henneberg Screen device
DE4114926C1 (en) * 1991-05-07 1992-09-17 Michael 6500 Mainz De Flanz Data processing installation with optical input unit - includes optical transmitter worn by user, esp. handicapped or spastic person, generating light beam
EP1345110A3 (de) * 2002-03-12 2009-09-09 Siemens Aktiengesellschaft Anpassung einer Mensch-Maschine-Schnittstelle in Abhängigkeit eines Psychoprofils und einer momentanen Befindlichkeit eines Anwenders

Families Citing this family (123)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5167228A (en) * 1987-06-26 1992-12-01 Brigham And Women's Hospital Assessment and modification of endogenous circadian phase and amplitude
JPH021897A (ja) * 1988-06-13 1990-01-08 Hitachi Ltd 三次元映像表示装置、コピユータグラフイツクスシステム及びオーデイオビジユアルシステム
JP2845926B2 (ja) * 1989-03-20 1999-01-13 株式会社日立製作所 マンマシンシステム
US5170362A (en) * 1991-01-15 1992-12-08 Atlantic Richfield Company Redundant system for interactively evaluating the capabilities of multiple test subjects to perform a task utilizing a computerized test system
GB9117015D0 (en) 1991-08-07 1991-09-18 Software Solutions Ltd Operation of computer systems
US7624028B1 (en) 1992-11-17 2009-11-24 Health Hero Network, Inc. Remote health monitoring and maintenance system
US5951300A (en) * 1997-03-10 1999-09-14 Health Hero Network Online system and method for providing composite entertainment and health information
US6968375B1 (en) * 1997-03-28 2005-11-22 Health Hero Network, Inc. Networked system for interactive communication and remote monitoring of individuals
US8095340B2 (en) 1992-11-17 2012-01-10 Health Hero Network, Inc. Home power management system
WO2001037174A1 (en) * 1992-11-17 2001-05-25 Health Hero Network, Inc. Method and system for improving adherence with a diet program or other medical regimen
US6330426B2 (en) * 1994-05-23 2001-12-11 Stephen J. Brown System and method for remote education using a memory card
US8078407B1 (en) 1997-03-28 2011-12-13 Health Hero Network, Inc. System and method for identifying disease-influencing genes
US8078431B2 (en) 1992-11-17 2011-12-13 Health Hero Network, Inc. Home power management system
US20040019259A1 (en) * 1992-11-17 2004-01-29 Brown Stephen J. Remote monitoring and data management platform
US5832448A (en) * 1996-10-16 1998-11-03 Health Hero Network Multiple patient monitoring system for proactive health management
US8027809B2 (en) 1992-11-17 2011-09-27 Health Hero Network, Inc. Home power management system
US7613590B2 (en) * 1992-11-17 2009-11-03 Health Hero Network, Inc. Modular microprocessor-based power tool system
US5956501A (en) * 1997-01-10 1999-09-21 Health Hero Network, Inc. Disease simulation system and method
US7941326B2 (en) * 2001-03-14 2011-05-10 Health Hero Network, Inc. Interactive patient communication development system for reporting on patient healthcare management
US9215979B2 (en) * 1992-11-17 2015-12-22 Robert Bosch Healthcare Systems, Inc. Multi-user remote health monitoring system
US20070299321A1 (en) * 1992-11-17 2007-12-27 Brown Stephen J Method and apparatus for remote health monitoring and providing health related information
US20010011224A1 (en) 1995-06-07 2001-08-02 Stephen James Brown Modular microprocessor-based health monitoring system
US5307263A (en) 1992-11-17 1994-04-26 Raya Systems, Inc. Modular microprocessor-based health monitoring system
US5940801A (en) * 1994-04-26 1999-08-17 Health Hero Network, Inc. Modular microprocessor-based diagnostic measurement apparatus and method for psychological conditions
IL106338A0 (en) * 1993-07-14 1993-11-15 Sarid Medical Instrumentation Method and apparatus for detection of neuronal ionic disturbances
US5696981A (en) * 1993-09-30 1997-12-09 Shovers; Aaron H. Personality analyzer
US5559926A (en) * 1993-12-22 1996-09-24 Lucent Technologies Inc. Speech recognition training using bio-signals
US5539860A (en) * 1993-12-22 1996-07-23 At&T Corp. Speech recognition using bio-signals
US5539861A (en) * 1993-12-22 1996-07-23 At&T Corp. Speech recognition using bio-signals
AU2365695A (en) * 1994-04-26 1995-11-16 Raya Systems, Inc. Modular microprocessor-based diagnostic measurement system for psychological conditions
FI943283A (fi) * 1994-07-11 1996-01-12 Polar Electro Oy Tiedonsyöttölaite
US5617855A (en) * 1994-09-01 1997-04-08 Waletzky; Jeremy P. Medical testing device and associated method
GB2298501A (en) * 1994-09-05 1996-09-04 Queen Mary & Westfield College Movement detection
JP3530591B2 (ja) * 1994-09-14 2004-05-24 キヤノン株式会社 音声認識装置及びこれを用いた情報処理装置とそれらの方法
US5686938A (en) * 1995-06-29 1997-11-11 Batkhan; Leonid Z. Adaptive cursor control system
US5715160A (en) * 1995-08-21 1998-02-03 Plotke; Robert Jay Motion control evaluation employing a Fourier transform
US7305348B1 (en) 1996-02-20 2007-12-04 Health Hero Network, Inc. Aggregating and pooling health related information in a communication system with feedback
US6688888B1 (en) 1996-03-19 2004-02-10 Chi Fai Ho Computer-aided learning system and method
NL1002854C2 (nl) * 1996-04-12 1997-10-15 Eyelight Research Nv Methode en meetsysteem voor het meten en interpreteren van reacties van respondenten op gepresenteerde stimuli, zoals advertenties of dergelijke.
NL1002853C2 (nl) * 1996-04-12 1997-10-15 Eyelight Research Nv Methode voor het herkennen van een door een persoon waargenomen pagina of object, voor het vastleggen van de tijdsduur en de plaatsen van de pagina of het object die hij opmerkt of bekijkt, alsmede middelen voor toepassing bij de methode.
US5860936A (en) * 1996-08-02 1999-01-19 Levin; David N. Method and apparatus for measurement, analysis, characterization, emulation, and translation of perception
US6093153A (en) * 1996-08-02 2000-07-25 Levin; David N. Method and apparatus for measurement, analysis, characterization, emulation, and translation of perception
US5944530A (en) 1996-08-13 1999-08-31 Ho; Chi Fai Learning method and system that consider a student's concentration level
USRE39539E1 (en) 1996-08-19 2007-04-03 Torch William C System and method for monitoring eye movement
US5827071A (en) * 1996-08-26 1998-10-27 Sorensen; Steven Michael Method, computer program product, and system for teaching or reinforcing information without requiring user initiation of a learning sequence
US7584108B2 (en) 1996-12-23 2009-09-01 Health Hero Network, Inc. Network media access control system for encouraging patient compliance with a treatment plan
US6032119A (en) * 1997-01-16 2000-02-29 Health Hero Network, Inc. Personalized display of health information
US6113538A (en) * 1997-04-02 2000-09-05 Bowles-Langley Technology, Inc. Alertness tester
US6228038B1 (en) * 1997-04-14 2001-05-08 Eyelight Research N.V. Measuring and processing data in reaction to stimuli
AUPP283298A0 (en) * 1998-04-06 1998-04-30 Park, Thomas Michael Stress monitoring system
US9792659B2 (en) 1999-04-13 2017-10-17 Iplearn, Llc Computer-aided methods and apparatus to access materials in a network environment
US20080004915A1 (en) * 1998-09-25 2008-01-03 Brown Stephen J Dynamic modeling and scoring risk assessment
JP2001188555A (ja) * 1999-12-28 2001-07-10 Sony Corp 情報処理装置および方法、並びに記録媒体
TWM244584U (en) 2000-01-17 2004-09-21 Semiconductor Energy Lab Display system and electrical appliance
JP3632687B2 (ja) * 2002-09-12 2005-03-23 富士ゼロックス株式会社 ユーザビリティ評価装置
US20050060194A1 (en) * 2003-04-04 2005-03-17 Brown Stephen J. Method and system for monitoring health of an individual
US7260480B1 (en) 2003-04-07 2007-08-21 Health Hero Network, Inc. Method and system for integrating feedback loops in medical knowledge development and healthcare management
US7399276B1 (en) 2003-05-08 2008-07-15 Health Hero Network, Inc. Remote health monitoring system
JP4048492B2 (ja) * 2003-07-03 2008-02-20 ソニー株式会社 音声対話装置及び方法並びにロボット装置
JP2005084590A (ja) * 2003-09-11 2005-03-31 Nissan Motor Co Ltd 音声認識装置
US7734338B2 (en) * 2003-12-19 2010-06-08 Ultrasis Uk Limited Treatment of epilepsy
CN102068237A (zh) * 2004-04-01 2011-05-25 威廉·C·托奇 监控眼睛运动的系统及方法、控制计算装置的系统及方法
US10039445B1 (en) 2004-04-01 2018-08-07 Google Llc Biosensors, communicators, and controllers monitoring eye movement and methods for using them
US20110077548A1 (en) * 2004-04-01 2011-03-31 Torch William C Biosensors, communicators, and controllers monitoring eye movement and methods for using them
IL165586A0 (en) * 2004-12-06 2006-01-15 Daphna Palti Wasserman Multivariate dynamic biometrics system
GB2427952B (en) * 2005-07-02 2010-09-01 Raymond Butcher Apparatus for preventing visual impairment
EP2089824A1 (de) * 2006-11-28 2009-08-19 Koninklijke Philips Electronics N.V. Belastungsminderung
JP5309126B2 (ja) * 2007-03-29 2013-10-09 ニューロフォーカス・インコーポレーテッド マーケティング及びエンタテインメントの効率解析を行うシステム、方法、及び、装置
US20080243005A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Computational user-health testing
CN101652098B (zh) * 2007-04-04 2012-03-21 皇家飞利浦电子股份有限公司 根据人在游戏或谜题中的行为表现来确定压力水平
EP2142082A4 (de) * 2007-05-01 2015-10-28 Neurofocus Inc Speichersystem für die neuroinformatik
US9886981B2 (en) 2007-05-01 2018-02-06 The Nielsen Company (Us), Llc Neuro-feedback based stimulus compression device
US20090328089A1 (en) * 2007-05-16 2009-12-31 Neurofocus Inc. Audience response measurement and tracking system
US20090024449A1 (en) * 2007-05-16 2009-01-22 Neurofocus Inc. Habituation analyzer device utilizing central nervous system, autonomic nervous system and effector system measurements
US8392253B2 (en) 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US20090030287A1 (en) * 2007-06-06 2009-01-29 Neurofocus Inc. Incented response assessment at a point of transaction
US8494905B2 (en) * 2007-06-06 2013-07-23 The Nielsen Company (Us), Llc Audience response analysis using simultaneous electroencephalography (EEG) and functional magnetic resonance imaging (fMRI)
JP5542051B2 (ja) 2007-07-30 2014-07-09 ニューロフォーカス・インコーポレーテッド 神経応答刺激及び刺激属性共鳴推定を行うシステム、方法、及び、装置
US20090036755A1 (en) * 2007-07-30 2009-02-05 Neurofocus, Inc. Entity and relationship assessment and extraction using neuro-response measurements
US8979754B2 (en) * 2007-08-09 2015-03-17 FITS—Functional Interactive Timing System Ltd. Interactive system and method for neuromotor functioning assessment and training
JP5539876B2 (ja) 2007-08-28 2014-07-02 ニューロフォーカス・インコーポレーテッド 消費者経験査定装置
US8635105B2 (en) * 2007-08-28 2014-01-21 The Nielsen Company (Us), Llc Consumer experience portrayal effectiveness assessment system
US8386313B2 (en) 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
US8392255B2 (en) * 2007-08-29 2013-03-05 The Nielsen Company (Us), Llc Content based selection and meta tagging of advertisement breaks
US8494610B2 (en) * 2007-09-20 2013-07-23 The Nielsen Company (Us), Llc Analysis of marketing and entertainment effectiveness using magnetoencephalography
US20090083129A1 (en) 2007-09-20 2009-03-26 Neurofocus, Inc. Personalized content delivery using neuro-response priming data
KR101024140B1 (ko) * 2008-11-13 2011-03-22 박덕용 온라인 학습을 위한 콘텐츠 제공 시스템
US8464288B2 (en) * 2009-01-21 2013-06-11 The Nielsen Company (Us), Llc Methods and apparatus for providing personalized media in video
US9357240B2 (en) 2009-01-21 2016-05-31 The Nielsen Company (Us), Llc Methods and apparatus for providing alternate media for video decoders
US8270814B2 (en) 2009-01-21 2012-09-18 The Nielsen Company (Us), Llc Methods and apparatus for providing video with embedded media
US20100249538A1 (en) * 2009-03-24 2010-09-30 Neurofocus, Inc. Presentation measure using neurographics
US20100250325A1 (en) 2009-03-24 2010-09-30 Neurofocus, Inc. Neurological profiles for market matching and stimulus presentation
US20100249636A1 (en) * 2009-03-27 2010-09-30 Neurofocus, Inc. Personalized stimulus placement in video games
TWI397865B (zh) * 2009-08-12 2013-06-01 Utechzone Co Ltd Security personnel to monitor the degree of focus monitoring system
US20110046502A1 (en) * 2009-08-20 2011-02-24 Neurofocus, Inc. Distributed neuro-response data collection and analysis
US8655437B2 (en) 2009-08-21 2014-02-18 The Nielsen Company (Us), Llc Analysis of the mirror neuron system for evaluation of stimulus
US10987015B2 (en) * 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
US8756657B2 (en) * 2009-09-29 2014-06-17 Ebay Inc. Mobile or user device authentication and tracking
US8209224B2 (en) * 2009-10-29 2012-06-26 The Nielsen Company (Us), Llc Intracluster content management using neuro-response priming data
US9560984B2 (en) 2009-10-29 2017-02-07 The Nielsen Company (Us), Llc Analysis of controlled and automatic attention for introduction of stimulus material
US20110106750A1 (en) 2009-10-29 2011-05-05 Neurofocus, Inc. Generating ratings predictions using neuro-response data
US8335715B2 (en) * 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Advertisement exchange using neuro-response data
US8335716B2 (en) * 2009-11-19 2012-12-18 The Nielsen Company (Us), Llc. Multimedia advertisement exchange
US10186163B1 (en) 2009-11-25 2019-01-22 Peter D. Letterese System and method for reducing stress and/or pain
US8890946B2 (en) * 2010-03-01 2014-11-18 Eyefluence, Inc. Systems and methods for spatially controlled scene illumination
US20110237971A1 (en) * 2010-03-25 2011-09-29 Neurofocus, Inc. Discrete choice modeling using neuro-response data
WO2011133548A2 (en) 2010-04-19 2011-10-27 Innerscope Research, Inc. Short imagery task (sit) research method
US8655428B2 (en) 2010-05-12 2014-02-18 The Nielsen Company (Us), Llc Neuro-response data synchronization
US8392251B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Location aware presentation of stimulus material
US8392250B2 (en) 2010-08-09 2013-03-05 The Nielsen Company (Us), Llc Neuro-response evaluated stimulus in virtual reality environments
US8396744B2 (en) 2010-08-25 2013-03-12 The Nielsen Company (Us), Llc Effective virtual reality environments for presentation of marketing materials
US9451303B2 (en) 2012-02-27 2016-09-20 The Nielsen Company (Us), Llc Method and system for gathering and computing an audience's neurologically-based reactions in a distributed framework involving remote storage and computing
US9292858B2 (en) 2012-02-27 2016-03-22 The Nielsen Company (Us), Llc Data collection system for aggregating biologically based measures in asynchronous geographically distributed public environments
US9569986B2 (en) 2012-02-27 2017-02-14 The Nielsen Company (Us), Llc System and method for gathering and analyzing biometric user feedback for use in social media and advertising applications
US9060671B2 (en) 2012-08-17 2015-06-23 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
JP2014130467A (ja) * 2012-12-28 2014-07-10 Sony Corp 情報処理装置、情報処理方法及びコンピュータプログラム
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
DK178652B1 (en) * 2015-02-07 2016-10-17 Pauseable Aps A method and system for eliciting the relaxation response and cultivating attention
US9936250B2 (en) 2015-05-19 2018-04-03 The Nielsen Company (Us), Llc Methods and apparatus to adjust content presented to an individual
CN107710050A (zh) 2015-06-30 2018-02-16 3M创新有限公司 照明器
US20230044247A1 (en) * 2021-08-06 2023-02-09 Rockwell Collins, Inc. Cockpit display ambient lighting information for improving gaze estimation
WO2023195115A1 (ja) * 2022-04-07 2023-10-12 日本電気株式会社 会話装置、会話方法、及び非一時的なコンピュータ可読媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2143975A (en) * 1983-06-18 1985-02-20 Brown David F Computerised interactive advertising and information display system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4312358A (en) * 1979-07-23 1982-01-26 Texas Instruments Incorporated Instrument for measuring and computing heart beat, body temperature and other physiological and exercise-related parameters
JPS57211635A (en) * 1981-06-23 1982-12-25 Fujitsu Ltd Keyboard input device
US4683891A (en) * 1982-04-26 1987-08-04 Vincent Cornellier Biomonitoring stress management method and device
US4464121A (en) * 1982-04-28 1984-08-07 Perelli Layne P Device for measuring fatigue effects
JPS60592A (ja) * 1983-06-15 1985-01-05 三菱電機株式会社 いねむり防止装置
JPS6076787A (ja) * 1983-10-04 1985-05-01 日本電信電話株式会社 バイオフイ−ドバツク制御装置
JPS60153542A (ja) * 1984-01-23 1985-08-13 Mitsubishi Electric Corp 音響装置を内蔵した入力・表示装置
JPS6121523A (ja) * 1984-07-09 1986-01-30 Nec Corp 自動入力によるデ−タ検索システム
US4751642A (en) * 1986-08-29 1988-06-14 Silva John M Interactive sports simulation system with physiological sensing and psychological conditioning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2143975A (en) * 1983-06-18 1985-02-20 Brown David F Computerised interactive advertising and information display system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DE-Z.: Elektronik 1, 14.1.83, S. 69-72 *
GB-Z.: Medical and Biological Engineering Vol. 12, no. 5, Sept. 1974, S. 693-697 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3808260C1 (en) * 1988-03-12 1989-03-16 Fred 6991 Igersheim De Henneberg Screen device
DE4114926C1 (en) * 1991-05-07 1992-09-17 Michael 6500 Mainz De Flanz Data processing installation with optical input unit - includes optical transmitter worn by user, esp. handicapped or spastic person, generating light beam
EP1345110A3 (de) * 2002-03-12 2009-09-09 Siemens Aktiengesellschaft Anpassung einer Mensch-Maschine-Schnittstelle in Abhängigkeit eines Psychoprofils und einer momentanen Befindlichkeit eines Anwenders

Also Published As

Publication number Publication date
DE3724833C2 (de) 1990-10-25
US4894777A (en) 1990-01-16
JPS6332624A (ja) 1988-02-12

Similar Documents

Publication Publication Date Title
DE3724833A1 (de) Informationsverarbeitungsgeraet
DE112006000785T5 (de) Verfahren und System für das Liefern einer Benutzerschnittstelle
DE69737170T2 (de) Auswahl von Befehlen in einem Rechnersystem
DE69915661T2 (de) Prozesssteuerung
Phaf et al. SLAM: A connectionist model for attention in visual selection tasks
DE60320393T2 (de) System und verfahren zur computerprogrammnavigation unter verwendung einer graphischen benutzeroberfläche
DE112008000526B4 (de) Verfahren und System zum Erzeugen eines Kontrollsystembenutzerinterface
DE69628893T2 (de) Aktivierung eines Tastaturschlosses für Telefongerät
JPH01118920A (ja) 入力装置及び入力方法
DE102005016561B4 (de) Verfahren und Vorrichtung zur strukturierten Erfassung und Bearbeitung von in einem System auftretenden Problemen
Burnstein et al. The informational basis of social judgments: Operations in forming an impression of another person
EP0577736A1 (de) 3-menuniveaus system
DE112015004111T5 (de) Oberfläche für das starten und wechseln von anwendungen
DE10247105A1 (de) System und Verfahren zum Personalisieren einer Schnittstelle eines elektrischen Geräts
DE102015104962A1 (de) Verfahren zur Informationsverarbeitung und elektronisches Gerät
DE102012009091A1 (de) Verfahren zum Bedienen eines Reinigungsautomaten
DE102017202334A1 (de) Haushaltsgerät zur Behandlung von Wäschestücken mit verbesserter Bedienung, Verfahren zu seinem Betrieb und System umfassend ein solches Haushaltsgerät
DE102008001665A1 (de) Textilmaschine mit einer zentralen Maschinensteuerunng
DE102015104912A1 (de) Steuerverfahren und elektronisches Gerät
DE4333286C2 (de) Verfahren und Vorrichtung zur Diagnose von Maschinenstörungen
Dell'Acqua et al. Short-term consolidation of individual identities leads to Lag-1 sparing.
Stelovsky XS-2: The user interface of an interactive system
DE10392449B4 (de) Allgemeines Überwachungssteuersystem für Energieerzeugungseinheiten
DE69633904T2 (de) Einfügungsbalken
Foldes A note on individualistic explanations

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8328 Change in the person/name/address of the agent

Free format text: TIEDTKE, H., DIPL.-ING. BUEHLING, G., DIPL.-CHEM. KINNE, R., DIPL.-ING. GRUPE, P., DIPL.-ING. PELLMANN, H., DIPL.-ING. GRAMS, K., DIPL.-ING., PAT.-ANWAELTE, 8000 MUENCHEN