DE102010018438A1 - Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters - Google Patents

Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters Download PDF

Info

Publication number
DE102010018438A1
DE102010018438A1 DE102010018438A DE102010018438A DE102010018438A1 DE 102010018438 A1 DE102010018438 A1 DE 102010018438A1 DE 102010018438 A DE102010018438 A DE 102010018438A DE 102010018438 A DE102010018438 A DE 102010018438A DE 102010018438 A1 DE102010018438 A1 DE 102010018438A1
Authority
DE
Germany
Prior art keywords
control
controller
gui
force
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102010018438A
Other languages
English (en)
Other versions
DE102010018438B4 (de
Inventor
Muhammad E. Houston Abdallah
Robert Houston Platt
Charles W. Birmingham Wampler II
Matthew J. Oxford Reiland
Adam M. Holly Sanders
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Usa As Represented By Administrator Us
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
National Aeronautics and Space Administration NASA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC, National Aeronautics and Space Administration NASA filed Critical GM Global Technology Operations LLC
Publication of DE102010018438A1 publication Critical patent/DE102010018438A1/de
Application granted granted Critical
Publication of DE102010018438B4 publication Critical patent/DE102010018438B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R13/00Details of coupling devices of the kinds covered by groups H01R12/70 or H01R24/00 - H01R33/00
    • H01R13/02Contact members
    • H01R13/15Pins, blades or sockets having separate spring member for producing or increasing contact pressure
    • H01R13/17Pins, blades or sockets having separate spring member for producing or increasing contact pressure with spring member on the pin
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R13/00Details of coupling devices of the kinds covered by groups H01R12/70 or H01R24/00 - H01R33/00
    • H01R13/02Contact members
    • H01R13/04Pins or blades for co-operation with sockets
    • H01R13/05Resilient pins or blades
    • H01R13/052Resilient pins or blades co-operating with sockets having a circular transverse section
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/49Method of mechanical manufacture
    • Y10T29/49002Electrical device making
    • Y10T29/49117Conductor or circuit manufacturing

Abstract

Ein Robotersystem umfasst einen humanoiden Roboter mit einer Vielzahl von Gelenken, die zur Kraftsteuerung mit Bezug auf ein Objekt ausgelegt sind, auf das von dem Roboter eingewirkt wird, eine graphische Benutzerschnittstelle (GUI) zum Empfangen eines Eingabesignals von einem Benutzer und einen Controller. Die GUI stellt dem Benutzer einen intuitiven Programmierzugriff auf den Controller bereit. Der Controller steuert die Gelenke unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur, welche eine Steuerung des Roboters auf Objektebene, Greiforganebene und/oder Gelenkraumebene in Ansprechen auf das Eingabesignal bereitstellt. Ein Verfahren zum Steuern des Robotersystems umfasst, dass das Eingabesignal über die GUI empfangen wird, z. B. eine gewünschte Kraft, und dass dann das Eingabesignal unter Verwendung einer Hostmaschine verarbeitet wird, um die Gelenke über eine impedanzbasierte Steuerungsgrundstruktur zu steuern. Die Grundstruktur stellt eine Steuerung des Roboters auf Objektebene, Greiforganebene und/oder Gelenkraumebene bereit und ermöglicht, dass die funktionsbasierte GUI die Implementierung unzähliger Betriebsmodi vereinfacht.

Description

  • AUSSAGE HINSICHTLICH VON DER REGIERUNG GEFÖRDERTER FORSCHUNG ODER ENTWICKLUNG
  • Diese Erfindung wurde mit Regierungsunterstützung unter dem NASA Space Act Agreement Nummer SAA-AT-07-003 durchgeführt. Der Regierung können einige Rechte an der Erfindung gehören.
  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung beansprucht den Nutzen und die Priorität der provisorischen US-Anmeldung mit der Nr. 61/174,316, die am 30. April 2009 eingereicht wurde.
  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein System und ein Verfahren zum Steuern eines humanoiden Roboters, der eine Vielzahl von Gelenken und mehrere Freiheitsgrade aufweist.
  • HINTERGRUND DER ERFINDUNG
  • Roboter sind automatisierte Einrichtungen, die zum Manipulieren von Objekten unter Verwendung einer Reihe von Gliedern, welche wiederum über Robotergelenke miteinander verbunden sind, in der Lage sind. Jedes Gelenk in einem typischen Roboter stellt mindestens eine unabhängige Steuerungsvariable, d. h. einen Freiheitsgrad (DOF) bereit. Greiforgane sind die speziellen Glieder, die zum Ausführen einer vorliegenden Aufgabe verwendet werden, z. B. dem Greifen eines Arbeitswerkzeugs oder eines Objekts. Eine präzise Bewegungssteuerung des Roboters kann daher durch die Ebene der Taskspezifikation organisiert werden: eine Steuerung auf Objektebene, welche die Fähigkeit zur Steuerung des Verhaltens eines Objekts beschreibt, das in einem Einzel- oder zusammenwirkenden Griff eines Roboters gehalten wird, eine Greiforgansteuerung und eine Steuerung auf Gelenkebene. Die verschiedenen Steuerungsebenen erreichen gemeinsam die benötigte Mobilität, Geschicklichkeit und arbeitsaufgabenbezogene Funktionalität des Roboters.
  • Humanoide Roboter sind ein spezieller Robotertyp, der eine annähernd menschliche Struktur oder eine annähernd menschliche Erscheinung aufweist, sei es als ein voller Körper, ein Torso und/oder eine Gliedmaße, wobei die strukturelle Komplexität des humanoiden Roboters zum Großteil von der Natur der Arbeitsaufgabe abhängt, die ausgeführt wird. Die Verwendung humanoider Roboter kann dort bevorzugt sein, wo eine direkte Interaktion mit Einrichtungen oder Systemen benötigt wird, die speziell für den menschlichen Gebrauch gemacht sind. Die Verwendung humanoider Roboter kann auch dort bevorzugt sein, wo eine Interaktion mit Menschen benötigt wird, da die Bewegung programmiert werden kann, um eine menschliche Bewegung derart anzunähern, dass die Aufgabenabfolgen von dem mitarbeitenden menschlichen Partner verstanden werden.
  • Aufgrund des weiten Spektrums von Arbeitsaufgaben, die von einem humanoider Roboter möglicherweise erwartet werden, können verschiedene Steuerungsmodi gleichzeitig erforderlich sein. Zum Beispiel muss eine präzise Steuerung innerhalb der verschiedenen vorstehend angeführten Steuerungsräume angewendet werden, sowie eine Steuerung über das angewendete Drehmoment oder die angewendete Kraft eines gegebenen motorgetriebenen Gelenks, einer Gelenkbewegung und der verschiedenen Robotergrifftypen.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Entsprechend werden ein Robotersteuerungssystem und -verfahren hier bereitgestellt, um einen humanoiden Roboter über eine impedanzbasierte Steuerungsgrundstruktur zu steuern, wie nachstehend im Detail offen gelegt ist. Die Grundstruktur ermöglicht, dass eine funktionsbasierte graphische Benutzerschnittstelle (GUI) die Implementierung unzähliger Betriebsmodi des Roboters vereinfacht. Eine komplexe Steuerung eines Roboters, der mehrere DOF aufweist, bei einer speziellen Ausführungsform beispielsweise über 42 DOF, kann über eine einzige GUI bereitgestellt werden. Die GUI kann verwendet werden, um einen Algorithmus eines Controllers anzusteuern, um dadurch eine facettenreiche Steuerung über die vielen unabhängig bewegbaren und voneinander abhängig bewegbaren Robotergelenke mit einer Steuerungslogikschicht bereitzustellen, die verschiedene Betriebsmodi aktiviert.
  • Interne Kräfte auf ein ergriffenes Objekt werden bei der Steuerung auf Objektebene automatisch parametriert, was mehrere Robotergrifftypen in Echtzeit ermöglicht. Bei der Verwendung der Grundstruktur stellt ein Benutzer funktionsbasierte Eingaben durch die GUI bereit und dann entschlüsseln die Steuerung und eine Logikzwischenschicht die Eingabe in die GUI, indem die korrekten Steuerungszielvorgaben und der korrekte Betriebsmodus angewendet werden. Dadurch, dass beispielsweise eine gewünschte Kraft gewählt wird, die auf das Objekt aufgebracht werden soll, wendet der Controller automatisch ein hybrides Positions/Kraft-Steuerungsschema in entkoppelten Räumen an.
  • Im Umfang der Erfindung verwendet die Grundstruktur ein auf der Objektimpedanz basierendes Steuerungsgesetz mit einem hierarchischen Multitasking, um eine Objektsteuerung, eine Greiforgansteuerung und/oder eine Steuerung auf Gelenkebene des Roboters bereitzustellen. Dadurch, dass ein Benutzer über die Möglichkeit verfügt, in Echtzeit sowohl die aktivierten Knoten als auch den Robotergrifftyp zu wählen, d. h. starrer Kontakt, Punktkontakt, usw., bestimmt eine vorbestimmte oder kalibrierte Impedanzbeziehung die Objekt-, Greiforgan- und Gelenkräume. Die Gelenkraumimpedanz wird automatisch in den Nullraum verschoben, wenn Objekt- oder Greiforganknoten aktiviert werden, wobei der Gelenkraum andernfalls den gesamten Steuerungsraum bestimmt, wie hier offen gelegt ist.
  • Insbesondere umfasst ein Robotersystem einen humanoiden Roboter mit einer Vielzahl von Gelenken, die zum Ausüben einer Kraftsteuerung ausgelegt sind, und einen Controller mit einer intuitiven GUI, die zum Empfangen von Eingabesignalen von einem Benutzer, von einer vorprogrammierten Automatisierung oder von einer Netzwerkverbindung oder einer anderen externen Steuerungsvorrichtung ausgelegt ist. Der Controller ist mit der GUI elektrisch verbunden, welche dem Benutzer einen intuitiven oder graphischen Programmierzugang zu dem Controller bereitstellt. Der Controller ist ausgelegt, um die Vielzahl von Gelenken unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern, welche wiederum eine Steuerung auf Objektebene, auf Greiforganebene und/oder auf Gelenkraumebene des humanoiden Roboters in Ansprechen auf das Eingabesignal in die GUI bereitstellt.
  • Ein Verfahren zum Steuern eines Robotersystems, das den humanoiden Roboter, den Controller und die GUI wie oben erwähnt aufweist, umfasst, dass das Eingabesignal von dem Benutzer unter Verwendung der GUI empfangen wird und dann das Eingabesignal unter Verwendung einer Hostmaschine verarbeitet wird, um die Vielzahl von Gelenken über eine impedanzbasierte Steuerungsgrundstruktur zu steuern. Die Grundstruktur stellt eine Steuerung auf Objektebene, Greiforganebene und/oder Gelenkraumebene des humanoiden Roboters bereit.
  • Die vorstehenden Merkmale und Vorteile und andere Merkmale und Vorteile der vorliegenden Erfindung ergeben sich leicht aus der folgenden genauen Beschreibung der besten Art zum Ausführen der Erfindung, wenn sie in Verbindung mit den beiliegenden Zeichnungen gelesen wird.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Veranschaulichung eines Robotersystems mit einem humanoiden Roboter, der erfindungsgemäß unter Verwendung einer objektimpedanzbasierten Steuerungsgrundstruktur steuerbar ist;
  • 2 ist eine schematische Veranschaulichung von Kräften und Koordinaten mit Bezug auf ein Objekt, auf das durch den in 1 gezeigten Roboter eingewirkt werden kann;
  • 3 ist eine Tabelle, die Untermatrizen in Übereinstimmung mit dem speziellen Kontakttyp beschreibt, der mit dem in 1 gezeigten Roboter verwendet wird;
  • 4 ist eine Tabelle, die Eingaben für eine graphische Benutzeroberfläche (GUI) schreibt;
  • 5A ist eine schematische Veranschaulichung einer GUI gemäß einer Ausführungsform, die mit dem System von 1 verwendet werden kann; und
  • 5B ist eine schematische Veranschaulichung einer GUI gemäß einer weiteren Ausführungsform.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Mit Bezug auf die Zeichnungen, in denen gleiche Bezugszeichen in den mehreren Ansichten gleiche oder ähnliche Komponenten bezeichnen und mit 1 beginnend, ist ein Robotersystem 11 gezeigt, das einen Roboter 10, der hier als ein geschickter Humanoide gezeigt ist, aufweist, der über ein Steuerungssystem oder einen Controller (C) 22 gesteuert wird. Der Controller 22 stellt eine Bewegungssteuerung über den Roboter 10 mit Hilfe eines Algorithmus 100 bereit, d. h. einer impedanzbasierten Steuerungsgrundstruktur, die nachstehend beschrieben wird.
  • Der Roboter 10 ist ausgelegt, um eine oder mehrere automatisierte Aufgaben mit mehreren Freiheitsgraden (DOF) auszuführen, und um andere interaktive Aufgaben auszuführen oder andere integrierte Systemkomponenten zu steuern, z. B. Einspannen, Beleuchten, Relais, usw. Gemäß einer Ausführungsform ist der Roboter 10 mit einer Vielzahl unabhängig und voneinander abhängig bewegbarer Robotergelenke ausgestaltet, wie etwa aber ohne Einschränkung einem Schultergelenk, dessen Position durch einen Pfeil A allgemein angezeigt ist, ein Ellbogengelenk, das allgemein (Pfeil B) ist, ein Handgelenk (Pfeil C), ein Halsgelenk (Pfeil D) und ein Taillengelenk (Pfeil E) sowie die verschiedenen Fingergelenke (Pfeil F), die zwischen den Fingergliedern jedes Roboterfingers 19 positioniert sind.
  • Jedes Robotergelenk kann einen oder mehrere DOF aufweisen. Zum Beispiel können einige konforme Gelenke, wie etwa das Schultergelenk (Pfeil A) und das Ellbogengelenk (Pfeil B) mindestens zwei DOF in der Form von Nicken und Rollen aufweisen. Gleichermaßen kann das Halsgelenk (Pfeil D) mindestens drei DOF aufweisen, während die Taille und das Handgelenk (Pfeile E bzw. C) einen oder mehrere DOF aufweisen können. In Abhängigkeit von der Komplexität der Aufgabe kann sich der Roboter 10 mit über 42 DOF bewegen. Jedes Robotergelenk enthält ein oder mehrere Stellglieder und wird durch diese intern angetrieben, z. B. Gelenkmotoren, lineare Stellglieder, rotatorische Stellglieder und dergleichen.
  • Der Roboter 10 kann Komponenten, wie etwa einen Kopf 12, einen Torso 14, eine Taille 15, Arme 16, Hände 18, Finger 19, und Daumen 21 umfassen, wobei die vorstehend erwähnten verschiedenen Gelenke innerhalb oder zwischen diesen Komponenten angeordnet sind. Der Roboter 10 kann auch eine für die Aufgabe geeignete Halterung oder Basis (nicht gezeigt) umfassen, wie etwa Beine, Laufflächen oder eine andere bewegliche oder starre Basis in Abhängigkeit von der speziellen Anwendung oder der beabsichtigten Verwendung des Roboters. Eine Leistungsversorgung 13 kann an den Roboter 10 angebaut sein, z. B. ein wiederaufladbarer Batteriestapel, der an der Rückseite des Torsos 14 getragen oder angelegt wird, oder eine andere geeignete Energieversorgung, oder die durch ein Verbindungskabel abgesetzt angebracht sein kann, um ausreichend elektrische Energie an die verschiedenen Gelenke zur Bewegung derselben zu liefern.
  • Der Controller 22 stellt eine präzise Bewegungssteuerung des Roboters 10 bereit, die eine Steuerung der feinen und groben Bewegungen umfasst, die zum Manipulieren eines Objekts 20 benötigt werden, das von den Fingern 19 und dem Daumen 21 von einer oder mehreren Händen 18 ergriffen werden kann. Der Controller 22 ist in der Lage, jedes Robotergelenk und andere integrierte Systemkomponenten isoliert von den anderen Gelenken und Systemkomponenten unabhängig zu steuern sowie eine Anzahl der Gelenke voneinander abhängig zu steuern, um die Aktionen der mehreren Gelenke bei der Ausführung einer relativ komplexen Arbeitsaufgabe vollständig zu koordinieren.
  • Noch mit Bezug auf 1 kann der Controller 22 mehrere digitale Computer oder Datenverarbeitungseinrichtungen umfassen, die jeweils einen oder mehrere Mikroprozessoren oder zentrale Verarbeitungseinheiten (CPU), Festwertspeicher (ROM), Speicher mit wahlfreiem Zugriff (RAM), elektrisch programmierbarer löschbarer Festwertspeicher (EEPROM), einen Hochgeschwindigkeitstaktgeber, Analog/Digital-Schaltungen (A/D-Schaltungen), Digital/Analog-Schaltungen (D/A-Schaltungen) und beliebige benötigte Eingabe/Ausgabe-Schaltungen (E/A-Schaltungen) und Einrichtungen sowie eine Signalaufbereitungs- und Pufferelektronik, aufweisen. Einzelne Steuerungsalgorithmen, die im Controller 22 vorhanden sind oder für diesen leicht zugänglich sind, können im ROM gespeichert sein und bei einer oder mehreren verschiedenen Steuerungsebenen automatisch ausgeführt werden, um die jeweilige Steuerungsfunktionalität bereitzustellen.
  • Der Controller 22 kann einen Server oder eine Hostmaschine 17 umfassen, die als ein verteiltes oder ein zentrales Steuerungsmodul ausgestaltet ist und Steuerungsmodule und Fähigkeiten derart aufweist, wie es zur Ausführung sämtlicher benötigter Steuerungsfunktionalität des Roboters 10 auf die gewünschte Weise notwendig sein kann. Zudem kann der Controller 22 als ein universaler Digitalcomputer ausgestaltet sein, der allgemein einen Mikroprozessor oder eine zentrale Verarbeitungseinheit, Festwertspeicher (ROM), Speicher mit wahlfreiem Zugriff (RAM), elektrisch löschbaren programmierbaren Festwertspeicher (EEPROM), einen Hochgeschwindigkeitstaktgeber, Analog/Digital-Schaltungen (A/D-Schaltungen) und Digital/Analog-Schaltungen (D/A-Schaltungen) und Eingabe/Ausgabe-Schaltungen und Einrichtungen (E/A), sowie geeignete Signalaufbereitungs- und Pufferschaltungen umfasst. Beliebige im Controller 22 vorhandene oder für diesen zugängliche Algorithmen, welche den Algorithmus 100 zum Ausführen der nachstehend im Detail beschriebenen Grundstruktur umfassen, können im ROM gespeichert sein und ausgeführt werden, um die jeweilige Funktionalität bereitzustellen.
  • Der Controller 22 ist mit einer graphischen Benutzerschnittstelle (GUI) 24, die einen Benutzerzugriff auf den Controller bereitstellt, elektrisch verbunden. Die GUI 24 stellt eine Benutzersteuerung eines breiten Spektrums von Aufgaben bereit, d. h. die Fähigkeit zur Bewegungssteuerung in den Objekt-, Greiforgan- und/oder Gelenkräumen oder Ebenen des Roboters 10. Die GUI 24 ist vereinfacht und intuitiv, um es einem Benutzer durch einfache Eingaben zu ermöglichen, die Arme und die Finger in verschiedenen intuitiven Modi zu steuern, indem ein Eingabesignal (Pfeil iC) eingegeben wird, z. B. eine gewünschte auf das Objekt 20 aufgebrachte Kraft. Die GUI 24 ist auch zum Speichern von Modusänderungen in der Lage, so dass sie zu einem späteren Zeitpunkt in einer Sequenz ausgeführt werden können. Die GUI 24 kann auch externe Steuerungsauslösesignale akzeptieren, um eine Modusänderung zu verarbeiten, z. B. über ein Programmierhandgerät, das extern angebracht ist, oder über einen PLC, welcher den Automationsfluss durch eine Netzwerkverbindung steuert. Verschiedene Ausführungsformen der GUI 24 sind im Umfang der Erfindung möglich, wobei zwei mögliche Ausführungsformen mit Bezug auf 5A und 5B nachstehend beschrieben werden.
  • Um einen Bereich von Manipulationsaufgaben unter Verwendung des Roboters 10 auszuführen, ist ein weiter Bereich an funktionaler Steuerung des Roboters notwendig. Diese Funktionalität umfasst eine hybride Kraft/Positionssteuerung, eine Impedanzsteuerung, eine kooperative Objektsteuerung mit facettenreichen Grifftypen, eine Greiforgansteuerung im kartesischen Raum, d. h. eine Steuerung im XYZ-Koordinatenraum, und eine Gelenkraummanipulatorsteuerung, und mit einer hierarchischen Priorisierung der mehreren Steuerungsaufgaben. Folglich wendet die vorliegende Erfindung ein Arbeitsraumimpedanzgesetz und eine entkoppelte Kraft und Position auf die Steuerung der Greiforgane des Roboters 10 und die Steuerung des Objekts 20 an, wenn es von einem oder mehreren Greiforganen des Roboters, wie etwa der Hand 18, ergriffen, kontaktiert oder anderweitig darauf eingewirkt wird. Die Erfindung stellt einen parametrierten Raum von internen Kräften zur Steuerung eines derartigen Griffs bereit. Sie stellt auch eine sekundäre Gelenkraumimpedanzbeziehung bereit, die im Nullraum des Objekts 20 arbeitet, wie nachstehend offen gelegt wird.
  • Noch mit Bezug auf 1 bietet der Controller 22 Platz für mindestens zwei Grifftypen, d. h. starre Kontakte und Punktkontakte, und lässt auch gemischte Grifftypen zu. Starre Kontakte werden durch die Übertragung willkürlicher Kräfte und Momente beschrieben, wie etwa ein Griff mit geschlossener Hand. Punktkontakte, z. B. eine Fingerspitze, übertragen nur eine Kraft. Das gewünschte Regelkreisverhalten des Objekts 20 kann durch die folgende Impedanzbeziehung definiert werden:
    Figure 00110001
    wobei Mo, Bo und Ko die Matrizen der befohlenen Trägheit, Dämpfung bzw. Steifigkeit sind. Die Variable p ist die Position des Objektreferenzpunkts, ω ist die Winkelgeschwindigkeit des Objekts, Fe und F * / e stellen die tatsächliche und gewünschte externe Verwindung an dem Objekt 20 dar. Δy ist der Positionsfehler (y – y*). NFT ist die Nullraumprojektionsmatrix für Vektor F *T / e und kann wie folgt beschrieben werden:
    Figure 00110002
  • Bei der vorstehenden Gleichung zeigt die Hochstellung (+) die Pseudoinverse der jeweiligen Matrix an und I ist die Identitätsmatrix. NFT hält die Positions- und Kraftsteuerung automatisch entkoppelt, indem der Steifigkeitsausdruck in den Raum orthogonal zu der befohlenen Kraft projiziert wird, mit der Annahme, dass die Kraftsteuerungsrichtung aus einem DOF besteht. Um die Dynamiken mit höherer Ordnung ebenfalls zu entkoppeln, müssen Mo und Bo in dem Referenzrahmen der Kraft diagonal gewählt werden. Dies bietet sich an, um die Fähigkeit zur Steuerung von Kräften in mehr als eine Richtung einzuschließen.
  • Diese Regelkreisbeziehung verwendete ein ”hybrides” Kraft- und Bewegungssteuerungsschema in den orthogonalen Richtungen. Das Impedanzgesetz wendet eine Positionsnachführeinrichtung zweiter Ordnung auf die Bewegungssteuerungspositionsrichtungen an, während es eine Kraftnachführeinrichtung zweiter Ordnung auf die Kraftsteuerungsrichtungen anwendet, und sollte unter Voraussetzung positiver bestimmter Werte für die Matrizen stabil sein. Die Formulierung entkoppelt die Kraft- und Positionssteuerungsrichtungen automatisch. Der Benutzer gibt einfach eine gewünschte Kraft, d. h. F * / e ein, und die Positionssteuerung wird orthogonal in den Nullraum projiziert. Wenn eine gewünschte Kraft von Null eingegeben wird, überspannt die Positionssteuerung den vollen Raum.
  • Mit Bezug auf 2 sind eine baustatische Skizze 25 des Objekts 20 von 1 und ein Koordinatensystem gezeigt. N und B stellen die Bezugsrahmen von Masse bzw. Körper dar. ri ist der Positionsvektor vom Schwerpunkt zu einem Kontaktpunkt i, wobei i = 1,..., n. wi = (fi, ni) stellt die Kontaktverwindung vom Kontaktpunkt i dar, wobei fi und ni die Kraft bzw. das Moment sind. Die Geschwindigkeit und Beschleunigung des Kontaktpunkts i kann durch die folgenden kinematischen Standardbeziehungen dargestellt werden:
    Figure 00120001
    wobei vi die Geschwindigkeit des Kontaktpunkts darstellt und ωi die Winkelgeschwindigkeit des Greiforgans i darstellt. vrel und arel sind als die erste bzw. zweite Ableitung von ri im B-Rahmen definiert.
  • Figure 00130001
  • Mit anderen Worten stellen sie die Bewegung des Punkts relativ zum Körper dar. Die Ausdrücke werden Null, wenn der Punkt im Körper starr ist.
  • Greiforgankoordinaten: die Grundstruktur der vorliegenden Erfindung ist entworfen, um für mindestens zwei Grifftypen, die vorstehend beschrieben sind, d. h. starre Kontakte und Punktkontakte, Platz zu bieten. Da jeder Typ unterschiedliche Zwangsbedingungen für die DOF darstellt, hängt die Wahl von Greiforgankoordinaten für jeden Manipulator xi vom speziellen Grifftyp ab. Ein dritter Grifftyp ist derjenige ”ohne Kontakt”, der ein Greiforgan beschreibt, das mit dem Objekt 20 nicht in Kontakt steht. Dieser Grifftyp ermöglicht eine Steuerung der jeweiligen Greiforgane unabhängig von den anderen. Die. Koordinaten können auf der Geschwindigkeitsebene definiert werden als:
  • Figure 00130002
  • Durch die in 1 gezeigte GUI 24 kann ein Benutzer das bzw. die gewünschten zu aktivierenden Greiforgane wählen, z. B. Finger 19 usw. Der Controller 22 erzeugt dann lineare und rotatorische Jacobimatrizen Jvi bzw. Jωi für jedes Greiforgan. Die endgültige Jacobimatrix für jeden Punkt Ji hängt dann vom Kontakttyp ab, so dass: χ . i = Ji q .
  • In dieser Formel ist q die Spaltenmatrix aller Gelenkkoordinaten in dem System, die gesteuert werden.
  • Matrixnotation: die zusammengesetzte Greiforgangeschwindigkeit kann definiert werden als: χ . = [χ . T / 1 ... χ . T / n ]T, wobei n die Anzahl aktiver Greiforgane ist, z. B. ein Finger 19 des humanoiden Roboters 10, der in 1 gezeigt ist. Die Geschwindigkeit und die anschließende Beschleunigung können in einer Matrixnotation auf der Grundlage der vorstehend offen gelegten kinematischen Beziehungen ausgedrückt werden, d. h.: χ . = Gẏ + χ . rel χ .. = Gÿ + Q + χ .. rel
  • G kann als die Griffmatrix bezeichnet werden und enthält die Kontaktpositionsinformation. Q ist eine Spaltenmatrix, welche die Zentrifugal- und Coriolis-Ausdrücke enthält. χ . rel und χ .. rel sind Spaltenmatrizen, welche die relativen Bewegungsausdrücke enthalten.
  • Die Struktur der Matrizen G, Q und J variiert in Übereinstimmung mit den Kontakttypen im System. Sie können aus Untermatrizen aufgebaut werden, welche jeden Manipulator i darstellen, so dass:
    Figure 00150001
  • Mit Bezug auf 3 können die Untermatrizen in Übereinstimmung mit dem speziellen Kontakttyp angezeigt werden. r ^ bezeichnet das schiefsymmetrische Matrixäquivalent des Kreuzprodukts für den Vektor r. Bei Anwendungen mit niedriger Geschwindigkeit kann Q vernachlässigt werden. Es wird angemerkt, dass die Jacobimatrix für einen Punktkontakt nur die lineare Jacobimatrix enthält. Folglich wird für diesen Kontakttyp nur die Position, nicht aber die Orientierung gesteuert.
  • Der dritte Fall in der Tabelle von 3 wendet einen Proportional-Derivativ-Controller (PD-Controller), der Teil des Controllers 22 von 1 oder eine andere Einrichtung sein kann, auf die Greiforganposition an, wobei kp und kd skalare Verstärkungen sind. Dies ermöglicht, dass die Position des Greiforgans i unabhängig vom Objekt 20 von 1 gesteuert werden kann. Dies bedeutet auch, dass das jeweilige Greiforgan das kartesische Impedanzverhalten nicht beachtet.
  • Wenn sowohl χ . rel und χ .. rel gleich Null sind, erfüllen die Greiforgane die Bedingung starrer Körper auf perfekte Weise, d. h. sie erzeugen keine Veränderung an internen Kräften zwischen ihnen. χ .. rel kann verwendet werden, um die gewünschten internen Kräfte in einem ergriffenen Objekt zu steuern. Um sicherzustellen, dass χ .. rel die externen Kräfte nicht beeinflusst, muss sie in dem Raum liegen, der zu G orthogonal ist, der hier als der ”interne Raum” bezeichnet wird, d. h. der gleiche Raum, der die internen Kräfte enthält. Die Projektionsmatrix für diesen Raum oder den Nullraum GT folgt:
    Figure 00160001
  • Relativbeschleunigungen können auf den internen Raum beschränkt werden:
    Figure 00160002
    wobei a eine willkürliche Spaltenmatrix von internen Beschleunigungen ist.
  • Diese Bedingung stellt sicher, dass χ .. rel keinen Nettoeffekt auf die Beschleunigungen auf der Objektebene erzeugt, wodurch die externen Kräfte ungestört bleiben. Um diese Behauptung zu validieren, kann nach der Objektbeschleunigung aufgelöst werden und gezeigt werden, dass die internen Beschleunigungen einen Null-Beitrag zu ÿ liefern, d. h.:
    Figure 00160003
  • Interne Kräfte: Es gibt zwei Anforderungen zum Steuern der internen Kräfte innerhalb der vorstehenden Steuerungsgrundstruktur. Erstens wird der Nullraum mit physikalisch relevanten Parametern parametriert und zweitens müssen die Parameter im Nullraum von beiden Grifftypen liegen. Beide Anforderungen werden durch das Konzept der Interaktionskräfte erfüllt. Zum Verständnis können durch Ziehen einer Linie zwischen zwei Kontaktpunkten Interaktionskräfte als die Differenz zwischen den zwei Kontaktkräften definiert werden, die entlang dieser Linie projiziert sind. Es kann gezeigt werden, dass die Interaktionsverwindung, d. h. die Interaktionskräfte und -momente, ebenfalls im Nullraum des Falls mit starrem Kontakt liegt.
  • Es wird ein Vektor an einem Kontaktpunkt betrachtet, der senkrecht zu der Oberfläche verläuft und in das Objekt 20 von 1 hineinzeigt. Kräfte an Punktkontakten müssen senkrechte Komponenten aufweisen, die positiv mit einer ausreichenden Größe sind, um sowohl den Kontakt mit dem Objekt 20 aufrechtzuerhalten als auch ein Rutschen mit Bezug auf ein derartiges Objekt zu verhindern. Bei einem korrekten Griff, z. B. mit der Hand 18 von 1, werden die Interaktionskräfte niemals alle tangential zu der Oberfläche des Objekts 20 verlaufen. Deshalb existiert immer eine gewisse minimale Interaktionskraft, so dass die senkrechte Komponente größer als eine Untergrenze ist.
  • Mit Bezug auf die Interaktionsbeschleunigungen können diese definiert werden als:
    Figure 00170001
    wobei die gewünschten relativen Beschleunigungen in den Interaktionsrichtungen liegen sollten. Bei der vorstehenden Gleichung kann a als die Spaltenmatrix der Interaktionsbeschleunigungen aij definiert werden, wobei aij die relative lineare Beschleunigung zwischen Punkten i und j darstellt. Deshalb ist die relative Beschleunigung vom Punkt i aus gesehen:
    Figure 00180001
    wobei uij den Einheitsvektor darstellt, der längs der Achse von Punkt i zu j zeigt.
  • Figure 00180002
  • Zudem ist uij = 0, wenn entweder i oder j einen Punkt ”ohne Kontakt” darstellt. Die Interaktionsbeschleunigungen werden dann verwendet, um die Interaktionskräfte unter Verwendung des nachstehenden PI-Reglers zu steuern, wobei kp und ki konstante skalare Verstärkungen sind: aij = –kp(fij – f * / ij ) – ki∫(fij – f * / ij )dt wobei fij die Interaktionskraft zwischen den Punkten i und j ist. fij = (fi – fj)·uij
  • Diese Definition ermöglicht, einen Raum Nint einzuführen, der die Interaktionskomponenten parametriert. Bei der Verwendung hierin ist Nint ein Unterraum des vollen Nullraums NGT mit der Ausnahme des Falls des Punktkontakts, bei dem er den gesamten Nullraum überspannt: χ .. = Gÿ + Q + Ninta
  • Nint besteht aus den Interaktionsrichtungsvektoren (uij) und kann gebildet werden aus der Gleichung:
    Figure 00190001
    Es kann gezeigt werden, dass Nint für beide Kontakttypen orthogonal zu G ist. Es wird ein Beispiel mit zwei Kontaktpunkten betrachtet. In diesem Fall:
    Figure 00190002
  • Unter Beachtung, dass uij = –uji und aij = aji ergeben sich die folgenden einfachen Matrixausdrücke:
    Figure 00190003
  • Der Ausdruck für einen Fall mit drei Kontakten folgt als:
    Figure 00190004
  • Steuerungsgesetz – Dynamisches Modell: die folgende Gleichung modelliert das vollständige Manipulatorsystem unter der Annahme, dass externe Kräfte nur auf die Greiforgane wirken: Mq .. + c + JTw = τ wobei q die Spaltenmatrix verallgemeinerter Koordinaten ist, M die Gelenkraumsträgheitsmatrix ist, c die Spaltenmatrix der verallgemeinerten Coriolus-, Zentrifugal- und Gravitationskräfte ist, T die Spaltenmatrix von Gelenkdrehmomenten ist und w die zusammengesetzte Spaltenmatrix der Kontaktverwindungen ist.
  • Steuerungsgesetz – inverse Dynamik: das Steuerungsgesetz beruhend auf der inversen Dynamik kann formuliert werden als: τ = Mq .. * + c + JTw wobei q .. * die gewünschte Lenkraumbeschleunigung ist. Sie kann aus der gewünschten Greiforganbeschleunigung (χ .. *) wie folgt abgeleitet werden: χ .. * = Jq .. * + Ĵq . q .. * = J+(χ .. * – Ĵq . ) + Nj q .. ns wobei q .. ns ein willkürlicher Vektor ist, der in den Nullraum von J projiziert ist. Er wird hier nachstehend für eine sekundäre Impedanzaufgabe verwendet. NJ bezeichnet den Nullraum-Projektionsoperator für die Matrix J.
  • Figure 00210001
  • Die gewünschte Beschleunigung auf der Greiforgan- und Objektebene kann dann aus den vorherigen Gleichungen abgeleitet werden. Die Stärke dieses Verfahrens der Objektkraftverteilung besteht darin, dass es kein Modell des Objekts benötigt. Herkömmliche Verfahren können umfassen, dass die gewünschte Bewegung des Objekts in eine befohlene resultierende Kraft umgesetzt wird, ein Schritt, der ein existierendes Dynamikmodell des Objekts mit hoher Qualität benötigt. Diese resultierende Kraft wird dann unter Verwendung der Inversen von G auf die Kontakte verteilt. Die inverse Dynamik des Greiforgans erzeugt dann die befohlene Kraft und die befohlene Bewegung. Bei dem hier dargestellten Verfahren beseitigt das Einführen der erfassten Greiforgankräfte und das Ausführen der Bereitstellung im Beschleunigungsbereich die Notwendigkeit eines Modells für das Objekt.
  • Steuerungsgesetz – Schätzung: die externe Verwindung (Fe) an dem Objekt 20 von 1 kann nicht erfasst werden, jedoch kann sie aus den anderen Kräften an dem Objekt 20 geschätzt werden. Wenn das Objektmodell gut bekannt ist, kann die volle Dynamik verwendet werden, um Fe zu schätzen. Andernfalls kann eine quasi statische Approximation verwendet werden. Zusätzlich kann die Geschwindigkeit des Objekts 20 mit der folgenden Fehlerschätzung der kleinsten Quadrate des Systems als starrer Körper geschätzt werden:
    Figure 00210002
  • Wenn ein Greiforgan wie oben angegeben als der Typ ”ohne Kontakt” eingeordnet wird, wird G eine Zeile von Nullen enthalten. Eine Berechnung der Pseudoinversen auf der Grundlage einer Singulärwertzerlegung (SVD) erzeugt G+, wobei die entsprechende Spalte mit Nullen gefüllt ist. Deshalb wird die Geschwindigkeit des Punkts ohne Kontakt die Schätzung nicht beeinflussen. Alternativ kann die Pseudoinverse mit einer Standardlösung mit geschlossenem Ausdruck berechnet werden. In diesem Falle müssen die Zeilen mit Nullen vor der Berechnung entfernt werden und dann als entsprechende Spalten mit Nullen wieder eingefügt werden. Das Gleiche trifft für die J-Matrix zu, welche ebenfalls Zeilen mit Nullen enthalten kann.
  • Zweites Impedanzgesetz: die Redundanz der Manipulatoren ermöglicht, dass eine sekundäre Aufgabe im Nullraum der Objektimpedanz arbeitet. Die folgende Gelenkraumimpedanzbeziehung definiert eine sekundäre Aufgabe: Mj q .. + Bj q . + KjΔq = τe wobei τe die Spaltenmatrix der Gelenkmomente darstellt, die durch externe Kräfte erzeugt werden. Sie kann aus der Bewegungsgleichung, d. h. Mq .. + c + JTw = τ, geschätzt werden, so dass: τe = Mq .. + c – τ.
  • Diese Formel wiederum diktiert die folgende gewünschte Beschleunigung für den Nullraum:
    Figure 00220001
  • Es kann gezeigt werden, dass diese Implementierung die folgende Regelkreisbeziehung im Nullraum der Manipulatoren erzeugt. Es wird angemerkt, dass NJ eine orthogonale Projektionsmatrix ist, die die Projektion mit minimalem Fehler in den Nullraum findet. NJ[q .. – M –1 / j (τe – Bj q . – KjΔq)] = 0
  • Nullkraftrückkopplung: Aus den vorstehenden Gleichungen folgt:
    Figure 00230001
  • Wenn in den Manipulatoren eine zuverlässige Krafterfassung nicht verfügbar ist, kann die Impedanzbeziehung so eingestellt werden, dass der Bedarf für die Erfassung beseitigt wird. Durch eine geeignete Wahl der gewünschten Impedanzträgheiten Mo und Mi können die Kraftrückkopplungsausdrücke beseitigt werden. Die geeigneten Werte können aus der vorherigen Gleichung leicht ermittelt werden.
  • Benutzerschnittstelle: durch eine einfache Benutzerschnittstelle, z. B. die GUI 24 von 1, kann der Controller 22 den humanoiden Roboter 10 im gesamten gewünschten Modusbereich betreiben. In einem Modus mit voller Funktionalität steuert der Controller 22 das Objekt 20 mit einer hybriden Impedanzbeziehung, wendet interne Kräfte zwischen den Kontakten an und implementiert eine Gelenkraumimpedanzbeziehung in dem redundanten Raum. Unter Verwendung allein einer einfachen Logik und einer intuitiven Schnittstelle kann die vorgeschlagene Grundstruktur leicht zwischen der gesamten oder einem Teil dieser Funktionalität auf der Grundlage eines Satzes von Steuerungseingaben, wie sie in 1 durch den Pfeil ic darstellt sind, umschalten.
  • Mit Bezug auf 4 sind Eingaben 30 von der GUI 24 von 1 in einer Tabelle dargestellt. Die Eingaben 30 können so kategorisiert werden, dass sie entweder zu dem kartesischen Raum, d. h. Eingaben 30A, oder zu dem Gelenkraum, d. h. Eingaben 30B, gehören. Ein Benutzer kann zwischen einer Positions- und Kraftsteuerung durch Bereitstellen einer externen Referenzkraft leicht umschalten. Der Benutzer kann das System auch zwischen dem Anwenden der Impedanzsteuerung auf die Objekt-, Greiforgan- und/oder Gelenkebenen einfach umschalten, indem er die gewünschte Kombination von Greiforganen wählt. Es folgt eine vollständigere Auflistung der Modi und wie sie aufgerufen werden:
    • Kartesische Positionssteuerung: wenn F*e = 0.
    • Kartesische hybride Kraft/Positions-Steuerung: wenn F*e ≠ 0. Die Kraftsteuerung wird in der Richtung von F*e angewendet und die Positionssteuerung wird in den orthogonalen Richtungen angewendet.
    • Gelenkpositionssteuerung: wenn keine Greiforgane gewählt sind. Die Gelenkraumimpedanzbeziehung steuert den vollständigen Gelenkraum des Systems.
    • Greiforganimpedanzsteuerung: wenn nur ein Greiforgan gewählt wird (andere können gewählt und als ”ohne Kontakt” markiert werden). Das hybride kartesische Impedanzgesetz wird auf das Greiforgan angewendet.
    • Objektimpedanzsteuerung: wenn mindestens zwei Greiforgane gewählt werden (und nicht als ”ohne Kontakt” zugeordnet werden).
    • Gelenkraumfingersteuerung: jedes Mal, wenn keine Fingerspitze als Greiforgan gewählt wird, wird sie durch die Gelenkraumimpedanzbeziehung gesteuert. Dies ist sogar der Fall, wenn die Handfläche gewählt wird.
    • Grifftypen: starrer Kontakt (wenn Handfläche gewählt wird); Punktkontakt (wenn Finger gewählt wird).
  • Mit Bezug auf 5A mit 4 ist eine Beispiel-GUI 24A gezeigt, welche den kartesischen Raum von Eingaben 30A und den Gelenkraum von Eingaben 30B aufweist. Die GUI 24A kann Knoten der linken Seite und der rechten Seite 31 bzw. 33 zur Steuerung der linken und rechten Seite des Roboters 10 von 1 darstellen, z. B. der rechten und linken Hände 18 und Finger 19 von 1. Die Werkzeugposition auf oberster Ebene (ri), die Positionsreferenz (y*) und die Kraftreferenz (F*e) sind über die GUI 24A wählbar, wie durch die drei benachbarten Kästchen 91A, 91B und 91C angemerkt ist. Die linksseitigen Knoten 31 können die Fläche einer Hand 18 und die drei Fingerspitzen der primären Finger 19 umfassen, die als 19A, 19B und 19C dargestellt sind. Gleichermaßen können die rechtsseitigen Knoten 33 die Handfläche der rechten Hand 18 und die drei Fingerspitzen der primären Finger 119A, 119B und 119C dieser Hand umfassen.
  • Jeder primäre Finger 19R, 119R, 19L, 119L weist eine entsprechende Fingerschnittstelle auf, d. h. 34A, 134A, 34B, 134B, 34C bzw. 134C. Jede Handfläche einer Hand 18L, 18R umfasst eine Handflächenschnittstelle 34L, 34R. Schnittstellen 35, 37 bzw. 39 stellen eine Positionsreferenz, eine interne Kraftreferenz (f12, f13, f23) und eine 2. Positionsreferenz (x*) bereit. Optionen ohne Kontakt 41L, 41R sind für die linke bzw. rechte Hand bereitgestellt.
  • Die Gelenkraumsteuerung ist über Eingaben 30B bereitgestellt. Eine Gelenkposition der linken und rechten Arme 16L, 16R kann über Schnittsellen 34D, E bereitgestellt werden. Eine Gelenkposition der linken und rechten Hände 18L, 18R kann über Schnittstellen 34F, G bereitgestellt werden. Schließlich kann ein Benutzer einen qualitativen Impedanztyp oder eine qualitative Impedanzebene über eine Schnittstelle 34H wählen, d. h. weich oder steif, die wieder über die GUI 24 von 1 bereitgestellt wird, wobei der Controller 22 auf das Objekt 20 mit der gewählten qualitativen Impedanzebene einwirkt.
  • Mit Bezug auf 5B ist eine erweiterte GUI 24B gezeigt, die eine größere Flexibilität als die Ausführungsform von 5A bereitstellt. Zusätzliche Optionen umfassen, dass ermöglicht wird, dass über die Schnittstelle 34I die kartesische Impedanz nur lineare oder rotatorische Komponenten steuert, im Gegensatz dazu, dass nur beide gesteuert werden können, dass zugelassen wird, dass ein Knoten ”ohne Kontakt” mit einem Kontaktknoten an der gleichen Hand über eine Schnittstelle 34J koexistiert, und dass die Flexibilität der Wahl des Kontakttyps für jeden aktiven Knoten über eine Schnittstelle 34K hinzugefügt wird.
  • Obwohl die besten Arten zum Ausführen der Erfindung im Detail beschrieben wurden, werden Fachleute auf dem Gebiet, das diese Erfindung betrifft, verschiedene alternative Entwürfe und Ausführungsformen erkennen, um die Erfindung im Umfang der beigefügten Ansprüche auszuführen.

Claims (19)

  1. Robotersystem, das umfasst: einen humanoiden Roboter mit einer Vielzahl von Robotergelenken, die zum Ausüben einer Kraft auf ein Objekt ausgelegt sind; eine graphische Benutzerschnittstelle (GUI), die zum Empfangen eines Eingabesignals von einem Benutzer ausgelegt ist, welches zumindest eine gewünschte Eingabekraft beschreibt, die auf das Objekt ausgeübt werden soll; und einen Controller, der mit der GUI elektrisch verbunden ist, wobei die GUI dem Benutzer einen Programmierzugriff auf den Controller bereitstellt; wobei der Controller ausgelegt ist, um die Vielzahl von Robotergelenken unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern, wobei die Grundstruktur eine Steuerung des humanoiden Roboters auf Objektebene und/oder auf Greiforganebene und/oder auf Gelenkraumebene in Ansprechen auf das Eingabesignal bereitstellt.
  2. System nach Anspruch 1, wobei die GUI sowohl einen kartesischen Raum von Eingaben als auch einen Gelenkraum von Eingaben sowohl für einen linksseitigen Knoten als auch einen rechtsseitigen Knoten des humanoiden Roboters grafisch anzeigt.
  3. System nach Anspruch 1, wobei der Controller ausgelegt ist, einen vorbestimmten Satz von internen Kräften des humanoiden Roboters in der Steuerung auf Objektebene zu parametrieren, um dadurch mehrere Grifftypen in Echtzeit zu ermöglichen, wobei die mehreren Grifftypen zumindest einen Grifftyp mit starrem Kontakt und einen Grifftyp mit Punktkontakt umfassen.
  4. System nach Anspruch 1, wobei das Eingabesignal auch eine qualitative Impedanzebene beschreibt, und wobei der Controller ausgelegt ist, um die Vielzahl von Robotergelenken mit der qualitativen Impedanzebene zu steuern.
  5. System nach Anspruch 1, wobei die GUI eine funktionsbasierte Einrichtung ist, die einen Satz intuitiver Eingaben und eine interpretierende Logikschicht verwendet, um alle Gelenke in dem humanoiden Roboter mit einem Satz von Impedanzbefehlen für zumindest eine der Objekt-, der Greiforgan- und der Gelenkraumebenen zu befehlen.
  6. System nach Anspruch 1, wobei der Controller ausgelegt ist, um eine hybride Kraft- und Positionssteuerung im kartesischen Raum auszuführen, indem er Kraft- und Positionsrichtungen in Ansprechen auf die gewünschte Eingabekraft automatisch entkoppelt.
  7. Controller für ein Robotersystem, wobei das System einen humanoiden Roboter mit einer Vielzahl von Robotergelenken, die zur Kraftsteuerung mit Bezug auf ein Objekt, auf das von dem humanoiden Roboter eingewirkt wird, und eine graphische Benutzerschnittstelle (GUI) umfasst, die mit dem Controller elektrisch verbunden ist, wobei die GUI ausgelegt ist, um ein Eingabesignal von einem Benutzer zu empfangen, wobei der Controller umfasst: eine Hostmaschine; und einen Algorithmus, der von der Hostmaschine ausgeführt werden kann und ausgelegt ist, um die Vielzahl von Gelenken unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern; wobei eine Ausführung des Algorithmus eine Steuerung des humanoiden Roboters auf Objektebene, auf Greiforganebene und/oder auf Gelenkraumebene in Ansprechen auf das Eingabesignal in die GUI bereitstellt, wobei das Eingabesignal zumindest eine gewünschte Eingabekraft umfasst, die auf das Objekt ausgeübt werden soll.
  8. Controller nach Anspruch 7, wobei der Algorithmus ausgelegt ist, um eine Logikzwischenschicht auszuführen, um das über die GUI eingegebene Eingabesignal zu entschlüsseln.
  9. Controller nach Anspruch 7, wobei der Algorithmus ausgelegt ist, um eine Kraftrichtung von einer Positionssteuerungsrichtung des humanoiden Roboters automatisch zu entkoppeln, wenn der Benutzer die gewünschte Eingabekraft eingibt, und wobei die Positionssteuerungsrichtung während einer Ausführung des Algorithmus automatisch orthogonal in einen Nullraum projiziert wird.
  10. Controller nach Anspruch 7, wobei der Algorithmus ausgelegt ist, um einen vorbestimmten Satz interner Kräfte des humanoiden Roboters bei einer Steuerung auf Objektebene zu parametrieren, um dadurch mehrere Grifftypen zu ermöglichen, wobei die mehreren Grifftypen mindestens einen Grifftyp mit starrem Kontakt und einen Grifftyp mit Punktkontakt umfassen.
  11. Controller nach Anspruch 7, wobei die Hostmaschine ausgelegt ist, um eine qualitative Impedanzebene aufzuzeichnen, die von dem Benutzer in die GUI eingegeben wird, und um die qualitative Impedanzebene auf die Vielzahl von Robotergelenken anzuwenden.
  12. Controller nach Anspruch 7, wobei der Controller ausgelegt ist, um eine Positionsnachführeinrichtung zweiter Ordnung auf die Positionssteuerungsrichtungen anzuwenden, während er eine Kraftnachführeinrichtung zweiter Ordnung auf die Kraftsteuerungsrichtungen anwendet.
  13. Controller nach Anspruch 7, wobei der Benutzer die gewünschten zu aktivierenden Greiforgane des Roboters wählt, und wobei der Controller eine lineare und eine rotatorische Jacobimatrix für jedes Greiforgan in Ansprechen darauf erzeugt.
  14. Controller nach Anspruch 7, wobei der Controller ausgelegt ist, um zwischen einem Positionssteuerungsmodus und einem Kraftsteuerungsmodus, wenn der Benutzer eine externe Referenzkraft über die GUI bereitstellt, und zwischen dem Anwenden einer Impedanzsteuerung auf der Objektebene oder der Greiforganebene oder der Gelenkebene umzuschalten, wenn der Benutzer eine gewünschte Kombination von Greiforganen über die GUI wählt.
  15. Verfahren zur Steuerung eines Robotersystems, wobei das System einen humanoiden Roboter mit einer Vielzahl von Gelenken, die zum Ausüben einer Kraft auf ein Objekt ausgelegt sind, einen Controller und eine graphische Benutzerschnittstelle (GUI) umfasst, die mit dem Controller elektrisch verbunden ist und ausgelegt ist, um ein Eingabesignal zu empfangen, wobei das Verfahren umfasst, dass: das Eingabesignal über die GUI empfangen wird; und das Eingabesignal unter Verwendung einer Hostmaschine verarbeitet wird, um die Vielzahl von Gelenken zu steuern; wobei das Verarbeiten des Eingabesignals umfasst, dass eine impedanzbasierte Steuerungsgrundstruktur verwendet wird, um eine Steuerung des humanoiden Roboters auf Objektebene, auf Greiforganebene und auf Gelenkraumebene bereitzustellen.
  16. Verfahren nach Anspruch 13, wobei das Eingabesignal eine gewünschte auf das Objekt aufgebrachte Eingabekraft ist, und wobei das Verarbeiten des Eingabesignals umfasst, dass: eine Kraftsteuerungsrichtung und eine Positionssteuerungsrichtung automatisch entkoppelt werden, wenn der Benutzer die gewünschte Eingabekraft über die GUI eingibt, und die Positionssteuerungsrichtung orthogonal in einen Nullraum projiziert wird.
  17. Verfahren nach Anspruch 13, das ferner umfasst, dass: die Hostmaschine verwendet wird, um eine Positionsnachführeinrichtung zweiter Ordnung auf die Positionssteuerungsrichtung und eine Kraftnachführeinrichtung zweiter Ordnung auf die Kraftsteuerungsrichtung anzuwenden.
  18. Verfahren nach Anspruch 13, das ferner umfasst, dass: ein vorbestimmter Satz interner Kräfte des humanoiden Roboters bei einer Steuerung auf Objektebene parametriert wird, um dadurch mehrere Grifftypen in Echtzeit zu ermöglichen, welche zumindest einen Grifftyp mit starrem Kontakt und einen Grifftyp mit Punktkontakt umfassen.
  19. Verfahren nach Anspruch 13, das ferner umfasst, dass: automatisch zwischen einem Positionssteuerungsmodus und einem Kraftsteuerungsmodus, wenn der Benutzer die gewünschte Eingabekraft über die GUI bereitstellt, und zwischen einer Impedanzsteuerung auf der Objekt- oder der Greiforgan- oder der Gelenkebene umgeschaltet wird, wenn der Benutzer eine gewünschte Kombination von Greiforganen des humanoiden Roboters über die GUI wählt.
DE102010018438.1A 2009-04-30 2010-04-27 Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters Active DE102010018438B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US17431609P 2009-04-30 2009-04-30
US61/174,316 2009-04-30
US12/624,445 US8364314B2 (en) 2009-04-30 2009-11-24 Method and apparatus for automatic control of a humanoid robot
US12/624,445 2009-11-24

Publications (2)

Publication Number Publication Date
DE102010018438A1 true DE102010018438A1 (de) 2011-01-13
DE102010018438B4 DE102010018438B4 (de) 2015-06-11

Family

ID=43030719

Family Applications (5)

Application Number Title Priority Date Filing Date
DE102010018438.1A Active DE102010018438B4 (de) 2009-04-30 2010-04-27 Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters
DE102010018440.3A Expired - Fee Related DE102010018440B4 (de) 2009-04-30 2010-04-27 Hierarchisches Robotersteuerungssystem und -Verfahren zum Steuern ausgewählter Freiheitsgrade eines Objekts unter Verwendung mehrerer Manipulatoren
DE102010018746.1A Expired - Fee Related DE102010018746B4 (de) 2009-04-30 2010-04-29 Momentensteuerung von unteraktuierten sehnengetriebenen Roboterfingern
DE201010018759 Active DE102010018759B4 (de) 2009-04-30 2010-04-29 Spannungsverteilung in einem sehnengetriebenen Roboterfinger
DE102010018854.9A Expired - Fee Related DE102010018854B4 (de) 2009-04-30 2010-04-30 Elektrischer Verbinder und elektrische Verbinderbaueinheit

Family Applications After (4)

Application Number Title Priority Date Filing Date
DE102010018440.3A Expired - Fee Related DE102010018440B4 (de) 2009-04-30 2010-04-27 Hierarchisches Robotersteuerungssystem und -Verfahren zum Steuern ausgewählter Freiheitsgrade eines Objekts unter Verwendung mehrerer Manipulatoren
DE102010018746.1A Expired - Fee Related DE102010018746B4 (de) 2009-04-30 2010-04-29 Momentensteuerung von unteraktuierten sehnengetriebenen Roboterfingern
DE201010018759 Active DE102010018759B4 (de) 2009-04-30 2010-04-29 Spannungsverteilung in einem sehnengetriebenen Roboterfinger
DE102010018854.9A Expired - Fee Related DE102010018854B4 (de) 2009-04-30 2010-04-30 Elektrischer Verbinder und elektrische Verbinderbaueinheit

Country Status (4)

Country Link
US (5) US8364314B2 (de)
JP (2) JP5180989B2 (de)
CN (5) CN101976772A (de)
DE (5) DE102010018438B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015106227B3 (de) * 2015-04-22 2016-05-19 Deutsches Zentrum für Luft- und Raumfahrt e.V. Steuern und/oder Regeln von Motoren eines Roboters
DE102018114604B4 (de) 2017-06-19 2024-03-14 GM Global Technology Operations LLC Systeme, Vorrichtungen und Verfahren zum Berechnen einer inneren Belastung einer Komponente

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9517106B2 (en) * 1999-09-17 2016-12-13 Intuitive Surgical Operations, Inc. Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space
EP1728600B1 (de) * 2005-05-31 2008-03-12 Honda Research Institute Europe GmbH Steuerung der Bahn eines Greifers
US20090248200A1 (en) * 2007-10-22 2009-10-01 North End Technologies Method & apparatus for remotely operating a robotic device linked to a communications network
US8232888B2 (en) * 2007-10-25 2012-07-31 Strata Proximity Systems, Llc Interactive magnetic marker field for safety systems and complex proximity warning system
US8483880B2 (en) * 2009-07-22 2013-07-09 The Shadow Robot Company Limited Robotic hand
KR20110016521A (ko) * 2009-08-12 2011-02-18 삼성전자주식회사 인간형 로봇의 전신 동작 제어 장치 및 그 방법
US8412378B2 (en) * 2009-12-02 2013-04-02 GM Global Technology Operations LLC In-vivo tension calibration in tendon-driven manipulators
US8731714B2 (en) * 2010-09-22 2014-05-20 GM Global Technology Operations LLC Concurrent path planning with one or more humanoid robots
US9101379B2 (en) 2010-11-12 2015-08-11 Intuitive Surgical Operations, Inc. Tension control in actuation of multi-joint medical instruments
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
CN102377050A (zh) * 2011-06-17 2012-03-14 西南交通大学 一种电器接插件
CN103718120A (zh) * 2011-07-27 2014-04-09 Abb技术有限公司 用于命令机器人的系统
US9067319B2 (en) * 2011-08-11 2015-06-30 GM Global Technology Operations LLC Fast grasp contact computation for a serial robot
US8776632B2 (en) * 2011-08-19 2014-07-15 GM Global Technology Operations LLC Low-stroke actuation for a serial robot
US8874262B2 (en) * 2011-09-27 2014-10-28 Disney Enterprises, Inc. Operational space control of rigid-body dynamical systems including humanoid robots
KR101941844B1 (ko) * 2012-01-10 2019-04-11 삼성전자주식회사 로봇 및 그 제어방법
JP5930753B2 (ja) * 2012-02-13 2016-06-08 キヤノン株式会社 ロボット装置の制御方法及びロボット装置
US9067325B2 (en) 2012-02-29 2015-06-30 GM Global Technology Operations LLC Human grasp assist device soft goods
US8849453B2 (en) 2012-02-29 2014-09-30 GM Global Technology Operations LLC Human grasp assist device with exoskeleton
US9120220B2 (en) 2012-02-29 2015-09-01 GM Global Technology Operations LLC Control of a glove-based grasp assist device
CN102591306B (zh) * 2012-03-08 2013-07-10 南京埃斯顿机器人工程有限公司 双系统组件式的工业机器人控制器
EP2854690B1 (de) 2012-06-01 2020-04-01 Intuitive Surgical Operations, Inc. Systeme zur gesteuerten rekonfiguration eines chirurgischen manipulators mit nullraumausnutzung
US9149933B2 (en) * 2013-02-07 2015-10-06 GM Global Technology Operations LLC Grasp assist device with shared tendon actuator assembly
WO2014129110A1 (ja) * 2013-02-25 2014-08-28 パナソニック株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
US9031691B2 (en) * 2013-03-04 2015-05-12 Disney Enterprises, Inc. Systemic derivation of simplified dynamics for humanoid robots
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
KR102214811B1 (ko) * 2013-03-15 2021-02-10 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 매니퓰레이터 조인트 운동을 비등방적으로 증폭시키기 위해 영공간을 이용하는 시스템 및 방법
US9242372B2 (en) * 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
JP6544833B2 (ja) 2013-06-11 2019-07-17 オンロボット ロサンゼルス インコーポレイテッド 物体を検知するシステム及び方法
US9314924B1 (en) 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
DE102013010290A1 (de) * 2013-06-19 2014-12-24 Kuka Laboratories Gmbh Überwachen eines kinematisch redundanten Roboters
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
CN103640639B (zh) * 2013-11-20 2015-12-02 浙江大学宁波理工学院 一种欠驱动行走机器人
KR101510009B1 (ko) * 2013-12-17 2015-04-07 현대자동차주식회사 착용식 로봇의 구동 장치
DE102013227147A1 (de) * 2013-12-23 2015-06-25 Daimler Ag Verfahren zum automatisierten Drehfügen und/oder Drehlösenvon Bauteilen, sowie zugehöriger Industrieroboter und automatisierterMontagearbeitsplatz
FR3016543A1 (fr) * 2014-01-22 2015-07-24 Aldebaran Robotics Main destinee a equiper un robot a caractere humanoide a doigts ameliores
FR3016542B1 (fr) * 2014-01-22 2019-04-19 Aldebaran Robotics Actionnement d'une main destinee a equiper un robot a caractere humanoide
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US10231859B1 (en) * 2014-05-01 2019-03-19 Boston Dynamics, Inc. Brace system
US9283676B2 (en) * 2014-06-20 2016-03-15 GM Global Technology Operations LLC Real-time robotic grasp planning
CN104139811B (zh) * 2014-07-18 2016-04-13 华中科技大学 一种欠驱动的仿生四足机器人
US9815206B2 (en) * 2014-09-25 2017-11-14 The Johns Hopkins University Surgical system user interface using cooperatively-controlled robot
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
DE102014224122B4 (de) * 2014-11-26 2018-10-25 Siemens Healthcare Gmbh Verfahren zum Betreiben eines robotischen Gerätes und robotisches Gerät
JP6630042B2 (ja) 2014-12-26 2020-01-15 川崎重工業株式会社 双腕ロボットの教示システム及び双腕ロボットの教示方法
TWI549666B (zh) * 2015-01-05 2016-09-21 國立清華大學 具有測量僵硬程度的功能之復健系統
JP6468871B2 (ja) * 2015-02-03 2019-02-13 キヤノン株式会社 ロボットハンド制御方法及びロボット装置
US10525588B2 (en) 2015-02-25 2020-01-07 Societe De Commercialisation Des Produits De La Recherche Appliquee Socpra Sciences Et Genie S.E.C. Cable-driven system with magnetorheological fluid clutch apparatuses
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US9844886B2 (en) 2015-06-09 2017-12-19 Timothy R. Beevers Tendon systems for robots
WO2017052060A1 (ko) * 2015-09-21 2017-03-30 주식회사 레인보우 계층적 아키텍처를 갖는 실시간 디바이스 제어 시스템 및 이를 이용한 실시간 로봇 제어 시스템
KR102235166B1 (ko) 2015-09-21 2021-04-02 주식회사 레인보우로보틱스 실시간 로봇 시스템, 로봇 시스템 제어 장치 및 로봇 시스템 제어 방법
FR3042901B1 (fr) * 2015-10-23 2017-12-15 Commissariat Energie Atomique Dispositif de declenchement et d'insertion d'elements absorbants et/ou mitigateurs d'un reacteur nucleaire mettant en œuvre des elements flexibles et assemblage de combustible nucleaire comportant un tel dispositif
JP6348097B2 (ja) * 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US9669543B1 (en) * 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping
CN105690388B (zh) * 2016-04-05 2017-12-08 南京航空航天大学 一种腱驱动机械手腱张力约束阻抗控制方法及装置
US10241514B2 (en) 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
US9987752B2 (en) 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
US10282849B2 (en) 2016-06-17 2019-05-07 Brain Corporation Systems and methods for predictive/reconstructive visual object tracker
CN109643873A (zh) * 2016-06-24 2019-04-16 莫列斯有限公司 具有端子的电源连接器
US10016896B2 (en) 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
CN106313076A (zh) * 2016-10-31 2017-01-11 河池学院 一种可充电教育机器人
US10274325B2 (en) 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
US10001780B2 (en) 2016-11-02 2018-06-19 Brain Corporation Systems and methods for dynamic route planning in autonomous navigation
CN106598056B (zh) * 2016-11-23 2019-05-17 中国人民解放军空军工程大学 一种提升固定翼飞机隐身性能的舵面优先级调节方法
US10723018B2 (en) 2016-11-28 2020-07-28 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
US10377040B2 (en) 2017-02-02 2019-08-13 Brain Corporation Systems and methods for assisting a robotic apparatus
US10852730B2 (en) 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
CN106826885B (zh) * 2017-03-15 2023-04-04 天津大学 一种变刚度欠驱动的机器人灵巧手手指
US11179856B2 (en) 2017-03-30 2021-11-23 Soft Robotics, Inc. User-assisted robotic control systems
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
US10406685B1 (en) * 2017-04-20 2019-09-10 X Development Llc Robot end effector control
CN107030694A (zh) * 2017-04-20 2017-08-11 南京航空航天大学 腱驱动机械手腱张力约束末端力位操作控制方法和装置
WO2018232326A1 (en) 2017-06-15 2018-12-20 Perception Robotics, Inc. Systems, devices, and methods for sensing locations and forces
USD829249S1 (en) * 2017-07-11 2018-09-25 Intel Corporation Robotic finger
JP6545768B2 (ja) * 2017-10-02 2019-07-17 スキューズ株式会社 指機構、ロボットハンド及びロボットハンドの制御方法
CN107703813A (zh) * 2017-10-27 2018-02-16 安徽硕威智能科技有限公司 一种基于可编程卡片驱动的卡片机器人及其控制系统
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
US10682774B2 (en) 2017-12-12 2020-06-16 X Development Llc Sensorized robotic gripping device
USD838759S1 (en) * 2018-02-07 2019-01-22 Mainspring Home Decor, Llc Combination robot clock and device holder
CN112823083A (zh) * 2018-11-05 2021-05-18 得麦股份有限公司 可配置和交互式的机器人系统
CN109591013B (zh) * 2018-12-12 2021-02-12 山东大学 一种柔性装配仿真系统及其实现方法
US11787050B1 (en) 2019-01-01 2023-10-17 Sanctuary Cognitive Systems Corporation Artificial intelligence-actuated robot
US11312012B2 (en) 2019-01-01 2022-04-26 Giant Ai, Inc. Software compensated robotics
DE102019117217B3 (de) * 2019-06-26 2020-08-20 Franka Emika Gmbh Verfahren zum Vorgeben eines Eingabewerts an einem Robotermanipulator
US11117267B2 (en) 2019-08-16 2021-09-14 Google Llc Robotic apparatus for operating on fixed frames
CN111216130B (zh) * 2020-01-10 2021-04-20 电子科技大学 一种基于变化阻抗控制的不确定机器人自适应控制方法
US11530052B1 (en) 2020-02-17 2022-12-20 Amazon Technologies, Inc. Systems and methods for automated ground handling of aerial vehicles
US11597092B1 (en) 2020-03-26 2023-03-07 Amazon Technologies, Ine. End-of-arm tool with a load cell
CN111687834B (zh) * 2020-04-30 2023-06-02 广西科技大学 移动机械手冗余机械臂逆优先级阻抗控制系统及控制方法
CN111687835B (zh) * 2020-04-30 2023-06-02 广西科技大学 水下机械手冗余机械臂逆优先级阻抗控制系统及控制方法
CN111687832B (zh) * 2020-04-30 2023-06-02 广西科技大学 空间机械手冗余机械臂逆优先级阻抗控制系统及控制方法
CN111687833B (zh) * 2020-04-30 2023-06-02 广西科技大学 机械手逆优先级阻抗控制系统及控制方法
US11534924B1 (en) 2020-07-21 2022-12-27 Amazon Technologies, Inc. Systems and methods for generating models for automated handling of vehicles
US11534915B1 (en) 2020-08-05 2022-12-27 Amazon Technologies, Inc. Determining vehicle integrity based on observed behavior during predetermined manipulations
WO2022072887A1 (en) * 2020-10-02 2022-04-07 Building Machines, Inc. Systems and methods for precise and dynamic positioning over volumes

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2502634A (en) * 1947-05-22 1950-04-04 Ohio Brass Co Electric connector
DE1041559B (de) 1954-08-05 1958-10-23 Max Frost Steckvorrichtung zur Verbindung elektrischer Leitungen
FR1247634A (fr) 1960-02-04 1960-12-02 Cemel Soc Contacts par pinces pour connexion électrique
US3694021A (en) * 1970-07-31 1972-09-26 James F Mullen Mechanical hand
DE2047911A1 (en) 1970-09-29 1972-04-13 Sel Annular silicone rubber spring - for electric communications plug contact
US3845459A (en) * 1973-02-27 1974-10-29 Bendix Corp Dielectric sleeve for electrically and mechanically protecting exposed female contacts of an electrical connector
US4246661A (en) * 1979-03-15 1981-01-27 The Boeing Company Digitally-controlled artificial hand
US4921293A (en) * 1982-04-02 1990-05-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Multi-fingered robotic hand
US4834761A (en) * 1985-05-09 1989-05-30 Walters David A Robotic multiple-jointed digit control system
US4860215A (en) * 1987-04-06 1989-08-22 California Institute Of Technology Method and apparatus for adaptive force and position control of manipulators
US4821207A (en) * 1987-04-28 1989-04-11 Ford Motor Company Automated curvilinear path interpolation for industrial robots
US4865376A (en) * 1987-09-25 1989-09-12 Leaver Scott O Mechanical fingers for dexterity and grasping
US4957320A (en) * 1988-08-31 1990-09-18 Trustees Of The University Of Pennsylvania Methods and apparatus for mechanically intelligent grasping
US5062673A (en) * 1988-12-28 1991-11-05 Kabushiki Kaisha Toyota Chuo Kenkyusho Articulated hand
US5303384A (en) * 1990-01-02 1994-04-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration High level language-based robotic control system
US5200679A (en) * 1990-02-22 1993-04-06 Graham Douglas F Artificial hand and digit therefor
JPH04178708A (ja) 1990-11-13 1992-06-25 Fujitsu Ltd ロボット制御装置
US5133216A (en) * 1990-11-14 1992-07-28 Bridges Robert H Manipulator integral force sensor
JPH0712596B2 (ja) * 1991-03-28 1995-02-15 工業技術院長 ロボットア―ムのワイヤ―干渉駆動方式
US5197908A (en) 1991-11-29 1993-03-30 Gunnar Nelson Connector
US5737500A (en) * 1992-03-11 1998-04-07 California Institute Of Technology Mobile dexterous siren degree of freedom robot arm with real-time control system
US5499320A (en) * 1993-03-24 1996-03-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Extended task space control for robotic manipulators
JP3350687B2 (ja) 1993-06-30 2002-11-25 日立建機株式会社 ロボット制御方法およびロボット制御装置
JPH08293346A (ja) * 1995-04-18 1996-11-05 Whitaker Corp:The 電気コネクタ及びコネクタ組立体
US5650704A (en) * 1995-06-29 1997-07-22 Massachusetts Institute Of Technology Elastic actuator for precise force control
US5762390A (en) * 1996-07-16 1998-06-09 Universite Laval Underactuated mechanical finger with return actuation
JPH10154540A (ja) * 1996-11-25 1998-06-09 Amp Japan Ltd 電気コネクタ及びそれを使用した電気コネクタ組立体
US6247738B1 (en) * 1998-01-20 2001-06-19 Daum Gmbh Robot hand
US6435794B1 (en) * 1998-11-18 2002-08-20 Scott L. Springer Force display master interface device for teleoperation
JP3443077B2 (ja) * 1999-09-20 2003-09-02 ソニー株式会社 ロボットの運動パターン生成装置及び運動パターン生成方法、並びにロボット
JP3486639B2 (ja) * 1999-10-26 2004-01-13 株式会社テムザック マニピュレータ
US7699835B2 (en) * 2001-02-15 2010-04-20 Hansen Medical, Inc. Robotically controlled surgical instruments
US6456901B1 (en) * 2001-04-20 2002-09-24 Univ Michigan Hybrid robot motion task level control system
KR100451412B1 (ko) * 2001-11-09 2004-10-06 한국과학기술연구원 다지 로봇 핸드
US6951465B2 (en) 2002-01-15 2005-10-04 Tribotek, Inc. Multiple-contact woven power connectors
JP2003256203A (ja) * 2002-03-01 2003-09-10 Mitsubishi Electric Corp 自動機アプリケーションプログラム開発システム、プログラム開発方法、この方法を実行するプログラム、及びこのプログラムを記憶した記憶媒体
WO2003077101A2 (en) * 2002-03-06 2003-09-18 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
JP2003274374A (ja) * 2002-03-18 2003-09-26 Sony Corp 画像伝送装置及び方法、送信装置及び方法、受信装置及び方法、並びにロボット装置
DE10235943A1 (de) * 2002-08-06 2004-02-19 Kuka Roboter Gmbh Verfahren und Vorrichtung zum synchronen Steuern von Handhabungsgeräten
JP4007279B2 (ja) 2003-08-07 2007-11-14 住友電装株式会社 雌端子金具
WO2005028166A1 (ja) * 2003-09-22 2005-03-31 Matsushita Electric Industrial Co., Ltd. 弾性体アクチュエータの制御装置及び制御方法
JP4592276B2 (ja) * 2003-10-24 2010-12-01 ソニー株式会社 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
DE10354642A1 (de) * 2003-11-22 2005-06-16 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zum Programmieren eines Industrieroboters
US7341295B1 (en) * 2004-01-14 2008-03-11 Ada Technologies, Inc. Prehensor device and improvements of same
CN1304178C (zh) * 2004-05-24 2007-03-14 熊勇刚 一种多机械臂机器人关节间的碰撞检测方法
JP2006159320A (ja) * 2004-12-03 2006-06-22 Sharp Corp ロボットハンド
US20060277466A1 (en) * 2005-05-13 2006-12-07 Anderson Thomas G Bimodal user interaction with a simulated object
JP2007015037A (ja) 2005-07-05 2007-01-25 Sony Corp ロボットのモーション編集装置及びモーション編集方法、コンピュータ・プログラム、並びにロボット装置
JP2007075929A (ja) 2005-09-13 2007-03-29 Mie Univ 多指ロボットハンドの制御方法
US7383100B2 (en) * 2005-09-29 2008-06-03 Honda Motor Co., Ltd. Extensible task engine framework for humanoid robots
CN2862386Y (zh) * 2005-12-22 2007-01-24 番禺得意精密电子工业有限公司 电连接器
EP1815949A1 (de) * 2006-02-03 2007-08-08 The European Atomic Energy Community (EURATOM), represented by the European Commission Medizinisches Robotersystem mit einem Manipulatorarm mit zylindrischer Kinematik
US7377809B2 (en) 2006-04-14 2008-05-27 Extreme Broadband Engineering, Llc Coaxial connector with maximized surface contact and method
JP4395180B2 (ja) * 2006-09-05 2010-01-06 イヴァン ゴドレール 運動変換装置
US8231158B2 (en) * 2006-11-03 2012-07-31 President And Fellows Of Harvard College Robust compliant adaptive grasper and method of manufacturing same
CN200974246Y (zh) * 2006-11-23 2007-11-14 华南理工大学 基于非正则反馈回路的欠驱动机器人控制系统
CN100439048C (zh) * 2007-01-26 2008-12-03 清华大学 机器人拟人手欠驱动多指装置
CN201038406Y (zh) * 2007-04-11 2008-03-19 凡甲科技股份有限公司 电源连接器的端子结构
US8560118B2 (en) * 2007-04-16 2013-10-15 Neuroarm Surgical Ltd. Methods, devices, and systems for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis
CN101646534B (zh) * 2007-06-27 2012-03-21 松下电器产业株式会社 机器手控制装置及控制方法、机器人
CN101190528A (zh) * 2007-12-12 2008-06-04 哈尔滨工业大学 欠驱动耦合传动式仿人手指机构
CN101332604B (zh) * 2008-06-20 2010-06-09 哈尔滨工业大学 人机相互作用机械臂的控制方法
KR101549818B1 (ko) * 2008-12-02 2015-09-07 삼성전자 주식회사 로봇 핸드 및 그 제어방법
US8060250B2 (en) * 2008-12-15 2011-11-15 GM Global Technology Operations LLC Joint-space impedance control for tendon-driven manipulators
US8052185B2 (en) * 2009-04-09 2011-11-08 Disney Enterprises, Inc. Robot hand with humanoid fingers
US8260460B2 (en) * 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use
US8424941B2 (en) * 2009-09-22 2013-04-23 GM Global Technology Operations LLC Robotic thumb assembly

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015106227B3 (de) * 2015-04-22 2016-05-19 Deutsches Zentrum für Luft- und Raumfahrt e.V. Steuern und/oder Regeln von Motoren eines Roboters
US10678210B2 (en) 2015-04-22 2020-06-09 Kastanienbaum GmbH Controlling and/or regulating motors of a robot
DE102018114604B4 (de) 2017-06-19 2024-03-14 GM Global Technology Operations LLC Systeme, Vorrichtungen und Verfahren zum Berechnen einer inneren Belastung einer Komponente

Also Published As

Publication number Publication date
US8412376B2 (en) 2013-04-02
US8483882B2 (en) 2013-07-09
JP2010262927A (ja) 2010-11-18
US8364314B2 (en) 2013-01-29
US20100279524A1 (en) 2010-11-04
DE102010018759A1 (de) 2011-01-13
US20100280662A1 (en) 2010-11-04
DE102010018746A1 (de) 2011-01-05
CN101947787A (zh) 2011-01-19
CN101947786B (zh) 2012-10-31
US8565918B2 (en) 2013-10-22
JP5002035B2 (ja) 2012-08-15
JP5180989B2 (ja) 2013-04-10
DE102010018438B4 (de) 2015-06-11
US20100280663A1 (en) 2010-11-04
DE102010018854B4 (de) 2023-02-02
CN102145489B (zh) 2014-07-16
JP2010260173A (ja) 2010-11-18
CN101976772A (zh) 2011-02-16
CN101947786A (zh) 2011-01-19
DE102010018746B4 (de) 2015-06-03
DE102010018440B4 (de) 2015-06-03
US20100280659A1 (en) 2010-11-04
US8033876B2 (en) 2011-10-11
DE102010018440A1 (de) 2010-12-16
DE102010018854A1 (de) 2010-12-09
US20100280661A1 (en) 2010-11-04
CN101947787B (zh) 2012-12-05
CN102029610A (zh) 2011-04-27
CN102029610B (zh) 2013-03-13
DE102010018759B4 (de) 2015-05-13
CN102145489A (zh) 2011-08-10

Similar Documents

Publication Publication Date Title
DE102010018438B4 (de) Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters
DE102011110902B4 (de) Sicherer Betrieb eines Kraft- oder ImpedanzgesteuertenRoboters im Arbeitsraum
EP2987592B1 (de) Verfahren zum programmieren eines industrieroboters und zugehöriger industrieroboter
DE102011113590B4 (de) Planen simultaner Pfade mit einem oder mehreren humanoiden Robotern
DE102010045528B4 (de) Gerüst und Verfahren zum Steuern eines Robotersystems unter Verwendung eines verteilten Rechnernetzwerks
DE102010045529B4 (de) Interaktives Robotersteuerungssystem und Verwendungsverfahren
DE102014108287B4 (de) Schnelles Erlernen durch Nachahmung von Kraftdrehmoment-Aufgaben durch Roboter
DE10392966B4 (de) Parallele haptische Joystick-Vorrichtung
DE102009014074B4 (de) Roboter und Verfahren zum Steuern einer kooperativen Arbeit des Roboters
DE102012213957B4 (de) Schnelle Berechnung von Griffkontakten für einen seriellen Roboter
DE102017202717A1 (de) Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen
DE102011117094B4 (de) Robuster betrieb von sehnengetriebenen roboterfingern unter verwendung von kraft- und positionsbasierten steuergesetzen
DE102011079117B4 (de) Verfahren zum Programmieren eines Roboters
DE102010045554B4 (de) Integriertes Hochgeschwindigkeitsdrehmomentregelsystem für ein Robotergelenk
DE102011016113B4 (de) Verfahren und Vorrichtung zum Kalibrieren mehrachsiger Kraftaufnehmer in einem geschickten Roboter
DE102010045526B4 (de) Verpackung von Stellgliedern und Elektronik für eine extrinsische humanoide Hand
DE102019134665B3 (de) Kalibrieren eines virtuellen Kraftsensors eines Robotermanipulators
DE102011102314B4 (de) Anwenden von Arbeitsraumgrenzen in einem geschwindigkeitsgesteuerten Robotermechanismus
Aldridge et al. Control architecture for the robonaut space humanoid
DE102019220619B3 (de) Bewegen einer roboterfesten Referenz
O'Malley et al. Haptic feedback applications for Robonaut
DE102015003941A1 (de) Steuern eines mobilen redundanten Roboters
DE102021129897B4 (de) Modulare Robotervorrichtung und Verfahren zum Betreiben einer modularen Robotervorrichtung
Su et al. Development of an articulation robot arm
Wakabayashi et al. Test of operator endurance in the teleoperation of an anthropomorphic hand

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR, US

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC , ( N. D. , US

R081 Change of applicant/patentee

Owner name: THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR, US

Free format text: FORMER OWNERS: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GESETZEN DES STAATES DELAWARE), DETROIT, MICH., US; THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR OF THE NATIONAL AERONAUTICS AND SPACE ADMINISTRATION, WASHINGTON, D.C., US

Effective date: 20110321

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US

Free format text: FORMER OWNERS: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GESETZEN DES STAATES DELAWARE), DETROIT, MICH., US; THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR OF THE NATIONAL AERONAUTICS AND SPACE ADMINISTRATION, WASHINGTON, D.C., US

Effective date: 20110321

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US

Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, THE U.S.A. AS REPRESENTED BY TH, , US

Effective date: 20110321

Owner name: THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR, US

Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, THE U.S.A. AS REPRESENTED BY TH, , US

Effective date: 20110321

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final