DE112012000853T5 - Entdeckung, Erkennung und Bookmarking von Gesichtern in Videos - Google Patents

Entdeckung, Erkennung und Bookmarking von Gesichtern in Videos Download PDF

Info

Publication number
DE112012000853T5
DE112012000853T5 DE112012000853T DE112012000853T DE112012000853T5 DE 112012000853 T5 DE112012000853 T5 DE 112012000853T5 DE 112012000853 T DE112012000853 T DE 112012000853T DE 112012000853 T DE112012000853 T DE 112012000853T DE 112012000853 T5 DE112012000853 T5 DE 112012000853T5
Authority
DE
Germany
Prior art keywords
video
facial
data
frame
human face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112012000853T
Other languages
English (en)
Other versions
DE112012000853B4 (de
Inventor
Matthew S. Steiner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112012000853T5 publication Critical patent/DE112012000853T5/de
Application granted granted Critical
Publication of DE112012000853B4 publication Critical patent/DE112012000853B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/30Scenes; Scene-specific elements in albums, collections or shared content, e.g. social network photos or video
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums

Abstract

Verfahren, Systeme und Vorrichtung mit auf einem Computerspeichermedium codierten Computerprogrammen für Bookmarking von Gesichtern in Videos. Nach einem Aspekt umfasst das Verfahren, ein digitales Video zu empfangen, das Videodaten aufweist, die Videodaten zu verarbeiten, um Merkmale zu entdecken, die auf ein menschliches Gesicht in dem digitalen Video hinweisen, aus den Videodaten ein erstes Einzelbild zu ermitteln, in dem die auf das menschliche Gesicht hinweisenden Merkmale in dem digitalen Video entdeckt werden, erste Zeitstempeldaten entsprechend dem ersten Einzelbild zu ermitteln, aus den Videodaten ein zweites Einzelbild zu ermitteln, in dem die auf das menschliche Gesicht hinweisenden Merkmale in dem digitalen Video entdeckt werden, zweite Zeitstempeldaten entsprechend dem zweiten Einzelbild zu ermitteln, einen Identifizierer entsprechend dem menschlichen Gesicht zu erzeugen, einen Datensatz zu erzeugen, der den Identifizierer, die ersten Zeitstempeldaten und die zweiten Zeitstempeldaten umfasst, und den Datensatz an die Videodaten anzufügen, um annotierte Videodaten bereitzustellen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht die Priorität der US-Provisional-Patentanmeldung Nr. 61/444,513, eingereicht am 18. Februar 2011, deren Offenbarung in ihrer Gesamtheit durch Bezugnahme ausdrücklich hierin aufgenommen wird.
  • TECHNISCHES GEBIET
  • Diese Beschreibung bezieht sich allgemein auf digitale Videos.
  • HINTERGRUND
  • Das Aufkommen von hochwertigen digitalen Videokameras für Endverbraucher und auch Videokameras, die in Handgeräten wie z. B. Smartphones enthalten sind, hat Heim-Videos und -Filme populärer als je zuvor gemacht. Die Leute machen häufig Videos von Ereignissen wie z. B. Geburtstagen, Abschlussfeiern, und auch Videos, die Geschichten erzählen oder Ideen ausdrücken. Im Allgemeinen werden die Videos so gemacht, dass sie für Betrachtung durch einen breiten Zuschauerkreis veröffentlicht werden können. Es ist leichter geworden, Videos unter Verwendung von elektronischer Dateiverbreitung und ”Posting” von Videos gemeinsam zu benutzen, wie z. B. mit Websites, die Videoinhalte und Zugänge für Benutzer bereitstellen, um Videoinhalte bereitzustellen. Websites von sozialen Netzwerken werden ebenfalls benutzt, um Videos mit Familie und Freunden zu teilen.
  • KURZDARSTELLUNG
  • Im Allgemeinen können innovative Aspekte des in dieser Beschreibung beschriebenen Gegenstandes in Verfahren verkörpert sein, die Aktionen umfassen, ein digitales Video zu empfangen, das Videodaten enthält, die Videodaten zu verarbeiten, um Merkmale zu entdecken, die auf ein menschliches Gesicht in dem digitalen Video hinweisen, aus den Videodaten ein erstes Einzelbild zu ermitteln, in dem die auf das menschliche Gesicht hinweisenden Merkmale in dem digitalen Video entdeckt werden, erste Zeitstempeldaten entsprechend dem ersten Einzelbild zu ermitteln, aus den Videodaten ein zweites Einzelbild zu ermitteln, in dem die auf das menschliche Gesicht hinweisenden Merkmale in dem digitalen Video entdeckt werden, zweite Zeitstempeldaten entsprechend dem zweiten Einzelbild zu ermitteln, einen Identifizierer entsprechend dem menschlichen Gesicht zu erzeugen, einen Datensatz zu erzeugen, der den Identifizierer, die ersten Zeitstempeldaten und die zweiten Zeitstempeldaten umfasst, und den Datensatz an die Videodaten anzufügen, um annotierte Videodaten bereitzustellen.
  • Diese und weitere Ausführungen können jeweils optional eines oder mehrere der folgenden Merkmale enthalten. Zum Beispiel, Aktionen umfassen weiterhin: die Videodaten zu verarbeiten, um die Merkmale, die auf das menschliche Gesicht in dem digitalen Video hinweisen, einer bestimmten Person zuzuordnen, und Identitätsdaten zu ermitteln, die der bestimmten Person zugeordnet sind, wobei der Identifizierer auf Basis der Identitätsdaten erzeugt wird; das Verarbeiten der Videodaten zum Entdecken von Merkmalen, die auf ein menschliches Gesicht hinweisen, umfasst, ein oder mehrere Einzelbilder des digitalen Videos als ein Bild zu verarbeiten, wobei jedes Bild unter Verwendung von Gesichtsentdeckungstechniken verarbeitet wird; Aktionen umfassen weiterhin, ein annotiertes Video auf Basis der annotierten Videodaten anzuzeigen, wobei das annotierte Video ein Bookmark (Anglizismus für digitale Lesezeichen) entsprechend dem Datensatz enthält; Aktionen umfassen weiterhin: eine Benutzereingabe auf Basis des Bookmarks zu empfangen und ein dargestelltes Einzelbild in dem digitalen Video als Antwort auf die Benutzereingabe zu dem ersten Einzelbild vorzurücken; Aktionen umfassen weiterhin: eine erste Position der Merkmale, die auf das menschliche Gesicht in dem ersten Einzelbild hinweisen, mit einer zweiten Position von Merkmalen, die auf ein zweites menschliches Gesicht in dem zweiten Einzelbild hinweisen, zu vergleichen und auf Basis der ersten Position und der zweiten Position zu ermitteln, dass die Merkmale, die auf das zweite menschliche Gesicht hinweisen, den Merkmalen entsprechen, die auf das menschliche Gesicht hinweisen; Aktionen umfassen weiterhin: ein Gesichtsmodell des menschlichen Gesichts zu erzeugen und das Gesichtsmodell mit bekannten Gesichtsmodellen zu vergleichen; das Erzeugen des Gesichtsmodells des menschlichen Gesichts umfasst, eine Vielzahl von Gesichtsschablonen zu erzeugen, wobei jede Gesichtsschablone einem Einzelbild in den Videodaten entspricht, in dem das menschliche Gesicht entdeckt wird, wobei das Gesichtsmodell die Vielzahl von Gesichtsschablonen enthält; jedes der bekannten Gesichtsmodelle einem Benutzer eines Sozialnetzwerkdienstes entspricht; Aktionen umfassen weiterhin, ein bekanntes Gesichtsmodell auf Basis von einer oder mehreren von einer Vielzahl von Gesichtsschablonen des Gesichtsmodells zu aktualisieren; die bekannten Gesichtsmodelle jeweils nach Empfang des digitalen Videos erzeugt werden; die bekannten Gesichtsmodelle nach dem Vergleichen von computerlesbarem Speicher gelöscht werden; die bekannten Gesichtsmodelle von einer Dauerspeichereinrichtung abgerufen werden, die eine Datenbank von bekannten Gesichtsmodellen elektronisch speichert; das Vergleichen der Gesichtsmodelle umfasst, jede Gesichtsschablone des Gesichtsmodells mit Gesichtsschablonen jedes der bekannten Gesichtsmodelle zu vergleichen; Aktionen umfassen weiterhin: einen Konfidenzpunktwert zwischen dem Gesichtsmodell und einem bekannten Gesichtsmodell auf Basis von Vergleichen des Gesichtsmodells mit bekannten Gesichtsmodellen zu erzeugen, den Konfidenzpunktwert mit einem Schwellen-Konfidenzpunktwert zu vergleichen und anzuzeigen, dass das Gesichtsmodell dem bekannten Gesichtsmodell entspricht, wenn der Konfidenzpunktwert größer als der Schwellen-Konfidenzpunktwert ist; Aktionen umfassen weiterhin: Identitätsdaten entsprechend dem bekannten Gesichtsmodell zu ermitteln, das Gesichtsmodell den Identitätsdaten zuzuordnen und die Identitätsdaten an den Datensatz anzufügen; Aktionen umfassen weiterhin, das Gesichtsmodell als ein bekanntes Gesichtsmodell zu speichern; und Aktionen umfassen weiterhin, eine Benutzereingabe zu empfangen, wobei die Benutzereingabe eine Identität entsprechend dem menschlichen Gesicht anzeigt, wobei der Identifizierer der Identität entspricht.
  • Die Details von einer oder mehreren Ausführungen des in dieser Beschreibung beschriebenen Gegenstandes sind in den begleitenden Zeichnungen und der nachfolgenden Beschreibung dargelegt. Weitere mögliche Merkmale, Aspekte und Vorteile des Gegenstandes ergeben sich aus der Beschreibung, den Zeichnungen und den Patentansprüchen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt eine Beispiel-Systemarchitektur, die in Übereinstimmung mit Ausführungen der vorliegenden Offenbarung benutzt werden kann.
  • 2 zeigt eine Beispiel-Umgebung für Entdeckung, Erkennung und Bookmarking (mit digitalen Lesezeichen versehen) von Gesichtern in Videos.
  • 3 ist ein Flussdiagramm eines Beispiel-Prozesses für Entdeckung und Bookmarking von Gesichtern in Videos.
  • 4 ist ein Flussdiagramm eines Beispiel-Prozesses für Gesichtserkennung in Videos.
  • 5 zeigt einen Beispiel-Sozialgraphen.
  • Gleiche Bezugszeichen repräsentieren überall entsprechende Teile.
  • DETAILLIERTE BESCHREIBUNG
  • Dieses Dokument beschreibt Systeme und Techniken für die automatische Entdeckung von einer oder mehreren Personen in einem digitalen Video und Bookmarking, wo jede der einen oder mehreren Personen in ein Video eintritt und/oder daraus austritt. Im Gegensatz zu Fotografien wird der gesamte Inhalt eines Videos nicht auf eine statische Weise dargestellt. Folglich ist es schwieriger, ein Video mit der Identität jeder Person, die in dem Video auftaucht, zu kennzeichnen oder zu markieren und die Identitätsinformationen darzustellen. Zum Beispiel müsste ein Besitzer eines bestimmten Videos das gesamte Video betrachten und jede Person identifizieren, die in dem Video auftaucht. Für kurze Videos mit einer minimalen Anzahl von Personen in dem Video mag dies zwar praktikabel sein, doch wäre diese Aufgabe bei langen Videos mit zahlreichen verschiedenen Personen arbeitsintensiv und würde wesentliche Zeit benötigen.
  • In Übereinstimmung mit Ausführungen der vorliegenden Offenbarung kann ein Videoverarbeitungssystem ein digitales Video verarbeiten, um Leute in dem Video zu entdecken und zu erkennen. Das Videoverarbeitungssystem kann Bookmarks erzeugen (z. B. in Form von Zeitstempeln und Positionen in einem oder mehreren Einzelbildern), wo jede bestimmte Person in das Video eintritt und/oder daraus austritt. Das Videoverarbeitungssystem kann Gesichter in dem Video durch Verarbeiten eines oder mehrerer Einzelbilder des Videos erkennen, wobei jedes Einzelbild als ein digitales Bild behandelt wird. Jedes Bild kann unter Verwendung von Gesichtsentdeckungstechniken verarbeitet werden, um das Vorhandensein von einem oder mehreren Gesichtern in dem Bild zu entdecken. Auf diese Weise kann das Videoverarbeitungssystem ermitteln, wann ein bestimmtes Gesicht, und daher eine bestimmte Person, erstmalig in dem Video auftaucht und wann das bestimmte Gesicht aus dem Video austritt, und außerdem, wo das bestimmte Gesicht dargestellt wird (d. h. eine Position in einem oder mehreren Einzelbildern). Zeitstempel der Eintritts- und Austritts-Einzelbilder können als Bookmarks für jedes in dem Video entdeckte Gesicht gespeichert werden. Die Bookmarks können auch die Position enthalten. Das Videoverarbeitungssystem kann weiterhin ein oder mehrere Einzelbilder des Videos verarbeiten, um ein entdecktes Gesicht als das Gesicht einer bestimmten Person zu erkennen (d. h. die Identität von einer oder mehreren in dem Video auftauchenden Personen bestimmen). Die Identität einer bestimmten Person kann mit den Bookmarks verknüpft werden, um Informationen dazu, wann die bestimmte Person in das Video eintritt und/oder daraus austritt, bereitzustellen. Das Videoverarbeitungssystem kann Metadaten erzeugen, die an die dem Video entsprechende computerlesbare Datei angefügt wird oder auf andere Weise damit bereitgestellt wird, um eine annotierte Videodatei zu erzeugen. Die Metadaten können Daten, die die Identität jeder von einer oder mehreren in dem Video vorhandenen Personen anzeigen, und Bookmarks entsprechend wann jede der einen oder mehreren Personen in das Video eintritt und/oder daraus austritt, enthalten.
  • Das Videoverarbeitungssystem kann die annotierte Videodatei einer oder mehreren Websites bereitstellen, um sie zu veröffentlichen. Zum Beispiel kann das Videoverarbeitungssystem das Video wie hierin erörtert verarbeiten und dann auf Basis von Anweisungen, die der Autor des Videos (z. B. ein Benutzer, der das Video zu dem Videoverarbeitungssystem hochgeladen hat) gegeben hat, sofort ein annotiertes Video auf einer bestimmten Website veröffentlichen. Als ein anderes Beispiel kann das Videoverarbeitungssystem die annotierte Videodatei auf Basis von Anweisungen, die der Autor des Videos gegeben hat, erzeugen und kann die annotierte Videodatei dem Autor zum Veröffentlichen des Videos zurückgeben. Wie auch immer veröffentlicht, kann das annotierte Video Markierungen entsprechend entdeckten Personen und/oder erkannten Personen in dem Video und entsprechende Bookmarks enthalten. In manchen Ausführungen kann das annotierte Video Steuerungen entsprechend den Bookmarks enthalten, so dass, wenn angeklickt, das Video zu einem Einzelbild des Videos springen kann, in dem eine entdeckte Person erstmalig auftaucht und/oder aus dem Video austritt.
  • In manchen Ausführungen kann das Videoverarbeitungssystem einem Sozialnetzwerkdienst zugeordnet sein. Zum Beispiel kann ein Autor des Videos ein Benutzer des Sozialnetzwerkdienstes sein und kann als ein Autor-Benutzer betrachtet werden. Der Autor-Benutzer des Sozialnetzwerkdienstes kann das Video für Veröffentlichung des Videos unter Verwendung des Sozialnetzwerkdienstes hochladen. In dem Video entdeckte Gesichter können auf Basis von Leuten erkannt werden, mit denen der Benutzer durch den Sozialnetzwerkdienst sozial verbunden ist. Zum Beispiel kann das Videoverarbeitungssystem mit der Erlaubnis des Benutzers und/oder Erlaubnis von anderen Benutzern, die in dem Video erkannt werden sollen, Bilder der sozialen Verbindungen des Benutzers verarbeiten, wenn es Leute in dem Video identifiziert, wie hierin detaillierter erörtert.
  • Für Situationen, in denen die hierin erörterten Verfahren und Systeme persönliche Informationen über Benutzer sammeln und/oder abrufen, kann den Benutzern Gelegenheit gegeben werden, sich für oder gegen Programme oder Merkmale zu entscheiden, die persönliche Informationen über Benutzer sammeln und/oder Zugang dazu haben können (z. B. Informationen über die Identität oder Präferenzen eines Benutzers, Informationen und Bezug auf den Sozialgraphen des Benutzers oder Beiträge eines Benutzers zu Sozialinhaltsanbietern). Außerdem können bestimmte Daten auf eine oder mehrere Weise anonymisiert werden, bevor sie gespeichert, abgerufen oder benutzt werden, so dass persönlich identifizierbare Informationen entfernt werden. Zum Beispiel kann die Identität eines Benutzers anonymisiert werden, so dass identifizierte Benutzerpräferenzen oder Benutzerinteraktionen generalisiert werden (zum Beispiel, auf Basis von Benutzerdemografien generalisiert werden) statt einem bestimmten Benutzer zugeordnet zu werden.
  • 1 zeigt eine Beispiel-Systemarchitektur 100, die in Übereinstimmung mit Ausführungen der vorliegenden Offenbarung benutzt werden kann. Die Beispiel-Systemarchitektur 100 enthält eine Computereinrichtung 102, die einem Benutzer 104 zugeordnet ist, ein Netzwerk 110, ein Computersystem 112 und ein Computersystem 114. Die Computereinrichtung 102, das Computersystem 112 und das Computersystem 114 können durch das Netzwerk 110 miteinander kommunizieren. Die Computersysteme 112, 114 können eine Computereinrichtung 116 (z. B. einen Server) und eine oder mehrere computerlesbare Speichereinrichtungen 118 (z. B. eine Datenbank) enthalten.
  • Die Computereinrichtung 102 kann verschiedene Formen von Verarbeitungseinrichtungen darstellen, einschließlich, aber nicht beschränkt auf einen Desktop-Computer, einen Laptop-Computer, einen Hand-Computer, einen persönlichen digitalen Assistenten (PDA), ein Zellulartelefon, ein Netzwerkgerät, eine Kamera, ein Smartphone, ein EGPRS-Mobiltelefon (EGPRS = Enhanced General Packet Radio Service), ein Medienabspielgerät, eine Navigationseinrichtung, eine E-Mail-Einrichtung, eine Spielkonsole oder eine Kombination von zwei oder mehreren dieser Datenverarbeitungseinrichtungen oder anderen Datenverarbeitungseinrichtungen. Den Computereinrichtungen 102, 116 kann Zugang zu und/oder Empfang von Anwendungssoftware ermöglicht werden, die auf irgendeiner der anderen Computereinrichtungen 102, 116 ausgeführt und/oder gespeichert wird. Die Computereinrichtung 116 kann verschiedene Formen von Servern darstellen, einschließlich, aber nicht beschränkt auf einen Web-Server, einen Proxy-Server, einen Netzwerk-Server oder eine Server-Farm. Zum Beispiel kann die Computereinrichtung 116 ein Anwendungsserver sein, der Software ausführt, die von einem Softwareverkaufsunternehmen 102 bereitgestellt wird.
  • In manchen Ausführungen können die Computereinrichtungen drahtlos durch eine Kommunikationsschnittstelle (nicht gezeigt) kommunizieren, welche erforderlichenfalls Verarbeitungsschaltkreise für digitale Signale enthalten kann. Die Kommunikationsschnittstelle kann Kommunikation unter verschiedenen Betriebsarten oder Protokollen ermöglichen, wie unter anderem Sprachanrufe per GSM (Global System for Mobile communication), Nachrichten per SMS (Short Message Service, EMS (Enhanced Messaging Service) oder MMS (Multimedia Messaging Service), CDMA (Code Division Multiple Access, TDMA (Time Division Multiple Access), PDC (Personal Digital Cellular), WCDMA (Wideband Code Division Multiple Access), CDMA2000 oder GPRS (General Packet Radio System). Zum Beispiel kann die Kommunikation durch einen Funkfrequenz-Transceiver (nicht gezeigt) stattfinden. Außerdem kann Kurzstreckenkommunikation stattfinden, wie z. B. unter Verwendung eines Bluetooth-, WiFi- oder anderen derartigen Transceivers.
  • In manchen Ausführungen kann die Systemarchitektur 100 ein verteiltes Client/Server-System sein, das ein oder mehrere Netzwerke wie z. B. das Netzwerk 110 überspannt. Das Netzwerk 110 kann ein großes Computernetzwerk sein, wie z. B. ein LAN (Local Area Network), WAN (Wide Area Network), das Internet, ein Zellularnetzwerk oder eine Kombination davon, die irgendeine Anzahl von mobilen Clients, festen Clients und Servern verbindet. In manchen Ausführungen kann jeder Client (z. B. die Computereinrichtung 102) über ein VPN (Virtual Private Network), einen SSH (Secure Shell) Tunnel oder eine andere sichere Netzwerkverbindung mit Servern (z. B. Computereinrichtungen 116) kommunizieren. In manchen Ausführungen können die Netzwerke 110 ein Firmennetzwerk (z. B. Intranet) und einen oder mehrere Drahtloszugangspunkte enthalten.
  • 2 zeigt eine Beispiel-Umgebung 200 für Erkennung und Bookmarking von Gesichtern in Videos. Die Beispiel-Umgebung 200 enthält ein Videoverarbeitungssystem 204, das eine digitale Videodatei 202 empfangen kann, die einem aufgezeichneten oder anderweitig von einem Benutzer autorisierten digitalen Video entspricht. Das Videoverarbeitungssystem 204 verarbeitet die digitale Videodatei 202, wie hierin erörtert, um eine annotierte Videodatei 202' bereitzustellen. In manchen Ausführungen kann das Videoverarbeitungssystem 204 als eine oder mehrere Anwendungen realisiert werden, die unter Verwendung von einer oder mehreren Computereinrichtungen (z. B. Computereinrichtungen 102 und/oder 116 von 1) ausgeführt werden. Zum Beispiel kann das Videoverarbeitungssystem 204 unter Verwendung des Computersystems 114 realisiert werden.
  • Das Videoverarbeitungssystem 204 verarbeitet ein oder mehrere Einzelbilder des als Daten in der Videodatei 202 bereitgestellten Videos als eine Folge von Bildern 206, 208, 210, 212. Jedes Bild wird unter Verwendung von Gesichtsentdeckungstechniken verarbeitet, die hierin detaillierter erörtert werden, um das Vorhandensein von einem oder mehreren Gesichtern in dem Bild zu entdecken. In manchen Ausführungen kann jedes Bild als ein Vektor von Bildmerkmaldaten modelliert werden, welches nach Charakteristika wie z. B. Gesichtsmerkmalen, Hautfarbe und Hauttextur verarbeitet werden kann. Jedes in jedem Bild entdeckte Gesicht kann mit in den anderen Bildern entdeckten Gesichtern verglichen werden, um zu ermitteln, ob die Gesichter von derselben Person sind. Auf Basis der entdeckten Gesichter kann das Videoverarbeitungssystem 204 ermitteln, wann ein bestimmtes Gesicht, und daher eine bestimmte Person, in das Video eintritt oder erstmalig darin auftaucht, und außerdem, wann die bestimmte Person austritt oder nicht mehr in dem Video vorhanden ist. Das Videoverarbeitungssystem 204 kann Bookmarks erzeugen, die dem entsprechen, wann jedes entdeckte Gesicht in das Video eintritt oder daraus austritt, wie hierin detaillierter erörtert.
  • Unter fortgesetzter Bezugnahme auf 2 kann ein erstes Einzelbild 206 des Videos als ein Bild bereitgestellt werden. Das Einzelbild 206 kann unter Verwendung von Gesichtsentdeckungstechniken verarbeitet werden, um das Vorhandensein eines Gesichts 202 einer in dem Video 202 auftauchenden Person 222 zu entdecken. Ein dem Einzelbild 206 entsprechender Zeitstempel kann als ein erster Zeitpunkt, in dem die Person 222 in dem Video auftaucht, gespeichert oder anders angezeigt werden. Ein Beispiel-Zeitstempel kann in Form einer Zeit (z. B. [Stunden]:[Minuten]:[Sekunden]:[Zehntelsekunden]) und/oder in Form einer Einzelbildzählung (z. B. Einzelbild #1) bereitgestellt werden. Zum Beispiel, wenn die Person 222 in dem ersten Einzelbild 206 des Videos auftaucht, kann der Zeitstempel ”0:00:00:00” mit einem der Person 222 entsprechenden Identifizierer gespeichert werden. Als ein anderes Beispiel, wenn die Person 222 in dem ersten Einzelbild 206 des Videos 202 auftaucht, kann der Zeitstempel ”Einzelbild #1” mit dem der Person 222 entsprechenden Identifizierer gespeichert werden. Ein Beispiel-Identifizierer kann ”Person A” enthalten. In manchen Ausführungen können unterschiedliche Zeitstempel-Marker oder Metriken und/oder Identifizierer benutzt werden. Die Zeitstempel-Daten können unter Verwendung von unterschiedlichen Zeitcode- oder Zeitstempel-Variationen auf verschiedene Arten auf dem Video codiert werden. Die dem ersten Einzelbild entsprechenden Zeitstempel-Daten können unter Verwendung des Zeitstempels auf dem Video direkt ermittelt werden, oder der Zeitstempel kann in ein anders Format übertragen werden, wie z. B. Minuten und Sekunden.
  • Alle Einzelbilder oder eine Teilmenge von Einzelbildern des Videos können verarbeitet werden, um das Vorhandensein eines Gesichts in jedem Einzelbild zu entdecken. Jedes entdeckte Gesicht kann verarbeitet werden, um zu ermitteln, ob das Gesicht einem in einem oder mehreren anderen Einzelbildern des Videos entdeckten Gesicht entspricht. Zum Beispiel kann das in dem Einzelbild 206 entdeckte Gesicht 220 als dasselbe Gesicht wie das in dem Einzelbild 208 entdeckte Gesicht 220 und somit als derselben Person 222 entsprechend identifiziert werden. Die Zeitstempel- und Identifizierer-Informationen jeder Person können der Videodatei 202 hinzugefügt werden, um die annotierte Videodatei 202' bereitzustellen, und können als eine oder mehrere Annotationen oder Bookmarks zu dem Video dargestellt werden.
  • Beim Verarbeiten der Einzelbilder kann erkannt werden, wann eine Person in dem Video bleibt, obwohl ihr Gesicht möglicherweise verdeckt oder auf andere Weise nicht direkt in einem Teil des Videos sichtbar ist. Zum Beispiel kann das Gesicht 220 der Person 222 in dem Einzelbild 206 zu sehen sein. Doch hat sich im Einzelbild 208 die Person 222 von der Kamera weg gedreht, die das Video aufzeichnet, und das Gesicht 220 ist nicht zu sehen. Obwohl daher ein Gesicht möglicherweise nicht mehr in einem bestimmten Einzelbild entdeckt wird, kann eine Person noch in dem Video vorhanden sein. Dementsprechend können benachbarte Einzelbilder (z. B. die Einzelbilder 206, 208) verarbeitet werden, um zu erkennen, dass ein Gesicht (z. B. das Gesicht 220) zwar nicht in einem bestimmten Einzelbild entdeckt wird, aber die Person (z. B. die Person 222) noch in dem Video vorhanden ist. In manchen Ausführungen können bei Entdeckung eines Gesichts in einem ersten Einzelbild andere Merkmale (z. B. Merkmale der menschlichen Anatomie, Kleidungsstil, Kleidungsfarbe, Hautton, Haarstil, Haarfarbe) einer dem Gesicht entsprechenden Person entdeckt werden. Ein zweites Einzelbild kann verarbeitet werden, um zu ermitteln, ob das Gesicht auch in dem zweiten Einzelbild entdeckt wird. Wird das Gesicht nicht in dem zweiten Einzelbild entdeckt, kann das zweiten Einzelbild weiterhin verarbeitet werden, um zu ermitteln, ob eines oder mehrere der anderen Merkmale in dem zweiten Einzelbild entdeckt werden. Wenn das eine oder die mehreren anderen Merkmale in dem zweiten Einzelbild entdeckt werden, wird die Person als noch in dem Video vorhanden erachtet, obwohl das Gesicht nicht entdeckt wird. Wenn das eine oder die mehreren anderen Merkmale nicht in dem zweiten Einzelbild entdeckt werden, wird die Person als nicht mehr in dem Video vorhanden erachtet.
  • In manchen Ausführungen werden für jede entdeckte Person die Einzelbildnummern, wann die bestimmte Person in das Video eintritt und/oder daraus austritt, als Metadaten gespeichert. Irgendwelche Einzelbilder zwischen einem Zeitstempel, der das erste Erscheinen der bestimmten Person oder den Eintritt in das Video anzeigt, und ein Zeitstempel, der das letzte Erscheinen der bestimmten Person oder den Austritt aus dem Video anzeigt, werden als die bestimmte Person enthaltend angezeigt. In manchen Fällen kann eine Person aus dem Video austreten und zu einem späteren Zeitpunkt wieder in das Video eintreten. Folglich kann ein zweiter Satz von Zeitstempeln für die bestimmte Person bereitgestellt werden.
  • Unter fortgesetzter Bezugnahme auf 2 kann ein Identifizierer ”Person A” erzeugt werden und kann der Person 222 entsprechen, deren Gesicht in den Einzelbildern 206 bis Einzelbild 212 des Videos entdeckt wird. Es kann ein Zeitstempelsatz erzeugt werden und kann dem Identifizierer ”Person A” zugeordnet werden. Zum Beispiel kann ein erster Zeitstempel für das Einzelbild 206 erzeugt oder daraus identifiziert werden. Da das Einzelbild 206 das erste Einzelbild des Videos ist, kann ein erster Beispiel-Zeitstempel ”0:00:00:00” enthalten. Ein zweiter Zeitstempel kann für das Einzelbild 212 erzeugt oder daraus identifiziert werden. Das Beispiel-Video kann eine Beispiel-Länge oder -dauer von 23 Minuten und 6 Sekunden haben. Da das Einzelbild 206 das letzte Einzelbild des Videos ist, kann der zweite Zeitstempel ”0:23:06:00” enthalten. Der Zeitstempelsatz und der Identifizierer können als Bookmark-Daten 214 bereitgestellt werden. Die Bookmark-Daten 214 zeigen an, dass die Person A vom Beginn des Videos an und bis zum Ende des Videos in dem Video ist (z. B. 23 Minuten und 6 Sekunden in dem Video). Die Informationen, die die Person A mit den Zeiten ”0:00:00 –0:23:06” korrelieren, können als die Bookmark-Daten 214 zu der Videodatei gespeichert und annotiert werden. Die Bookmark-Daten 214 können einem Betrachter dargestellt werden, der das veröffentlichte Video betrachtet.
  • Die Videodatei 202 kann verarbeitet werden, um das Vorhandensein von mehreren verschiedenen Personen in dem Video zu entdecken. Zum Beispiel kann das Video eine andere Person enthalten und kann den Identifizierer ”Person B” dieser bestimmten Person zuweisen. Zum Beispiel kann die als ”Person B” identifizierte Person in einem oder mehreren Einzelbildern auftauchen, die zwischen dem Einzelbild 208 und dem Einzelbild 210 liegen. Es kann ein Zeitstempelsatz erzeugt werden und kann die Zeitstempel enthalten, wann die Person B in das Video eingetreten und daraus ausgetreten ist. Beispiel-Zeitstempel können ”0:05:00:00” und ”0:10:00:00” enthalten. Der Zeitstempelsatz und der Identifizierer können als Bookmark-Daten 216 bereitgestellt werden. Die Bookmark-Daten 216 zeigen an, dass die Person B von 5 Minuten an in dem Video und bis 10 Minuten in dem Video ist. Die Informationen, die die Person B mit den Zeiten ”0:05:00–0:10:00” korrelieren, können als das Bookmark 216 zu der Videodatei gespeichert und annotiert werden. Die Bookmark-Daten 216 können einem Betrachter dargestellt werden, der das veröffentlichte Video betrachtet.
  • Die annotierte Videodatei 202' kann für Veröffentlichung einem Zuschauerkreis bereitgestellt werden. Zum Beispiel kann das Videoverarbeitungssystem 204 die annotierte Videodatei 202' direkt einem Veröffentlichungsdienst zum Veröffentlichen des Videos auf Basis von Anweisungen, die der Autor des Videos gegeben hat, bereitstellen. Als ein anderes Beispiel kann das Videoverarbeitungssystem 204 die annotierte Videodatei 202' an den Autor zurücksenden, damit der Autor 202' das Video selbst veröffentlichen kann.
  • In manchen Ausführungen kann das annotierte Video auf einer Webseite 222 veröffentlicht werden. Die Webseite 222 kann ein Video 224 und Bookmarks 226, 228 auf Basis von in der annotierten Videodatei 202' bereitgestellten Daten enthalten. Die Bookmarks 226, 228 entsprechen jeweils den Bookmark-Daten 214, 216. In manchen Ausführungen können die Bookmarks 226, 228 als benutzerwählbare Verknüpfungen angrenzend an das Video 224 dargestellt werden. Durch Klicken auf ein Bookmark 226, 228 kann ein Betrachter zu einer Zeit in dem Video 224 springen, zu der die dem ausgewählten Bookmark 226, 228 entsprechende Person auftaucht. Auf diese Weise kann ein Benutzer, der das Video 224 betrachtet, direkt dahin springen, wo die mit Bookmark versehene Person in dem Video 224 auftaucht. In manchen Ausführungen können die Bookmarks 226, 228 mit einem Screenshot (Bildschirmfoto) verknüpfen, oder mit dem Einzelbild des Videos 224, das das Einzelbild zeigt, in dem die entsprechende Person erstmalig auftaucht. Der Screenshot kann einen Indikator enthalten, der bezeichnet, wo die Person in dem Einzelbild zu sehen ist. Zum Beispiel kann ein Kasten oder anderer Annotator um die mit Bookmark versehene Person herum gezeichnet werden. Der Indikator kann auch in dem Video enthalten sein, so dass jede Person erkannt werden kann, während das Video abspielt. Zum Beispiel kann ein Kasten oder eine Annotation einschließlich des Identifizierers der Person oder eines anderen Indikators erscheinen, wenn ein Benutzer einen Cursor über einer Person in dem Video positioniert.
  • Ein entdecktes Gesicht kann als ein zu einer bestimmten Person gehörendes Gesicht erkannt werden, und entsprechende Identitätsdaten können an die annotierte Videodatei 202' angefügt werden. Zum Beispiel kann das entdeckte Gesicht 220, das der anonymen Identität ”Person A” zugrunde liegt, als zu einer bestimmten Person, Davis Morgan, gehörend erkannt werden. Sobald erkannt, kann der Identifizierer ”Person A” durch ”Davis Morgan” ersetzt werden.
  • In manchen Ausführungen kann ein in dem Video entdecktes Gesicht auf Basis einer Eingabe erkannt werden, die der Autor des Videos und/oder ein Betrachter des Videos getätigt hat. Zum Beispiel kann das Videoverarbeitungssystem 204 den Autor auffordern, eine Eingabe zu tätigen, die ”Person A” und/oder ”Person B” identifiziert. Wenn der Autor nicht im Stande ist, entweder ”Person A” oder ”Person B” zu identifizieren, kann das Videoverarbeitungssystem 204 die Identifizierer ”Person A” oder ”Person B” beigehalten. Wenn der Autor im Stande ist, ”Person A” oder ”Person B” zu identifizieren, kann das Videoverarbeitungssystem 204 Identitätsinformationen als Eingabe von dem Autor empfangen und kann die Identifizierer entsprechend modifizieren (z. B. kann der Identifizierer ”Person A” durch ”Davis Morgan” ersetzt werden). Im Falle eines Betrachters des Videos kann der Betrachter eine Eingabe hinsichtlich der Identität einer einem Identifizierer entsprechenden Person tätigen. Zum Beispiel kann ein Betrachter des Videos 224 die als ”Person A” identifizierte Person als eine bestimmte Person, Davis Morgan, erkennen. Der Betrachter kann eine Eingabe tätigen, dass ”Person A” Davis Morgan ist, und der Identifizierer ”Person A” kann durch ”Davis Morgan” ersetzt werden.
  • In manchen Ausführungen können von dem Autor und/oder Betrachter bereitgestellte Identitätsdaten Profilinformationen enthalten, die einem Profil der erkannten Person in einem Sozialnetzwerkdienst entsprechen. Zum Beispiel, wenn das Videoverarbeitungssystem 204 Identitätsdaten empfängt, die anzeigen, dass ”Person A” Davis Morgan ist, kann der Identifizierer ”Person A” durch ”Davis Morgan” ersetzt werden, und es kann eine Verknüpfung bereitgestellt werden, die den Identifizierer mit einem Profil von Davis Morgan in einem bestimmten Sozialnetzwerkdienst verknüpft. Wenn daher ein Betrachter des Videos auf die Verknüpfung klickt, kann dem Betrachter eine Profilseite entsprechend Davis Morgan dargestellt werden.
  • In manchen Ausführungen erkennt das Videoverarbeitungssystem 204 automatisch Gesichter, die es in dem Video entdeckt hat. Zum Beispiel wird ein Gesichtsmodell für jedes in dem Video entdeckte Gesicht erzeugt und kann mit Gesichtsmodellen verglichen werden, die bekannten Identitäten entsprechen. Ein Gesichtsmodell kann eine Sammlung von Gesichtsschablonen enthalten, die einem entdeckten Gesicht entsprechen. Jedes als ein digitales Bild behandelte Einzelbild, das das entdeckte Gesicht enthält, kann verarbeitet werden, um eine Gesichtsschablone bereitzustellen. Zum Beispiel können die Einzelbilder 206210 jeweils verarbeitet werden, um eine Vielzahl von Gesichtsschablonen zu erzeugen. Jede Gesichtsschablone kann eine andere Umgebung oder einen anderen Zustand des entdeckten Gesichts enthalten. Zum Beispiel kann eine erste Gesichtsschablone das entdeckte Gesicht unter einem ersten Beleuchtungszustand, unter einem ersten Winkel und mit einem ersten Ausdruck zeigen, während eine zweite Gesichtsschablone das entdeckte Gesicht unter einem zweiten Beleuchtungszustand, unter einem zweiten Winkel und/oder mit einem zweiten Ausdruck zeigen kann. Jede Gesichtsschablone kann einen oder mehrere Merkmalvektoren zu dem entdeckten Gesicht enthalten, welche Merkmalvektoren rotiert und normiert werden können. Das Gesichtsmodell enthält sämtliche Gesichtsschablonen, die durch jedes der Bilder bereitgestellt werden, die in dem Video verarbeitet werden, wo das bestimmte Gesicht entdeckt wurde.
  • Jedes Gesichtsmodell wird mit bekannten Gesichtsmodellen verglichen. Wenn es eine ausreichende Entsprechung zwischen einem Gesichtsmodell und einem bekannten Gesichtsmodell gibt, wie hierin detaillierter erörtert, kann das Gesichtsmodell als von derselben Person wie das bekannte Gesichtsmodell identifiziert werden. Bekannte Gesichtsmodelle können Gesichtsmodelle enthalten, die von dem Videoverarbeitungssystem 204 erzeugt und gespeichert worden sind und ihm zugänglich sind. Bekannte Gesichtsmodelle können Gesichtsmodelle enthalten, die öffentlichen Erscheinungen wie z. B. Berühmtheiten, Politikern, Athleten und anderen in der Öffentlichkeit bekannten Leuten entsprechen. Zum Beispiel können öffentlichen Erscheinungen entsprechende Gesichtsmodelle auf Basis von öffentlich zugänglichen Bildern erzeugt werden, wobei jedes Bild benutzt wird, um eine Gesichtsschablone zu erzeugen.
  • Bekannte Gesichtsmodelle können Gesichtsmodelle enthalten, die nichtöffentlichen Erscheinungen entsprechen. In manchen Ausführungen kann eine Datenbank von nichtöffentlichen Erscheinungen entsprechenden bekannten Gesichtsmodellen vorher erzeugte Gesichtsmodelle speichern. Die Gesichtsmodelle können auf Basis von Bildern erzeugt werden, die bekannte Personen enthalten. Zum Beispiel kann ein Benutzer ”Bob” eines Sozialnetzwerkdienstes Bilder unter Verwendung des Sozialnetzwerkdienstes hochladen und veröffentlichen und kann sich selbst ”markieren” oder auf andere Weise sein Vorhandensein in den Bildern anzeigen. Solche veröffentlichten Bilder können verarbeitet werden, um ein Gesichtsmodell entsprechend Bob zu erzeugen.
  • In manchen Ausführungen können die in einer Datenbank gespeicherten Gesichtsmodelle periodisch aktualisiert werden, um deren Qualität zu verbessern. Zum Beispiel können Gesichtsschablonen, die ein bestimmtes Gesichtsmodell bilden, durch qualitativ bessere Gesichtsschablonen ersetzt werden, um die Gesamtqualität des Gesichtsmodells zu verbessern. In manchen Ausführungen können bessere neue Gesichtsschablonen aus Videos und/oder Bildern bereitgestellt werden, die eine bestimmte Person enthalten. Unter Verwendung des obigen Beispiels kann der Benutzer Bob Bilder unter Verwendung des Sozialnetzwerkdienstes hochladen und veröffentlichen und kann sich selbst ”markieren” oder auf andere Weise sein Vorhandensein in den Bildern anzeigen. Die derart bereitgestellten Bilder können verarbeitet werden, um eine oder mehrere Gesichtsschablonen zu erzeugen, welche Gesichtsschablonen benutzt werden können, um ein schon gespeichertes Gesichtsmodell entsprechend Bob zu aktualisieren.
  • In manchen Ausführungen können bekannte Gesichtsmodelle ”im Flug” erzeugt werden. Das heißt, statt oder zusätzlich zum Bereitstellen einer Datenbank von vorher erzeugten bekannten Gesichtsmodellen können bekannte Gesichtsmodelle für die hierin beschriebenen Gesichtserkennungszwecke erzeugt werden und können nachfolgend gelöscht oder auf andere Weise nicht dauerhaft gespeichert werden. Zum Beispiel kann das Videoverarbeitungssystem 204 eine Anforderung nach bekannten Gesichtsmodellen ausgeben. Als Antwort auf die Anforderung können ein oder mehrere Gesichtsmodelle entsprechend einer bekannten Identität erzeugt und für Vergleichszwecke benutzt werden, wie hierin erörtert. Zum Beispiel können veröffentlichte Bilder entsprechend dem Benutzer Bob abgerufen und verarbeitet werden und kann ein Gesichtsmodell für Bob erzeugt werden. Das Gesichtsmodell kann für Vergleichszwecke benutzt werden und kann nachfolgend gelöscht werden. In manchen Beispielen können ein oder mehrere Gesichtsmodelle auf Verlangen erzeugt werden. Mit dem obigen Beispiel fortfahrend können jeweilige Gesichtsmodelle auf Verlangen für Bob erzeugt werden, ein jedes von Bobs Kontakten. Aus dem Video erzeugte Gesichtsmodelle können mit dem Satz von auf Verlangen erzeugten Gesichtsmodellen verglichen werden.
  • In manchen Ausführungen können bekannte Gesichtsmodelle Leuten entsprechen, die Benutzer eines Sozialnetzwerkdienstes sind und die Kontakte des Autors des Videos in dem Sozialnetzwerkdienst sind. In manchen Ausführungen stellt ein Sozialnetzwerkdienst das Videoverarbeitungssystem 203 bereit. Der Autor eines Videos, das für Veröffentlichung zu dem Sozialnetzwerkdienst hochgeladen wird, kann mit anderen Benutzern des Sozialnetzwerkdienstes sozial verbunden sein. Derartige soziale Verbindungen werden unter Bezugnahme auf 5 nachfolgend beschrieben. Gesichtsmodelle für jede der sozialen Verbindungen des Autors in dem Sozialnetzwerkdienst können auf Basis von irgendwelchen Bildern oder anderen verfügbaren Informationen (zum Beispiel Bildern, Videos) erzeugt werden. Unter Verwendung des obigen Beispiels kann der Benutzer ”Bob” mit dem Autor des Videos sozial verbunden sein. Folglich kann ein Gesichtsmodell entsprechend Bob erzeugt werden und kann für Gesichtserkennung mit einem oder mehreren Gesichtsmodellen des Videos verglichen werden. In manchen Ausführungen, und wie oben erörtert, können Benutzer des Sozialnetzwerkdienstes private Einstellungen haben, die erlauben oder verhindern, dass Gesichtsmodelle erzeugt und/oder für Gesichtserkennung benutzt werden.
  • In manchen Ausführungen können bekannte Gesichtsmodelle Leuten entsprechen, die Benutzer eines Sozialnetzwerkdienstes sind und die dem Autors des Videos in dem Sozialnetzwerkdienst indirekt zugeordnet sind. Zum Beispiel kann der Benutzer ”Bob” ein direkter Kontakt des Autors des Videos sein. Ein anderer Autor, Claire, kann ein direkter Kontakt des Benutzers Bob in dem Sozialnetzwerkdienst sein, ist aber kein direkter Kontakt des Autors des Videos. Wie oben erörtert, kann ein Gesichtsmodell entsprechend Bob erzeugt werden und kann mit einem oder mehreren Gesichtsmodellen des Videos für Gesichtserkennung verglichen werden. Zusätzlich, und da Claire ein direkter Kontakt von Bob ist, kann ein Gesichtsmodell entsprechend Claire erzeugt werden und kann für Gesichtserkennung mit einem oder mehreren Gesichtsmodellen des Videos verglichen werden.
  • Ein auf Basis einer Videodatei erzeugtes Gesichtsmodell (Video-Gesichtsmodell) kann mit einem oder mehreren bekannten Gesichtsmodellen verglichen werden, um eine Identität einer in dem Video auftauchenden Person zu ermitteln. Insbesondere werden die Gesichtsschablonen eines Video-Gesichtsmodells mit Gesichtsschablonen von einem oder mehreren einer Vielzahl von bekannten Gesichtsmodellen verglichen. Zum Beispiel kann ein Video-Gesichtsmodell, das einer in einem Video auftauchenden Person entspricht, N Gesichtsschablonen enthalten. Ein bekanntes Gesichtsmodell, das einer Person entspricht, deren Identität bekannt ist, kann M Gesichtsschablonen enthalten. Vergleichen der Gesichtsmodelle kann einen N × M paarweisen Vergleich enthalten, wobei jede der N Gesichtsschablonen eine nach der andern oder simultan mit jeder der M Gesichtsschablonen verglichen wird. Es kann ein Ähnlichkeitspunktwert entsprechend der Ähnlichkeit zwischen den zwei Gesichtsschablonen erzeugt werden, um eine Vielzahl von Ähnlichkeitspunktwerten bereitzustellen. Jeder Ähnlichkeitspunktwert kann auf Faktoren basieren gelassen werden wie z. B. Hautfarbe und -ton, relative Abstände zwischen Gesichtsmerkmalen, Größen von Gesichtsmerkmalen und anderen biometrischen Informationen, die in den Gesichtsmodellen vorgesehen sind. Die Gesichtsschablonen können nach Größe und/oder Farbe (z. B. Unterschiede in heller Farbe, Lichtmenge, Schwarzweißbilder) normiert werden oder dynamisch für jeden Vergleich adjustiert werden.
  • Die Ähnlichkeitspunktwerte für jeden Gesichtsmodellvergleich können kombiniert werden, um einen Konfidenzpunktwert zu erzeugen, dass die zwei Gesichtsmodelle derselben Person entsprechen. Die Ähnlichkeitspunktwerte können auf mannigfache Arten kombiniert werden, um den Konfidenzpunktwert zu erzeugen. Zum Beispiel können die Ähnlichkeitspunktwerte aggregiert oder gemittelt werden. Alternativ oder zusätzlich können bestimmte Gesichtsschablonen gewichtet werden, um den Konfidenzpunktwert mehr als andere Gesichtsschablonen zu beeinflussen. In manchen Ausführungen kann der Konfidenzpunktwert eine Funktion des maximalen Ähnlichkeitspunktwerts oder eine Funktion ähnlich einer Maximumfunktion der Ähnlichkeitspunktwerte sein. Es kann eine Vielzahl der Konfidenzpunktwerte bereitgestellt werden, wobei jeder Konfidenzpunktwert einem Vergleich zwischen einem Video-Gesichtsmodell und einem bekannten Gesichtsmodell der Vielzahl von bekannten Gesichtsmodellen entspricht.
  • In manchen Ausführungen kann der Vergleich mit dem höchsten Konfidenzpunktwert benutzt werden, um die Identität der Person zu ermitteln, die dem Video-Gesichtsmodell entspricht. In manchen Ausführungen kann jeder Konfidenzpunktwert mit einem Schwellen-Konfidenzpunktwert verglichen werden. Wenn ein Konfidenzpunktwert einen Schwellen-Konfidenzpunktwert übersteigt, kann der entsprechende Vergleich ein Kandidatenvergleich zum Ermitteln der Identität der Person, die dem Video-Gesichtsmodell entspricht, sein. Zum Beispiel kann ein Video-Gesichtsmodell mit einem Gesichtsmodell verglichen werden, das dem Benutzer Bob entspricht, um einen ersten Konfidenzpunktwert bereitzustellen. Das Video-Gesichtsmodell kann auch mit einem Gesichtsmodell verglichen werden, das dem Benutzer Claire entspricht, um einen zweiten Konfidenzpunktwert bereitzustellen. Wenn der erste Konfidenzpunktwert und der zweite Konfidenzpunktwert beide unter dem Schwellen-Konfidenzpunktwert liegen, kann das Video-Gesichtsmodell als weder Bob noch Claire entsprechend erachtet werden. Wenn der erste Konfidenzpunktwert größer als der Schwellen-Konfidenzpunktwert ist und der zweite Konfidenzpunktwert unter dem Schwellen-Konfidenzpunktwert liegt, kann das Video-Gesichtsmodell als Bob entsprechend erachtet werden. Wenn der zweite Konfidenzpunktwert größer als der Schwellen-Konfidenzpunktwert ist und der erste Konfidenzpunktwert unter dem Schwellen-Konfidenzpunktwert liegt, kann das Video-Gesichtsmodell als Claire entsprechend erachtet werden. Wenn der erste Konfidenzpunktwert und der zweite Konfidenzpunktwert beide größer als der Schwellen-Konfidenzpunktwert sind, kann das Video-Gesichtsmodell als mindestens einem von Bob und Claire entsprechend erachtet werden. In so einem Fall kann der höchste Konfidenzpunktwert ausgewählt werden. Zum Beispiel, wenn sowohl der erste Konfidenzpunktwert als auch der zweite Konfidenzpunktwert größer als der Schwellen-Konfidenzpunktwert sind und der erste Konfidenzpunktwert größer als der zweite Konfidenzpunktwert ist, kann das Video-Gesichtsmodell als Bob entsprechend erachtet werden. Als ein anderes Beispiel, wenn sowohl der erste Konfidenzpunktwert als auch der zweite Konfidenzpunktwert größer als der Schwellen-Konfidenzpunktwert sind und der zweite Konfidenzpunktwert größer als der erste Konfidenzpunktwert ist, kann das Video-Gesichtsmodell als Claire entsprechend erachtet werden.
  • In manchen Ausführungen können zwei oder mehr Konfidenzpunktwerte von einer Vielzahl von Konfidenzpunktwerten größer als der Schwellen-Konfidenzpunktwert sein, aber hinlänglich ähnliche Werte haben, um eine definitive Identifizierung auf Basis von nur einem Konfidenzpunktwert schwierig zu machen. Unter Verwendung der obigen Beispiele, wenn sowohl der erste Konfidenzpunktwert als auch der zweite Konfidenzpunktwert größer als der Schwellen-Konfidenzpunktwert sind, aber eine Differenz zwischen dem ersten Konfidenzpunktwert und dem zweiten Konfidenzpunktwert kleiner als eine Schwellen-Differenz ist, kann das Video-Gesichtsmodell nicht definitiv als Bob statt Claire oder Claire statt Bob entsprechend erachtet werden. Folglich kann eine Anforderung erzeugt werden und kann einem oder mehreren der Autoren Bob und Claire des Videos zugeführt werden. Die Anforderung kann anfordern, dass der Autor des Videos, Bob und/oder Claire, eine Eingabe tätigt, die anzeigt, welcher bestimmten Person das entdeckte Gesicht entspricht. Die Benutzereingabe kann von mindestens einem der Autoren Bob und Claire des Videos erzeugt werden und kann benutzt werden, um das entdeckte Gesicht definitiv als zu Bob oder Claire gehörend zu identifizieren. Zum Beispiel kann eine Anforderung an Bob gesendet werden. Als Antwort auf die Anforderung tätigt Bob eine Benutzereingabe, die anzeigt, dass das in dem Video entdeckte Gesicht tatsächlich sein Gesicht ist. Folglich kann das entdeckte Gesicht als zu Bob gehörend identifiziert werden.
  • Das Videoverarbeitungssystem 204 kann Identitätsdaten auf Basis der Vergleiche der Video-Gesichtsmodelle mit dem einen oder den mehreren bekannten Gesichtsmodellen erzeugen und kann die Identifizierer entsprechend modifizieren. Zum Beispiel, wenn das Video-Gesichtsmodell als hinlänglich äquivalent zu dem bekannten Gesichtsmodell, das Claire entspricht, erachtet wird, können Identitätsdaten erzeugt werden, die Claire entsprechen, und der entsprechende Identifizierer kann aktualisiert werden (z. B. kann der Identifizierer ”Person A” durch ”Claire” ersetzt werden). Die Identitätsdaten können in der annotierten Videodatei 202' bereitgestellt werden. Folglich wird eine nachfolgende Veröffentlichung der annotierten Videodatei 202' die oben erörterten Bookmarks und außerdem Identifizierungsinformationen, die in dem Video entdeckten Personen entsprechen, enthalten. Wie oben erörtert, können die Identitätsdaten Profilinformationen enthalten, die einem Profil der erkannten Person in einem Sozialnetzwerkdienst entsprechen.
  • 3 ist ein Flussdiagramm eines Beispiel-Prozesses 300 für Entdeckung und Bookmarking von Gesichtern in Videos. In manchen Ausführungen können in dem Beispiel-Prozess 300 dargestellte Aktionen unter Verwendung von einer oder mehreren Computereinrichtungen (z. B. der Computereinrichtungen 102 und/oder 116 von 1) durchgeführt werden. Zum Beispiel kann der Beispiel-Prozess 300 unter Verwendung des Computersystems 114 von 1 ausgeführt werden.
  • Es wird eine Videodatei empfangen (302). Die Videodatei kann einem von einem Benutzer über das Netzwerk hochgeladenen digitalen Video entsprechen. Zum Beispiel kann die Videodatei von dem Benutzer 104 unter Verwendung der Computereinrichtung 102 hochgeladen werden und kann von dem Computersystem 114 empfangen werden. Der Benutzer kann die Videodatei für Veröffentlichung unter Verwendung eines Sozialnetzwerkdienstes oder einer Website für gemeinsame Nutzung von Videoinhalten hochladen. Die Videodatei wird verarbeitet, um ein oder mehrere menschliche Gesichter zu erkennen (304). Wie erörtert, können alle Einzelbilder oder eine Teilmenge von Einzelbildern des Videos als separate Bilder unter Verwendung von Gesichtsentdeckungstechniken verarbeitet werden. Zum Beispiel kann das Videoverarbeitungssystem 204 von 2 die Videodatei verarbeiten.
  • Es wird ein Einzelbild ermittelt, in dem ein bestimmtes Gesicht und folglich eine bestimmte Person in das Video eintritt oder erstmalig darin auftaucht (306). Es werden erste Zeitstempel-Daten ermittelt, die dem Einzelbild entsprechen (308). Es wird ein Einzelbild ermittelt, in dem das bestimmte Gesicht und folglich die bestimmte Person aus dem Video austritt (310). Es werden zweite Zeitstempel-Daten ermittelt, die dem Einzelbild entsprechen (312). Es wird ein Datensatz erzeugt, der Identifizierer-Daten und die ersten und zweiten Zeitstempel-Daten enthält (314). Die Identifizierer-Daten können einen anonymen Identifizierer enthalten (z. B. Person A). Der Datensatz kann an die Videodatei angefügt werden, um eine annotierte Videodatei zu erzeugen, wie hierin erörtert. Ein optionaler Schritt kann umfassen, die Videodatei zu verarbeiten, um das entdeckte Gesicht als zu einer bestimmten Person gehörend zu erkennen (316). Ein Beispiel-Prozess zum Erkennen von Leuten in Videos wird nachfolgend unter Bezugnahme auf 4 beschrieben. Identitätsdaten, die der erkannten bestimmten Person entsprechen, werden an den Datensatz angefügt (318).
  • 4 ist ein Flussdiagramm eines Beispiel-Prozesses 400 für Gesichtserkennung in Videos. In manchen Ausführungen können in dem Prozess 400 dargestellte Aktionen unter Verwendung eines Systems wie z. B. des Computersystems 114 von 1 durchgeführt werden. In manchen Ausführungen können in dem Prozess 400 dargestellte Aktionen als Teilaktionen von in dem Prozess 300 von 3 dargestellten Aktionen durchgeführt werden.
  • In dem Beispiel-Prozesses 400 wird ein Gesichtsmodell erzeugt, das einem in einem Video entdeckten Gesicht entspricht (402). Zum Beispiel, und wie oben erörtert, können eine Vielzahl von Einzelbildern unter Verwendung des Videoverarbeitungssystems 204 von 2 verarbeitet werden, um eine Vielzahl von Gesichtsschablonen zu erzeugen, wobei das Gesichtsmodell die Vielzahl von Gesichtsschablonen enthält. Das Gesichtsmodell wird mit bekannten Gesichtsmodellen verglichen (404).
  • In manchen Ausführungen kann das Gesichtsmodell mit öffentlich verfügbaren und zugänglichen Gesichtsmodellen verglichen werden, die dauerhaft in einer computerlesbaren Speichereinrichtung gespeichert sind. Zum Beispiel kann das Videoverarbeitungssystem 204 von 2 öffentlich verfügbare Gesichtsmodelle über ein Netzwerk aus einer Datenbank abrufen. In manchen Ausführungen, und wie oben detaillierter erörtert, können ein oder mehrere bekannte Gesichtsmodelle im Flug zu Zwecken von Gesichtserkennung erzeugt werden und können nachfolgend gelöscht werden, so dass sie nicht dauerhaft gespeichert werden. Zum Beispiel kann das Videoverarbeitungssystem 204 von 2 öffentlich verfügbare Bilder und/oder Videos abrufen, die bekannten Einzelpersonen entsprechen, und kann die Bilder und/oder Videos verarbeiten, um ein temporäres Gesichtsmodell für Vergleichszwecke zu erzeugen. Nach Verwendung des temporären Gesichtsmodells kann das temporäre Gesichtsmodell vom Speicher gelöscht werden. In manchen Ausführungen, und wie oben erörtert, können die bekannten Gesichtsmodelle einem oder mehreren direkten Kontakten und/oder einem oder mehreren indirekten Kontakten des Autors des Videos in einem Sozialnetzwerkdienst entsprechen.
  • Es wird ermittelt, ob das Gesichtsmodell zu einem bekannten Gesichtsmodell passt (406). Zum Beispiel, und wie oben im Detail erörtert, kann eine Vielzahl von Konfidenzpunktwerten erzeugt werden, wobei jeder Konfidenzpunktwert einem Vergleich zwischen dem Gesichtsmodell und einem bekannten Gesichtsmodell einer Vielzahl von bekannten Gesichtsmodellen entspricht. Eine Übereinstimmung zwischen dem Gesichtsmodell und einem bekannten Gesichtsmodell kann auf Basis der Konfidenzpunktwerte ermittelt werden, wie oben im Detail erörtert. Zum Beispiel kann das Videoverarbeitungssystem 204 von 2 auf Basis eines entsprechenden Konfidenzpunktwerts ermitteln, ob das Gesichtsmodell zu einem bekannten Gesichtsmodell passt.
  • Wenn das Gesichtsmodell nicht zu einem bekannten Gesichtsmodell passt, wird ein generischer Identifizierer für ein Bookmark vorgesehen (408). Zum Beispiel kann das Videoverarbeitungssystem 204 von 2 ermitteln, dass das Gesichtsmodell nicht zu einem bekannten Gesichtsmodell passt, und kann einen generischen Identifizierer (z. B. Person A, Person B) für ein oder mehrere entsprechende Bookmarks (z. B. die Bookmarks 228, 230) erzeugen. Wenn das Gesichtsmodell zu einem bekannten Gesichtsmodell passt, wird ein spezifischer Identifizierer für ein Bookmark vorgesehen (410). Zum Beispiel kann das Videoverarbeitungssystem 204 von 2 ermitteln, dass das Gesichtsmodell zu einem bekannten Gesichtsmodell passt, und kann einen spezifischen Identifizierer (z. B. Bob, Claire) für ein oder mehrere entsprechende Bookmarks (z. B. die Bookmarks 228, 230) erzeugen. Der spezifische Identifizierer kann auf Basis von Identitätsdaten erzeugt werden, die dem passenden bekannten Gesichtsmodell entsprechen.
  • 5 zeigt einen Beispiel-Sozialgraphen 500. Der Beispiel-Sozialgraph 500 entspricht einem unter Verwendung eines Knotens 502 identifizierten Benutzer (”Alice”). Der Sozialgraph 500 kann auf Basis von Alices Benutzung eines Computer-implementierten Sozialnetzwerkdienstes ermittelt werden. Zum Beispiel kann Alice ein Profil in dem Sozialnetzwerkdienst erzeugen und kann das Profil digital den Profilen von anderen Benutzern des Sozialnetzwerkdienst zuordnen. Alice kann Videos hochladen, die unter Verwendung des Sozialnetzwerkdienstes veröffentlicht werden können. In dem Beispiel-Sozialgraphen 500 von 5 umfassen andere Benutzer des Sozialnetzwerkdienstes den Benutzer (”Bob”), der durch einen Knoten 504 identifiziert wird, den Benutzer (”Claire”), der durch einen Knoten 506 identifiziert wird, den Benutzer (”David”), der durch einen Knoten 508 identifiziert wird, und den Benutzer (”Zach”), der durch einen Knoten 513 identifiziert wird. Bob und David sind beide Kontakte von Alice in dem Sozialnetzwerkdienst, wie durch Kanten 509, 511 angezeigt. Zum Beispiel hat Alice früher Bob und David als Kontakte in dem Sozialnetzwerkdienst genehmigt, so dass von Alice bereitgestellte oder hochgeladene Informationen und/oder Videos automatisch mit Bob und David geteilt werden.
  • In dem Beispiel-Sozialgraphen 500 von 5 ist Claire kein Kontakt von Alice in dem Sozialnetzwerkdienst. Stattdessen kann Claire ein anderer Benutzer des Sozialnetzwerkdienstes, der begrenzten Zugang zu den von Alice bereitgestellten Informationen oder Postings hat. Zum Beispiel ist Claire ein Kontakt von Bob in dem Sozialnetzwerkdienst. Folglich ist Claire möglicherweise imstande, über Bob von Alice veröffentlichte Informationen abzurufen, je nach den von Alice festgelegten Privatsphäre-Einstellungen. Zach ist ein Kontakt von David, wie durch die Kante 515 angezeigt, ist aber kein Kontakt von Alice.
  • In dem Beispiel-Sozialgraphen 500 von 5 lädt Alice ein Video 510 für Veröffentlichung unter Verwendung des Sozialnetzwerkdienstes hoch. Das Video 510 kann verarbeitet werden, um Gesichter zu entdecken und um entdeckte Gesichter auf Basis von Alices Kontakten in dem Sozialnetzwerkdienst zu erkennen, wie hierin erörtert. In dem Beispiel von 5 sind sowohl David als auch Zach als in dem Video 510 erkannt dargestellt. In manchen Ausführungen kann das Video 510 eine Privatsphäre-Einstellung enthalten, eingestellt von Alice als derjenigen, die das Video hochgeladen hat, die es einem beliebigen Benutzer des Sozialnetzwerkdienstes ermöglicht, das Video 510 zu sehen und zu kommentieren. Auf diese Weise ist sowohl Bob, der ein Kontakt von Alice ist, als auch Claire, die kein Kontakt von Alice ist, möglicherweise imstande, das Video 510 zu sehen und zu kommentieren. In manchen Ausführungen ist Alice imstande, eine Privatsphäre-Einstellung eines Videos so festzulegen, dass nur Kontakte von Alice in dem Sozialnetzwerkdienst oder eine Teilmenge von Kontakten von Alice in dem Sozialnetzwerkdienst imstande sind, das Video zu sehen und zu kommentieren.
  • David kann in dem Video 510 erkannt werden, indem Gesichtsmodelle von in dem Video entdeckten Gesichtern mit Gesichtsmodellen von Alices Kontakten in dem Sozialnetzwerkdienst verglichen werden. Folglich können Gesichtsmodelle von Bob und David mit Gesichtsmodellen verglichen werden, die den in dem Video 510 entdeckten Gesichtern entsprechen, und es kann ermittelt werden, dass David mit genug Konfidenz mit einer in dem Video 510 entdeckten Person übereinstimmt, um ein Bookmark für David in dem Video 510 bereitzustellen. Zach kann in dem Video 510 erkannt werden, indem Gesichtsmodelle von Davids Kontakten verglichen werden, da David als in dem Video 510 vorkommend ermittelt worden ist.
  • In manchen Ausführungen kann eine Privatsphäre-Einstellung eines Benutzers in dem Sozialnetzwerkdienst durch den Benutzer eingestellt werden, sich dafür oder dagegen zu entscheiden, in einem Video erkannt zu werden, das unter Verwendung des Sozialnetzwerkdienste veröffentlicht wird. Zum Beispiel, obwohl Zach in dem von Alice hochgeladenen Video 510 erkannt werden könnte, können Zachs Privatsphäre-Einstellungen so eingestellt sein, dass Gesichtserkennung unter Verwendung von Bildern und/oder Videos, die Zach entsprechen, nicht erlaubt ist. Folglich wird kein Bookmark erzeugt, das Identitätsinformationen enthält, die Zach entsprechen. Alternativ könnte ein anonymes Bookmark mit einem generischen Identifizierer (z. B. Person A, Person B) erzeugt werden, um anzuzeigen, dass ein Gesicht erkannt worden ist (z. B. Zachs Gesicht), aber keinerlei Identitätsinformationen bereitzustellen.
  • Ausführungen der vorliegenden Offenbarung und sämtliche hierin bereitgestellten funktionellen Operationen können in digitalen elektronischen Schaltkreisen oder in Computersoftware, Firmware oder Hardware realisiert werden, einschließlich der in dieser Beschreibung offenbarten Strukturen und deren struktureller Äquivalente, oder in Kombination mit einem oder mehreren davon. Ausführungen der vorliegenden Offenbarung können als ein oder mehrere Computerprogrammerzeugnisse realisiert werden, d. h. ein oder mehrere Module von Computerprogrammanweisungen, codiert auf einem computerlesbaren Medium für Ausführung durch oder zum Steuern des Betriebs einer Datenverarbeitungsvorrichtung. Das computerlesbare Medium kann ein maschinenlesbares Substrat, eine Speichereinrichtung, eine Stoffzusammensetzung, die ein maschinenlesbar fortgepflanztes Signal bewirkt, oder eine Kombination von einem oder mehreren davon sein. Der Ausdruck ”Datenverarbeitungsvorrichtung” umschließt alle Vorrichtungen, Einrichtungen und Maschinen zum Verarbeiten von Daten, einschließlich beispielsweise eines programmierbaren Prozessors, eines Computers oder Mehrfach-Prozessoren oder -Computern. Zusätzlich zu Hardware kann die Vorrichtung Code enthalten, der eine Ausführungsumgebung für das betreffende Computerprogramm erzeugt, z. B. Code, der Prozessor-Firmware, einen Protokollstapel, ein Datenbankmanagementsystem, ein Betriebssystem oder eine Kombination von einem oder mehreren davon bildet.
  • Ein Computerprogramm (auch als Programm, Software, Softwareanwendung, Script oder Code bekannt) kann in einer beliebigen Form von Programmiersprache geschrieben sein, einschließlich kompilierter oder interpretierter Sprachen, und es kann in einer beliebigen Form entfaltet werden, einschließlich als ein alleinstehendes Programm oder als ein Modul, eine Komponente, eine Unterroutine oder andere Einheit, die für Verwendung in einer Computerumgebung geeignet ist. Ein Computerprogramm muss nicht notwendigerweise einer Datei in einem Dateisystem entsprechen. Ein Programm kann in einem Teil einer Datei gespeichert sein, die andere Programme oder Daten innehat (z. B. ein oder mehrere Scripte, die in einer Textauszeichnungssprache gespeichert sind), in einer dedizierten Einzeldatei für das betreffende Programm oder in mehreren koordinierten Dateien (z. B. Dateien, die ein oder mehrere Module, Unterprogramme oder Teile von Code speichern). Ein Computerprogramm kann entfaltet werden, auf einem Computer oder auf mehreren Computern ausgeführt zu werden, die sich an einem Ort befinden oder über mehrere Orte verteilt und durch ein Kommunikationsnetz verbunden sind.
  • Die in dieser Offenbarung beschriebenen Prozesse und logischen Flüsse können mittels eines oder mehrerer Prozessoren durchgeführt werden, die ein oder mehrere Computerprogramme ausführen, um Funktionen durch Handhaben von Eingangsdaten und Erzeugen von Ausgabe durchführen. Die Prozesse und logischen Flüsse können auch mittels Spezialzweck-Logikschaltkreisen, z. B. eines FPGA (Field Programmable Gate Array) eines ASIC (Application Specific Integrated Circuit) durchgeführt werden.
  • Prozessoren, die für die Ausführung eines Computerprogramms geeignet sind, umfassen beispielsweise sowohl Mehrzweck- als auch Spezialzweck-Mikroprozessoren und irgendeinen oder mehrere Prozessoren irgendeiner Art von Digitalcomputer. Im Allgemeinen wird ein Prozessor Anweisungen und Daten von einem Nur-Lese-Speicher oder Direktzugriffsspeicher oder beiden empfangen. Elemente eines Computers können einen Prozessor zum Ausführen von Anweisungen und eine oder mehrere Speichereinrichtungen zum Speichern von Anweisungen und Daten enthalten. Im Allgemeinen wird ein Computer auch eine oder mehrere Massenspeichereinrichtungen zum Speichern von Daten, z. B. magnetische, magnetooptische Platten oder optische Platten, enthalten oder operativ verbunden sein, um Daten davon oder dahin zu übertragen, oder beides. Doch muss ein Computer solche Einrichtungen nicht besitzen. Überdies kann ein Computer in eine andere Einrichtung eingebettet sein, z. B. ein Mobiltelefon, ein persönlicher digitaler Assistent (PDA), ein mobiles Audioabspielgerät, einen GPS (Global Positioning System) Empfänger, um nur ein Paar zu nennen. Computerlesbare Medien, die zum Speichern von Computerprogrammanweisungen und -daten geeignet sind, umfassen alle Formen von nichtflüchtigen Speichern, Medien und Speichereinrichtungen, einschließlich beispielsweise Halbleiterspeichereinrichtungen, z. B. EPROM, EEPROM, und Flash-Speichereinrichtungen; Magnetplatten z. B. interne Festplatten oder entfernbare Platten; magnetooptische Platten; und CD ROM und DVD-ROM Platten. Der Prozessor und der Speicher können durch Spezialzweck-Logikschaltkreise ergänzt oder darin eingegliedert werden.
  • Um Interaktion mit einem Benutzer zu ermöglichen, können Ausführungen der vorliegenden Offenbarung auf einem Computer ausgeführt werden, der eine Anzeigeeinrichtung, z. B. einen Monitor mit CRT (Kathodenstrahlröhre) oder LCD (Flüssigkristallanzeige), um dem Benutzer Informationen darzustellen, und eine Tastatur und eine Zeigeeinrichtung, z. B. eine Maus oder einen Trackball, womit der Benutzer Eingaben in den Computer tätigen kann, aufweist. Es können auch andere Arten von Einrichtungen benutzt werden, um Interaktion mit einem Benutzer zu ermöglichen; zum Beispiel kann eine dem Benutzer gegebene Rückmeldung eine beliebige Form von sensorischer Rückmeldung sein, z. B. visuelle Rückmeldung, auditive Rückmeldung oder taktile Rückmeldung; und Eingaben vom Benutzer können in einer beliebigen Form empfangen werden, einschließlich akustischen, sprachlichen oder taktilen Eingaben.
  • Das Computersystem kann Clients und Server enthalten. Ein Client und ein Server sind im Allgemeinen voneinander entfernt und interagieren typischerweise durch ein Kommunikationsnetz. Die Beziehung von Client und ein Server entsteht aufgrund von Computerprogrammen, die auf den jeweiligen Computern laufen und eine Client-Server-Beziehung zueinander haben.
  • Obwohl diese Offenbarung einige Einzelheiten enthält, sind diese nicht als Beschränkungen des Schutzbereichs der Offenbarung oder dessen, was beansprucht werden mag, anzusehen, sondern vielmehr als Beschreibungen von Merkmalen von Ausführungsbeispielen der Offenbarung. Bestimmte Merkmale, die in dieser Offenbarung im Kontext von separaten Ausführungen beschrieben sind, können auch in Kombination in einer einzigen Ausführung vorgesehen sein. Umgekehrt können verschiedene Merkmale, die im Kontext einer einzigen Ausführung beschrieben sind, auch in mehreren Ausführungen separat oder in irgendeiner geeigneten Unterkombination vorgesehen sein. Überdies, obwohl Merkmale oben möglicherweise als in bestimmten Kombinationen wirkend beschrieben sind oder sogar anfänglich als solche beansprucht sind, können ein oder mehrere Merkmale aus einer beanspruchten Kombination in manchen Fällen aus der Kombination herausgeschnitten werden, und die beanspruchte Kombination kann möglicherweise auf eine Unterkombination oder eine Variante einer Unterkombination gerichtet werden.
  • Ähnlich, obwohl Operationen in den Zeichnungen in einer bestimmten Reihenfolge gezeigt sind, ist dies nicht so zu verstehen, dass solche Betriebsabläufe in der gezeigten bestimmten Reihenfolge oder in aufeinander folgender Reihenfolge durchgeführt werden oder dass sämtliche dargestellten Betriebsabläufe durchgeführt werden, um wünschenswerte Ergebnisse zu erzielen. Überdies ist die Trennung von verschiedenen Systemkomponenten in den oben beschriebenen Ausführungen nicht als die Trennung in allen Ausführungen erfordernd zu verstehen, und selbstverständlich können die beschriebenen Programmkomponenten und -systeme in einem einzigen Softwareerzeugnis miteinander integriert oder in mehrere Softwareerzeugnisse gepackt werden.
  • Somit sind bestimmte Ausführungen der vorliegenden Offenbarung beschrieben worden. Andere Ausführungen liegen im Schutzbereich der folgenden Patentansprüche. zum Beispiel können die in den Patentansprüchen rezitierten Aktionen in einer anderen Reihenfolge durchgeführt werden und dennoch wünschenswerte Ergebnisse zu Stande bringen. Es ist eine Anzahl von Ausführungen beschrieben worden. Nichtsdestoweniger können selbstverständlich verschiedene Modifizierungen vorgenommen werden, ohne den Geist und Schutzbereich der Offenbarung zu verlassen. Zum Beispiel können verschiedene Formen der oben gezeigten Abläufe benutzt werden, mit neu geordneten, hinzugefügten oder entfernten Schritten. Dementsprechend liegen andere Ausführungen im Schutzbereich der folgenden Patentansprüche.

Claims (20)

  1. System, umfassend: eine Datenverarbeitungsvorrichtung; und ein Computerspeichermedium, das mit einem Computerprogramm codiert ist, wobei das Programm Anweisungen umfasst, die, wenn durch die Datenverarbeitungsvorrichtung ausgeführt, bewirken, dass die Datenverarbeitungsvorrichtung Operationen durchführt, die umfassen: ein digitales Video zu empfangen, das Videodaten umfasst; die Videodaten zu verarbeiten, um Merkmale zu entdecken, die auf ein menschliches Gesicht in dem digitalen Video hinweisen; aus den Videodaten ein erstes Einzelbild zu ermitteln, in dem die auf das menschliche Gesicht hinweisenden Merkmale in dem digitalen Video entdeckt werden; erste Zeitstempeldaten entsprechend dem ersten Einzelbild zu ermitteln; aus den Videodaten ein zweites Einzelbild zu ermitteln, in dem die auf das menschliche Gesicht hinweisenden Merkmale in dem digitalen Video entdeckt werden; zweite Zeitstempeldaten entsprechend dem zweiten Einzelbild zu ermitteln; einen Identifizierer entsprechend dem menschlichen Gesicht zu erzeugen; einen Datensatz zu erzeugen, der den Identifizierer, die ersten Zeitstempeldaten und die zweiten Zeitstempeldaten umfasst; und den Datensatz an die Videodaten anzufügen, um annotierte Videodaten bereitzustellen.
  2. System nach Anspruch 1, wobei die Operationen weiterhin umfassen: die Videodaten zu verarbeiten, um die Merkmale, die auf das menschliche Gesicht in dem digitalen Video hinweisen, einer bestimmten Person zuzuordnen; und Identitätsdaten zu ermitteln, die der bestimmten Person zugeordnet sind, wobei der Identifizierer auf Basis der Identitätsdaten erzeugt wird.
  3. System nach Anspruch 1, wobei das Verarbeiten der Videodaten zum Entdecken von Merkmalen, die auf ein menschliches Gesicht hinweisen, umfasst, ein oder mehrere Einzelbilder des digitalen Videos als ein Bild zu verarbeiten, wobei jedes Bild unter Verwendung von Gesichtsentdeckungstechniken verarbeitet wird.
  4. System nach Anspruch 1, wobei die Operationen weiterhin umfassen, ein annotiertes Video auf Basis der annotierten Videodaten anzuzeigen, wobei das annotierte Video ein Bookmark entsprechend dem Datensatz umfasst.
  5. System nach Anspruch 1, wobei die Operationen weiterhin umfassen: eine Benutzereingabe auf Basis des Bookmarks zu empfangen; und ein dargestelltes Einzelbild in dem digitalen Video als Antwort auf die Benutzereingabe zu dem ersten Einzelbild vorzurücken.
  6. System nach Anspruch 1, wobei die Operationen weiterhin umfassen: eine erste Position der Merkmale, die auf das menschliche Gesicht in dem ersten Einzelbild hinweisen, mit einer zweiten Position von Merkmalen, die auf ein zweites menschliches Gesicht in dem zweiten Einzelbild hinweisen, zu vergleichen; und auf Basis der ersten Position und der zweiten Position zu ermitteln, dass die Merkmale, die auf das zweite menschliche Gesicht hinweisen, den Merkmalen entsprechen, die auf das menschliche Gesicht hinweisen.
  7. System nach Anspruch 1, wobei die Operationen weiterhin umfassen: ein Gesichtsmodell des menschlichen Gesichts zu erzeugen; und das Gesichtsmodell mit bekannten Gesichtsmodellen zu vergleichen.
  8. System nach Anspruch 7, wobei das Erzeugen des Gesichtsmodells des menschlichen Gesichts umfasst, eine Vielzahl von Gesichtsschablonen zu erzeugen, wobei jede Gesichtsschablone einem Einzelbild in den Videodaten entspricht, in dem das menschliche Gesicht entdeckt wird, wobei das Gesichtsmodell die Vielzahl von Gesichtsschablonen umfasst.
  9. System nach Anspruch 7, wobei jedes der bekannten Gesichtsmodelle einem Benutzer eines Sozialnetzwerkdienstes entspricht.
  10. System nach Anspruch 7, wobei die Operationen weiterhin umfassen, ein bekanntes Gesichtsmodell auf Basis von einer oder mehreren von einer Vielzahl von Gesichtsschablonen des Gesichtsmodells zu aktualisieren.
  11. System nach Anspruch 7, wobei die bekannten Gesichtsmodelle jeweils nach Empfang des digitalen Videos erzeugt werden.
  12. System nach Anspruch 7, wobei die bekannten Gesichtsmodelle nach dem Vergleichen von computerlesbarem Speicher gelöscht werden.
  13. System nach Anspruch 7, wobei die bekannten Gesichtsmodelle von einer Dauerspeichereinrichtung abgerufen werden, die eine Datenbank von bekannten Gesichtsmodellen elektronisch speichert.
  14. System nach Anspruch 7, wobei das Vergleichen der Gesichtsmodelle umfasst, jede Gesichtsschablone des Gesichtsmodells mit Gesichtsschablonen jedes der bekannten Gesichtsmodelle zu vergleichen.
  15. System nach Anspruch 7, wobei die Operationen weiterhin umfassen: einen Konfidenzpunktwert zwischen dem Gesichtsmodell und einem bekannten Gesichtsmodell auf Basis von Vergleichen des Gesichtsmodells mit bekannten Gesichtsmodellen zu erzeugen; den Konfidenzpunktwert mit einem Schwellen-Konfidenzpunktwert zu vergleichen; und anzuzeigen, dass das Gesichtsmodell dem bekannten Gesichtsmodell entspricht, wenn der Konfidenzpunktwert größer als der Schwellen-Konfidenzpunktwert ist.
  16. System nach Anspruch 7, wobei die Operationen weiterhin umfassen: Identitätsdaten entsprechend dem bekannten Gesichtsmodell zu ermitteln; das Gesichtsmodell den Identitätsdaten zuzuordnen; und die Identitätsdaten an den Datensatz anzufügen.
  17. System nach Anspruch 16, wobei die Operationen weiterhin umfassen, das Gesichtsmodell als ein bekanntes Gesichtsmodell zu speichern.
  18. System nach Anspruch 1, wobei die Operationen weiterhin umfassen, eine Benutzereingabe zu empfangen, wobei die Benutzereingabe eine dem menschlichen Gesicht zugeordnete Identität anzeigt, wobei der Identifizierer der Identität entspricht.
  19. Computerlesbares Medium, das mit einem oder mehreren Prozessoren verbunden ist und auf dem Anweisungen gespeichert sind, die, wenn durch den einen oder die mehreren Prozessoren ausgeführt, bewirken, dass der eine oder die mehreren Prozessoren Operationen durchführt, die umfassen: ein digitales Video zu empfangen, das Videodaten umfasst; die Videodaten zu verarbeiten, um Merkmale zu entdecken, die auf ein menschliches Gesicht in dem digitalen Video hinweisen; aus den Videodaten ein erstes Einzelbild zu ermitteln, in dem die auf das menschliche Gesicht hinweisenden Merkmale in dem digitalen Video entdeckt werden; erste Zeitstempeldaten entsprechend dem ersten Einzelbild zu ermitteln; aus den Videodaten ein zweites Einzelbild zu ermitteln, in dem die auf das menschliche Gesicht hinweisenden Merkmale in dem digitalen Video entdeckt werden; zweite Zeitstempeldaten entsprechend dem zweiten Einzelbild zu ermitteln; einen Identifizierer entsprechend dem menschlichen Gesicht zu erzeugen; einen Datensatz zu erzeugen, der den Identifizierer, die ersten Zeitstempeldaten und die zweiten Zeitstempeldaten umfasst; und den Datensatz an die Videodaten anzufügen, um annotierte Videodaten bereitzustellen.
  20. Computer-implementiertes Verfahren, umfassend: ein digitales Video zu empfangen, das Videodaten umfasst; die Videodaten zu verarbeiten, um Merkmale zu entdecken, die auf ein menschliches Gesicht in dem digitalen Video hinweisen; aus den Videodaten ein erstes Einzelbild zu ermitteln, in dem die auf das menschliche Gesicht hinweisenden Merkmale in dem digitalen Video entdeckt werden; erste Zeitstempeldaten entsprechend dem ersten Einzelbild zu ermitteln; aus den Videodaten ein zweites Einzelbild zu ermitteln, in dem die auf das menschliche Gesicht hinweisenden Merkmale in dem digitalen Video entdeckt werden; zweite Zeitstempeldaten entsprechend dem zweiten Einzelbild zu ermitteln; einen Identifizierer entsprechend dem menschlichen Gesicht zu erzeugen; einen Datensatz zu erzeugen, der den Identifizierer, die ersten Zeitstempeldaten und die zweiten Zeitstempeldaten umfasst; und den Datensatz an die Videodaten anzufügen, um annotierte Videodaten bereitzustellen.
DE112012000853.7T 2011-02-18 2012-02-13 Entdeckung, Erkennung und Bookmarking von Gesichtern in Videos Active DE112012000853B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161444513P 2011-02-18 2011-02-18
US61/444,513 2011-02-18
PCT/US2012/024920 WO2012112464A1 (en) 2011-02-18 2012-02-13 Facial detection, recognition and bookmarking in videos

Publications (2)

Publication Number Publication Date
DE112012000853T5 true DE112012000853T5 (de) 2013-11-14
DE112012000853B4 DE112012000853B4 (de) 2024-03-14

Family

ID=45755565

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112012000853.7T Active DE112012000853B4 (de) 2011-02-18 2012-02-13 Entdeckung, Erkennung und Bookmarking von Gesichtern in Videos

Country Status (7)

Country Link
US (2) US9251854B2 (de)
EP (1) EP2676273B1 (de)
AU (1) AU2012217935B2 (de)
CA (1) CA2827611C (de)
DE (1) DE112012000853B4 (de)
GB (1) GB2502221B (de)
WO (1) WO2012112464A1 (de)

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8751621B2 (en) * 2011-06-16 2014-06-10 Radiumone, Inc. Building a social graph based on links received and selected by receiving users of the open web
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
US20130129075A1 (en) * 2011-11-22 2013-05-23 Incontact, Inc. Systems and methods of using social media in contact handling systems
US9077888B2 (en) * 2011-12-29 2015-07-07 Verizon Patent And Licensing Inc. Method and system for establishing autofocus based on priority
US9143834B2 (en) 2012-02-24 2015-09-22 Wew Entertainment Corporation System and method for organizing a media program guide according to popularity
US8789120B2 (en) * 2012-03-21 2014-07-22 Sony Corporation Temporal video tagging and distribution
US8849041B2 (en) * 2012-06-04 2014-09-30 Comcast Cable Communications, Llc Data recognition in content
US20140233916A1 (en) * 2013-02-19 2014-08-21 Tangome, Inc. Integrating selected video frames into a social feed
US9208382B2 (en) * 2013-03-08 2015-12-08 Trimble Navigation Limited Methods and systems for associating a keyphrase with an image
US9262671B2 (en) 2013-03-15 2016-02-16 Nito Inc. Systems, methods, and software for detecting an object in an image
US9449216B1 (en) * 2013-04-10 2016-09-20 Amazon Technologies, Inc. Detection of cast members in video content
US9154845B1 (en) 2013-07-29 2015-10-06 Wew Entertainment Corporation Enabling communication and content viewing
CN104618662B (zh) * 2013-11-05 2019-03-15 富泰华工业(深圳)有限公司 视频播放系统及方法
CN104142909B (zh) * 2014-05-07 2016-04-27 腾讯科技(深圳)有限公司 一种汉字注音方法及装置
US9854317B1 (en) 2014-11-24 2017-12-26 Wew Entertainment Corporation Enabling video viewer interaction
US9805766B1 (en) 2016-07-19 2017-10-31 Compal Electronics, Inc. Video processing and playing method and video processing apparatus thereof
CN107341435A (zh) * 2016-08-19 2017-11-10 北京市商汤科技开发有限公司 视频图像的处理方法、装置和终端设备
CN106778585B (zh) * 2016-12-08 2019-04-16 腾讯科技(上海)有限公司 一种人脸关键点跟踪方法和装置
US10332515B2 (en) * 2017-03-14 2019-06-25 Google Llc Query endpointing based on lip detection
KR101938667B1 (ko) * 2017-05-29 2019-01-16 엘지전자 주식회사 휴대 전자장치 및 그 제어 방법
WO2019040659A1 (en) * 2017-08-23 2019-02-28 Bossa Nova Robotics Ip, Inc. METHOD OF DETECTING NEW PACKET
JP2019204288A (ja) * 2018-05-23 2019-11-28 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム
CN109344590A (zh) * 2018-09-13 2019-02-15 全链通有限公司 用户身份在线验证方法及用户身份在线验证系统
CN111915305B (zh) * 2019-05-10 2023-07-25 腾讯科技(深圳)有限公司 支付方法、装置、设备以及存储介质
EP3975008A4 (de) * 2019-05-23 2023-03-08 LG Electronics Inc. Anzeigevorrichtung
US20210191975A1 (en) * 2019-12-20 2021-06-24 Juwei Lu Methods and systems for managing image collection
US20220157084A1 (en) * 2020-11-17 2022-05-19 Corsight.Ai Unsupervised signature-based person of interest database population

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000016243A1 (en) 1998-09-10 2000-03-23 Mate - Media Access Technologies Ltd. Method of face indexing for efficient browsing and searching ofp eople in video
JP3903783B2 (ja) * 2001-12-14 2007-04-11 日本電気株式会社 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
GB2395853A (en) 2002-11-29 2004-06-02 Sony Uk Ltd Association of metadata derived from facial images
US20070098303A1 (en) * 2005-10-31 2007-05-03 Eastman Kodak Company Determining a particular person from a collection
JP3962803B2 (ja) * 2005-12-16 2007-08-22 インターナショナル・ビジネス・マシーンズ・コーポレーション 頭部検出装置、頭部検出方法および頭部検出プログラム
JP2008078713A (ja) 2006-09-19 2008-04-03 Sony Corp 記録装置および方法、プログラム、並びに再生装置および方法
US20080126191A1 (en) 2006-11-08 2008-05-29 Richard Schiavi System and method for tagging, searching for, and presenting items contained within video media assets
US8116537B2 (en) 2007-04-04 2012-02-14 Sony Corporation Image recording device, player device, imaging device, player system, method of recording image, and computer program
US20080298643A1 (en) 2007-05-30 2008-12-04 Lawther Joel S Composite person model from image collection
US10069924B2 (en) * 2007-07-25 2018-09-04 Oath Inc. Application programming interfaces for communication systems
JP4424396B2 (ja) 2007-09-03 2010-03-03 ソニー株式会社 データ処理装置および方法、並びにデータ処理プログラムおよびデータ処理プログラムが記録された記録媒体
JP2009081699A (ja) * 2007-09-26 2009-04-16 Toshiba Corp 電子機器および顔画像抽出制御方法
KR101382499B1 (ko) * 2007-10-22 2014-04-21 삼성전자주식회사 영상 태깅 방법 및 이를 사용하는 영상 재생 장치.
JP2011516966A (ja) 2008-04-02 2011-05-26 グーグル インコーポレイテッド デジタル画像集合内に自動顔認識を組み込む方法および装置
US8520979B2 (en) * 2008-08-19 2013-08-27 Digimarc Corporation Methods and systems for content processing
JP4620150B2 (ja) * 2008-10-23 2011-01-26 株式会社東芝 電子機器および映像処理方法
US9495583B2 (en) 2009-01-05 2016-11-15 Apple Inc. Organizing images by correlating faces
CN102334142A (zh) * 2009-02-24 2012-01-25 三菱电机株式会社 人物追踪装置以及人物追踪程序
US8325999B2 (en) 2009-06-08 2012-12-04 Microsoft Corporation Assisted face recognition tagging
US8670597B2 (en) 2009-08-07 2014-03-11 Google Inc. Facial recognition with social network aiding
US20110060993A1 (en) 2009-09-08 2011-03-10 Classified Ventures, Llc Interactive Detailed Video Navigation System
US8416997B2 (en) * 2010-01-27 2013-04-09 Apple Inc. Method of person identification using social connections
US8824748B2 (en) * 2010-09-24 2014-09-02 Facebook, Inc. Auto tagging in geo-social networking system
US20120114307A1 (en) 2010-11-09 2012-05-10 Jianchao Yang Aligning and annotating different photo streams
US8737820B2 (en) 2011-06-17 2014-05-27 Snapone, Inc. Systems and methods for recording content within digital video

Also Published As

Publication number Publication date
GB2502221A (en) 2013-11-20
WO2012112464A1 (en) 2012-08-23
DE112012000853B4 (de) 2024-03-14
AU2012217935A1 (en) 2013-05-02
EP2676273B1 (de) 2019-04-10
AU2012217935B2 (en) 2015-09-17
US20160148651A1 (en) 2016-05-26
CA2827611A1 (en) 2012-08-23
US9984729B2 (en) 2018-05-29
EP2676273A1 (de) 2013-12-25
US9251854B2 (en) 2016-02-02
US20120213490A1 (en) 2012-08-23
CA2827611C (en) 2016-11-15
GB2502221B (en) 2016-01-13
GB201314656D0 (en) 2013-10-02

Similar Documents

Publication Publication Date Title
DE112012000853B4 (de) Entdeckung, Erkennung und Bookmarking von Gesichtern in Videos
US9177206B2 (en) Automatic photo album creation based on social information
US10057349B2 (en) Data stream consolidation in a social networking system for near real-time analysis
DE102018007937A1 (de) Entfernen und Ersetzen von Objekten in Bildern entsprechend einem geführten Nutzerdialog
DE102017005963A1 (de) Bereitstellen von relevanten Videoszenen in Reaktion auf eine Videosuchabfrage
DE202012012895U1 (de) Benutzerendgerät, Serversystem sowie Datenspeichermedium welche ein Teilen von Inhalt zwischen mehreren Geräten ermöglichen
DE102017126380A1 (de) Erzeugen von Präsentationsfolien mit destilliertem Inhalt
DE202015009885U1 (de) Priorisierung von Nachrichten
DE112016001901B4 (de) Automatisches Meta-Tagging in Bildern
DE102016125487B4 (de) Bereitstellen einer Angabe von Highlights in einem Videoinhaltselement
DE202017105871U1 (de) Umsetzbare Vorschläge für Aktivitäten
DE202016009096U1 (de) Automatisiertes Generieren und Kuratieren lokaler Storys
DE202017105305U1 (de) Teilen eines durch einen Anwender ausgewählten Videos in einer Gruppenkommunikation
DE112016002227T5 (de) Systeme und verfahren zum synchronisieren von auf sprachanruf bezogenen daten über eine dynamisch zugeordnete virtuelle telefonnummer
DE10393011T5 (de) Ermittlung der Nutzung von Mediendaten und Berichterstattungssysteme und -verfahren
JP2019530041A (ja) 検索クエリに基づいたソース画像の顔とターゲット画像との結合
DE102011107983A1 (de) System und Verfahren zum Anzeigen einer Schlagwortgeschichte eines Medienereignisses
DE112011102043T5 (de) Objekterfassungsmetadaten
DE112011101293T5 (de) Dynamische Echtzeit-Berichte basierend auf sozialen Netzwerken
DE102012224268A1 (de) Verdecken von Web-Videos: Ein Verfahren zum Darstellen der in mehreren Fenstern angesehenen Videos
US9286706B1 (en) Editing image regions based on previous user edits
DE102020119588A1 (de) Erzeugen von individualisierten, personalisierten reaktionen auf social-media-inhalt
US20150331842A1 (en) Systems and methods for selecting content items and generating multimedia content
DE112016002207T5 (de) Erstellung und verwaltung von ladenbesuchsdaten
DE112016000962T5 (de) System und verfahren zur strukturierung von bewertungen mit automatisch erzeugten tags

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE, INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: BETTEN & RESCH PATENT- UND RECHTSANWAELTE PART, DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division