DE60020243T2 - Videokodierung - Google Patents

Videokodierung Download PDF

Info

Publication number
DE60020243T2
DE60020243T2 DE60020243T DE60020243T DE60020243T2 DE 60020243 T2 DE60020243 T2 DE 60020243T2 DE 60020243 T DE60020243 T DE 60020243T DE 60020243 T DE60020243 T DE 60020243T DE 60020243 T2 DE60020243 T2 DE 60020243T2
Authority
DE
Germany
Prior art keywords
frame
data
image
image header
header data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60020243T
Other languages
English (en)
Other versions
DE60020243D1 (de
Inventor
Miska Hannuksela
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Oyj
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Oyj filed Critical Nokia Oyj
Publication of DE60020243D1 publication Critical patent/DE60020243D1/de
Application granted granted Critical
Publication of DE60020243T2 publication Critical patent/DE60020243T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/65Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using error resilience
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Description

  • Diese Erfindung bezieht sich auf eine Videokodierung und -Dekodierung.
  • Eines der jüngsten Ziele in der Mobiltelekommunikation ist es gewesen, die Geschwindigkeit der Datenübertragung zu erhöhen, um die Aufnahme von Multimedia-Diensten in Mobilnetzwerken zu ermöglichen. Eine der Hauptkomponenten von Multimedia ist ein digitales Video. Videoübertragung umfasst einen ziemlich kontinuierlichen Datenverkehr, welcher bewegende Bilder darstellt. Wie allgemein bekannt ist, ist die benötigte Datenmenge, die benötigt wird um Bilder zu übertragen, groß, verglichen mit vielen anderen Medienarten, und bislang die Verwendung von Video in niedrigen Bitraten-Endgeräten (low bit-rate terminals) vernachlässigbar gewesen ist. Jedoch wurde ein signifikanter Fortschritt in dem Bereich der niedrigen Bitraten-Videokompression erreicht. Akzeptable Videoqualität kann bei Bitraten um 20 kB (Kilobyte) pro Sekunde erreicht werden. Als ein Ergebnis dieser fortschreitenden Verringerung in der Bitrate, wird Video ein durchführbarer anzubietender Dienst über Kanäle, wie Mobilkommunikationskanäle sein.
  • Eine Videosequenz besteht aus Serien stehender Bilder oder Rahmen. Videokomprimierungs-Verfahren beruhen auf einem Reduzieren der Redundanz und wahrnehmungs-irrelevanter Teile von Videosequenzen. Die Redundanz in Videosequenzen kann in räumliche, zeitliche und spektrale Redundanz eingeteilt werden. Räumliche Redundanz bedeutet die Korrelation zwischen benachbarten Pixeln innerhalb eines Rahmens. Zeitliche Redundanz bedeutet die Korrelation zwischen Bereichen aufeinanderfolgender Rahmen. Zeitliche Redundanz ergibt sich aus der Wahrscheinlichkeit von Objekten, die in einem vorhergehenden Bild erscheinen, auch in dem gegenwärtigen Bild zu erscheinen. Kompression kann durch ein Erzeugen von Bewegungskompensationsdaten erreicht werden, welche die Bewegung (d. h. Verschiebung) zwischen ähnlichen Bereichen des gegenwärtigen und vorhergehenden Bildes beschreiben. Das gegenwärtige Bild wird somit von dem vorhergehenden vorausgesagt. Spektrale Redundanz bedeutet die Korrelation zwischen den unterschiedlichen Farbkomponenten des gleichen Bildes.
  • Video-Kompressionsverfahren unterscheiden typischerweise zwischen Bildern, die eine zeitliche Redundanzverringerung verwenden oder nicht verwenden. Komprimierte Bilder, die zeitliche Redundanz-Verringerungsverfahren nicht nutzen, werden üblicherweise INTRA- oder I-Rahmen bezeichnet, während zeitlich vorausgesagte Bilder INTER- oder P-Rahmen genannt werden (und auch B-Rahmen, wenn die INTER-Rahmen in einer Vorwärts- oder Rückwärts-Weise vorausgesagt werden können). In dem Fall von INTER-Rahmen, ist das vorausgesagte (bewegungskompensierte) Bild selten präzise genug, und deshalb ist ein räumlich komprimiertes Vorhersagebild auch ein Teil von jedem INTER-Rahmen.
  • Jedoch kann eine ausreichende Kompression gewöhnlich nicht nur durch ein Verringern der Redundanz der Videosequenz erreicht werden. Somit versuchen Videokodierer die Qualität jener Teile der Videosequenz zu verringern, welche subjektiv die am wenigsten wichtigen sind. Zusätzlich wird die Redundanz des kodierten Bitstroms mittels effizienter verlustfreier Kodierung von Kompressionsparametern und Koeffizienten reduziert. Die Haupttechnik ist variable Längenkodes zu verwenden.
  • Komprimiertes Video wird leicht durch Übertragungsfehler verfälscht, hauptsächlich aus zwei Gründen. Erstens, aufgrund der Verwendung zeitlicher voraussagender unterschiedlicher Kodierung (INTER-Rahmen) wird ein Fehler sowohl räumlich als auch zeitlich fortgepflanzt. In der Praxis bedeutet dies, dass, wenn einmal ein Fehler auftritt, es für das menschliche Auge für eine relativ lange Zeit leicht sichtbar ist. Insbesondere anfällig sind Übertragungen bei geringen Bitraten, wo es nur wenige INTRA-kodierte Rahmen gibt (die Übertragung INTRA-kodierter Rahmen würde die zeitliche Fehlerfortpflanzung beenden). Zweitens erhöht die Verwendung variabler Längenkodes die Fehleranfälligkeit. Wenn ein Bitfehler das Kodewort zu einem anderen unterschiedlicher Länge verändert, verliert der Dekoder die Kodewort-Synchronisation und dekodiert aufeinanderfolgende fehlerfreie Kodewörter (umfassend mehrere Bits) falsch, bis zur nächsten Synchronisation oder Startkode. (Ein Synchronisationskode ist ein Bit-Muster, welches nicht aus irgendeiner erlaubten Kombination andere Kodewörter erzeugt werden kann.)
  • Eine der anhaftenden Eigenschaften drahtloser Datenübernagung ist eine relativ hohe Bitfehler-Wahrscheinlichkeit. Dieses Problem kann durch verschiedene Transport-, Netzwerk- und Verbindungsschicht-Weitermeldungs-Schemen (link layer retransmission schemes) angegangen werden. Jedoch ist der Nachteil derartiger Schemen, die Möglichkeit unbeschränkter und fluktuierender Übertragungsverzögerungen. In audio-visuellen Gesprächsdiensten ist es nicht akzeptabel, große Ende-zu-Ende-Verzögerungen zu haben. Somit können Weitermeldungs-Schemen in derartigen Diensten nicht verwendet werden. Stattdessen muss man versuchen, die Übertragungsfehler zu erfassen und zu verdecken. In strömenden audio-visuellen Wiedergewinnungsdiensten kann der Übertragungsverzug etwas variieren, aufgrund der Tatsache, dass etwas anfängliche Pufferung vor dem Beginn einer Wiedergabe (play-back) auftritt. Jedoch ist der maximale akzeptable Übertragungsverzug festgelegt und falls er überschritten wird, gibt es eine störende Pause in der Wiedergabe. In der Praxis werden sowohl zuverlässige als auch unzuverlässige Transportkanäle in den Wiedergewinnungsdiensten verwendet.
  • Nicht jedes Bit in einem komprimierten Video-Bitstrom weist eine gleiche Wichtigkeit für die dekomprimierten Bilder auf. Einige Bits definieren eine wesentliche Information, wie Bildtyp (z. B. INTRA oder INTER), Quantisierungswert und optionale Kodierungsmoden, die verwendet worden sind. Die ITU-T-Empfehlung H.263 bezieht sich auf Videokodierung für eine geringe Bitraten-Kommunikation. In H.263 wird die wesentlichste Information in dem Bild-Header gesammelt. Ein Übertragungsfehler in dem Bild-Header verursacht eine totale Fehlinterpretation aufeinanderfolgenden Bits, die den Bildinhalt definieren. Aufgrund der Verwendung zeitlich vorhersagender differentieller Kodierung (INTER-Rahmen), wird der Fehler sowohl räumlich als auch zeitlich fortgepflanzt. Somit ist ein normaler Ansatz für eine Bild-Header-Verfälschung, das vorhergehende Bild auf dem Bildschirm zu fixieren, um eine INTRA-Bildanfrage an das übertragende Endgerät zu senden und auf den angefragten INTRA-Rahmen zu warten. Dies kann eine störende Pause in dem empfangenen Video verursachen, insbesondere in Echtzeit-Gesprächsvideosequenzen.
  • Übertragungsfehler weisen eine unterschiedliche Natur auf, abhängig von dem darunter liegenden Netzwerk. In paketvermittelten Netzwerken, wie Internet etc., sind Übertragungsfehler typischerweise Paketverluste (aufgrund von Staus in Netzwerkelementen). In leitungsvermittelten Netzwerken, wie Mobilnetzwerken (z.B. HSCSD für GSM), sind Übernagungsfehler typischerweise Bitfehler, wo „1" zu „0" verfälscht wird, oder umgekehrt.
  • Um Verschlechterungen in Bildern zu verhindern, die durch Übertragungsfehler eingebracht worden sind, kann eine Weitermeldung verwendet werden, eine Fehlererfassung und/oder Fehlerkorrekturverfahren können angewandt werden und/oder Effekte von den empfangenen verfälschten Daten können kaschiert werden. Normale Weitermeldung liefert einen angemessenen Weg, um Videodatenströme vor Fehlern zu schützen, aber große Hin-und-Rück-Verzögerungen, die mit geringer Bitraten-Übertragung und moderaten oder hohen Fehlerraten verbunden sind, machen es praktisch unmöglich, eine Weitermeldung zu verwenden, insbesondere mit Echtzeit-Videotelefonanwendungen. Fehlererfassungs- und Verbesserungsverfahren benötigen gewöhnlich hohe Übertragungs-Zusätze (transmission overheads), da sie etwas Redundanz zu den Daten hinzufügen. Infolgedessen kann eine Fehlerverschleierung für geringe Bitraten-Anwendungen als ein bevorzugter Weg angesehen werden, um Bilder vor Übertragungsfehlern zu schützen und wiederherzustellen. Videofehler-Verschleierungsverfahren sind typischerweise bei Übertragungsfehlern anwendbar, die durch Paketverlust und Bitverfälschung auftreten.
  • H.263 ist eine ITU-T-Empfehlung einer Videokodierung für eine geringe Bitraten-Kommunikation, die im Allgemeinen Datenraten unter 64 kB/s (Kilobyte pro Sekunde) bedeutet. Die Empfehlung spezifiziert die Bitstrom-Syntax und die Dekodierung des Bitstroms. Momentan gibt es zwei Versionen von H.263. Die Version 1 besteht aus dem Kernalgorithmus und vier optionalen Kodierungsmoden. Die H.263 Version 2 ist eine Erweiterung der Version 1, welche zwölf neue übertragbare Kodierungsmoden bereitstellt. H.263 ist gegenwärtig eine der beliebtesten Kodierungsverfahren, die für mobile schnurlose Anwendungen vorgeschlagen wird, wo die Bitrate in der Größenordnung von 28,8 Bits pro Sekunde liegt und wobei gemeinsame Viertel-Zwischenformat (Quarter Common Intermediate Format, QCIF)-Bilder von 176 × 144 Pixel gewöhnlich verwendet werden. Momentan betragen die erwarteten Bitraten für schnurlose Produkte der dritten Generation ungefähr 64 kB/s (Kilobyte pro Sekunde) und die Bildauflösung kann höher sein.
  • Bilder werden als Luminanz (Y) und zwei Farbunterschieds (Chrominanz)-Komponenten (CB und CR kodiert. Die Chrominanz-Bilder werden bei der halben Auflösung des Luminanzbildes entlang beider Koordinatenachsen abgefragt. Bilddaten werden auf einer Block-für-Block-Basis kodiert, wobei jeder Block 8 × 8 Pixel der Luminanz oder Chrominanz darstellt.
  • Jedes kodierte Bild, wie auch der entsprechende kodierte Bitstrom, ist in einer hierarchischen Struktur von vier Schichten angeordnet, die von unten nach oben sind: Blockschicht, Makroblock-Schicht, Bildsegment-Schicht und Bildschicht. Die Bildsegment-Schicht kann entweder als eine Gruppe von Blöcken oder einer Scheibe angeordnet werden.
  • Ein Block bezieht sich auf 8 × 8 Pixel von Luminanz oder Chrominanz. Die Block-Schichtdaten besteht aus gleichfömig quantisierten diskreten Cosinus-Transformationskoeffizienten, die in Zickzack-Weise gescannt werden, wobei sie mit einem Stichproben-Kodierer (run-length encoder) und mit variablen Längenkodes kodiert werden.
  • Jeder Makroblock bezieht sich auf 16 × 16 Pixel der Luminanz und den räumlich entsprechenden 8 × 8 Pixel der zwei Chrominanzkomponenten. Mit anderen Worten, ein Makroblock besteht aus vier 8 × 8 Luminanzblöcken und den zwei räumlich entsprechenden 8 × 8 Farbunterschiedsblöcken. Jeder INTER-Makroblock ist mit einem Bewegungsvektor verbunden, der die Position eines entsprechenden Bereichs in dem Referenzrahmen definiert, der den Pixeln des gegenwärtigen INTER-Makroblocks ähnelt. Die INTER-Makroblockdaten umfassen kodierte Vorhersagefehlerdaten für die Pixel des Makroblocks.
  • Üblicherweise ist jedes Bild in Segmente aufgeteilt, die als Gruppen von Blöcken (groups of blocks, GOBs) bekannt sind. Eine Gruppe von Blöcken (GOB) für ein QCIF (Quarter Common Intermediate Format)-Bild umfasst typischerweise eine Reihe von Makroblöcken (d. h. 11 Makroblöcken). Daten für jede GOB besteht aus einem optionalen GOB-Header, gefolgt von Daten für die Makroblöcke innerhalb der GOB.
  • Falls der optionale scheibenstrukturierte Modus verwendet wird, wird jedes Bild in Scheiben anstatt der GOBs aufgeteilt. Eine Scheibe enthält eine Zahl aufeinanderfolgender Makroblöcke in Abfrage-Ordnung (scan-order). Daten für jede Scheibe bestehen aus einem Scheiben-Header, gefolgt durch Daten für die Makroblöcke der Scheibe.
  • Die Bildschicht-Daten enthalten Parameter, die den gesamten Bildbereich und die Dekodierung der Bilddaten beeinflussen. Die kodierten Parameterdaten sind in einem sogenannten Bild-Header angeordnet. Im QCIF-Format ist ein Bild aufgeteilt in 176 × 144 Pixel, was 9 Reihen von 11 Makroblöcken entspricht.
  • Bilder- und GOB-(oder Scheiben)-Header beginnen mit einem Synchronisations- oder Startkode. Kein anderes Kodewort oder eine erlaubte Kombination von Kodewörtern kann das gleiche Bitmuster bilden, wie die Synchronisationskodes. Somit können die Synchronisationskodes für eine Bitstrom-Fehlererfassung verwendet werden und für eine erneute Synchronisation nach Bitfehlern.
  • H.263 ist der Video-Komprimierungsstandard, der in der ITU-T-Empfehlung H.324 „Terminal for Low Bit-Rate Communication" Februar 1998 empfohlen wird, welcher Videotelefon-Kommunikation über PSTN und Mobilnetzwerke definiert. Wenn eine H.324-Verbindung über einen schnurlosen Kanal läuft, ist es wahrscheinlich, dass der empfangene Bitstrom Transmissionsfehler enthält. In einem H.263-Videobitstrom sind diese Fehler extrem nachteilig, wenn sie in Bild-Headern auftreten. Ein derartiger Fehler kann die Dekodierung der Bildinhalte verhindern. Fehler in den INTRA-Bild-Headern verursachen die stärksten Auswirkungen, da diese Bilder als anfängliche zeitliche Vorhersagequellen verwendet werden. Fehler in einem INTRA-Bild-Header beeinflussen schädlich das entsprechende dekodierte INTRA-Bild und jedes nachfolgende Bild, welches anfangs von diesem INTRA-Bild vorhergesagt worden ist.
  • Das europäische Patent EP 0 844 792 A2 mit dem Titel „Method for Arranging Compressed Video Data for Transmission over a Noisy Communication Channel" offenbart eine digital komprimieries Videosignal-Übertragungssystem, das einen Transportprozessor zum Segmentieren bereits komprimierter Daten in Transportzellen für eine Übertragung beinhaltet. Bestimmte Abschnitte der komprimierten Daten werden in weiteren Transportzellen formatiert, die mit normal auftretenden Transportzellen vermischt sind. Die weiteren Transportzellen beinhalten redundante Videosignaldaten, die verwendet werden können, um eine komprimierte Videosignaldekodierung nach einem Verlust oder einer Verfälschung übertragener Daten zu verwenden. Das Dokument lehrt oder schlägt nicht vor, dass eine Vervielfältigung von Header-Daten während der Erzeugung des komprimierungskodierten Signals bereitgestellt werden sollte, um einen komprimierungskodierten Videobitstrom bereitzustellen, dem eine Fehlerausfallssicherheit (error resilience) innewohnt.
  • Gemäß der Erfindung wird ein Verfahren einer Videokodierungs und -Dekodierung bereitgestellt, wie in den angefügten Ansprüchen beansprucht. Ein Kodierer und Dekodierer werden ebenso bereitgestellt, wie in den angefügten Ansprüchen beansprucht.
  • Eine erste Ausführungsform der Erfindung führt ein neues Verfahren ein, um INTRA-Bild-Header in Video-Bitströmen zu wiederholen, welches vollständig verträglich mit den ITU-T H.263-Empfehlungen ist. Die Erfindung führt redundante Kopien von Bild-Headern in dem Bitstrom ein. Falls der erste Bild-Header verfälscht wird, kann ein Dekoder eine Kopie davon verwenden, um die Dekodierung der Bildinhalte zu erlauben. Diese Erfindung führt ein INTRA-Bild-Header-Verfahren ein, das die Standard-Syntax und -Semantik von H.263 verwendet. Deshalb können alle verträglichen Kodierer das Verfahren verwenden.
  • Die Einbeziehung einer Wiederholung des Bild-Headers, zumindest für INTRA-Rahmen, bedeutet, dass ein empfangender Dekoder nicht notwendigerweise die Anzeige fixieren, eine Wiederholungsanfrage an den Kodierer senden und auf den Kodierer warten muss, um die wiederholte Information zu senden. Somit gestörte Pausen aufgrund der Bild-Fixierung werden verhindert und ein Endnutzer sollte eine besseres Qualitätsvideo erhalten.
  • Die Erfindung ist anwendbar auf Echtzeit-Anwendungen und auch auf Nicht-Echtzeit-Anwendungen, wie Rückgewinnungsdienste, denen es nicht möglich ist, auf INTRA-Wiederholungsanfragen von einem empfangenden Dekoder zu antworten.
  • Aspekte der Erfindung werden in den Ansprüchen bereitgestellt.
  • Die Erfindung wird jetzt nur auf dem Weg des Beispiels, mit Bezug auf die beigefügten Zeichnungen beschrieben, in welchen:
  • 1 ein Multimedia-Mobilkommunikationssystem zeigt;
  • 2 ein Beispiel der Multimedia-Komponenten eines Multimedia-Endgeräts zeigt;
  • 3 die typische Datenstruktur eines Videosignals zeigt, das gemäß H.263 kodiert ist;
  • 4 ein Beispiel eines Video-Codec gemäß der Erfindung zeigt;
  • 5 die Datenstruktur einer kodierten Videosignalausgabe durch einen Kodierer gemäß einer ersten Ausführungsform der Erfindung zeigt;
  • 6 die Datenstruktur einer kodierten Videosignalausgabe durch einen Kodierer gemäß einer zweiten Ausführungsform der Erfindung zeigt;
  • 7 ein Flussdiagramm ist, welches den Betrieb eines Videokodierers gemäß einer dritten Ausführungsform der Erfindung zeigt.
  • 8 ein Flussdiagramm ist, welches den Betrieb eines Videokodierers gemäß einer ersten Ausführungsform der Erfindung zeigt.
  • 9 ein Flussdiagramm ist, welches den Betrieb eines Videokodierers gemäß einer dritten Ausführungsform der Erfindung zeigt.
  • Eine weitere Beschreibung der Erfindung wird mit Bezug auf die H.324- und H.263-Empfehlungen gemacht. Jedoch ist es nicht die Absicht, die Anwendung der Erfindung auf diese oder verwandte Protokolle zu beschränken.
  • Die 1 zeigt ein typisches Multimedia-Mobilkommunikationssystem. Ein erstes Multimedia-Endgerät 1 kommuniziert mit einem zweiten Multimedia-Endgerät 2 mittels einer Kommunikationsverbindung 3 und einem Kommunikationsnetzwerk 4. Steuerungsdaten wie auch Multimediadaten werden zwischen den zwei Endgeräten 1, 2 gesendet. In den Ausführungsformen der zu beschreibenden Erfindung, sind die Multimedia-Endgeräte 1, 2 mobile/schnurlose Videotelefone und wobei das Kommunikationsnetzwerk ein Mobilkommunikationsnetzwerk, wie ein GSM-Netzwerk ist. Die Kommunikationsverbindung 3 in dieser Ausführungsform ist eine Funkverbindung. In anderen Ausführungsformen der Erfindung, können die Multimedia-Endgeräte sowohl Videotelefone eines öffentlichen Telefonnetzes (Public Switched Telephone Network, PSTN) sein oder eines kann ein mobiles Multimedia-Endgerät und eines ein PSTN-Multimedia-Endgerät sein. Die Endgeräte 1, 2 können für Echtzeit-Anwendungen, wie Videotelefonie oder für Nicht-Echtzeit-Anwendungen, wie Rückgewinnungs-Dienste verwendet werden.
  • Die 2 zeigt die typischen Multimedia-Komponenten eines Endgerätes 1, welches H.324 entspricht. Das Endgerät umfasst einen Video-Codec 10, welcher H.263 entspricht, einen Audio-Codec 20, welcher G.723.1 entspricht, einen Datenprotokoll-Manager 30, welcher T.120 entspricht, einen Steuerungsmanager 40, welcher ein Signal gemäß dem H.245-Steuerungsprotokoll ausgibt, einen Multiplexer/Demultiplexer 50, welcher H.223 entspricht, und ein Modem 60 (falls benötigt). Der Video-Codec 10 empfängt Signale von einer Videoerfassungs-Vorrichtung des Endgeräts (z.B. eine Kamera (nicht dargestellt)) zum Kodieren und empfängt Signale von einem entfernten Endgerät 2 zum Dekodieren und Anzeigen durch das Endgerät 1 auf einer Anzeige 70. Der Audio-Codec 20 empfängt Signale zum Kodieren von dem Mikrofon (nicht dargestellt) des Endgerätes 1 und empfängt Signale von einem entfernten Endgerät 2 zum Dekodieren und zur Wiedergabe durch einen Lautsprecher (nicht dargestellt) des Endgerätes 1. Diese Standards, auf welche vorhergehend Bezug genommen worden ist, werden nur für beispielhafte Zwecke beschrieben und sind beabsichtigt, beschränkend zu sein.
  • Der Steuerungsmanager 40 steuert den Betrieb des Video-Codec 10, des Audio-Codec 20, des Datenprotokoll-Managers 30 und des Multiplexers/Demultiplexers 50. Da die Erfindung jedoch den Betrieb des Video-Codecs 10 betrifft, wird keine weitere Diskussion anderer Teile des Endgerätes geliefert.
  • Der Video-Codec 10 empfängt ein digitales Eingabe-Videosignal von einer Signalquelle (nicht dargestellt). Das Videosignal stellt eine Sequenz von Rahmen dar, wo jeder Rahmen ein ruhendes Bild ist. Wenn die Rahmen in einer Sequenz angezeigt werden, liefern sie den Eindruck eines Bildes, das eine Bewegung enthält. Somit wird die Sequenz von Rahmen hier als ein bewegendes Bild bezeichnet. Der Codec 10 kodiert das bewegende Bild von der Signalquelle (nicht dargestellt) und dekodiert ein empfangenes Signal, welches ein bewegendes Bild zum Anzeigen auf der Anzeige 70 darstellt.
  • Die 3 zeigt die Datenstruktur für einen Rahmen (oder Bild) eines Videosignals, welches gemäß H.263 kodiert ist. Jeder Rahmen beginnt mit einem Bild-Header 80, gewöhnlich von ungefähr 50 Bits. Der Bild-Header 80 beinhaltet:
    einen Bild-Startkode (Picture Start Code, PSC) zur Synchronisation;
    eine zeitliche Referenz (Temporal Reference, TR), die durch Erhöhen des Wertes von TR in dem zeitlich vorhergehenden Referenzbild (z.B. I-Rahmen)-Header um Eins gebildet wird, zusätzlich die Anzahl ausgelassener Bilder oder Bildern ohne Bezug seit dem vorhergehend übertragenen Referenz-Bild;
    Typ-Information (PTYPE), welche unter anderem anzeigt, ob der Rahmen ein INTRA-Rahmen oder ein INTER-Rahmen, das Format des Bildes (CIF, QCIF etc.) ist;
    Quantisierer-Information (PQUANT), die den für den Rest des Bildes zu verwendenden DCT-Quantisierer anzeigt.
  • Dem Bild-Header 80 folgen Bilderdaten 82 für das erste Segment (GOB, Scheibe, etc) des Bildes. Infolge des Vorhandenseins des Bild-Headers 80, ist ein Segment-Header für das erste Segment nicht notwendig. Somit enthalten die Bild-Daten 82, die dem Bild-Header 80 folgen, einen Makroblock-Bewegungsvektor 821 (falls anwendbar) und Blockdaten 822.
  • Nach den Daten 82 für das erste Segment des Bildes gibt es einen Segment-Header 84 (z.B. GOB-Header) für das nächste Segment. Dieser GOB-Header beinhaltet:
    einen GOB-Startkode (GOB start code, GBSC) zur Synchronisation;
    eine Gruppenzahl (Group Number, GN), welche die Zahl der GOB innerhalb des Bildes anzeigt;
    eine GOB-Rahmen-ID (GOB Frame ID, GFID), die den gleichen Wert in jedem Segment eines vorgegebenen Bildes und den gleichen Wert, wie in dem vorhergehend kodierten Bild aufweist, falls zwei Bilder vom gleichen Typ sind (I, P, etc.); und
    Quantisierer-Information (GQUANT), welche den Quantisierer angibt, der für den Rest des Bildes verwendet werden kann (wenn nicht aufeinanderfolgend in dem Bitstrom geändert).
  • Der Segment-Header 84 für das zweite Segment wird durch die Bilddaten 86 (d.h. Makroblock-Bewegungsvektor (falls anwendbar) und Blockdaten) für das Segment gefolgt. Die Rahmendaten setzen mit den Segment-Headern 84 und den Bild-Daten 86 fort, bis der gesamte Rahmen kodiert worden ist. Ein Bild-Header 80 für den nächsten Rahmen wird dann gesendet.
  • Es wird einem Leser klar sein, dass der Verlust eines Bild-Headers ernste Auswirkungen auf die Kodierung eines Bildes haben kann. Dem Dekoder wird es nicht möglich sein, das Bild zu synchronisieren, er wird nicht wissen, wie das Bild kodiert worden ist (I oder P), etc. Üblicherweise, wenn der Bild-Header verfälscht wird, wird die Gesamtheit der Daten gestrichen und eine Anfrage für eine INTRA-Bild-Aktualisierung wird an die übertragende Vorrichtung gesendet. Als Antwort kodiert die übertragende Vorrichtung einen Rahmen im INTRA-Modus, und wobei das gegenwärtige Bild auf der Anzeige fixiert wird bis diese neuen INTRA-kodierten Daten erhalten und dekodiert werden.
  • Die 4 zeigt ein Beispiel eines Video-Codec 10 gemäß der Erfindung. Der Video-Codec umfasst einen Kodierteil 100 und einen Dekodierteil 200.
  • Wenn man das Endgerät 1 als übertragende kodierte Videodaten an das Endgerät 2 betrachtet, wird der Betrieb des Video-Codec 10 jetzt mit Bezug auf seine Kodierungsrolle beschrieben. Der Kodierteil 100 umfasst eine Eingabe 101 zum Empfangen eines Videosignals von einer Kamera oder Videoquelle (nicht dargestellt) des Endgeräts 1. Ein Schalter 102 schaltet den Kodierer zwischen dem INTRA-Modus des Kodierens und dem INTER-Modus.
  • Im INTRA-Modus wird das Videosignal von dem Eingang 101 direkt in einen DCT-Wandler 103 eingegeben, der die Pixeldaten in DCT-Koeffizienten transformiert. Die DCT-Koeffizienten werden dann zu einem Quantisierer 104 weitergegeben, der die Koeffizienten quantisiert. Sowohl der Schalter 102 als auch der Quantisierer 104 werden durch einen kodierenden Steuerungsmanager 105 des Video-Codecs gesteuert, der auch eine Feedback-Steuerung von dem empfangenen Endgerät 2 mittels des H.245-Steuerungsmanagers 40 empfängt. Die Datenausgabe von dem Quantisierer 104 wird durch einen inversen Quantisierer 108 und einen inversen DCT-Wandler 109 ausgeführt. Die resultierenden Daten werden zu den Inhalten eines Bildspeichers 107 durch einen Addierer 110 hinzugefügt. Im INTRA-Modus wird der Schalter 115 geöffnet, sodass die Inhalte des Bildspeichers 107 durch die Ausgabe des inversen DCT-Wandlers 109 überschrieben werden.
  • Im INTER-Modus wird der Schalter 102 betrieben, um von einem Subtrahierer 106 den Unterschied zwischen dem Signal von der Eingabe 101 und einem vorhergehenden Bild, welches in dem Bildspeicher 107 gespeichert ist, zu akzeptieren. Die Differenz-Datenausgabe von dem Subtrahierer 106 stellt den Vorhersagefehler zwischen dem gegenwärtigen Bild und dem vorhergehend in dem Bildspeicher 107 gespeicherten Bild dar. Der Vorhersagefehler wird DCT-transformiert und quantisiert. Die Daten in dem Bildspeicher 107 werden dann durch Verlaufen der Datenausgabe durch den Quantisierer 104 über den Quantisierer 108 und den inversen DCT-Wandler 109 und Hinzufügen der ergebenden Daten an die Inhalte des Bildspeichers 107 durch einen Addierer 110 aktualisiert, wobei der Schalter 115 geschlossen ist. Ein Bewegungsschätzer 111 kann Bewegungskompensationsdaten von den Daten in dem Bildspeicher 107 in einer herkömmlichen Weise erzeugen.
  • Der Videokodierer 100 erzeugt Header-Information (z.B. eine zeitliche Referenz-Flagge TR 112a, um die Zahl des Rahmens anzugeben, der kodiert wird, eine INTRA/INTER-Flagge 112b, um den ausgeführten Kodierungsmodus anzuzeigen (I oder P/B), einen Quantisierungs-Index 112c (d.h. die Details des verwendeten Quantisierers), die quantisierten DCT-Koeffizienten 112d und die Bewegungsvektoren 112e für das zu kodierende Bild. Diese werden kodiert und zusammen durch den variablen Längenkodierer (VLC) 113 gemultiplext. Die Ausgabe des Kodierers wird dann mit anderen Signale durch den Multiplexer 50 gemultiplext.
  • In einer ersten Ausführungsform der Erfindung ist der Kodierer angeordnet, um Wiederholungen des Bild-Headers zu jedem INTRA-Rahmen zu senden. Ein Datenspeicher 114 wird deshalb bereitgestellt, um zeitlich die zu wiederholenden Daten zu speichern. In der ersten Ausführungsform, für jeden INTRA-Rahmen, werden der Bild-Header 80 und das erste Datensegment 82 zur Übertragung an einen empfangenden Kodierer wiederholt. Somit gibt der Kodierer Daten in der in 5 dargestellten Form aus.
  • Wie in 5 dargestellt, beginnt das kodierte Signal mit den Daten für das erste Bild 510 des Videosignals. Dieser Rahmen ist INTRA-kodiert. Die Daten umfassen den Bild-Header 80, die Daten für das erste Segment 82 und Header 84 und Daten 86 für aufeinanderfolgende Segmente des ersten Bildes. Der Bild-Header 80 und die Daten 82 für das erste Segment des ersten Bildes 510 werden dann als Daten 512 wiederholt, wobei der wiederholte Bild-Header die gleiche zeitliche Referenz TR wie der Originalrahmen aufweist. Diese wiederholten Daten werden von Daten für aufeinanderfolgende INTER-kodierte Rahmen 520, 522, 524 gefolgt. Wenn der nächste INTRA-Rahmen kodiert ist, werden die Daten 510' für den Rahmen durch eine Wiederholung des Bild-Headers 80 und ersten Segmentdaten 82 für den INTRA-Rahmen 510' gefolgt.
  • Diese Anordnung führt zu einem Zusatz von ungefähr 227 Bytes pro INTRA-Rahmen für eine 28,8 kB/s-Übertragung und ein QCIF-Bild.
  • Der empfangende Dekoder wird deshalb eine Vervielfältigung der Headerinformation empfangen. In diesem Szenario ist der Dekoder angeordnet, um, wie in Annex N von H.263 beschrieben, mit Bezug auf den Referenz-Bild-Auswahl (Reference Picture Selection, RPS)-Modus zu arbeiten. Gemäß H.263 Annex N, falls ein Dekoder zwei oder mehrere Bild-Header empfängt, die die gleiche zeitliche Referenz (Temporal Reference, TR) aufweisen, dann werden der zweite und nachfolgende Bild-Header (und deren verwandte Daten) durch den Dekoder ignoriert. Falls somit ein empfangender Dekoder verwaltet, um das erste Auftreten des Bild-Headers korrekt zu dekodieren (und somit den TR dieses Headers zu lesen), wird der Dekoder die Wiederholung des Bild-Headers ignorieren. Somit wird ein Kodierer gemäß der ersten Ausführungsform der Erfindung mit einem herkömmlichen Dekoder betreibbar sein, obwohl eine derartige Anordnung nicht die Vorteile der Erfindung ergeben wird. Kompatibilität wird jedoch bereitgestellt.
  • In der ersten vorhergehend beschriebenen Ausführungsform, beziehen sich die wiederholten Daten auf einen unvollständigen Teil eines Rahmens und insbesondere auf einen Bild-Header und die Daten für das erste Segment des Bildes. Ein Dekoder gemäß der Erfindung erfasst deshalb die Anwesenheit wiederholter Daten durch Erfassen, dass Daten für einen unvollständigen Rahmen empfangen worden sind und verwendet gespeicherte Daten, um den Rahmen zu vervollständigen.
  • In einer zweiten Ausführungsform eines Kodierers gemäß der Erfindung, werden redundante Videorahmen zu dem kodierten Bitstrom hinzugefügt. Ein derartiger redundanter Rahmen wird nicht verwendet, um irgendeine zusätzliche Information an die übertragene Videosequenz zu bringen. Stattdessen wird der redundante Rahmen verwendet, um den Bild-Header eines vorhergehenden Bildes zu verwenden. Die redundanten Rahmen werden zu dem Video-Bitstrom durch einen Kodierer gemäß der Erfindung hinzugefügt. Das Vorhandensein eines redundanten Rahmens wird explizit einem Dekoder signalisiert oder ein Dekoder kann implizite Merkmale der redundanten Rahmen verwenden, um das Vorhandensein eines derartigen redundanten Rahmens zu erfassen.
  • Die 6 zeigt die rahmende Struktur einer Signalausgabe durch einen Kodierer gemäß der zweiten Ausführungsform der Erfindung. Der Kodierer ist angeordnet, um einen redundanten Rahmen 612 nach jedem INTRA-Rahmen 610 zu erzeugen und zu senden. Gemäß H.263 können fortlaufende Bilder nicht das gleiche unkomprimierte Bild darstellen, außer wenn der Referenzbild-Auswahl (Reference Picture Selection, RPS)-Modus verwendet wird (Annex N). Die zweite Ausführungsform der Erfindung beruht nicht auf RPS, welches gewählt wird. In diesem Fall ist der Bild-Header nur in dem Datenspeicher 114 gespeichert. Unter der Steuerung der Steuerung 105 wird der ursprüngliche Bild-Header 80 abgeändert, so dass der neue Bild-Header 80' der gleiche ist, wie jener für den INTRA-Rahmen 610, außer dass der Bildkodierungstyp in dem PTYPE-Feld von I nach P geändert wird und das TR-Feld erhöht wird. Die Steuerung 105 setzt auch ein Feld 88, welches anzeigt, dass es keine Änderung zu den Daten für den gesamten Rahmen gegeben hat. In H.263 beinhaltet dieses Feld eine kodierte Makroblock-Anzeige (Coded Macroblock Indication, COD)-Flagge, welche in Bezug von einem Makroblock gesetzt wird, der INTER-kodiert ist, und, wenn gesetzt, anzeigt, dass keine weitere Information für den Makroblock (d.h. Keine-Änderung) gesendet wird. Aufeinanderfolgende INTER-Rahmen 620, 622, 624, die in der gleiche Weise kodiert sind, wie die Rahmen 520, 522, 524, die in 5 dargestellt sind, werden bis zum nächsten INTRA-Rahmen 610' übertragen.
  • Gemäß einer weiteren Ausführungsform der Erfindung, sind redundante Rahmen nach INTER-Rahmen genauso wie INTRA-Rahmen beinhaltet.
  • Der redundante Rahmen wiederholter Daten 612 enthält einen Bild-Header 80' von ungefähr 50 Bits, 99 COD-Bits (eines für jeden der 99 Makroblöcke innerhalb eines QCIF-Bildes) und einige füllende Bits, um eine ganze Zahl von Bits für einen vollständigen Rahmen herzustellen. Zusammen besteht ein derartiger redundanter Rahmen typischerweise aus 19 Bytes und addiert somit rund 8% an Zusatz zu dem Datenstrom für eine 28,8 kB/s-H.263-Verbindung und ein QCIF-Bild. Dieser Zusatzwert wird nur angewandt, falls jeder INTRA-Rahmen und jeder INTER-Rahmen mit einem redundanten Rahmen verbunden ist. Klarerweise kann der Zusatz verringert werden, wenn ein redundanter Rahmen nur nach jedem INTRA-Rahmen kodiert wird.
  • Wie mit Bezug auf die 5 und 6 beschrieben worden ist, wird der wiederholte Bild-Header für einen Rahmen aufeinanderfolgt auf die ursprünglichen Daten für den Rahmen von einem Bild und vor Daten für den nächsten Rahmen bereitgestellt.
  • Es wird jetzt eine dritte Ausführungsform des Kodierers beschrieben. Diese Ausführungsform beruht auf einer neuen Hinzufügung zu dem zusätzlichen Verbesserungs-Informationsfeld (Supplemental Enhancement Information field) (Annex L) von H.263. Die Hinzufügung erlaubt eine Wiederholung gewisser Bildschicht-Felder des vorhergehenden Bildes in den zusätzlichen Verbesserungsinformationsfeldern des gegenwärtigen Bildes. (Bildschicht-Felder werden nicht wiederholt innerhalb des gleichen Bildes, da sie Gefahr laufen, zur gleichen Zeit wie die Bildschichtdaten selbst verfälscht zu werden.)
  • Die Einbeziehung einer zusätzlichen Verbesserungsinformation in einen Bild-Header wird gemäß H.263 durch eine Flagge PEI angezeigt. Falls PEI gesetzt wird, zeigt dies an, dass zusätzliche Information in einem 8-Bit-Feld PSUPP folgt. Eine weitere PEI zeigt an, dass ein weiteres PSUPP-Feld mit weiterer Information folgt und so weiter.
  • Dekoder, die nicht die erweiterten, in Annex L beschriebenen, Fähigkeiten unterstützen, sind ausgeführt, um PSUPP zu streichen, falls PEI 1 gesetzt wird. Dies ermöglicht eine Rückwärts-Kompatibilität (backward compatibility) für die erweiterten Fähigkeiten von Annex L, so dass ein Bitstrom, der die erweiterten Fähigkeiten verwendet, auch ohne Abänderung durch Dekoder verwendet werden kann, die jene Fähigkeiten nicht unterstützen.
  • Annex L von H.263 beschreibt das Format der zusätzlichen Verbesserungsinformation, die in dem PSUPP-Feld der Bildschicht dieser Empfehlung gesendet wird. Das Vorhandensein dieser zusätzlichen Verbesserungsinformation wird in PEI angezeigt und ein zusätzliches PEI-Bit wird zwischen jedes Oktett von PSUPP-Daten eingefügt.
  • Die PSUPP-Daten bestehen aus einer Vier-Bit-Funktionstyp-Anzeige (four-bit function type indication, FTYPE), gefolgt von einer Vier-Bit-Parameter-Datengrößen-Spezifikation (four-bit parameter data size specification, DSIZE), gefolgt von DSIZE-Oktetten von Funktionsparameter-Daten, optional von einer weiteren Funktionstyp-Anzeige gefolgt, und so weiter. Ein Dekoder, der eine Funktionstyp-Anzeige empfängt, die er nicht unterstützt, kann die Funktionsparameter-Daten für diese Funktion streichen und dann für eine aufeinanderfolgende Funktionstyp-Anzeige überprüfen, welche unterstützt werden kann. Die FTYPE-Werte, die definiert worden sind, sind in Tabelle L.1 von H.263 gezeigt. Diese Ausführungsform der Erfindung würde einige Änderungen bei Annex L von H.263 benötigen. Diese Änderungen sind:
    • 1. die Definition einer neuen Funktionstyp-Anzeige (FTYPE) in Tabelle L.1 von H.263, z.B. Eintrag 13 – Bildschicht-Datenwiederholung; und
    • 2. die Einbeziehung in Annex L einer Erklärung des Effektes dieses FTYPE-Kodes, z.B.: Die Bildschicht-Datenwiederholungsfunktion soll verwendet werden, um bestimmte Felder der kodierten Darstellung der Bildschichtdaten des vorhergehenden Bildes zu wiederholen. Die wiederholten Daten sollen in natürlicher syntaktischer Ordnung erscheinen, beginnen von dem zeitlichen Referenz (TR)-Feld. Mit anderen Worten, falls die PEI-Bits von den wiederholten Bildschichtdaten entfernt worden sind, würde der Bitstrom der Wiederholung genau der gleiche wie der ursprüngliche Bitstrom in der entsprechenden Position sein. Das DSIZE-Feld der SEI zeigt die Zahl wiederholter Bytes an. Eine DSIZE gleich null ist für eine zukünftige Verwendung reserviert. Die Bild-Header-Information folgt dann dem FTYPE/DSIZE-Oktett.
  • Dieses vorgeschlagene Verfahren bringt einen beträchtlichen Verzug verglichen mit den vorhergehenden Ausführungsformen, wenn ein verfälschter Bildheader wiederhergestellt wird, da die Wiederherstellung nicht stattfinden kann, bis der Beginn des nächsten Bildes erhalten wird. Da jedoch der Betrieb eines Dekoders typischerweise schneller als eine Echtzeit-Videodatenübertragung zumindest bei niedrigen Rahmenraten ist, kann der Dekoder wahrscheinlich die Zeit wiederherstellen, die zum Warten des nächsten ankommenden Bildes benötigt worden ist.
  • Eine mögliche Art, um einen Kodierer gemäß der dritten Ausführungsform zu implementieren, ist in dem Flussdiagramm in 7 dargestellt. Mit Bezug auf diese Ausführungsform bezieht sich der Bild-Header auf Bildschichtdaten, die der zusätzlichen Verbesserungsinformation in der Bitstrom-Syntax vorausgehen.
  • Ein unkomprimiertes Signal wird in den Kodierer (700) bei einer gewissen Rahmenrate eingegeben. Ein Bitraten-Steuerungsalgorithmus entscheidet, ob ein bestimmter Rahmen (702) kodiert oder ausgelassen werden soll. Falls ein Rahmen kodiert wird, wird der Bild-Header zuerst kodiert (704). Der Bild-Header wird auch in dem Datenspeicher 114 gespeichert (708). Nicht mehr als drei Bild-Header werden zu irgendeinem Moment benötigt, nämlich der Header von dem gegenwärtigen Bild und die Header von den zwei vorhergehend kodierten Bildern. Der Kodierer bestimmt (706), ob der GFID in diesem Bild (verglichen mit dem vorhergehenden Bild) geändert wird, basierend auf den Bild-Headern des gegenwärtigen und vorhergehenden Bildes. Falls der GFID des vorhergehenden Bildes auch von dem GFID des Bildes davor unterschieden hat (710), muss man den Bild-Header des vorhergehenden Bildes als zusätzliche Verbesserungsinformation wiederholen. Andererseits, kann der Empfänger den Bild-Header des vorhergehenden Bildes (712) wiederherstellen, wobei der GFID von entweder dem gegenwärtigen Bild oder dem Bild, welches dem vorhergehenden Bild vorhergeht, verwendet wird. Schließlich wird der Rest des Bildes kodiert (714). Anschließend setzt die Kodierungsschleife vom Anfang (700) fort.
  • Der wiederholte Bild-Header kann ohne den PSC wiederholt werden. Andererseits könnte der Header durch einen systematischen Fehler-Korrekturkode manipuliert werden. Ein systematischer Fehlerkorrektur-Kode ist derart, dass k erste Symbole die aktuelle Nachricht sind und der Rest der Symbole für die Fehlerüberprüfung verwendet werden. In diesem bestimmten Fall sind k erste Bits der Bild-Header und der Rest der Bits werden als zusätzliche Verbesserungsinformation in dem nächsten Rahmen übertragen. Infolgedessen, verursacht die Wahl des Fehlerkorrektur-Kodes wie viele Bitinversions-Fehler erfasst und korrigiert werden können und wie viele zusätzliche Bits benötigt werden, um diesen Fehlerschutz bereitzustellen.
  • In den Ausführungsformen des vorhergehend beschriebenen Kodierers 100, ist der Kodierer vorprogrammiert worden, um Bild-Header-Wiederholungen zu senden. Jedoch kann der Kodierer 100 zusätzlich angeordnet sein, um die Bilddaten als Reaktion auf einen Befehl von einem Dekoder zu wiederholen oder zu aktualisieren.
  • Zusätzlich oder alternativ kann der Kodierer angeordnet sein, um einen Wiederholungs-Bild-Header jedes Mal zu senden, wenn sich der Zustand des GFID-Parameters ändert.
  • Wenn man das Endgerät 1 als empfangende kodierte Videodaten von Endgerät 2 betrachtet, wird der Betrieb des Video-Codec 10 gemäß der Erfindung jetzt mit Bezug auf seine Dekodierungsrolle beschrieben. Das Endgerät 1 empfängt ein Multimedia-Signal von dem übertragenden Endgerät 2. Der Demultiplexer 50 demultiplext das Multimedia-Signal und gibt die demultiplexten Signale an die richtigen Teile des Empfängers, z.B. die Videodaten an den Video-Codec 10, die Audio-Daten an den Audio-Codec 20 und die H.245-Steuerungsdaten an die H.245-Steuerung 40 weiter. Der Dekoder 200 des Video-Codecs dekodiert die kodierten Videodaten durch inverse Quantisierung, inverse DCT-Tranformation und Bewegungskompensation der Daten. Die dekodierte Videodaten werden dann zur Vervielfältigung auf einer Anzeige 70 des empfangenden Endgeräts 1 ausgegeben.
  • Wie in 4 beschrieben, umfasst der Dekodierteil 200 des Video-Codec 10 einen variablen Längendekoder 218, einen inversen Quantisierer, einen inversen DCT-Wandler 221, einen Bewegungskompensator 222, einen Bildspeicher 223, eine Steuerung 224, einen temporären Bilddatenspeicher 228 und Schalter 230 und 232. Die Steuerung 224 empfängt Video-Codec-Steuerungssignale, die von dem kodierten Multimedia-Strom durch den Demultiplexer 50 demultiplext sind. In der Praxis können die Steuerung 105 des Kodierers und die Steuerung 224 des Dekoders der gleiche Prozessor sein.
  • Die Steuerung 224 des Dekoders überprüft die Integrität der empfangenen Daten. Ein Fehler in dem Bild-Header kann bedeuten, dass das Bild nicht dekodiert werden kann und vollständig verloren ist oder so verfälscht ist, dass es effektiv verloren ist.
  • Eine erste Ausführungsform des Dekoders wird jetzt beschrieben. Im normalen Betrieb empfängt der Dekoder 200 kodierte Daten. Der variable Längendekoder (Variable Length Decoder, VLD) 218 dekodiert die empfangenen Daten in einem Ansatz, um die ursprüngliche Rahmenstruktur wiederherzustellen, die ein Format aufweist, wie es in 3 dargestellt ist. Das heißt, der VLD 218 dekomprimiert die kodierten Daten und die Steuerung 224 erfasst den Bild-Startkode (Picture Beginn Code, PSC) innerhalb der empfangenen Daten. Die Steuerung 224 verwendet dann die Information innerhalb des Bild-Headers, um den inversen Quantisierer 220 und den Schalter 230 zu steuern. Wenn die PTYPE-Information einen INTRA-Rahmen anzeigt, wird der Schalter 230 geöffnet und die Ausgabe der inversen DCT-Vorrichtung 221 wird in den Bildspeicher 223 eingegeben. Wenn die PTYPE-Information einen INTER-Rahmen anzeigt, wird der Schalter 230 geschlossen und die Inhalte des Bildspeichers 223 werden zu der Ausgabe der inversen DCT-Vorrichtung 221 hinzugefügt (der dekodierte Vorhersagefehler) durch Addierer 234.
  • Falls der Dekoder nicht den ersten Bild-Header dekodieren kann, der andere Segmente des Bildes (z.B. das GBSC des zweiten Segments 84) erfassen kann, dann speichert der Dekoder diese Daten in dem temporären Bilddatenspeicher 228. Wenn der Dekoder die wiederholten Headerdaten (und die ersten Segmentdaten 82) empfängt, dekodiert und identifiziert, dann verwendet der Dekoder die Daten in dem temporären Bildspeicher um den Rest des Bildes wiederherzustellen.
  • Falls somit die Steuerung 224 kein PSC beim Beginn eines Rahmens erfasst (oder andererseits bestimmt, dass der Bild-Header verfälscht ist) aber einen Segment-Header erfasst (z.B. durch Erfassen eines GOB-Startkodes GBSC), verändert die Steuerung 224 den Status des Schalters 232, so dass die Datenausgabe von VLD 218 in den temporären Bilddatenspeicher 228 eingegeben wird. Diese Daten werden von dem erfassten GBSC-Kode gestartet, da der VLD nicht zu dem Beginn des Bildes synchronisieren kann.
  • Bezüglich 5 nehmen wir an, dass der Dekoder den GBSC in dem Header 84 für das zweite Segment des Rahmens 510 erfasst hat. Die gespeicherten Daten in dem temporären Bilddatenspeicher 228 umfassen deshalb Header 84 nach vorne (onwards), d.h. der Header für das zweite Segment, Daten für das zweite Segment, der Header für das dritte Segment, Daten für das dritte Segment etc. von Rahmen 510.
  • Falls der verlorene/verfälschte Bild-Header zu einem INTRA-Rahmen gehörte, werden die nächsten durch den Dekoder empfangenen Daten der wiederholte Bild-Header und die ersten Segmentdaten 512 sein. Der Dekoder empfängt die Daten 512, die sich auf den wiederholten Bild-Header 80 und die wiederholten ersten Segmentdaten 82 beziehen. Die Steuerung erfasst den PSC in den wiederholten Daten 512, liest das PTYPE-Feld in dem Header und weist dann den Quantisierer 220 als den zu verwendenden Quantisierer an und öffnet Schalter 230 in Reaktion auf das PTYPE-Feld in dem Header, der einen INTRA-Rahmen anzeigt. Der Rest der wiederholten Information (d.h. das wiederholte erste Segment der Daten) wird durch den inversen Quantisierer 220 und die IDCT-Transformation 221 dekodiert und das dekodierte wiederholte erste Bildsegment wird von IDCT 222 an den Bildspeicher 223 ausgegeben.
  • Der Dekoder erkennt, dass die Daten nicht für ein gesamtes Bild sind, d.h. es nur ein Bild-Header 80 ist, gefolgt von Bilddaten 82 für ein erstes Segment, gefolgt durch einen Bild-Header für einen aufeinanderfolgenden Rahmen, dadurch, dass beispielsweise der Dekoder die wiederholten Daten 512 dekodiert und dann erfasst, dass der aufeinanderfolgende Startkode für einen unterschiedlichen Rahmen ist, d.h. Rahmen 520. Als Reaktion auf die Erfassung durch den Dekoder, verändert die Steuerung 224 den Status des Schalters 232, sodass die Daten von Rahmen 510, die in dem temporären Bildspeicher 228 gespeichert werden, an den inversen Quantisierer 220 und die IDCT-Transformation 221 ausgegeben werden. Die dekodierten Daten werden dann an den Bildspeicher 223 ausgegeben, um die Inhalte des Bildspeichers mit dem Rest der dekodierten Daten für das gegenwärtige Bild zu aktualisieren.
  • Wie vorhergehend erwähnt, in der ersten Ausführungsform eines Dekoders gemäß der Erfindung, erfasst der Dekoder den Empfang eines wiederholten Bild-Headers durch Erfassen des Austretens eines Bild-Headers, welcher nicht durch Daten für ein gesamtes Bild gefolgt wird (z. B. ein Bild, welches durch Daten für ein Segment des Bildes aber nicht mehr gefolgt wird). Andere Arten könnten verwendet werden, um die Wiederholung der Header-Information zu erfassen.
  • Wie früher erklärt, falls der Dekoder den Rahmen korrekt dekodieren kann, streicht der Dekoder einfach die Wiederholung des Headers 512, wenn das Signal formatiert wird, wie in 5 dargestellt ist.
  • Die 8 zeigt ein Flussdiagramm, welches ein Verfahren zum Betreiben eines Dekoders gemäß der ersten Ausführungsform der Erfindung darstellt. Zuerst (400) beginnt der Dekoder (200) ein empfangenes Signal durch Prüfen, ob ein Bild-Startkode (PSC) in dem nächsten Kode der einlangenden Daten ist, zu dekodieren. Falls der Bild-Header als verfälscht (402) erachtet wird, speichert die Steuerung (404) die Bilddaten, die mit den verbleibenden Segmenten des Bildes in dem temporären Bilddatenspeicher 228 verbunden sind.
  • Unterschiedliche Wege können verwendet werden, um zu bestimmen, ob das Bild verfälscht ist. Einige beispielhafte Verfahren sind, falls der Dekoder nicht das PSC dekodieren kann, oder falls ein Fehlererfassungsverfahren (wie eine H.223 CRC Prüfsumme (checksum)) anzeigt, dass es einen Fehler gibt, oder falls ein unwahrscheinlicher Parameter in dem Bild-Header gefunden wird (z.B. eine INTER-Flagge wird innerhalb eines Segment-Headers gesetzt, wenn der Kodierungstyp des Bildes INTRA ist).
  • Der Dekoder 200 sucht dann nach dem nächsten fehlerfreien Header. Falls dieser Header für einen INTRA-Rahmen ist, versucht der Dekoder den Rahmen zu dekodieren. Falls es sich herausstellt, dass einige der Bildsegmente fehlen, werden die entsprechenden Segmente des vorhergehenden Rahmens von dem temporären Bildspeicher 228 gelesen und dekodiert. Falls der verlorene/verfälschte Bild-Header zu einem INTRA-Rahmen gehörte, werden die nächsten durch den Dekoder empfangenen Daten deshalb der wiederholte Bild-Header und die ersten Segmentdaten 512 sein. Der Dekoder dekodiert (408) den Bild-Header und die Daten für das erste Segment des Bildes. Der Dekoder erfasst (406), dass die Daten nicht für einen gesamten Rahmen sind und als Reaktion dekodiert dann der Dekoder (408) die Daten, die in dem temporären Bilddatenspeicher 228 gespeichert sind auf der Basis dieses wiederholten Bild-Headers.
  • Normale Fehlerverschleierungstechniken können dann verwendet werden, um Fehler innerhalb des Bildes zu verschleiern, die sich aus einer Übertragung oder Dekodierungsfehlern ergeben haben. Wie es üblich ist, kann der Dekoder auch eine Aktualisierungsanfrage an den Dekoder senden, ob der dekodierte Rahmen als zu fehlerhaft betrachtet wird.
  • Ein herkömmlicher Dekoder würde beim Empfangen eines unvollständigen Rahmens von Daten schließen, dass die fehlenden Daten bei einer Übertragung verloren gegangen sind. Somit würde der Dekoder eine INTRA-Bildanfrage in der gewohnten Weise anfragen. Somit kann ein Kodierer gemäß der Erfindung mit einem Dekoder arbeiten, der nicht in Übereinstimmung mit der Erfindung ist.
  • Eine zweite Ausführungsform eines Dekoders gemäß der Erfindung wird jetzt beschrieben. Mit Bezug auf ein formatiertes Signal, welches in 6 dargestellt ist, falls der Dekoder nicht den ursprünglichen Header von Rahmen 610 dekodieren kann, speichert der Dekoder die verbleibenden Bilddaten (84, 86) für den Rahmen in dem temporären Bildspeicher 228. Das erste Segment des Rahmens wird nicht gespeichert, da es durch den Dekoder nicht identifiziert werden kann. Wenn der redundante Rahmen 612 empfangen wird, liest der Dekoder die Daten als wären sie INTER-kodiert aber mit keiner Veränderung. Ein Kodierer gemäß dem Stand der Technik würde gewöhnlich nicht diese Information liefern (sie ist ungefähr zu 100% redundant). Ein Dekoder gemäß der Erfindung erfasst einen Empfang eines wiederholten Bild-Headers durch Erfassen des Auftretens eines INTER-Bild-Headers gefolgt durch ein Feld, welches keine Änderung anzeigt. Beim Empfang derartiger Daten, verwendet der Dekoder den INTER-Bild-Header, um den Dekoder zu konfigurieren und dekodiert dann die Information von dem vorhergehenden Rahmen, der in dem Speicher 228 gespeichert ist.
  • In dieser Ausführungsform werden die Daten für das erste Segment des Bildes nicht wiederholt und können daher als verloren betrachtet werden. Der Dekoder bewirkt deshalb bei Empfang der wiederholten Headerdaten, dass der Schalter 232 den Status verändert, so dass die Inhalte der Bilddaten von dem zweiten Segment nach vorne aktualisiert werden. Andererseits kann der Dekoder auch schätzen, wo die ersten Segmentbilddaten in den verfälschten Daten beginnen und die Daten von diesem Punkt dekodiert werden sollten. Lassen Sie uns beispielsweise annehmen, dass es einen Ein-Bit-Inversionsfehler in dem Bild-Header des ursprünglichen Bildes gibt und deshalb der Bild-Header nicht dekodiert werden kann. Jedoch ist der PSC noch immer gültig und der Beginn des Rahmens kann deshalb verlässlich erfasst werden. Das gesamte Bild 610 wird deshalb in dem temporären Bildspeicher 228 gespeichert und dann, wenn der wiederholte Header empfangen wird, beginnt der Dekoder 200 die gespeicherten Daten bei der Position zu dekodieren, wo von dem Bild-Header angenommen wird, dass er endet und wo von den Daten für das erste Segment angenommen wird, dass sie beginnen.
  • Somit überprüft der Dekoder die einlangenden Daten. Falls der Bildheader verloren geht oder verfälscht wird, werden die Daten für den Rest des Rahmens in dem temporären Bilddatenspeicher 228 gespeichert. Aufeinanderfolgende Daten werden dann dekodiert und falls sich die Daten auf einen INTER-Rahmen beziehen und anzeigen, dass es keine Änderung in dem Bild gibt, wird der Bild-Header dekodiert und die Daten von dem temporären Bilddatenspeicher 228 werden dekodiert, wobei die Information in dem Bild-Header des redundanten Rahmens verwendet wird.
  • Wenn das Signal formatiert wird, wie in 6 dargestellt ist, falls der Dekoder verwaltet, um das Bild des Bild-Headers von Rahmen 610 korrekt zu dekodieren, wird der Dekoder fortsetzen und dekodiert die Wiederholung des Headers 612. Wie mit Bezug auf 6 beschrieben, umfasst die wiederholte Information 612 den Bild-Header 82 (beinhaltend ein erhöhtes TR) und ein Feld 88, welches anzeigt, dass sich keinen Daten mit Bezug auf den vorhergehend kodierten Rahmen geändert haben. Da es keine gespeicherten Daten in dem temporären Bilddatenspeicher 228 gibt, wird der Dekoder den redundanten Rahmen von Daten 612 streichen und den nachfolgenden Rahmen 620 dekodieren.
  • Beim Empfang eines kodierten Signals, gemäß der dritten Ausführungsform der Erfindung, verwendet ein Dekoder gemäß der Erfindung die Daten, die dem FTYPE/DSIZE-Oktett der zusätzlichen Verbesserungsinformation folgen in dem nachfolgenden Rahmen, um die in dem temporären Bildspeicher 228 gespeicherten Daten zu dekodieren.
  • Die dritte Ausführungsform der Dekoders wird jetzt mit Bezug auf 9 beschrieben. Diese Ausführungsform verwendet das SEI-Verfahren, wie es früher mit Bezug auf den Dekoder und 7 beschrieben worden ist.
  • Der Dekoder arbeitet wie folgt. Zuerst (900) empfängt der Dekoder den Bild-Header des nächsten übertragenen Bildes. Falls der Header frei von Fehlern (901) ist, kann der Dekoder den Header ohne Probleme (902) dekodieren. Anschließend kann er mit dem Dekodieren des Restes des Bildes (904) fortsetzen. Falls einige Fehler in dem Bild-Header (901) erfasst worden sind, sucht der Dekoder (906) nach dem ersten fehlerfreien Bildsegment (GOB oder Scheibe)-Header des Bildes. Nennen wird diese Bitstromposition die erste erneute Synchronisationsposition. Falls der GFID des Headers der gleiche wie in dem vorhergehenden Bild (908) ist, kann der Dekoder die kritischen Teile des Bild-Headers (910) wiederherstellen und ein Dekodieren fortsetzen (904), beginnend von dem bestimmten Bildsegment. Falls der GFID sich von demjenigen des vorhergehenden Bildes (908) unterscheidet, sucht der Dekoder (912) nach dem nächsten Bildstartkode. Falls die Bildschichtdaten dieses Bildes eine SEI-Bild-Header-Wiederholung (914) enthalten, kann der Dekoder den Bild-Header des gegenwärtigen Bildes (916) wiederherstellen. Er muss auch die Dekodierungsposition in dem Bitstrom zurück zu der ersten erneuten Synchronisationsposition (918) setzen. Falls die Bildschichtdaten keine SEI-Bild-Header-Wiederholung enthalten, sucht der Dekoder nach dem nächsten Bildsegmentstartkode und überprüft (920), falls der GFID in dem Header der gleiche wie der GFID des Bildes ist, der dekodiert wird. Falls die GFIDs gleich sind, kann der Dekoder den Bild-Header (910) wiederherstellen und ein Dekodieren von der ersten erneuten Synchronisationsposition fortsetzen. Falls die GFID von einander unterschiedlich sind, weist der Dekoder keine Mittel auf, um den verfälschten Bild-Header wiederherzustellen. In diesem Fall (922) kann er beispielsweise für eine INTRA-Aktualisierung anfragen.
  • Der temporäre Bildspeicher kann kodierte Daten für eine Vielzahl von Rahmen speichern. Da die meisten Rahmen in niedrigen Bitraten-Anwendungen in einer INTER-Rahmen-Weise kodiert sind, stellen die meisten der in dem temporären Bilddatenspeicher gespeicherten Daten wahrscheinlich Vorhersagefehlerdaten dar und sind somit relativ kompakt. Der temporäre Bildspeicher sollte deshalb ausreichend sein, um Daten für mindestens einen INTRA-Rahmen und einen INTER-Rahmen von Daten zu speichern, wobei ein INTER-Rahmen typischerweise mit ungefähr 250 Bytes für ein QCIF-Bild bei 28,8 kB/s kodiert ist.
  • Falls irgendwelche Daten für nachfolgende Rahmen des Videos auch in dem temporären Bilddatenspeicher 228 gespeichert sind, werden diese auch dekodiert und an den Bildspeicher 223 ausgegeben, um die Inhalte des Bildspeichers 223 in Übereinstimmung mit den Inhalten des entsprechenden Bildspeichers der übertragenden Vorrichtung zu bringen.

Claims (46)

  1. Verfahren zum Dekodieren eines kompressions-kodierten Videosignals, wobei das Verfahren umfasst: Empfangen kompressions-kodierter Daten, welche einen ersten Rahmen eines Videosignals darstellen; Prüfen der kompressions-kodierten Daten, die den ersten Rahmen darstellen, um Bild-Header-Daten (80) und Bilddaten (82, 84) zu erfassen; gekennzeichnet durch Speichern der Bilddaten (82, 84) des ersten Rahmens in einem vorübergehenden Bilddaten-Speicher (228), wenn ein Fehler in den Bild-Header-Daten (80) des ersten Rahmens erfasst wird, Empfangen kompressions-kodierter Daten, welche auf den ersten Rahmen folgen, Erfassen einer Wiederholung der Bild-Header-Daten (80) des ersten Rahmens von innerhalb der kompressions-kodierten Daten, welche auf den ersten Rahmen folgen, und Dekodieren der gespeicherten Bilddaten (82, 84) des ersten Rahmens unter Verwendung der wiederholten Bild-Header-Daten (80), welche in den kompressions-kodierten Daten, welche dem ersten Rahmen folgen, empfangen wurden.
  2. Verfahren zum Dekodieren gemäß Anspruch 1, wobei der Schritt des Erfassens einer Wiederholung von Bild-Header-Daten (80) des ersten Rahmens umfasst: Bestimmen ob die kompressions-kodierten Daten, welche auf den ersten Rahmen folgen, sich auf einen gesamten Rahmen des Videosignals oder auf einen unvollständigen Teil eines ersten Rahmens beziehen, und Erfassen einer Wiederholung von Bild-Header-Daten (80) des ersten Rahmens, wenn die kompressions-kodierten Daten, welche auf den ersten Rahmen folgen, sich auf einen unvollständigen Teil eines Rahmens beziehen.
  3. Verfahren zum Dekodieren gemäß Anspruch 1, wobei der Schritt des Erfassens eine Wiederholung von Bild-Header-Daten (80) des ersten Rahmens umfasst: Bestimmen, ob die kompressions-kodierten Daten, welche auf den ersten Rahmen folgen, Bild-Header-Daten und weitere Daten beinhalten, welche weiteren Daten andeuten, dass ein Rahmen des Videosignals, bezüglich eines Bezugsrahmens des Videosignals, unverändert ist, und in diesem Fall, Bestimmen, dass eine Wiederholung der Bild-Header-Daten (80) des ersten Rahmens erfasst wurde.
  4. Verfahren zum Dekodieren gemäß Anspruch 1, 2 oder 3, wobei der Schritt des Erfassens einer Wiederholung von Bild-Header-Daten (80) des ersten Rahmens jedes Mal ausgeführt wird, wenn Daten in dem vorübergehenden Bilddaten-Speicher (228) gespeichert werden.
  5. Verfahren zum Dekodieren gemäß irgendeinem vorherstehenden Anspruch, wobei der Schritt des Erfassens der wiederholten Bild-Header-Daten (80) des ersten Rahmens, Prüfen der Bild-Header-Daten (80) eines folgenden Rahmens umfasst, um zu bestimmen, ob die Bild-Header-Daten (80) des folgenden Rahmens Daten beinhalten, welche sich auf die Bild-Header-Daten (80) des ersten Rahmens beziehen, und in diesem Fall, Erfassen einer Wiederholung der Bild-Header-Daten (80) des ersten Rahmens.
  6. Verfahren zum Dekodieren gemäß Anspruch 5, wobei der Schritt des Erfassens der wiederholten Bild-Header-Daten (80) des ersten Rahmens Prüfen von Supplemental Enhancement Information (SEI) des folgenden Rahmens umfasst.
  7. Verfahren zum Video-Kodieren, umfassend: Empfangen eines Videosignals, welches kompressions-kodiert werden soll; Kodieren von Daten, welche einen ersten Rahmen (80, 82, 84, 86, ...) des Videosignals darstellen, um kompressions-kodierte Daten zu bilden; gekennzeichnet durch Wiederholen eines Teils, aber nicht aller Daten, welche den ersten Rahmen (80, 82, 84, 86, ...) innerhalb kompressions-kodierter Daten darstellen, welche auf die kompressions-kodierten Daten folgen, welche den ersten Rahmen (80, 82, 84, 86, ...) darstellen, wobei der wiederholte Teil Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) beinhaltet.
  8. Verfahren zum Kodieren gemäß Anspruch 7, wobei ein Teil der Daten nur für Rahmen wiederholt wird, welche in einer INTRA-Rahmen Art kodiert sind.
  9. Verfahren zum Kodieren gemäß den Ansprüchen 7 oder 8, wobei die wiederholten Daten Bild-Header-Daten (80) und ein ersten Segment von Bild-Daten (82) des ersten Rahmens (80, 82, 84, 86, ...) umfassen.
  10. Verfahren zum Kodieren gemäß den Ansprüchen 7 oder 8, wobei die wiederholten Daten aus Bild-Header-Daten (80) und einem Indikator bestehen, dass keine Bilddaten seit einem vorhergehenden Rahmen verändert wurden.
  11. Verfahren zum Kodieren gemäß irgendeinem der Ansprüche 7 bis 10, wobei der Schritt des Wiederholens von Bild-Header-Daten (80) des ersten Rahmens, Hinzufügen der wiederholten Bild-Header-Daten (80) des ersten Rahmens zu den Bild-Header-Daten (80) eines folgenden Rahmens umfasst.
  12. Verfahren zum Kodieren gemäß Anspruch 11, wobei die wiederholten Bild-Header-Daten (80) des ersten Rahmens in Supplemental Enhancement Information (SEI) des folgenden Rahmens beinhaltet sind.
  13. Video-Kodierer (100), umfassend: einen Eingang (101) zum Empfangen eines Videosignals, welches kompressions-kodiert werden soll; Mittel (102, 103, 104, 105, 111) zum Kompressions-kodieren von Daten, welche einen ersten Rahmen (80, 82, 84, 86, ...) des Videosignal darstellen, um kompressions-kodierte Daten zu bilden, dadurch gekennzeichnet, dass das Mittel (102, 103, 104, 105, 111) zum Kompressions-kodieren von Daten angeordnet ist, um einen Teil (512) aber nicht alle der Daten zu wiederholen, welche den ersten Rahmen (80, 82, 84, 86, ...) innerhalb kompressions-kodierter Daten, welche auf den ersten Rahmen (80, 82, 84, 86, ...) folgen, darstellen, wobei der wiederholte Teil Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) beinhaltet.
  14. Video-Dekoder (200) zum Dekodieren eines kompressions-kodierten Videosignals, wobei der Dekodierer (200) umfasst: einen Eingang (50) zum Empfangen kompressions-kodierter Daten, welche einen ersten Rahmen (80, 82, 84, 86, ...) eines Videosignals darstellen und kompressions-kodierte Daten, welche auf den ersten Rahmen (80, 82, 84, 86, ...) folgen; Dekodierungsmittel (218, 220, 221, 222, 224) zum Prüfen des kompressions-kodierten Daten, die den ersten Rahmen (80, 82, 84, 86, ...) darstellen, um Bild-Header-Daten (80) und Bilddaten (82, 84) zu erfassen; dadurch gekennzeichnet, dass der Dekoder (200) angeordnet ist, die Bilddaten (82, 84) des ersten Rahmens in einem vorübergehenden Bilddaten-Speicher (228) zu speichern, wenn ein Fehler in den Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) erfasst wird, um eine Wiederholung von Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) von innerhalb der kompressions-kodierten Daten, welche auf den ersten Rahmen (80, 82, 84, 86, ...) folgen, zu erfassen und um die gespeicherten Bilddaten (82, 84) der ersten zu dekodieren, und zwar unter Verwendung der wiederholten Bild-Header-Daten (80), die in den kompressions-kodierten Daten, welche auf den ersten Rahmen (80, 82, 84, 86, ...) folgen, erhalten werden.
  15. Drahtlose Kommunikations-Vorrichtung (1, 2), welche einen Kodierer (100) gemäß Anspruch 13 umfasst.
  16. Drahtlose Kommunikations-Vorrichtung (1, 2), welche einen Dekodierer (200) gemäß Anspruch 14 umfasst.
  17. Video-Codec (10), umfassend einen Kodierer (100) gemäß Anspruch 13 und einen Dekodierer (200) gemäß Anspruch 14.
  18. Dekodierer (200) gemäß Anspruch 14, wobei der Dekodierer (200) angeordnet ist, um zu bestimmen, ob die kompressions-kodierten Daten, welche auf den ersten Rahmen (80, 82, 84, 86, ...) folgen, sich auf einen gesamten Rahmen des Videosignals oder einen unvollständigen Teil eines Rahmens beziehen, und um eine Wiederholung von Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) zu erfassen, wenn die kompressions-kodierten Daten, welche auf den ersten Rahmen (80, 82, 84, 86, ...) folgen, sich auf einen unvollständigen Teil eines Rahmens beziehen.
  19. Dekodierer (200) gemäß Anspruch 14 oder 18, wobei der Dekodierer (200) angeordnet ist, um zu bestimmen, ob die kompressions-kodierten Daten, welche auf den ersten Rahmen (80, 82, 84, 86, ...) folgen, Bild-Header-Daten (80) und weitere Daten (88) beinhalten, wobei die weiteren Daten angeben, dass ein Rahmen des Videosignals mit Bezug auf einen Bezugsrahmen des Videosignals unverändert ist, und in diesem Fall zu bestimmen, dass eine Wiederholung der Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) erfasst wurde.
  20. Dekodierer (200) gemäß Anspruch 14, 18 oder 19, wobei der Dekodierer (200) angeordnet ist, um die Bild-Header-Daten (80) eines folgenden Rahmens zu prüfen, um zu bestimmen, ob die Bild-Header-Daten (80) des folgenden Rahmens Daten beinhalten, welche sich auf die Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) beziehen und in diesem Fall eine Wiederholung der Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) zu erfassen.
  21. Kodierer (100) gemäß Anspruch 13, wobei die wiederholten Daten (512) Bild-Header-Daten (80) und ein erstes Segment von Bilddaten (82) des ersten Rahmens (80, 82, 84, 86, ...) umfassen.
  22. Kodierer (100) gemäß Anspruch 13 oder 21, wobei die wiederholten Daten (512) aus Bild-Header-Daten (80) und einem Indikator (88) bestehen, dass keine Bilddaten seit einem vorhergehenden Rahmen verändert wurden.
  23. Kodierer (100) gemäß Anspruch 13, 21 oder 22, wobei der Kodierer (100) angeordnet ist, um Bild-Header-Daten (80) des ersten Rahmens zu wiederholen durch Hinzufügen der wiederholten Bild-Header-Daten (80) des ersten Rahmens zu den Bild-Header-Daten (80) eines folgenden Rahmens.
  24. Kodierer (100) gemäß Anspruch 23, wobei der Kodierer (100) angeordnet ist, um die wiederholten Bild-Header-Daten (80) des ersten Rahmens in der Supplemental Enhancement Information (SEI) des folgenden Rahmens zu beinhalten.
  25. Dekodierer (200) gemäß Anspruch 20, wobei der Dekodierer (200) angeordnet ist, um die wiederholten Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) durch Prüfen der Supplemental Enhancement Information (SEI) des folgenden Rahmens zu erfassen.
  26. Kodierer (100) gemäß Anspruch 23, wobei der Kodierer (100) angeordnet ist, um die wiederholten Bild-Header-Daten (80) des ersten Rahmens in der Supplemental Enhancement Information (SEI) des folgenden Rahmens zu beinhalten, wobei der Bild-Startcode (PSC) des ersten Rahmens (80, 82, 84, 86, ...) entfernt ist.
  27. Verfahren zum Dekodieren gemäß Anspruch 5, wobei der Schritt des Erfassens der wiederholten Bild-Header-Daten des ersten Rahmens ein Prüfen der Supplemental Enhancement Information (SEI) des folgenden Rahmens für eine Wiederholung der Bild-Header-Daten des ersten Rahmens umfasst, welcher den Bild-Startcode des ersten Rahmen ausschließt.
  28. Verfahren zum Kodieren gemäß Anspruch 12, wobei die wiederholten Bild-Header-Daten, welche in der Supplemental Enhancement Information (SEI) des folgenden Rahmens beinhaltet sind, den Bild-Startcode des ersten Rahmens entfernen.
  29. Dekoder (200) gemäß Anspruch 20, wobei der Dekoder (200) angeordnet ist, um die wiederholten Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) durch Prüfen der Supplemental Enhancement Information (SEI) des folgenden Rahmens für eine Wiederholung der Bild-Header-Daten (80) des ersten Rahmens zu erfassen, wobei der Bild-Startcode (PSC) aus dem ersten Rahmen entfernt wird.
  30. Netzwerk-Vorrichtung, umfassend einen Video-Kodierer (100) gemäß Anspruch 12.
  31. Netzwerk-Vorrichtung, umfassend einen Video-Dekodierer (200) gemäß Anspruch 14.
  32. Endgerät-Vorrichtung, umfassend einen Video-Kodierer (100) gemäß Anspruch 13.
  33. Endgerät-Vorrichtung, umfassend einen Video-Dekodierer (200) gemäß Anspruch 14.
  34. Vorrichtung gemäß irgendeinem der Ansprüche 30 bis 33, wobei die Vorrichtung angeordnet ist, um in einem Paket-vermitteltem Netzwerk zu arbeiten.
  35. Vorrichtung gemäß irgendeinem der Ansprüche 30 bis 33, wobei die Vorrichtung angeordnet ist, um in einem Leitung-vermitteltem Netzwerk zu arbeiten.
  36. Vorrichtung gemäß irgendeinem der Ansprüche 30 bis 33, wobei die Vorrichtung angeordnet ist, um in einem Mobil-Kommunikations-Netzwerk zu arbeiten.
  37. Vorrichtung gemäß irgendeinem der Ansprüche 30 bis 33, wobei die Vorrichtung angeordnet ist, um im Internet zu arbeiten.
  38. Vorrichtung gemäß irgendeinem der Ansprüche 30 bis 33, wobei die Vorrichtung angeordnet ist, um ein Echtzeit-Video bereitzustellen.
  39. Vorrichtung gemäß Anspruch 30 oder 32, wobei der Kodierer (100) angeordnet ist, um Bild-Header-Daten (80) des ersten Rahmens durch Hinzufügen der wiederholten Bild-Header-Daten (80) des ersten Rahmens zu den Bild-Header-Daten (80) eines folgenden Rahmens zu wiederholen.
  40. Vorrichtung gemäß Anspruch 30 oder 32, wobei der Kodierer (100) angeordnet ist, um die wiederholten Bild-Header-Daten (80) des ersten Rahmens in der Supplemental Enhancement Information (SEI) des folgenden Rahmens zu beinhalten.
  41. Vorrichtung gemäß Anspruch 39, wobei der Kodierer (100) angeordnet ist, um die wiederholten Bild-Header-Daten (80) des ersten Rahmens in der Supplemental Enhancement Information (SEI) des folgenden Rahmens zu beinhalten, wobei der Bild-Startcode (PSC) für den ersten Rahmen (80, 82, 84, 86, ...) entfernt wird.
  42. Vorrichtung gemäß Anspruch 31 oder 33, wobei der Dekoder (200) angeordnet ist, um die wiederholten Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) durch Prüfen der Supplemental Enhancement Information (SEI) des folgenden Rahmens zu erfassen.
  43. Vorrichtung gemäß Anspruch 31 oder 33, wobei der Dekoder (200) angeordnet ist, um die wiederholten Bild-Header-Daten (80) des ersten Rahmens (80, 82, 84, 86, ...) durch Prüfen der Supplemental Enhancement Information (SEI) des folgenden Rahmens für ein Wiederholen der Bild-Header-Daten (80) des ersten Rahmens zu erfassen, wobei der Bild-Startcode (PSC) aus dem ersten Rahmen entfernt wird.
  44. Netzwerk, beinhaltend eine Netzwerk-Vorrichtung gemäß Anspruch 30 oder 31.
  45. Video-Bitfluss-Signal, welches durch Kodieren von Daten, welche einen ersten Rahmen (80, 82, 84, 86, ...) eines Videosignals darstellen, erzeugt werden, um kompressionskodierte Daten zu bilden, dadurch gekennzeichnet, dass das Video-Bitfluss-Signal weiter einen Teil, aber nicht alle der Daten umfasst, welche den ersten Rahmen (80, 82, 84, 86, ...) darstellen, welcher innerhalb der kompressions-kodierten Daten, welche auf den ersten Rahmen (80, 82, 84, 86, ...) folgen, wiederholt wird, wobei der wiederholte Teil die Bild-Header-Daten für den ersten Rahmen (80, 82, 84, 86, ...) beinhaltet.
  46. Computer-Programm, welches Anweisungen beinhaltet, welche, wenn sie durch einen Computer ausgeführt werden, alle Schritte des Video-Kodierungs-Verfahrens von Anspruch 7 und/oder des Video-Dekodierungs-Verfahren von Anspruch 1 ausführen.
DE60020243T 1999-07-19 2000-07-14 Videokodierung Expired - Lifetime DE60020243T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GB9916909A GB2352350B (en) 1999-07-19 1999-07-19 Video coding
GB9916909 1999-07-19
PCT/EP2000/006732 WO2001006795A1 (en) 1999-07-19 2000-07-14 Video coding

Publications (2)

Publication Number Publication Date
DE60020243D1 DE60020243D1 (de) 2005-06-23
DE60020243T2 true DE60020243T2 (de) 2006-03-23

Family

ID=10857513

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60020243T Expired - Lifetime DE60020243T2 (de) 1999-07-19 2000-07-14 Videokodierung

Country Status (14)

Country Link
US (3) US7006576B1 (de)
EP (2) EP1542475B1 (de)
JP (1) JP4969003B2 (de)
KR (1) KR100495820B1 (de)
CN (3) CN1361991A (de)
AT (2) ATE296015T1 (de)
AU (1) AU774040B2 (de)
BR (1) BRPI0011748B1 (de)
CA (1) CA2377865C (de)
DE (1) DE60020243T2 (de)
ES (1) ES2240128T3 (de)
GB (1) GB2352350B (de)
HK (1) HK1114494A1 (de)
WO (1) WO2001006795A1 (de)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2352350B (en) 1999-07-19 2003-11-05 Nokia Mobile Phones Ltd Video coding
JP4224662B2 (ja) * 2000-08-09 2009-02-18 ソニー株式会社 画像符号化装置および方法、画像復号装置および方法、ならびに画像処理装置
TW533738B (en) * 2000-10-31 2003-05-21 Matsushita Electric Ind Co Ltd Received information record/regenerate method and received information record/regenerate device
US20040022202A1 (en) * 2002-08-05 2004-02-05 Chih-Lung Yang Method and apparatus for continuously receiving images from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual images containing information concerning each of said video channels
JP2003208343A (ja) * 2002-01-10 2003-07-25 Ricoh Co Ltd ファイル作成・閲覧方法、ファイル作成方法、ファイル閲覧方法、ファイル構造及びプログラム
JP2005522108A (ja) * 2002-03-25 2005-07-21 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク データ品位を向上する方法及びシステム
KR100557047B1 (ko) * 2002-10-21 2006-03-03 엘지전자 주식회사 동영상 디코딩 방법
KR20040046540A (ko) * 2002-11-27 2004-06-05 엘지전자 주식회사 동영상 디코딩 방법
KR20040046895A (ko) * 2002-11-28 2004-06-05 엘지전자 주식회사 영상 전화 시스템의 h.223 crc 에러 체크에 따른데이터 유닛 처리방법
US7474792B2 (en) * 2002-12-02 2009-01-06 Ricoh Company, Ltd. Image processing apparatus for using distortion amount information
JP4002878B2 (ja) * 2003-01-17 2007-11-07 松下電器産業株式会社 画像符号化方法
FR2852180B1 (fr) * 2003-03-07 2005-08-26 Thales Sa Procede et systeme de protection de donnees avec en-tete dans un systeme de transmission
JP2004336727A (ja) 2003-04-17 2004-11-25 Sharp Corp ワイヤレス制御システム、制御機器、被制御機器、機器の制御方法、制御プログラム及びそれを記録したコンピュータ読み取り可能な記録媒体
US20040218669A1 (en) * 2003-04-30 2004-11-04 Nokia Corporation Picture coding method
KR100586101B1 (ko) * 2003-05-12 2006-06-07 엘지전자 주식회사 동영상 코딩 방법
MXPA06002495A (es) * 2003-09-07 2006-06-20 Microsoft Corp Capa de porcion en codificador/descodificador (codec) de video.
US7809155B2 (en) 2004-06-30 2010-10-05 Intel Corporation Computing a higher resolution image from multiple lower resolution images using model-base, robust Bayesian estimation
US7447382B2 (en) * 2004-06-30 2008-11-04 Intel Corporation Computing a higher resolution image from multiple lower resolution images using model-based, robust Bayesian estimation
US20060104350A1 (en) * 2004-11-12 2006-05-18 Sam Liu Multimedia encoder
US8780957B2 (en) 2005-01-14 2014-07-15 Qualcomm Incorporated Optimal weights for MMSE space-time equalizer of multicode CDMA system
KR100763178B1 (ko) * 2005-03-04 2007-10-04 삼성전자주식회사 색 공간 스케일러블 비디오 코딩 및 디코딩 방법, 이를위한 장치
RU2402885C2 (ru) * 2005-03-10 2010-10-27 Квэлкомм Инкорпорейтед Классификация контента для обработки мультимедийных данных
JP4618676B2 (ja) * 2005-04-28 2011-01-26 株式会社リコー 構造化文書符号の転送方法、画像処理システム、サーバ装置、プログラム及び情報記録媒体
TW200714077A (en) * 2005-09-20 2007-04-01 Ali Corp Image processing method and a 2-D discrete cosine transformation device thereof
US9113147B2 (en) 2005-09-27 2015-08-18 Qualcomm Incorporated Scalability techniques based on content information
US20070206117A1 (en) * 2005-10-17 2007-09-06 Qualcomm Incorporated Motion and apparatus for spatio-temporal deinterlacing aided by motion compensation for field-based video
US8948260B2 (en) 2005-10-17 2015-02-03 Qualcomm Incorporated Adaptive GOP structure in video streaming
US8654848B2 (en) * 2005-10-17 2014-02-18 Qualcomm Incorporated Method and apparatus for shot detection in video streaming
US20070171280A1 (en) * 2005-10-24 2007-07-26 Qualcomm Incorporated Inverse telecine algorithm based on state machine
US7684626B1 (en) * 2005-12-01 2010-03-23 Maxim Integrated Products Method and apparatus for image decoder post-processing using image pre-processing and image encoding information
KR100799998B1 (ko) * 2006-02-14 2008-01-31 엘지전자 주식회사 디지털 방송 수신기 및 그의 데이터 에러 처리방법
US20070189383A1 (en) * 2006-02-15 2007-08-16 Samsung Electronics Co., Ltd. Method and system for appending redundancy to uncompressed video for transmission over wireless communication channels
US9131164B2 (en) * 2006-04-04 2015-09-08 Qualcomm Incorporated Preprocessor method and apparatus
US9872045B2 (en) 2006-10-16 2018-01-16 Conversant Wireless Licensing S.A R.L. Method, electronic device, system, computer program product and circuit assembly for reducing error in video coding
MY160436A (en) * 2007-02-23 2017-03-15 Nokia Technologies Oy Backward-compatible characterization of aggregated media data units
EP2127398A2 (de) * 2007-03-29 2009-12-02 Nxp B.V. Speed-up-video-wiederherstellung der videotelefonie nach einer unterbrechung
EP2135456B1 (de) * 2007-04-04 2017-05-03 Thomson Licensing Referenzbildlistenverwaltung
US8462855B2 (en) * 2007-09-26 2013-06-11 Intel Corporation Method and apparatus for stream parsing and picture location
US8332736B2 (en) * 2007-11-29 2012-12-11 Texas Instruments Incorporated Decoder with resiliency to handle errors in a received data stream
JP5147546B2 (ja) * 2008-05-30 2013-02-20 キヤノン株式会社 映像符号化装置及び映像復号化装置
US20100158130A1 (en) * 2008-12-22 2010-06-24 Mediatek Inc. Video decoding method
US8942543B1 (en) 2010-10-06 2015-01-27 Verint Video Solutions Inc. Systems, methods, and software for improved video data recovery effectiveness
JP5496047B2 (ja) * 2010-10-07 2014-05-21 パナソニック株式会社 画像再生方法、画像再生装置、画像再生プログラム、撮像システム、および再生システム
US10009591B2 (en) 2011-12-04 2018-06-26 Lg Electronics Inc. Digital broadcasting reception method and apparatus capable of displaying stereoscopic images
TWI562606B (en) * 2012-01-30 2016-12-11 Samsung Electronics Co Ltd Apparatus for decoding video
US20140119445A1 (en) * 2012-10-26 2014-05-01 Lsi Corporation Method of concealing picture header errors in digital video decoding
KR101979634B1 (ko) 2012-12-13 2019-05-20 삼성전자주식회사 화질 개선을 위한 영상 처리 장치 및 그 방법
US20140269896A1 (en) * 2013-03-13 2014-09-18 Futurewei Technologies, Inc. Multi-Frame Compression
US9407923B2 (en) * 2013-05-20 2016-08-02 Gamefly Israel Ltd. Overconing lost IP packets in streaming video in IP networks
US9973795B2 (en) * 2014-08-27 2018-05-15 ClearOne Inc. Method for video synchronization in video distribution systems
US9807408B2 (en) 2014-08-27 2017-10-31 Clearone Communications Hong Kong Ltd. Control mechanism for video output
US20180054633A1 (en) * 2015-03-27 2018-02-22 Panasonic Intellectual Property Management Co., Ltd. Video decoding device
US10291936B2 (en) 2017-08-15 2019-05-14 Electronic Arts Inc. Overcoming lost or corrupted slices in video streaming
BR112022005378A2 (pt) * 2019-09-24 2022-06-21 Huawei Tech Co Ltd Sinalização de cabeçalho de imagem em codificação de vídeo
WO2021091255A1 (ko) * 2019-11-05 2021-05-14 엘지전자 주식회사 영상/비디오 코딩을 위한 상위 레벨 신택스 시그널링 방법 및 장치
GB2621916A (en) * 2022-06-16 2024-02-28 Mbda Uk Ltd Method for image encoding

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4972261A (en) * 1987-08-28 1990-11-20 The General Electric Company, P.L.C. Motion compensation image signal encoding system
DE69122634T2 (de) 1990-02-06 1997-05-15 Alcatel Italia System, Packetaufbau und Einrichtung zur Verarbeitung der Ausgangsinformation eines Signalkodierers
JPH0490648A (ja) * 1990-08-06 1992-03-24 Fujitsu Ltd 符号化送信方式
JPH0498987A (ja) * 1990-08-16 1992-03-31 Matsushita Electric Ind Co Ltd 誤り修整方法
US5168356A (en) * 1991-02-27 1992-12-01 General Electric Company Apparatus for segmenting encoded video signal for transmission
US5289276A (en) * 1992-06-19 1994-02-22 General Electric Company Method and apparatus for conveying compressed video data over a noisy communication channel
US5497404A (en) * 1992-07-14 1996-03-05 General Instrument Corporation Transmission error recovery for digital communication systems using variable length data packets where data is stored in header locations of memory
JPH06237451A (ja) * 1993-02-10 1994-08-23 Hitachi Ltd 動画通信方式および端末装置
JP3428697B2 (ja) * 1993-09-07 2003-07-22 キヤノン株式会社 画像復号化方法
US5376969A (en) * 1993-11-15 1994-12-27 Rca Thomson Licensing Corporation Method and apparatus for conveying compressed video data over a noisy communication channel
JP2671821B2 (ja) * 1994-09-28 1997-11-05 日本電気株式会社 データ伝送装置
US5550847A (en) * 1994-10-11 1996-08-27 Motorola, Inc. Device and method of signal loss recovery for realtime and/or interactive communications
DE19524808A1 (de) 1995-07-07 1997-01-09 Thomson Brandt Gmbh Verfahren, Encoder und Decoder zur Resynchronisierung auf einen fehlerbehafteten Datenstrom
US5754605A (en) * 1995-09-29 1998-05-19 Motorola Method and apparatus for synchronization of a communications unit
JPH09207995A (ja) 1996-02-01 1997-08-12 Nas Toa Co Ltd 生ビール樽用フィッティング
JPH1174868A (ja) 1996-09-02 1999-03-16 Toshiba Corp 情報伝送方法およびその方法が適用される情報伝送システムにおける符号化装置/復号化装置、並びに符号化・多重化装置/復号化・逆多重化装置
US5875305A (en) * 1996-10-31 1999-02-23 Sensormatic Electronics Corporation Video information management system which provides intelligent responses to video data content features
US5912902A (en) * 1997-03-14 1999-06-15 Monroe; David A. Data recovery scheme
JP3769347B2 (ja) * 1997-03-19 2006-04-26 株式会社 日立インダストリイズ ガスタ−ビン吸気冷却装置
CA2267450C (en) 1997-08-01 2004-04-27 Ntt Mobile Communications Network Inc. Data sequence generator, transmitter, information data decoder, receiver, transmitter-receiver, data sequence generating method, information data decoding method, and recording medium
JP4290881B2 (ja) * 1998-01-16 2009-07-08 ヒューレット・パッカード・カンパニー エラー訂正コードを含む磁気媒体上へのデータの格納のための方法及び装置
US6243369B1 (en) * 1998-05-06 2001-06-05 Terayon Communication Systems, Inc. Apparatus and method for synchronizing an SCDMA upstream or any other type upstream to an MCNS downstream or any other type downstream with a different clock rate than the upstream
US6301637B1 (en) * 1998-06-08 2001-10-09 Storage Technology Corporation High performance data paths
US6826197B1 (en) * 1999-04-01 2004-11-30 Sedna Patent Services, Llc Data packet structure for digital information distribution
JP3411234B2 (ja) * 1999-04-26 2003-05-26 沖電気工業株式会社 符号化情報受信復号装置
GB2352350B (en) 1999-07-19 2003-11-05 Nokia Mobile Phones Ltd Video coding
US6654389B1 (en) * 1999-11-23 2003-11-25 International Business Machines Corporation System and method for searching patterns in real-time over a shared media

Also Published As

Publication number Publication date
ATE533306T1 (de) 2011-11-15
EP1542475A3 (de) 2009-03-25
ES2240128T3 (es) 2005-10-16
GB9916909D0 (en) 1999-09-22
DE60020243D1 (de) 2005-06-23
CN1361991A (zh) 2002-07-31
US8654863B2 (en) 2014-02-18
HK1114494A1 (en) 2008-10-31
EP1205076B1 (de) 2005-05-18
WO2001006795A1 (en) 2001-01-25
EP1542475A2 (de) 2005-06-15
US8401089B2 (en) 2013-03-19
KR100495820B1 (ko) 2005-06-16
US20050185719A1 (en) 2005-08-25
BRPI0011748B1 (pt) 2015-09-08
CA2377865C (en) 2009-11-10
AU6273500A (en) 2001-02-05
ATE296015T1 (de) 2005-06-15
CN101790099A (zh) 2010-07-28
JP2003504988A (ja) 2003-02-04
EP1542475B1 (de) 2011-11-09
EP1205076A1 (de) 2002-05-15
BR0011748A (pt) 2002-03-05
CN101175213B (zh) 2011-02-09
KR20020020937A (ko) 2002-03-16
AU774040B2 (en) 2004-06-17
US7006576B1 (en) 2006-02-28
GB2352350B (en) 2003-11-05
JP4969003B2 (ja) 2012-07-04
CN101175213A (zh) 2008-05-07
CA2377865A1 (en) 2001-01-25
GB2352350A (en) 2001-01-24
US20070171986A1 (en) 2007-07-26

Similar Documents

Publication Publication Date Title
DE60020243T2 (de) Videokodierung
DE60028942T2 (de) Videokodierung
JP5007012B2 (ja) ビデオ符号化方法
EP2148513B1 (de) Videokodierung
US7263125B2 (en) Method and device for indicating quantizer parameters in a video coding system
US6744924B1 (en) Error concealment in a video signal
WO2003094496A2 (en) Video coding
DE60221807T2 (de) Lauflängenkodierung nichtkodierter makroblöcke
DE10296360T5 (de) Video-Bitstrom-Reiniger
JPH07222144A (ja) 低データ率の動画像を伝送する際の時間遅延の最小化方法および動画像の再生方法
KR20000039398A (ko) 동영상 부호화 장치에서 인트라모드 부호화 선택 방법

Legal Events

Date Code Title Description
8364 No opposition during term of opposition