DE60023114T2 - Formatumwandlungsverfahren und -vorrichtung mit klassifizierendem adaptiven zeitlich -räumlichem prozess - Google Patents

Formatumwandlungsverfahren und -vorrichtung mit klassifizierendem adaptiven zeitlich -räumlichem prozess Download PDF

Info

Publication number
DE60023114T2
DE60023114T2 DE60023114T DE60023114T DE60023114T2 DE 60023114 T2 DE60023114 T2 DE 60023114T2 DE 60023114 T DE60023114 T DE 60023114T DE 60023114 T DE60023114 T DE 60023114T DE 60023114 T2 DE60023114 T2 DE 60023114T2
Authority
DE
Germany
Prior art keywords
classification
data
filter
output data
input data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60023114T
Other languages
English (en)
Other versions
DE60023114D1 (de
Inventor
Tetsujiro Atsugi-shi KONDO
J. James CARRIG
Kohji Ohta
Yasuhiro Fujimori
Sugata Ghosal
Tsutomu Aoba-ku WATANABE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Electronics Inc
Original Assignee
Sony Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Electronics Inc filed Critical Sony Electronics Inc
Application granted granted Critical
Publication of DE60023114D1 publication Critical patent/DE60023114D1/de
Publication of DE60023114T2 publication Critical patent/DE60023114T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0137Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones

Description

  • Die vorliegende Erfindung bezieht sich auf die Umwandlung von Eingangsdaten in Ausgangsdaten, beispielsweise von einem Format in ein anderes. Bei einer speziellen Anwendung bezieht sich die vorliegende Erfindung auf die Verwendung klassifizierter adaptiver Filterungstechnologie in Bezug auf die Bildung von Bilddaten in zeitlichen und räumlichen Koordinaten, die sich von denjenigen der Eingangsdaten unterscheiden.
  • Bei vielen Anwendungen ist es notwendig, ein digitales Bildformat in ein anderes umzusetzen. Diese Anwendungen variieren breit bezüglich Begriffsschwierigkeit und Qualität. Unter den einfachsten Umsetzungen sind diejenigen, die keine Änderung der Datenpunktlage erfordern. Beispielsweise erfordert die RGB-YUV-Formatumsetzung und die GIF-JPEG-Formatumsetzung keine Änderung der Datenpunktlage. Umsetzungen, welche die Anzahl von Datenpunkten ändern oder reduzieren, sind schwieriger. Diese Art von Umsetzung kommt beispielsweise vor, wenn ein Bild bezüglich der Größe reduziert wird. Die schwierigste Art der Bildumsetzung ist jedoch diejenige, welche Zusatzdatenpunkte erfordert, die zu neuen Zeitpunkten zu erzeugen sind. Beispielsweise von diesen umfassen das Umsetzen eines Films in Video, Video im PAL-Format in das NTSC-Format, und zeitlich komprimierte Daten in ein Vollrahmen-Ratenvideo.
  • Herkömmliche Verfahren zum Bilden von Datenpunkten zu neuen Zeitpunkten umfassen rechzeitig das Abtasten und das Halten, das zeitliche Mitteln und die Objektspurführung. Das Abtast- und Halteverfahren ist ein Verfahren, bei dem Ausgangsdatenpunkte vom zuletzt vergangenen Moment rechtzeitig hergenommen werden. Dieses Verfahren neigt dazu, ruckartige Bewegung zu bewirken, da die genaue zeitliche Distanz zwischen Abtastpunkten nicht beibehalten wird.
  • Das zeitliche Mitteln nutzt Abtastungen, welche durch zeitliche Distanz gewichtet sind. Der Hauptvorteil dieses Verfahrens ist der, dass es keine unnatürliche ruckartige Bewegung gibt. Ein Nachteil besteht darin, dass es einen signifikanten Verlust zeitlicher Auflösung gibt, der insbesondere an den Rändern von schnell sich bewegenden Objekten auftritt.
  • Die Objektnachführung steht in Verbindung mit Bewegungsvektoren mit sich bewegenden Objekten im Bild. Der Bewegungsvektor wird dann dazu verwendet, die Position des Objekts zwischen Bildrahmen zu schätzen. Es gibt zwei Hauptnachteile: es ist rechnerisch teuer und die Schätzfehler können ziemlich bemerkbar sein.
  • Die EP-A 0 746 157 offenbart ein Videoumsetzungsverfahren, bei dem eine Klassifikationseinheit eine Vielzahl von Signalmerkmalen von Eingangsdaten reflektiert, um Hochauflösungs-Ausgangsdaten bereitzustellen. Die Eingangsdaten werden durch ein ausgewähltes Filter auf der Basis der Klassifikation gefiltert, um die Ausgangsdaten zu liefern.
  • Die vorliegende Erfindung liefert die Übertragung von Eingangsdaten in Ausgangsdaten gemäß dem Verfahren nach Anspruch 1, das computer-lesbare Medium nach Anspruch 6, das System nach Anspruch 7 und die Vorrichtung nach Anspruch 12.
  • Bei einer bevorzugten Ausführungsform der Erfindung wird ein klassifizierter adaptiver räumlich-zeitlicher Bildungsprozess verwendet, um Daten von einem Format in das andere zu übertragen. Dieses Verfahren bildet neue Pixel, wobei ein Filter, welches in Bezug auf ein Ausgangssignal ausgewählt wird, auf Pixel-Pixel-Basis angewandt wird, welches adaptiv von einem anwendungs-spezifischen Satz von dreidimensionalen Filtern ausgewählt wird.
  • Bei einer Ausführungsform werden die Eingangsdaten räumlich und zeitlich wenn notwendig gekippt, um die Datenausgangsposition mit der Ausgangsposition der Standardorientierung auszurichten, die gemäß jeder Ausgangsdatenposition definiert ist. Eine Klassifizierung wird unter Verwendung der gekippten Eingangsdaten durchgeführt, und es wird ein geeignetes Filter gemäß der Klassifikation ausgewählt. Das Filtern wird dann für die gekippten Eingangsdaten ausgeführt, um den Wert des Ausgangsdatenpunkts zu erzeugen.
  • Die Merkmale und Vorteile nach der vorliegenden Erfindung werden aus der folgenden ausführlichen Beschreibung deutlich, in der:
  • 1a ein vereinfachtes Blockdiagramm ist, welches eine Ausführungsform des Systems nach der vorliegenden Erfindung zeigt;
  • 1b ein vereinfachtes Blockdiagramm ist, welches eine weitere Ausführungsform des Systems nach der vorliegenden Erfindung zeigt;
  • 2a ein vereinfachtes Flussdiagramm ist, welches eine Ausführungsform eines Verfahrens zeigt, um eine Formatumsetzungsspezifikation gemäß der Lehre der vorliegenden Erfindung zu bestimmen;
  • 2b ein vereinfachtes Flussdiagramm ist, um eine Ausführungsform des Verfahrens nach der vorliegenden Erfindung zu zeigen;
  • 3a, 3b, 3c, 3d und 3e ein Beispiel der Umsetzung gemäß der Lehre der vorliegenden Erfindung zeigen; und
  • 4a, 4b, 4c, 4d und 4e ein weiteres Beispiel einer Datenumsetzung gemäß der Lehre der vorliegenden Erfindung zeigen.
  • Die vorliegende Erfindung dient zur Umsetzung von Daten unter Verwendung klassifizierter räumlich-zeitlicher Verfahren. Bei einer Ausführungsform wird der klassifizierte adaptive räumlich-zeitliche Formatumsetzungsprozess dazu verwendet, eine Umsetzung von einem Videoformat in das andere durchzuführen. Bei einer Ausführungsform trifft auf Pixelbasis das Umsetzungsverfahren adaptiv eine Auswahl von einem Satz von dreidimensionalen Filtern und wendet lokal ein ausgewähltes Filter aus, um Ausgangspixel zu erzeugen. Bei einer Ausführungsform werden Mehrfachklassen dazu verwendet, Filter auszuwählen. Bei einer Ausführungsform werden räumliche und zeitliche Symmetrien dazu verwendet, die Anzahl von erforderlichen Filtersätzen zu reduzieren.
  • In der folgenden Beschreibung werden aus Erläuterungsgründen zahlreiche Details beschrieben, um ein gründliches Verständnis der vorliegenden Erfindung zu liefern. Es wird jedoch für den Fachmann deutlich sein, dass diese spezifischen Details nicht erforderlich sind, die vorliegende Erfindung auszuüben. Bei anderen Beispielen sind bekannte elektrische Strukturen und Schaltkreise in Blockdiagrammform gezeigt, um die vorliegende Erfindung nicht unnötig zu verschleiern.
  • Die vorliegende Erfindung wird im Zusammenhang von Videodaten beschrieben. Die vorliegende Erfindung ist jedoch auf eine Vielzahl von Arten korrelierter Daten einschließlich korrelierter Daten und Audiodaten anwendbar.
  • Eine Ausführungsform des Systems nach der vorliegenden Erfindung ist in 1a gezeigt. 1a ist ein vereinfachtes Funktionsblockdiagramm eines Schaltungsaufbaus, welches dazu verwendet werden kann, die hier beschriebenen Verfahren durchzuführen. Beispielsweise kann der Schaltungsaufbau bei einer speziell konfigurierten Logik, beispielsweise einer Integrationslogik mit großem Aufbau (LSI) oder programmierbaren Gate-Gruppen durchgeführt werden. Alternativ kann, wie in 1b gezeigt ist, der Schaltungsaufbau als Code durchgeführt werden, der durch einen speziell-konfigurierten oder einen Mehrzweckprozessor ausgeführt wird, der Instruktionen ausführt, welche in einem Speicher oder in einer anderen Speichereinrichtung gespeichert sind oder über einen Übertragungsträger übertragen werden. Außerdem kann die vorliegende Erfindung als Kombination von oben durchgeführt werden.
  • Gemäß 1a prüft die Klassifikationslogik 10 den Eingangsdatenstrom und klassifiziert die Daten zur nachfolgenden Filterauswahl und zur Erzeugung von Ausgangsdaten. Bei einer Ausführungsform werden die Daten gemäß Mehrfachklassen klassifiziert, beispielsweise einer Bewegungsklasse und einer räumlichen Klasse. Andere Klassifikationen, beispielsweise eine temporäre Klasse, eine räumliche Aktivitätsklasse usw. können verwendet werden.
  • Wenn die Eingangsdaten einmal klassifiziert sind, werden die Eingangsdaten-Filteranzapfungen und die entsprechenden Filterkoeffizienten durch einen Koeffizientenspeicher 20 und eine Auswahllogik 21 ausgewählt. Wie später beschrieben wird, kann die Anzahl von Filtersätzen reduziert werden, indem der Vorteil von räumlichen und zeitlichen Beziehungen zwischen Eingangs- und Ausgangsdaten hergenommen wird. Damit kann bei einer Ausführungsform die Auswahllogik ebenfalls Daten-"Springen" durchführen, um die Ausgangsdatenposition mit der Ausgangsposition einer Standardorientierung auszurichten, welche für jede Ausgangsposition definiert ist. Aus Gründen der hier angegebenen Beschreibung bezieht sich eine Anzapfungsstruktur auf die Lagen von Eingangsdatenanzapfungen, welche zur Klassifizierung oder für Filterungszwecke verwendet werden. Datenanzapfungen beziehen sich auf individuelle Datenpunkte, d.h., Eingangsdatenpunkte, die kollektiv dazu verwendet werden, zu klassifizieren, und auf ein Filter, um einen spezifischen Ausgangsdatenpunkt zu erzeugen.
  • Das Filter 30 führt die notwendigen Berechnungen durch, die verwendet werden, die Ausgangsdaten zu erzeugen. Beispielsweise schreibt bei einer Ausführungsform die Filterauswahl die Filterkoeffizienten vor, die in Verbindung mit den entsprechenden Filteranzapfungen zu verwenden sind, um Ausgangswerte zu bestimmen. Beispielsweise kann ein Ausgangswert gemäß folgender Gleichung bestimmt werden:
    Figure 00040001
    wobei t die Anzahl von Filteranzapfungen zeigt, x1 einen Eingangswert zeigt und wi einen entsprechenden Filterkoeffizienten zeigt.
  • Die Filterkoeffizienten können in verschiedener Weise erzeugt werden. Beispielsweise können die Koeffizienten Wichtungen entsprechend räumlichen und/oder zeitlichen Distanzen zwischen der Eingangsdatenanzapfung und einem gewünschten Ausgangsdatenpunkt sein. Filterkoeffizienten können außerdem für jede Klasse durch einen Lernprozess erzeugt werden, der vor der Übersetzung der Daten durchgeführt wird.
  • Beispielsweise kann das Lernen gemäß dem folgenden Kriterium erreicht werden: minw |X·W – Y|2 wobei min eine Minimalfunktion zeigt, und X, W und Y beispielsweise die folgenden Matrizen sind: X ist eine Eingangsdatenmatrix, W ist die Koeffizientenmatrix und Y entspricht der Zieldatenmatrix. Matrizenbeispiele sind unten gezeigt:
  • Figure 00050001
  • Der Koeffizient wi kann gemäß diesem Kriterium erhalten werden, so dass Schätzungsfehler gegenüber Zieldaten minimiert werden.
  • Eine alternative Ausführungsform des Systems nach der vorliegenden Erfindung ist in 1b gezeigt. Das Prozessorsystem weist den Prozessor 55, den Speicher 60, die Eingangsschaltung 65 und die Ausgangsschaltung 70 auf. Die hier beschriebenen Verfahren können bei einem speziell-konfigurierten oder einem Mehrzweckprozessor angewandt werden. Instruktionen sind im Speicher 60 gespeichert, auf die durch den Prozessor 55 zugegriffen wird, um viele hier beschriebene Schritte durchzuführen. Der Eingang empfängt den Ein gangsdatenstrom und leitet die Daten weiter zum Prozessor 65. Der Ausgang 70 gibt die Daten aus, die gemäß den hier beschriebenen Verfahren übersetzt (umgesetzt) sind.
  • Das Verfahren nach der vorliegenden Erfindung liefert einen klassifizierten adaptiven räumlich-zeitlichen Formatprozess, wobei der Vorteil räumlicher und zeitlicher Symmetrien unter Anzapfungsstrukturen genutzt wird, um die Anzahl von erforderlichen Filtern zu reduzieren.
  • 2a ist ein vereinfachtes Blockdiagramm, welches eine Ausführungsform einer Methode zeigt, um eine Formatumsetzungsanwendung zu bilden. Obwohl 2a als Prozess beschrieben ist, der vor dem Umsetzungsprozess von Daten durchgeführt wird, kann der Prozess im Zeitpunkt der Umsetzung der Daten durchgeführt werden.
  • Die meisten Bildformate können einfach unter Bezugnahme auf eine gemeinsam verstandene Strukturdefinition beschrieben werden. Die Besonderheiten des Formats werden durch Parameter angegeben, die diese Struktur verfeinern. Beispielsweise wird eine Bildkomponente bezeichnet als 30 Hz, 480-Zeilen-Progressivbild mit 704 Pixeln pro Zeile, wonach jedes strukturelle Detail über diese Komponenten spezifiziert ist.
  • Wenn das Eingangsbildformat ein Aufbau des Typus Y mit Hin Zeilen, Win Pixeln pro Zeile und Tin Bruchteilssekunden zwischen Feldern ist, und das Ausgangsbildformat eine Struktur des Typus Z mit Hout Zeilen, Wout Pixeln pro Zeile und Tout Bruchteilsekunden zwischen Feldern ist, können die allgemeinen Umsetzungsformeln mathematisch gedrückt werden wie folgt: Z(Hout, Wout, Tout) = f [Y(Hin, Win, Tin); Δh; Δw; Δt]wobei Δh, Δw und Δt jeweils entsprechend vertikale, horizontale und zeitliche Verschiebungen darstellen.
  • Bei einer nicht adaptiven räumlich-zeitlichen Formatumsetzung kann die Funktion f[•] ein dreidimensionales lineares Filter sein. Bei einer Ausführungsform adaptiver räumlichzeitlicher Formatumsetzung wird die Funktion f[•] durch selektives Anwenden eines von mehreren Filtern realisiert. Das Verfahren ist adaptiv, da die Filterauswahl auf Basis von Pixel zu Pixel datenabhängig ist. Der Ausdruck bezieht sich auf die Art und Weise, mit der das Filter ausgewählt ist.
  • Gemäß 2a wird im Schritt 210 Information in Bezug auf das Eingangsdatenformat und das Ausgangsdatenformat empfangen. Beispielsweise kann das Eingangsformat ein 30 Hz, 240-Zeilen-Progressivbild mit 704 Pixeln pro Zeile sein, und das Ausgangsformat kann ein 60 Hz, 480-Zeilen-Verschachtelungsbild mit 704 Pixeln pro Zeile sein.
  • Im Schritt 220 werden Δh, Δw und Δt definiert. Während die Eingangs- und Ausgangsformate durch Systembeschränkungen spezifiziert sind, kann der Konstrukteur des Umsetzungssystems üblicherweise Δh, Δw und Δt spezifizieren. Allgemein sollten diese so gewählt werden, bestimmte Symmetriebeschränkungen zu erfüllen. Diese Beschränkungen stellen sicher, dass lediglich eine Minimalzahl von Filtern benötigt werden muss und dass die Ausgangsqualität so gleichförmig wie möglich ist. Signifikante Kosteneinsparungen können durch Reduzieren der Anzahl von Filtersätzen, die zu verwenden sind, erreicht werden.
  • Bei allen Bildumsetzungsproblemen kann das Verhältnis der Anzahl von Ausgangspixeln pro Eingangspixel berechnet werden. Dieses Verhältnis liefert eine angenehme Referenz zum Entwerfen der Umsetzungs-Anwendung. Um die Erläuterung zu vereinfachen, sei angenommen, dass n Pixel für jeweils m zugeführte Pixel ausgegeben werden. Nach Auswählen eines repräsentativen Satzes von m Pixeln (vom gleichen lokalen Bereich) muss der Konstrukteur einen entsprechenden Satz von n Ausgangspixeln in der Nähe der Eingangspixel finden. Wenn zwei der Ausgangspixel bei der gleichen räumlich-zeitlichen Distanz vom Referenzpixel sind, kann der gleiche Satz von Filtern für deren Erzeugung verwendet werden (unter der Annahme, dass die Umgebungsbedingungen identisch sind).
  • Horizontale, vertikale und zeitliche Symmetrierelationen bilden sich auffallend an diesem Punkt der Konstruktion, da sie verwendet werden, die räumlich-zeitliche Distanz zwischen Pixeln auszugleichen. Es ist wünschenswert, bei einer Ausführungsform, die Offsets (Δh, Δw und Δt) mit diesen Symmetrien im Gedächtnis auszuwählen, so dass lediglich eine minimale Anzahl von räumlich-zeitlichen Beziehungen definiert wird, wodurch die Anzahl von erforderlichen Filtersätzen begrenzt wird.
  • Im Schritt 230 werden die Klassenanzapfungen ausgewählt, um eine oder mehrere Klassen zur Filterauswahl zu bestimmen. Aus Gründen der Erläuterung hier werden Pixel oder Datenpunkte, die verwendet werden, die Eingangsdaten zur Filterauswahl zu klassifizieren, als Klassenanzapfungen bezeichnet. Eingangsdaten, welche bei der nachfolgenden Filterberechnung verwendet werden, um Ausgangsdaten zu erzeugen, werden als Filteranzapfungen bezeichnet.
  • Bei einer Ausführungsform muss ein einzelner Klassentypus verwendet werden. Alternativ können Mehrfachklassen verwendet werden, um eine Kombinationsklassifizierung bereitzustellen. Wie vorher angemerkt können eine Vielzahl von Klassifikationsarten verwendet werden; die folgende Erläuterung wird jedoch auf Bewegung und räumliche Klassifikation begrenzt werden.
  • Eine Bewegungsklassifikation findet unter Abwägung der Differenz zwischen Positionspixeln in Differenzzeitbeispielen statt. Die Größe, Richtung oder Geschwindigkeit der Bildobjektbewegung wird über den Ausgangspunkt von Interesse geschätzt. Somit umfassen die Klassenanzapfungen Pixel von mehr als einem Zeitbeispiel. Die Klassen von Klassenidentifikationen (Klassen-ID), die verwendet werden, um die Eingangsdaten zu beschreiben, können gemäß der Anwendung variieren. Beispielsweise kann eine Bewegungsklassen-ID von "0" definiert werden, um keine Bewegung zu zeigen, und eine Bewegungsklassen-ID von "1" kann definiert werden, einen hohen Wert an Bewegung zu zeigen. Alternativ können mehrere verfeinerte Werte an Bewegung klassifiziert werden und beim Filterauswahlprozess verwendet werden. Die Klassenanzapfungen können gemäß der Anwendung variieren und können gemäß einer Vielzahl von Verfahren ausgewählt werden, die verwendet werden, Information in Bezug auf Bewegung der Bilder zu sammeln. Beispielsweise kann in ihrer einfachsten Form eine Bewegungsklassen-ID unter Verwendung eines Eingangspixels von einem ersten Periodenzeitwert und einem zweiten Periodenzeitwert bestimmt werden.
  • Die räumliche Klassifikation betrifft das räumliche Muster der Eingangspunkte, welche den Ausgangspunkt räumlich und zeitlich umgeben. Bei einer Ausführungsform wird ein Schwellenwert wie folgt berechnet: L = MIN + (MAX – MIN)/2wobei MIN und MAX die minimalen und maximalen Pixelwerte genommen über die räumlichen Anzapfungswerte sind. Jedes Pixel der Anzapfung gibt Anlass zu einem Binär-Zeichen – a1, wenn der Pixelwert größer als L ist, und – a0, wenn der Pixelwert kleiner als L ist. Wenn die räumliche Klasse definiert wird, kann die Helligkeitssymmetrie (1's-Komplement) dazu verwendet werden, die Anzahl von räumlichen Klassen zu halbieren. Beispielsweise kann die räumliche Klasse 00101 und 11010 so angesehen werden, dass sie die gleiche ist.
  • Bei einer Ausführungsform kann die Bewegungsklassifikation und die räumliche Klassifikation in Bezug auf ein Ausgangspixel durch Ausgabe auf Pixelbasis kombiniert werden, um eine kombinierte Klasse zu bestimmen, die verwendet wird, ein Filter von einem Satz von Filtern für eine bestimmte Klassenanzapfungsstruktur auszuwählen. Wenn beispielsweise ein erster Wert an Bewegung bestimmt wird, kann die räumliche Klassifizierung die Auswahl einer kombinierten Klasse von einem ersten Satz kombinierter Klassen-IDs veranlassen; wenn ähnlich ein zweiter Wert an Bewegung bestimmt wird, wird die räumliche Klassifizierung die Auswahl einer kombinierten Klasse von einem zweiten Satz von Klassen-IDs veranlassen. Da die Anzahl von Klassenanzapfungen, die verwendet wird, groß sein kann, ist es im Schritt 240 wünschenswert, Klassenanzapfungen auf Standardorientierung zu beziehen, um die Anzahl von erforderlichen Filtersätzen zu minimieren. Im Schritt 241 werden Filterkoeffizienten bestimmt, welche jeder Kombination räumlicher und/oder zeitlicher Klassen entsprechen.
  • Wie oben angemerkt sollten Δh, Δw und Δt so ausgewählt werden, Symmetrie zu maximieren, wobei die Anzapfungsstrukturen durch identische räumliche und/oder zeitliche Differenzen variieren. Wenn die Symmetrien identifiziert und auf Standardorientierungen bezogen sind, wird Datenkippen selektiv in Bezug auf den Eingangsstrom ausgewählt, um die Daten auf die ausgewählten verwendeten Standardorientierungen einzustellen. Dies wird unter Bezugnahme auf den Prozess von 2b realisiert.
  • Im Schritt 245 wird der Eingangsdatenstrom empfangen. Der Eingangsdatenstrom ist in einem bekannten oder bestimmten Format. Ähnlich ist das gewünschte Ausgangsformat bekannt oder identifiziert. Somit werden die Ausgangsdatenpunkte oder Pixel definiert, und die Klassenanzapfungen, welche zur Filterauswahl verwendet werden, werden identifiziert, einschließlich der räumlich-zeitlichen Beziehungen in Bezug auf eine Standardorientierung. Somit werden die entsprechenden Datenkippungen, die vertikale, horizontale und/oder zeitliche Kippungen von Anzapfungsdaten enthalten können, in Bezug auf die Eingangsdaten ausgeführt, um Anzapfungsdaten zu erzeugen, die zur Klassifikation verwendet werden (Schritt 260).
  • Im Schritt 260 werden die Ausgangsdatenpunkte unter Verwendung der Filter erzeugt, die auf Basis von Pixel zu Pixel ausgewählt werden. Bei der vorliegenden Ausführungsform umfasst die Filterauswahl die Auswahl von Filterkoeffizienten und Filteranzapfungsdaten, die von den Eingangsdaten ausgewählt werden. Wenn die Eingangsdaten einmal genau orientiert sind, werden die ausgewählten Filterpunkte gekippt, um die Ausgangsdaten in ihre genaue Lage zu versetzen (Schritt 270).
  • 3a, 3b, 3c, 3d und 3e und 4a, 4b, 4c, 4d und 4e zeigen zwei Beispiele zum Umsetzen von Daten und die Verwendung von gemeinsamen Anzapfungsstrukturen, um die Anzahl von erforderlichen Filtersätzen zu minimieren.
  • 3a3e definieren die gewünschte Eingangs- und Ausgangsbeziehung eines beispielhaften Raum-Zeit-Umsetzungssystems mit progressivem Eingang. In diesem Beispiel wird das Eingangssignal von einem progressiv-gescannten Bild in ein größeres Bild in einem Verschachtelungsformat umgesetzt. Die Anzahl von Pixel pro Zeile wird um einen Faktor 2 vergrößert; die Anzahl von Zeilen pro Rahmen wird um einen Faktor von 2 vergrößert; die Anzahl von Teilbildern pro Sekunde wird ebenfalls um einen Faktor 2 vergrößert, wobei es jedoch eine Änderung von progressiven zu Verschachtelungsstrukturen gibt, die Gesamtzahl von Rahmen pro Sekunde unverändert ist und daher der Effekt besteht, 4 Ausgangspixel pro Eingangspixel zu erzeugen. Unter Verwendung der obigen beschriebenen allgemeinen Formeln ist Z eine Verschachtelungsstruktur, Y ist eine progressive Struktur und Hout = 2Hin, Wout = 2Win, Tout = Tin/2, Δh ist 1/4 der Interpixelvertikallücke, Δw ist 1/4 der Interpixel-Horizontallücke und Δt ist Tin/4.
  • Daten von den Zeitpunkten 0 und 4 werden dazu verwendet, Ausgangssignale in den Zeitpunkten 1 und 3 zu erzeugen, wie in 3a gezeigt ist. Die Ausgangspunkte werden zweckmäßigerweise in gleich beabstandeten Punkten zwischen den Eingangssignalen angeordnet. Dies dient nicht nur dazu, zu garantieren, dass die Qualität der Ausgangssignale in jedem Zeitpunkt gleich ist, sondern erlaubt auch, dass die temporäre Symmetrie angewandt werden kann, um die Anzahl von Filtern, die erforderlich sind, zu halbieren. Das heißt, der gleiche Filtersatz, der die Daten im Zeitpunkt 1 erzeugt, kann dazu verwendet werden, die Daten im Zeitpunkt 3 zu erzeugen, wenn die Eingangssignale von Zeitpunkten 0 und 4 ausgetauscht werden.
  • In ähnlicher Weise wird räumliche Symmetrie dazu verwendet, die erforderliche Anzahl von Filtern zu reduzieren. Die vier Ausgangspositionen in diesem Beispiel sind durch ihre Nähe zu den Eingangsdatenpunkten definiert. Gemäß 3b ist der mittlere Eingangspunkt so definiert, ein Referenzpunkt zu sein, und der Ausgangspunkt 1 ist als Ausgangsposition der Referenz identifiziert, wenn alle Anzapfungen und Filter in ihren natürlichen Positionen angewandt werden. Der Ausgangspunkt 2 wird erzeugt, indem die gleichen Filter verwendet werden, indem die Eingangsdaten horizontal gekippt werden. Die Ausgangspunkte 3 und 4 erfordern sowohl räumliche als auch zeitliche Kippungen, wie man besser durch Prüfen der gleichen Anzapfungen in 3d und 3e sieht. Der Ausgangspunkt 3 erfordert, dass die Daten vertikal und zeitlich gekippt werden, da die Ausgangsdaten unter den Eingangsdaten sind und bei der komplementären Zeit auftreten. Der Ausgangspunkt 4 erfordert, dass die Eingangsdaten horizontal, vertikal und zeitlich gekippt werden. 3c liefert eine räumliche und zeitliche Ansicht von Eingangspixeln und Ausgangspixeln. 3d und 3e zeigen Anzapfungspositionen, die verwendet werden, Ausgänge 1, 2, 3 und 4 zu erzeugen.
  • 4a4e zeigen ein Beispiel mit verschachteltem Eingang und Ausgang, wie in 4a gezeigt ist. Bei diesem Beispiel wird die Anzahl von Pixeln pro Zeile um einen Faktor 2 vergrößert; die Anzahl von Zeilen pro Rahmen wird um einen Faktor 2 vergrößert; die Anzahl von Feldern pro Sekunde wird ebenfalls um einen Faktor 2 vergrößert. Da das Format unverändert ist, gibt es 8 Ausgangspixel pro Eingangspixel, wie in 4b gezeigt ist. Diese Beziehung wird am besten mit Hilfe der vollständigen Ansicht verstanden, welche in 4d und 4e gezeigt ist. In dieser Ansicht kann man sehen, dass, obwohl Ausgangspositionen in den Zeitpunkten 1 und 5 die gleichen sind, deren Beziehung zu den Eingangsdaten unterschiedlich ist. Als Ergebnis gibt es 8 Ausgangsmoden, die mit a1–a4 und b1–b4 bezeichnet sind (siehe 4b).
  • Wenn man die Symmetriebedingungen betrachtet, sind die Ausgangswerte an den Positionen a1–a4 bei dem gleichen räumlich-zeitlichen Abstand vom Referenzpunkt, und teilen sich anteilig daher den gleichen Filtersatz, wie in 4d und 4e gezeigt ist. Ähnlich können andere Filtersätze verwendet werden, die Ausgangswerte an Positionen b1–b4 zu erzeugen, da sie alle in dem gleichen räumlich-zeitlichen Abstand vom Referenzpunkt sind. Insgesamt werden zwei getrennte Filtersätze benötigt, um diese Umsetzungsanwendung zu realisieren.
  • Die Erfindung wurde in Verbindung mit der bevorzugten Ausführungsform beschrieben. Es ist klar, dass zahlreiche Alternativen, Modifikationen, Variationen und Verwendungen dem Fachmann im Lichte der obigen Beschreibung deutlich werden.

Claims (16)

  1. Verfahren zum Umwandeln von Eingangsdaten in einem Format in Ausgangsdaten in einem anderen Format, wobei das Verfahren folgende Schritte aufweist: Wählen (220) einer Standard-Orientierung, welche definiert und die gleiche für jede Ausgangsdatenposition ist; Kippen (230) der Eingangsdaten, um die Ausgangsdatenposition mit der Ausgangsposition der Standard-Orientierung auszurichten; Durchführen (240) einer Klassifikation unter Verwendung der gekippten Eingangsdaten; Auswählen (260) eines Filters gemäß der Klassifikation; und Anwenden (270) des Filters auf die gekippten Eingangsdaten, um die Ausgangsdaten zu erzeugen.
  2. Verfahren nach Anspruch 1, wobei die Eingangsdaten mehrere Eingangsdatenpunkte aufweisen und die Ausgangsdaten mehrere Ausgangsdatenpunkte aufweisen, wobei der Schritt zum Klassifizieren das Klassifizieren in Bezug auf jeden Ausgangsdatenpunkt aufweist, und der Schritt zum Auswählen das Auswählen eines Filters aufweist, um jeden Ausgangsdatenpunkt zu erzeugen.
  3. Verfahren nach Anspruch 1 oder 2, wobei das ausgewählte Filter ein dreidimensionales Filter ist.
  4. Verfahren nach Anspruch 1, 2 oder 3, wobei die Art der Klassifikation, die durchgeführt wird, von der Gruppe ausgewählt wird, die Bewegungsklassifikation, räumliche Klassifikation und eine Kombination von Bewegungs- und räumlicher Klassifikation umfasst.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei die Eingangsdaten und die Ausgangsdaten aus einer Gruppe ausgewählt werden, die Videodaten und Audiodaten umfasst.
  6. Computer-lesbarer Träger, der Instruktionen aufweist, welche, wenn in einem Verarbeitungssystem ausgeführt, ein Verfahren durchführen, um Eingangsdaten in Ausgangsdaten gemäß einem der Ansprüche 1 bis 5 umzuwandeln.
  7. System zum Umwandeln korrelierter Eingangsdaten in einem Format in Ausgangsdaten in einem anderen Format, wobei das System aufweist: eine Wähllogik (220), die konfiguriert ist, eine Standard-Orientierung zu wählen, die definiert und die gleiche für jede Ausgangsdatenposition ist; eine Kipplogik (230), die konfiguriert ist, die Eingangsdaten zu kippen, um die Ausgangsdatenposition mit der Ausgangsposition der Standard-Orientierung auszurichten; eine Klassifikationslogik (240) die konfiguriert ist, eine Klassifikation unter Verwendung der gekippten Eingangsdaten durchzuführen; und eine Filterlogik (30), welche mit der Klassifikationslogik gekoppelt ist, wobei die Filterlogik konfiguriert ist, ein Filter gemäß der Klassifikation auszuwählen und die Ausgangsdaten unter Verwendung des ausgewählten Filters zu erzeugen.
  8. System nach Anspruch 7, wobei die Klassifikationslogik und die Filterlogik aus der Gruppe ausgewählt werden, welche aus fest-verdrahteter Logik und einem Prozessor besteht.
  9. System nach Anspruch 7 oder 8, wobei die Eingangsdaten mehrere Eingangsdatenpunkte aufweisen und die Ausgangsdaten mehrere Ausgangsdatenpunkte aufweisen, wobei die Klassifikationslogik relativ zu jedem Ausgangsdatenpunkt klassifiziert, wobei die Filterlogik konfiguriert ist, ein Filter zum Erzeugen jedes Ausgangsdatenpunkts auszuwählen.
  10. System nach Anspruch 7, 8 oder 9, wobei die Art der Klassifikation, die durchgeführt wird, aus der Gruppe ausgewählt wird, welche Bewegungsklassifikation, räumliche Klassifikation und eine Kombination von Bewegungs- und räumlicher Klassifikation umfasst.
  11. System nach einem der Ansprüche 7 bis 10, wobei die Eingangsdaten und die Ausgangsdaten aus einer Gruppe ausgewählt werden, die Videodaten und Audiodaten umfasst.
  12. Vorrichtung zum Umwandeln von Eingangsdaten in einem Format in Ausgangsdaten in einem anderen Format, wobei die Vorrichtung aufweist: eine Einrichtung zum Wählen einer Standard-Orientierung, welche definiert und die gleiche für jede Ausgangsdatenposition ist; eine Einrichtung (230) zum Kippen der Eingangsdaten, um die Ausgangsdatenposition mit der Ausgangsposition der Standard-Orientierung auszurichten; eine Einrichtung (240) zum Durchführen einer Klassifikation, wobei die gekippten Eingangsdaten verwendet werden; eine Einrichtung (260) zum Auswählen eines Filters gemäß der Klassifikation; und eine Einrichtung (279) zum Anwenden des Filters auf die gekippten Eingangsdaten, um die Ausgangsdaten zu erzeugen.
  13. Vorrichtung nach Anspruch 12, wobei die Eingangsdaten mehrere Eingangsdatenpunkte aufweisen und die Ausgangsdaten mehrere Ausgangsdatenpunkte aufweisen, wobei die Einrichtung zum Durchführen einer Klassifikation betriebsfähig ist, relativ zu jedem Ausgangsdatenpunkt zu klassifizieren, und die Einrichtung zum Auswählen eines Filters betriebsfähig ist, ein Filter zur Erzeugung jedes Ausgangsdatenpunkts auszuwählen.
  14. Vorrichtung nach Anspruch 12 oder 13, wobei das ausgewählte Filter ein dreidimensionales Filter ist.
  15. Vorrichtung nach Anspruch 12, 13 oder 14, wobei die Art der durchgeführten Klassifikation durch die Klassifizierungseinrichtung aus der Gruppe ausgewählt wird, welche Bewegungsklassifikation, räumliche Klassifikation und eine Kombination von Bewegungs- und räumlicher Klassifikation umfasst.
  16. Vorrichtung einem der Ansprüche 12 bis 15, wobei die Eingangsdaten und die Ausgangsdaten aus einer Gruppe ausgewählt werden, die Videodaten und Audiodaten umfasst.
DE60023114T 1999-02-12 2000-02-09 Formatumwandlungsverfahren und -vorrichtung mit klassifizierendem adaptiven zeitlich -räumlichem prozess Expired - Lifetime DE60023114T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/249,185 US6307560B1 (en) 1999-02-12 1999-02-12 Classified adaptive spatio-temporal format conversion method and apparatus
US249185 1999-02-12
PCT/US2000/003439 WO2000048398A1 (en) 1999-02-12 2000-02-09 Classified adaptive spatio-temporal format conversion method and apparatus

Publications (2)

Publication Number Publication Date
DE60023114D1 DE60023114D1 (de) 2005-11-17
DE60023114T2 true DE60023114T2 (de) 2006-07-20

Family

ID=22942388

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60023114T Expired - Lifetime DE60023114T2 (de) 1999-02-12 2000-02-09 Formatumwandlungsverfahren und -vorrichtung mit klassifizierendem adaptiven zeitlich -räumlichem prozess

Country Status (8)

Country Link
US (1) US6307560B1 (de)
EP (1) EP1151606B1 (de)
JP (1) JP4548942B2 (de)
KR (1) KR100717633B1 (de)
AT (1) ATE306787T1 (de)
AU (1) AU2989400A (de)
DE (1) DE60023114T2 (de)
WO (1) WO2000048398A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100730499B1 (ko) * 1999-04-23 2007-06-22 소니 가부시끼 가이샤 화상 변환 장치 및 방법
JP4470324B2 (ja) * 1999-04-28 2010-06-02 ソニー株式会社 画像信号変換装置および方法
US6535620B2 (en) * 2000-03-10 2003-03-18 Sarnoff Corporation Method and apparatus for qualitative spatiotemporal data processing
US7095445B2 (en) * 2000-12-20 2006-08-22 Samsung Electronics Co., Ltd. Method of detecting motion in an interlaced video sequence based on logical operation on linearly scaled motion information and motion detection apparatus
US7123780B2 (en) * 2001-12-11 2006-10-17 Sony Corporation Resolution enhancement for images stored in a database
US8036494B2 (en) * 2004-04-15 2011-10-11 Hewlett-Packard Development Company, L.P. Enhancing image resolution
US7730406B2 (en) * 2004-10-20 2010-06-01 Hewlett-Packard Development Company, L.P. Image processing system and method
US7542095B2 (en) * 2005-01-20 2009-06-02 Samsung Electronics Co., Ltd. Method and system of noise-adaptive motion detection in an interlaced video sequence
US7760956B2 (en) 2005-05-12 2010-07-20 Hewlett-Packard Development Company, L.P. System and method for producing a page using frames of a video stream
US9697433B1 (en) * 2015-06-03 2017-07-04 Amazon Technologies, Inc. Pixel-structural reference image feature extraction
KR20200060589A (ko) 2018-11-21 2020-06-01 삼성전자주식회사 병합된 프레임율 컨버터와 비디오 코덱을 갖는 시스템 온 칩 및 그것의 프레임율 변환 방법

Family Cites Families (110)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3311879A (en) 1963-04-18 1967-03-28 Ibm Error checking system for variable length data
US3805232A (en) 1972-01-24 1974-04-16 Honeywell Inf Systems Encoder/decoder for code words of variable length
FR2387557A1 (fr) 1977-04-14 1978-11-10 Telediffusion Fse Systemes de reduction de visibilite du bruit sur des images de television
GB2073534B (en) 1980-04-02 1984-04-04 Sony Corp Error concealment in digital television signals
GB2084432A (en) 1980-09-18 1982-04-07 Sony Corp Error concealment in digital television signals
US4532628A (en) 1983-02-28 1985-07-30 The Perkin-Elmer Corporation System for periodically reading all memory locations to detect errors
US4574393A (en) 1983-04-14 1986-03-04 Blackwell George F Gray scale image processor
JPH0746864B2 (ja) 1984-08-22 1995-05-17 ソニー株式会社 高能率符号化装置
DE3582314D1 (de) 1984-12-19 1991-05-02 Sony Corp Hochleistungsfaehige technik zur kodierung eines digitalen videosignals.
JPH0793724B2 (ja) 1984-12-21 1995-10-09 ソニー株式会社 テレビジョン信号の高能率符号化装置及び符号化方法
JP2512894B2 (ja) 1985-11-05 1996-07-03 ソニー株式会社 高能率符号化/復号装置
JP2670259B2 (ja) 1985-11-29 1997-10-29 ソニー株式会社 高能率符号化装置
JPH0746862B2 (ja) 1985-11-30 1995-05-17 ソニー株式会社 駒落とし圧縮符号化及び復号化方法
JP2612557B2 (ja) 1985-12-18 1997-05-21 ソニー株式会社 データ伝送受信システム及びデータ復号装置
JPS62231569A (ja) 1986-03-31 1987-10-12 Fuji Photo Film Co Ltd 予測誤差の量子化方法
JP2751201B2 (ja) 1988-04-19 1998-05-18 ソニー株式会社 データ伝送装置及び受信装置
JP2508439B2 (ja) 1987-05-29 1996-06-19 ソニー株式会社 高能率符号化装置
DE3869475D1 (de) 1987-06-02 1992-04-30 Siemens Ag Verfahren zur ermittlung von bewegungsvektorfeldern aus digitalen bildsequenzen.
US5122873A (en) 1987-10-05 1992-06-16 Intel Corporation Method and apparatus for selectively encoding and decoding a digital motion video signal at multiple resolution levels
US5093872A (en) 1987-11-09 1992-03-03 Interand Corporation Electronic image compression method and apparatus using interlocking digitate geometric sub-areas to improve the quality of reconstructed images
JP2629238B2 (ja) 1988-02-05 1997-07-09 ソニー株式会社 復号装置及び復号方法
US4953023A (en) 1988-09-29 1990-08-28 Sony Corporation Coding apparatus for encoding and compressing video data
JP2900385B2 (ja) 1988-12-16 1999-06-02 ソニー株式会社 フレーム化回路及び方法
US5150210A (en) 1988-12-26 1992-09-22 Canon Kabushiki Kaisha Image signal restoring apparatus
JP3018366B2 (ja) 1989-02-08 2000-03-13 ソニー株式会社 ビデオ信号処理回路
JPH02248161A (ja) 1989-03-20 1990-10-03 Fujitsu Ltd データ伝送方式
US5185746A (en) 1989-04-14 1993-02-09 Mitsubishi Denki Kabushiki Kaisha Optical recording system with error correction and data recording distributed across multiple disk drives
JPH02280462A (ja) 1989-04-20 1990-11-16 Fuji Photo Film Co Ltd 画像データ圧縮方法
EP0398741B1 (de) 1989-05-19 1997-10-29 Canon Kabushiki Kaisha System zum Übertragen von Bildinformation
US5208816A (en) 1989-08-18 1993-05-04 At&T Bell Laboratories Generalized viterbi decoding algorithms
JPH03141752A (ja) 1989-10-27 1991-06-17 Hitachi Ltd 画像信号伝送方法
US5221966A (en) * 1990-01-17 1993-06-22 Avesco Plc Video signal production from cinefilm originated material
JP2533393B2 (ja) 1990-02-16 1996-09-11 シャープ株式会社 Ntsc―hdコンバ―タ
US5166987A (en) 1990-04-04 1992-11-24 Sony Corporation Encoding apparatus with two stages of data compression
US5101446A (en) 1990-05-31 1992-03-31 Aware, Inc. Method and apparatus for coding an image
JPH0474063A (ja) 1990-07-13 1992-03-09 Matsushita Electric Ind Co Ltd 画像の符号化方法
JP2650472B2 (ja) 1990-07-30 1997-09-03 松下電器産業株式会社 ディジタル信号記録装置およびディジタル信号記録方法
JP2969867B2 (ja) 1990-08-31 1999-11-02 ソニー株式会社 ディジタル画像信号の高能率符号化装置
GB9019538D0 (en) 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US5416651A (en) 1990-10-31 1995-05-16 Sony Corporation Apparatus for magnetically recording digital data
US5243428A (en) 1991-01-29 1993-09-07 North American Philips Corporation Method and apparatus for concealing errors in a digital television
US5636316A (en) 1990-12-05 1997-06-03 Hitachi, Ltd. Picture signal digital processing unit
JP2906671B2 (ja) 1990-12-28 1999-06-21 ソニー株式会社 ディジタルビデオ信号の高能率符号化装置およびその方法
DE69225621T2 (de) 1991-01-17 1998-11-12 Mitsubishi Electric Corp Vorrichtung zur Kodierung eines Videosignals
DE69226095T2 (de) 1991-01-17 1999-03-11 Sharp Kk Bildkodier- und Dekodiersystem unter Verwendung einer Orthogonaltransformation und Bitzuordnungsverfahren
US5455629A (en) 1991-02-27 1995-10-03 Rca Thomson Licensing Corporation Apparatus for concealing errors in a digital video processing system
JP3125451B2 (ja) 1991-11-05 2001-01-15 ソニー株式会社 信号処理方法
JPH04358486A (ja) 1991-06-04 1992-12-11 Toshiba Corp 高能率符号化信号処理装置
JP2766919B2 (ja) 1991-06-07 1998-06-18 三菱電機株式会社 ディジタル信号記録再生装置、ディジタル信号記録装置、ディジタル信号再生装置
US5263026A (en) 1991-06-27 1993-11-16 Hughes Aircraft Company Maximum likelihood sequence estimation based equalization within a mobile digital cellular receiver
JP3141896B2 (ja) 1991-08-09 2001-03-07 ソニー株式会社 ディジタルビデオ信号の記録装置
DE69217150T2 (de) 1991-09-30 1997-07-17 Philips Electronics Nv Bewegungsvektorschätzung, Bewegungsbildkodierung- und -speicherung
JPH05103309A (ja) 1991-10-04 1993-04-23 Canon Inc 情報伝送方法及び装置
US5398078A (en) 1991-10-31 1995-03-14 Kabushiki Kaisha Toshiba Method of detecting a motion vector in an image coding apparatus
JP3278881B2 (ja) 1991-12-13 2002-04-30 ソニー株式会社 画像信号生成装置
US5473479A (en) 1992-01-17 1995-12-05 Sharp Kabushiki Kaisha Digital recording and/or reproduction apparatus of video signal rearranging components within a fixed length block
JP3360844B2 (ja) 1992-02-04 2003-01-07 ソニー株式会社 ディジタル画像信号の伝送装置およびフレーム化方法
JPH05236427A (ja) 1992-02-25 1993-09-10 Sony Corp 画像信号の符号化装置及び符号化方法
US5307175A (en) 1992-03-27 1994-04-26 Xerox Corporation Optical image defocus correction
US5325203A (en) 1992-04-16 1994-06-28 Sony Corporation Adaptively controlled noise reduction device for producing a continuous output
JP3438233B2 (ja) * 1992-05-22 2003-08-18 ソニー株式会社 画像変換装置および方法
JP2976701B2 (ja) 1992-06-24 1999-11-10 日本電気株式会社 量子化ビット数割当方法
GB9214218D0 (en) * 1992-07-03 1992-08-12 Snell & Wilcox Ltd Motion compensated video processing
US5359694A (en) 1992-07-27 1994-10-25 Teknekron Communications Systems, Inc. Method and apparatus for converting image data
US5438369A (en) 1992-08-17 1995-08-01 Zenith Electronics Corporation Digital data interleaving system with improved error correctability for vertically correlated interference
US5481554A (en) 1992-09-02 1996-01-02 Sony Corporation Data transmission apparatus for transmitting code data
JPH06153180A (ja) 1992-09-16 1994-05-31 Fujitsu Ltd 画像データ符号化方法及び装置
AU5344794A (en) 1992-10-29 1994-05-24 Hisamitsu Pharmaceutical Co., Inc. Cyclohexanol derivative, agent and composition containing the same for imparting pleasantly cool feeling, process for producing the derivative, and intermediate therefor
EP0596826B1 (de) 1992-11-06 1999-04-28 GOLDSTAR CO. Ltd. Mischungsverfahren für ein digitales Videobandaufzeichnungsgerät
US5689302A (en) 1992-12-10 1997-11-18 British Broadcasting Corp. Higher definition video signals from lower definition sources
US5477276A (en) 1992-12-17 1995-12-19 Sony Corporation Digital signal processing apparatus for achieving fade-in and fade-out effects on digital video signals
US5805762A (en) 1993-01-13 1998-09-08 Hitachi America, Ltd. Video recording device compatible transmitter
US5416847A (en) 1993-02-12 1995-05-16 The Walt Disney Company Multi-band, digital audio noise filter
US5737022A (en) 1993-02-26 1998-04-07 Kabushiki Kaisha Toshiba Motion picture error concealment using simplified motion compensation
JP3259428B2 (ja) 1993-03-24 2002-02-25 ソニー株式会社 ディジタル画像信号のコンシール装置及び方法
KR100261072B1 (ko) 1993-04-30 2000-07-01 윤종용 디지털 신호처리시스템
KR940026915A (ko) 1993-05-24 1994-12-10 오오가 노리오 디지탈 비디오신호 기록장치 및 재생장치 및 기록방법
US5499057A (en) 1993-08-27 1996-03-12 Sony Corporation Apparatus for producing a noise-reducded image signal from an input image signal
US5406334A (en) 1993-08-30 1995-04-11 Sony Corporation Apparatus and method for producing a zoomed image signal
KR960012931B1 (ko) 1993-08-31 1996-09-25 대우전자 주식회사 분류 벡터 양자화된 영상의 채널 오류 은폐 방법
US5663764A (en) 1993-09-30 1997-09-02 Sony Corporation Hierarchical encoding and decoding apparatus for a digital image signal
JP3590996B2 (ja) 1993-09-30 2004-11-17 ソニー株式会社 ディジタル画像信号の階層符号化および復号装置
KR100269213B1 (ko) 1993-10-30 2000-10-16 윤종용 오디오신호의부호화방법
US5617333A (en) 1993-11-29 1997-04-01 Kokusai Electric Co., Ltd. Method and apparatus for transmission of image data
JP3271108B2 (ja) 1993-12-03 2002-04-02 ソニー株式会社 ディジタル画像信号の処理装置および方法
JPH07203428A (ja) 1993-12-28 1995-08-04 Canon Inc 画像処理方法及び装置
JP3321972B2 (ja) 1994-02-15 2002-09-09 ソニー株式会社 ディジタル信号記録装置
JP3161217B2 (ja) 1994-04-28 2001-04-25 松下電器産業株式会社 画像符号化記録装置および記録再生装置
JP3336754B2 (ja) 1994-08-19 2002-10-21 ソニー株式会社 デジタルビデオ信号の記録方法及び記録装置
US5903481A (en) 1994-09-09 1999-05-11 Sony Corporation Integrated circuit for processing digital signal
US5577053A (en) 1994-09-14 1996-11-19 Ericsson Inc. Method and apparatus for decoder optimization
JPH08140091A (ja) 1994-11-07 1996-05-31 Kokusai Electric Co Ltd 画像伝送システム
US5571862A (en) 1994-11-28 1996-11-05 Cytec Technology Corp. Stabilized polyacrylamide emulsions and methods of making same
US5594807A (en) 1994-12-22 1997-01-14 Siemens Medical Systems, Inc. System and method for adaptive filtering of images based on similarity between histograms
US5852470A (en) * 1995-05-31 1998-12-22 Sony Corporation Signal converting apparatus and signal converting method
JP3859089B2 (ja) * 1995-05-31 2006-12-20 ソニー株式会社 信号変換装置及び信号変換方法
US5552608A (en) 1995-06-26 1996-09-03 Philips Electronics North America Corporation Closed cycle gas cryogenically cooled radiation detector
US5946044A (en) 1995-06-30 1999-08-31 Sony Corporation Image signal converting method and image signal converting apparatus
FR2736743B1 (fr) 1995-07-10 1997-09-12 France Telecom Procede de controle de debit de sortie d'un codeur de donnees numeriques representatives de sequences d'images
JP3617879B2 (ja) 1995-09-12 2005-02-09 株式会社東芝 実時間ストリームサーバのディスク修復方法及びディスク修復装置
KR0155900B1 (ko) 1995-10-18 1998-11-16 김광호 위상에러검출방법 및 위상 트래킹 루프회로
US5724369A (en) 1995-10-26 1998-03-03 Motorola Inc. Method and device for concealment and containment of errors in a macroblock-based video codec
KR100196872B1 (ko) 1995-12-23 1999-06-15 전주범 영상 복화화 시스템의 영상 에러 복구 장치
KR100197366B1 (ko) 1995-12-23 1999-06-15 전주범 영상 에러 복구 장치
US5844569A (en) * 1996-04-25 1998-12-01 Microsoft Corporation Display device interface including support for generalized flipping of surfaces
US5844619A (en) * 1996-06-21 1998-12-01 Magma, Inc. Flicker elimination system
US5793435A (en) * 1996-06-25 1998-08-11 Tektronix, Inc. Deinterlacing of video using a variable coefficient spatio-temporal filter
JP3674186B2 (ja) * 1996-09-21 2005-07-20 ソニー株式会社 画像情報変換装置および方法
US6134269A (en) 1996-09-25 2000-10-17 At&T Corp Fixed or adaptive deinterleaved transform coding for image coding and intra coding of video
US5938318A (en) 1997-08-19 1999-08-17 Mattsen; Gregory Paul Novelty shadow projection lamp

Also Published As

Publication number Publication date
DE60023114D1 (de) 2005-11-17
JP2002537696A (ja) 2002-11-05
EP1151606B1 (de) 2005-10-12
ATE306787T1 (de) 2005-10-15
JP4548942B2 (ja) 2010-09-22
WO2000048398A1 (en) 2000-08-17
KR100717633B1 (ko) 2007-05-15
AU2989400A (en) 2000-08-29
US6307560B1 (en) 2001-10-23
EP1151606A1 (de) 2001-11-07
WO2000048398A9 (en) 2001-08-09
KR20010101833A (ko) 2001-11-14

Similar Documents

Publication Publication Date Title
DE2937282C2 (de)
DE69637276T2 (de) Bildanzeigegerät
DE19712295B4 (de) Luminanz/Chrominanzsignaltrennvorrichtung
DE69831886T2 (de) Verfahren und Vorrichtung zur Bildsignalumsetzung
DE69333103T2 (de) Vorrichtung zur Umsetzung von digitalen Daten
DE69233167T2 (de) Prädiktives Videokodierungssystem
DE69908562T2 (de) Bewegungsvektorenextrapolation zur transkodierung von videosequenzen
DE4121727C2 (de) Bewegungssignalprozessor
WO2002058385A2 (de) Verfahren und vorrichtung zur konversion von video signalen
DE60023114T2 (de) Formatumwandlungsverfahren und -vorrichtung mit klassifizierendem adaptiven zeitlich -räumlichem prozess
DE60126151T2 (de) Film-in-videoformat-umsetzer für hochauflösendes fernsehen mit hoher qualität und effizienz
EP0468279B1 (de) Verfahren zum Bestimmen von Bewegungsvektoren für Teilbildbereiche einer Quellbildsequenz
DE69830471T2 (de) Interpolator mit einem gewichteten Medianfilter
DE69736257T2 (de) Schaltung und Verfahren zur Produktsummenberechnung
DE3720163A1 (de) Verfahren und anordnung zum einfrieren eines fernsehbildes
DE60122139T2 (de) Videosignalverarbeitung
DE69721979T2 (de) Gradientbasierte bewegungsschätzung
DE19919412A1 (de) Decoder für einen digitalen Fernsehempfänger
EP0897247A2 (de) Verfahren zur Berechnung von Bewegungsvektoren
DE60031559T2 (de) Verfahren und gerät zur lernfähigen klassenauswahl nach mehreren klassifikationen
EP0525900A2 (de) Filterschaltung zur Vorverarbeitung eines Videosignals
DE102009026983A1 (de) Bildverarbeitungsverfahren mit einer Bewegungsschätzung und Bildverarbeitungsanordnung
WO2000019713A1 (de) Schaltung zur wandlung einer bildrate
DE69833836T2 (de) Verfahren und Gerät zur massstäblichen Umformung von Bildern
EP1110407B1 (de) Verfahren und anordnung zur codierung und decodierung eines digitalisierten bildes mit anwendung eines gesamtbewegungsvektors

Legal Events

Date Code Title Description
8364 No opposition during term of opposition