PROCEDE ET STRUCTURE POUR LA COMPRESSION DE DONNEES

Procédé pour la compression de données qui est mis en oeuvre à l'aide d'un codeur, qui opère une transformée à l'aide d'un réseau de neurones de codage, et d'un décodeur, qui comprend un réseau de neurones de décodage apparié qui effectue quasiment la transformée inverse du...

Full description

Saved in:
Bibliographic Details
Main Author JACQUES-ARIEL SIRAT, JEAN-RENAUD VIALA ET CHRISTIAN REMUS
Format Patent
LanguageFrench
Published 02.11.1990
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:Procédé pour la compression de données qui est mis en oeuvre à l'aide d'un codeur, qui opère une transformée à l'aide d'un réseau de neurones de codage, et d'un décodeur, qui comprend un réseau de neurones de décodage apparié qui effectue quasiment la transformée inverse du codeur.Le procédé met en compétition entre eux M réseaux de neurones de codage 301 à 30M avec M>1 placés à l'émission qui effectuent un même type de transformée et dont les données codées de l'un d'entre eux sont émises, après sélection 32, 33 à un instant donné, vers un réseau de neurones de décodage apparié faisant partie d'une batterie de plusieurs réseaux de neurones de décodage appariés 601 à 60Q placés à la réception.L'apprentissage est effectué à partir d'exemples prédéterminés.Le codeur peut comprendre, outre le réseau de neurones de codage 301 à 30M un réseau de neurones de décodage apparié 351 à 35M afin d'opérer la sélection 32, 33 du meilleur réseau de neurones de codage selon un critère d'erreur. L'invention concerne également un circuit de codage, un circuit de décodage et une structure de compression de données.Application au traitement d'images. Method of data compression which is implemented with the aid of an encoder, which operates a transform with the aid of an encoding neural network, and of a decoder which comprises a paired decoding neural network which performs virtually the inverse transform of the encoder. The method sets into competition with one another M encoding neural networks (301 to 30M), with M>1, which are placed at the transmission end and perform a same type of transform, and the encoded data from one of which are transmitted, after selection (32, 33) at a given instant, to a paired decoding neural network forming part of a bank of several paired decoding neural networks (601 to 6Q) placed at the reception end. Learning is performed on the basis of predetermined examples. The encoder can include, as well as the encoding neural network (301 to 30M), a paired decoding neural network (351 to 35M) so as to operate the selection (32, 33) of the best encoding neural network in accordance with an error criterion. The invention also relates to an encoding circuit, a decoding circuit and a data compression structure. Application to image processing.
Bibliography:Application Number: FR19890005532