KOMPRESSION IN NEURONALEN NETZEN

Ein Neuronennetzmodell wird trainiert, wobei das Trainieren mehrere Trainingsiterationen enthält. Gewichte einer speziellen Schicht des neuronalen Netzes werden während eines Vorwärtsdurchlaufs einer speziellen der Trainingsiterationen beschnitten. Während desselben Vorwärtsdurchlaufs der speziellen...

Full description

Saved in:
Bibliographic Details
Main Authors Park, Mi Sun, Brick, Cormac M, Xu, Xiaofan
Format Patent
LanguageGerman
Published 12.08.2021
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:Ein Neuronennetzmodell wird trainiert, wobei das Trainieren mehrere Trainingsiterationen enthält. Gewichte einer speziellen Schicht des neuronalen Netzes werden während eines Vorwärtsdurchlaufs einer speziellen der Trainingsiterationen beschnitten. Während desselben Vorwärtsdurchlaufs der speziellen Trainingsiteration werden Werte von Gewichten der speziellen Schicht quantisiert, um eine quantisiert-sparsifizierte Teilmenge von Gewichten für die spezielle Schicht zu bestimmen. Eine komprimierte Version des Neuronennetzmodells wird anhand des Trainings mindestens teilweise auf der Grundlage der quantisiert-sparsifizierten Teilmenge von Gewichten generiert. A neural network model is trained, where the training includes multiple training iterations. Weights of a particular layer of the neural network are pruned during a forward pass of a particular one of the training iterations. During the same forward pass of the particular training iteration, values of weights of the particular layer are quantized to determine a quantized-sparsified subset of weights for the particular layer. A compressed version of the neural network model is generated from the training based at least in part on the quantized-sparsified subset of weights.
Bibliography:Application Number: DE20191105831T