PREVENTING THE DISTRIBUTION OF FORBIDDEN NETWORK CONTENT WITH ROBUSTIFIED DETECTION

The technology is generally directed to the training and execution of a model to identify policy violating content that has been obfuscated. The model may be trained using obfuscated training images. The obfuscated training images may be associated with one or more labels, such as a policy, obfuscat...

Full description

Saved in:
Bibliographic Details
Main Authors QIAO, Wei, TEK, Mehmet, LIU, Yintao, FUXMAN, Ariel, LU, Chun-Ta, KWON, Dongjin, STIMBERG, Florian
Format Patent
LanguageEnglish
French
Published 20.06.2024
Subjects
Online AccessGet full text

Cover

Loading…
More Information
Summary:The technology is generally directed to the training and execution of a model to identify policy violating content that has been obfuscated. The model may be trained using obfuscated training images. The obfuscated training images may be associated with one or more labels, such as a policy, obfuscation label, etc. The obfuscated training images and associated labels may be input into the model. During training, the output of the model may be a policy prediction as to whether the obfuscated input images violate the content policy of a host or are approved content for publishing. During implementation, the model may receive content as input and provide as output a policy prediction for the content. The host may use the policy prediction provided by the model to determine whether or not to publish the content. La technologie se rapporte de manière générale à l'entraînement et à l'exécution d'un modèle afin d'identifier un contenu violant une politique qui a été obscurci. Le modèle peut être entraîné au moyen d'images d'entraînement obscurcies. Les images d'entraînement obscurcies peuvent être associées à une ou plusieurs étiquettes, telles qu'une politique, une étiquette d'obscurcissement, etc. Les images d'entraînement obscurcies et les étiquettes associées peuvent être entrées dans le modèle. Pendant l'entraînement, la sortie du modèle peut représenter une prédiction de politique selon laquelle les images d'entrée obscurcies violent la politique de contenu d'un hôte ou représentent un contenu approuvé pour publication. Pendant la mise en œuvre, le modèle peut recevoir un contenu en tant qu'entrée et fournir en sortie une prédiction de politique pour le contenu. L'hôte peut utiliser la prédiction de politique fournie par le modèle pour déterminer s'il faut publier ou ne pas publier le contenu.
Bibliography:Application Number: WO2022US52814