English
stringlengths
2
2.26k
French
stringlengths
2
1.87k
We will briefly discuss denoising autoencoders and contrastive divergence.
Aborderons brièvement la question des DAEs et de la divergence contrastive.
Denoising autoencoder (DAE)
Auto-encodeur débruiteur (DAE)
One way of finding y’s to increase energy for it is by randomly perturbing the training example as shown by the green arrows in the plot below.
Une façon de trouver des y pour augmenter l’énergie nécessaire est de perturber aléatoirement l’exemple d’entraînement comme le montrent les flèches vertes dans le graphique ci-dessous :
Once we have a corrupted data point, we can push the energy up here. If we do this sufficiently many times for all the data points, the energy sample will curl up around the training examples. The following plot illustrates how training is done.
Une fois que nous avons un point de données corrompu, nous pouvons pousser l’énergie jusqu’ici. Si nous le faisons suffisamment de fois pour tous les points de données, l’échantillon d’énergie se recroquevillera autour des exemples d’entraînement. Le graphique suivant illustre la façon dont l’entraînement est effectué :
Steps for training:
Étapes de l’entraînement :
1. Take a point y and corrupt it
1. Prendre un point y et le corrompre
2. Train the Encoder and Decoder to reconstruct the original data point from this corrupted data point
2. Entraîner l’encodeur et le décodeur à reconstruire le point de données original à partir de ce point de données corrompu
If the DAE is properly trained, the energy grows quadratically as we move away from the data manifold.
Si le DAE est correctement entraîné, l’énergie croît de façon quadratique à mesure que nous nous éloignons de la surface de données.
The following plot illustrates how we use the DAE.
Le graphique suivant illustre la façon dont nous utilisons le DAE.
BERT
BERT
BERT is trained similarly, except that the space is discrete as we are dealing with text. The corruption technique consists of masking some of the words and the reconstruction step consists of trying to predict these. Hence, this is also called a masked autoencoder.
BERT est entraîné de la même manière, sauf que l’espace est discret car nous avons affaire à du texte. La technique de corruption consiste à masquer certains mots et l’étape de reconstruction consiste à essayer de les prédire. C’est pourquoi on appelle aussi cela un auto-encodeur masqué.
Contrastive divergence
Divergence contrastive
Contrastive Divergence presents us with a smarter way to find the y point that we want to push up the energy for. We can give a random kick to our training point and then move down the energy function using gradient descent. At the end of the trajectory, we push up the energy for the point we land on. This is illustrated in the plot below using the green line.
La divergence contrastive nous offre une façon plus intelligente de trouver le point y pour lequel nous voulons faire monter l’énergie. Nous pouvons donner un « coup de pied » aléatoire à notre point d’entraînement et ensuite descendre la fonction d’énergie en utilisant la descente de gradient. A la fin de la trajectoire, nous poussons l’énergie vers le haut pour le point où nous atterrissons. Ceci est illustré dans le graphique ci-dessous par la ligne verte.
Introduction to autoencoders
Introduction aux auto-encodeurs
Application of autoencoders
Application des auto-encodeurs
Image generation
Génération d’images
Can you tell which face is fake in Fig. 1? In fact, both of them are produced by the StyleGan2 generator. Although the facial details are very realistic, the background looks weird (left: blurriness, right: misshapen objects). This is because the neural network is trained on faces samples. The background then has a much higher variability. Here the data manifold has roughly 50 dimensions, equal to the degrees of freedom of a face image.
Pouvez-vous dire quel visage est faux dans la figure 1 ? En fait, les deux sont produits par le générateur StyleGan2. Bien que les détails du visage soient très réalistes, l’arrière-plan semble bizarre (à gauche : flou, à droite : objets déformés). Cela s’explique par le fait que le réseau neuronal est entraîné sur des échantillons de visages. L’arrière-plan présente alors une variabilité beaucoup plus importante. Ici, la variété des données a environ 50 dimensions, ce qui équivaut aux degrés de liberté d’une image de visage.
Difference of Interpolation in Pixel Space and Latent Space
Différence d’interpolation dans l’espace des pixels et l’espace latent
If we linearly interpolate between the dog and bird image (Fig. 2) in pixel space, we will get a fading overlay of two images in Fig. 3. From the top left to the bottom right, the weight of the dog image decreases and the weight of the bird image increases.
Si nous interpolons linéairement entre l’image du chien et celle de l’oiseau (figure 2) dans l’espace des pixels, nous obtenons une superposition de deux images en fondu dans la figure 3. Du haut à gauche au bas à droite, le poids de l’image du chien diminue et celui de l’image de l’oiseau augmente.
If we interpolate on two latent space representation and feed them to the decoder, we will get the transformation from dog to bird in Fig. 4.
Si nous interpolons sur deux représentations de l’espace latent et les transmettons au décodeur, nous obtenons la transformation du chien en l’oiseau visible sur la figure 4.
Obviously, latent space is better at capturing the structure of an image.
De toute évidence, l’espace latent est plus efficace pour saisir la structure d’une image.
Transformation Examples
Exemples de transformation
Image Super-resolution
Image en super-résolution
This model aims to upscale images and reconstruct the original faces. From left to right in Fig. 9, the first column is the 16x16 input image, the second one is what you would get from a standard bicubic interpolation, the third is the output generated by the neural net, and on the right is the ground truth.
Ce modèle vise à améliorer les images et à reconstruire les visages originaux. De gauche à droite sur la figure 9, la première colonne est l’image d’entrée 16x16, la deuxième est ce que nous obtenons avec une interpolation bicubique standard, la troisième est la sortie générée par le réseau neuronal, et à droite est la véritable image.
From the output images, it is clear that there exist biases in the training data, which makes the reconstructed faces inaccurate. For example, the top left Asian man is made to look European in the output due to the imbalanced training images. The reconstructed face of the bottom left women looks weird due to the lack of images from that odd angle in the training data.
D’après les images de sortie, il est clair qu’il existe des biais dans les données d’entraînement, ce qui rend les visages reconstruits inexacts. Par exemple, l’homme asiatique en haut à gauche a l’air européen dans les images de sortie en raison du déséquilibre des images d’entraînement. Le visage reconstruit en bas à gauche est bizarre en raison de l’absence d’images sous cet angle dans les données d’entraînement.
Putting a grey patch on the face like in Fig. 10 makes the image away from the training manifold. The face reconstruction in Fig. 11 is done by finding the closest sample image on the training manifold via Energy function minimization.
En plaçant une tache grise sur le visage, comme sur la figure 10, on éloigne l’image de la variété d’entraînement. La reconstruction du visage de la figure 11 est réalisée en trouvant l’échantillon d’image le plus proche sur la variété d’entraînement via la minimisation de la fonction énergie.
Caption to Image
Génération d’images d’après une légende
The translation from text description to image in Fig. 12 is achieved by extracting text features representations associated with important visual information and then decoding them to images.
La traduction en image de la description textuelle de la figure 12 est réalisée en extrayant les représentations des caractéristiques textuelles associées à des informations visuelles importantes, puis en les décodant en images.
Autoencoders are artificial neural networks, trained in an unsupervised manner, that aim to first learn encoded representations of our data and then generate the input data (as closely as possible) from the learned encoded representations. Thus, the output of an autoencoder is its prediction for the input.
Les auto-encodeurs sont des réseaux de neurones artificiels, entraînés de manière non supervisée, qui visent à apprendre d’abord les représentations codées de nos données et ensuite à générer les données d’entrée (aussi proches que possible) à partir des représentations codées apprises. Ainsi, la sortie d’un auto-encodeur est sa prédiction pour l’entrée.
Fig. 13 shows the architecture of a basic autoencoder. As before, we start from the bottom with the input x which is subjected to an encoder (affine transformation defined by WhWh​, followed by squashing). This results in the intermediate hidden layer hh. This is subjected to the decoder(another affine transformation defined by Wx​ followed by another squashing). This produces the output x^, which is our model’s prediction/reconstruction of the input. As per our convention, we say that this is a 3 layer neural network.
La figure 13 montre l’architecture d’un auto-encodeur de base. Comme précédemment, nous partons du bas avec l’entrée x qui est soumise à un encodeur (transformation affine définie par WhWh​, suivie d’un écrasement). Il en résulte la couche cachée intermédiaire hh. Celle-ci est soumise au décodeur (une autre transformation affine définie par Wx​, suivie d’un autre écrasement). Cela produit la sortie x^, qui est la prédiction/reconstruction de l’entrée par notre modèle.
We can represent the above network mathematically by using the following equations:
Nous pouvons représenter mathématiquement le réseau ci-dessus en utilisant les équations suivantes :
We also specify the following dimensionalities:
Nous précisons également les dimensions suivantes :
Why are we using autoencoders?
Pourquoi utilisons-nous des auto-encodeurs ?
The primary applications of an autoencoder is for anomaly detection or image denoising. We know that an autoencoder’s task is to be able to reconstruct data that lives on the manifold i.e. given a data manifold, we would want our autoencoder to be able to reconstruct only the input that exists in that manifold. Thus we constrain the model to reconstruct things that have been observed during training, and so any variation present in new inputs will be removed because the model would be insensitive to those kinds of perturbations.
Les principales applications d’un auto-encodeur sont la détection d’anomalies ou le débruitage d’images. Nous savons que la tâche d’un auto- encodeur est de reconstruire des données qui vivent sur la variété, c’est-à-dire que si nous avons une variété de données, nous voudrions que notre auto-encodeur ne puisse reconstruire que l’entrée qui existe dans cette variété. Ainsi, nous contraignons le modèle à reconstruire les choses qui ont été observées pendant l’entraînement et donc toute variation présente dans les nouvelles entrées sera supprimée car le modèle est insensible à ce genre de perturbations.
Another application of an autoencoder is as an image compressor. If we have an intermediate dimensionality d lower than the input dimensionality nn, then the encoder can be used as a compressor and the hidden representations (coded representations) would address all (or most) of the information in the specific input but take less space.
Une autre application de l’auto-encodeur est la compression d’images. Si nous avons une dimension intermédiaire d inférieure à la dimension d’entrée nn, alors l’encodeur peut être utilisé comme un compresseur et les représentations cachées (représentations codées) traitent toutes (ou la plupart) des informations de l’entrée spécifique en prenant moins de place.
Reconstruction loss
Perte de reconstruction
Let us now look at the reconstruction losses that we generally use. The overall loss for the dataset is given as the average per sample loss i.e.
Examinons maintenant les pertes liées à la reconstruction que nous utilisons généralement avec les auto-encodeurs. La perte globale pour le jeu de données est donnée comme la perte moyenne par échantillon, c’est-à-dire :
When the input is categorical, we could use the Cross-Entropy loss to calculate the per sample loss which is given by
Lorsque l’entrée est catégorielle, nous pouvons utiliser la perte d’entropie-croisée pour calculer la perte par échantillon qui est donnée par :
And when the input is real-valued, we may want to use the Mean Squared Error Loss given by
Et lorsque l’entrée est évaluée en valeur réelle, nous pouvons utiliser la perte d’erreur moyenne au carré donnée par :
Under-/over-complete hidden layer
Couche cachée sous/sur-complète
When the dimensionality of the hidden layer d is less than the dimensionality of the input n then we say it is under complete hidden layer. And similarly, when d>nd>n, we call it an over-complete hidden layer. Fig. 14 shows an under-complete hidden layer on the left and an over-complete hidden layer on the right.
Lorsque la dimensionnalité de la couche cachée d est inférieure à la dimensionnalité de l’entrée n, on dit que la couche cachée est sous-complète. Et de même, lorsque d>nd>n, nous disons qu’il s’agit d’une couche cachée sur-complète. La figure 14 montre une couche cachée sous-complète à gauche et une couche cachée sur-complète à droite.
As discussed above, an under-complete hidden layer can be used for compression as we are encoding the information from input in fewer dimensions. On the other hand, in an over-complete layer, we use an encoding with higher dimensionality than the input. This makes optimization easier.
Comme nous l’avons vu plus haut, une couche cachée sous-complète peut être utilisée pour la compression car nous encodons les informations provenant de l’entrée en moins de dimensions. En revanche, dans une couche sur-complète, nous utilisons un codage de dimension plus élevée que l’entrée. Cela facilite l’optimisation.
Since we are trying to reconstruct the input, the model is prone to copying all the input features into the hidden layer and passing it as the output thus essentially behaving as an identity function. This needs to be avoided as this would imply that our model fails to learn anything. Hence, we need to apply some additional constraints by applying an information bottleneck. We do this by constraining the possible configurations that the hidden layer can take to only those configurations seen during training. This allows for a selective reconstruction (limited to a subset of the input space) and makes the model insensitive to everything not in the manifold.
Comme nous essayons de reconstruire l’entrée, le modèle est enclin à copier toutes les caractéristiques d’entrée dans la couche cachée et à la faire passer comme sortie, se comportant ainsi essentiellement comme une fonction identité. Cela doit être évité car cela impliquerait que notre modèle n’apprend rien. Nous devons donc appliquer des contraintes supplémentaires en créant un goulot d’étranglement au niveau de l’information. Nous le faisons en limitant les configurations possibles que la couche cachée peut prendre aux seules configurations vues pendant l’entraînement. Cela permet une reconstruction sélective (limitée à un sous-ensemble de l’espace d’entrée) et rend le modèle insensible à tout ce qui ne se trouve pas dans la variété.
It is to be noted that an under-complete layer cannot behave as an identity function simply because the hidden layer doesn’t have enough dimensions to copy the input. Thus an under-complete hidden layer is less likely to overfit as compared to an over-complete hidden layer but it could still overfit. For example, given a powerful encoder and a decoder, the model could simply associate one number to each data point and learn the mapping. There are several methods to avoid overfitting such as regularization methods, architectural methods, etc.
Il est à noter qu’une couche sous-complète ne peut pas se comporter comme une fonction d’identité simplement parce que la couche cachée n’a pas assez de dimensions pour copier l’entrée. Ainsi, une couche cachée sous-complète a moins de chances de faire du surentraînement qu’une couche cachée sur-complète. Néanmoins elle peut quand même en faire. Par exemple, avec un encodeur et un décodeur puissants, le modèle pourrait simplement associer un numéro à chaque point de données et apprendre l’association. Il existe plusieurs méthodes pour éviter le surentraînement, telles que les méthodes de régularisation, les méthodes architecturales, etc.
Denoising autoencoder
Auto-encodeur débruiteur
Fig.15 shows the manifold of the denoising autoencoder and the intuition of how it works.
La figure 15 montre les multiples possibilités de l’auto-encodeur débruiteur et l’intuition de son fonctionnement.
In this model, we assume we are injecting the same noisy distribution we are going to observe in reality, so that we can learn how to robustly recover from it. By comparing the input and output, we can tell that the points that already on the manifold data did not move, and the points that far away from the manifold moved a lot.
Dans ce modèle, nous supposons que nous injectons la même distribution bruitée que celle que nous allons observer dans la réalité, afin que nous puissions apprendre à nous en remettre de manière robuste. En comparant l’entrée et la sortie, nous pouvons dire que les points qui se trouvaient déjà sur la variété des données n’ont pas bougé et que les points qui étaient éloignés sur la variété ont beaucoup bougé.
Fig.16 gives the relationship between the input data and output data.
La figure 16 présente la relation entre les données d’entrée et les données de sortie.
We can also use different colours to represent the distance of each input point moves, Fig.17 shows the diagram.
Nous pouvons utiliser différentes couleurs pour représenter la distance de chaque mouvement de point d’entrée, la figure 17 montre le diagramme.
The lighter the colour, the longer the distance a point travelled. From the diagram, we can tell that the points at the corners travelled close to 1 unit, whereas the points within the 2 branches didn’t move at all since they are attracted by the top and bottom branches during the training process.
Plus la couleur est claire, plus la distance parcourue par un point est longue. D’après le diagramme, nous pouvons dire que les points aux coins ont parcouru une distance proche d’une unité, alors que les points à l’intérieur des deux branches n’ont pas bougé du tout puisqu’ils sont attirés par les branches supérieures et inférieures pendant le processus d’entraînement.
Contractive autoencoder
Auto-encoder contractif
Fig.18 shows the loss function of the contractive autoencoder and the manifold.
La figure 18 montre la fonction de perte de l’auto-encodeur contractif et de la variété.
The loss function contains the reconstruction term plus squared norm of the gradient of the hidden representation with respect to the input. Therefore, the overall loss will minimize the variation of the hidden layer given variation of the input. The benefit would be to make the model sensitive to reconstruction directions while insensitive to any other possible directions.
La fonction de perte contient le terme de reconstruction plus la norme au carré du gradient de la représentation cachée par rapport à l’entrée. Par conséquent, la perte globale minimise la variation de la couche cachée compte tenu de la variation de l’entrée. L’avantage est de rendre le modèle sensible aux directions de reconstruction tout en étant insensible aux autres directions possibles.
Fig.19 shows how these autoencoders work in general.
La figure 19 montre comment ces auto-encodeurs fonctionnent en général.
The training manifold is a single-dimensional object going in three dimensions. Where x∈X⊆Rn, the goal for autoencoder is to stretch down the curly line in one direction, where z∈Z⊆Rd. As a result, a point from the input layer will be transformed to a point in the latent layer. Now we have the correspondence between points in the input space and the points on the latent space but do not have the correspondence between regions of the input space and regions of the latent space. Afterwards, we will utilize the decoder to transform a point from the latent layer to generate a meaningful output layer.
La variété d’entraînement est un objet unidimensionnel allant à trois dimensions. Où x∈X⊆Rn, le but de l’auto-encodeur est d’étirer la ligne bouclée dans une direction, où z∈Z⊆Rd. En conséquence, un point de la couche d’entrée est transformé en un point de la couche latente. Nous avons maintenant la correspondance entre les points de l’espace d’entrée et les points de l’espace latent, mais pas la correspondance entre les régions de l’espace d’entrée et les régions de l’espace latent. Ensuite, nous utilisons le décodeur pour transformer un point de la couche latente afin de générer une couche de sortie significative.
Define autoencoder model architecture and reconstruction loss
Définir l’architecture du modèle d’auto-encodeur et la perte de reconstruction
Using 28×28 image, and a 30-dimensional hidden layer. The transformation routine would be going from 784→30→784. By applying hyperbolic tangent function to encoder and decoder routine, we are able to limit the output range to (−1,1). Mean Squared Error (MSE) loss will be used as the loss function of this model.
On utilise une image 28×28 et une couche cachée en 30 dimensions. La routine de transformation passe de 784→30→784. En appliquant la fonction tangente hyperbolique à la routine d’encodage et de décodage, nous sommes en mesure de limiter la plage de sortie à (−1,1). La perte d’erreur quadratique moyenne (MSE) est utilisée comme fonction de perte de ce modèle.
Train standard autoencoder
Entraîner un auto-encodeur standard
To train a standard autoencoder using PyTorch, you need put the following 5 methods in the training loop:
Pour entraîner un auto-encodeur standard en utilisant PyTorch, nous devons mettre les 5 méthodes suivantes dans la boucle d’entraînement :
Going forward:
Passe avant :
1) Sending the input image through the model by calling output = model(img) .
1) Envoyer l’image d’entrée à travers le modèle en appelant output = model(img).
2) Compute the loss using: criterion(output, img.data).
2) Calculer la perte en utilisant : criterion(output, img.data).
Going backward:
Passe arrière :
3) Clear the gradient to make sure we do not accumulate the value: optimizer.zero_grad().
3) Effacer le gradient pour s’assurer que nous n’accumulons pas la valeur : optimizer.zero_grad().
4) Back propagation: loss.backward()
4) Rétropropagation : loss.backward()
5) Step backwards: optimizer.step()
5) étape arrière : optimizer.step()
Fig. 20 shows the output of the standard autoencoder.
La figure 20 montre la sortie de l’auto-encodeur standard.
Train denoising autoencoder
Entraîner un auto-encodeur débruiteur
For denoising autoencoder, you need to add the following steps:
Pour l’auto-encodeur débruiteur, nous devons ajouter les étapes suivantes :
1) Calling do = nn.Dropout() creates a function that randomly turns off neurons.
1) Appeler do = nn.Dropout() crée une fonction qui éteint les neurones de façon aléatoire.
2) Create noise mask: do(torch.ones(img.shape)).
2) Créer un masque de bruit : do(torch.ones(img.shape)).
3) Create bad images by multiply good images to the binary masks: img_bad = (img * noise).to(device).
3) Créez de mauvaises images en multipliant les bonnes images aux masques binaires : img_bad = (img * noise).to(device).
Fig. 21 shows the output of the denoising autoencoder.
La figure 21 montre la sortie de l’auto-encodeur débruiteur.
Kernels comparison
Comparaison des noyaux
It is important to note that in spite of the fact that the dimension of the input layer is 28×28=784, a hidden layer with a dimension of 500 is still an over-complete layer because of the number of black pixels in the image. Below are examples of kernels used in the trained under-complete standard autoencoder. Clearly, the pixels in the region where the number exists indicate the detection of some sort of pattern, while the pixels outside of this region are basically random. This indicates that the standard autoencoder does not care about the pixels outside of the region where the number is.
Il est important de noter que malgré le fait que la dimension de la couche d’entrée est de 28×28=784 une couche cachée d’une dimension de 500 est toujours une couche sur-complète en raison du nombre de pixels noirs dans l’image. Nous pouvons voir ci-dessous des exemples de noyaux utilisés dans un auto-encodeur standard sous-complet entraîné. Il est clair que les pixels dans la région où le nombre existe indiquent la détection d’une sorte de motif, tandis que les pixels en dehors de cette région sont essentiellement aléatoires. Cela indique que l’auto-encodeur standard ne se soucie pas des pixels situés en dehors de la région où se trouve le nombre.
On the other hand, when the same data is fed to a denoising autoencoder where a dropout mask is applied to each image before fitting the model, something different happens. Every kernel that learns a pattern sets the pixels outside of the region where the number exists to some constant value. Because a dropout mask is applied to the images, the model now cares about the pixels outside of the number’s region.
D’autre part, lorsque les mêmes données sont transmises à un auto-encodeur débruiteur où un masque de dropout est appliqué à chaque image avant l’application du modèle, quelque chose de différent se produit. Chaque noyau qui apprend un modèle fixe les pixels en dehors de la région où le nombre existe à une certaine valeur constante. Comme un masque de dropout est appliqué aux images, le modèle se préoccupe maintenant des pixels situés en dehors de la région où le nombre existe.
Compared to the state of the art, our autoencoder actually does better!! You can see the results below.
Par rapport à l’état de l’art, notre auto-encodeur fait en fait mieux ! Regardons les résultats ci-dessous :
Week 8
Semaine 8
In this section, we focused on the introduction of contrastive methods in Energy-Based Models in several aspects. First, we discuss the advantage brought by applying contrastive methods in self-supervised learning. Second, we discussed the architecture of denoising autoencoders and their weakness in image reconstruction tasks. We also talked about other contrastive methods, like contrastive divergence and persistent contrastive divergence.
Dans cette section, nous nous focalisons sur l’introduction des méthodes contrastives dans les modèles à base d’énergie (EBMs) sous plusieurs aspects. Tout d’abord, nous discutons de l’avantage apporté par l’application des méthodes contrastives dans l’apprentissage autosupervisé. Ensuite, nous discutons de l’architecture des auto-encodeurs débruiteurs et de leur faiblesse dans les tâches de reconstruction d’images. Nous évoquons également d’autres méthodes contrastives, comme la divergence contrastive et la divergence contrastive persistante.
In this section, we discussed regularized latent variable EBMs in detail covering concepts of conditional and unconditional versions of these models. We then discussed the algorithms of ISTA, FISTA and LISTA and look at examples of sparse coding and filters learned from convolutional sparse encoders. Finally we talked about Variational Auto-Encoders and the underlying concepts involved.
Dans cette section, nous discutons en détail des EBMs à variables latentes régularisées en couvrant les concepts de versions conditionnelles et inconditionnelles de ces modèles. Nous discutons ensuite des algorithmes ISTA, FISTA et LISTA. Nous examinons des exemples de codage épars et de filtres appris d’encodeurs convolutifs épars. Enfin, nous parlons des auto-encodeurs variationnels et des concepts sous-jacents impliqués.
In this section, we discussed a specific type of generative model called Variational Autoencoders and compared their functionalities and advantages over Classic Autoencoders. We explored the objective function of VAE in detail, understanding how it enforced some structure in the latent space. Finally, we implemented and trained a VAE on the MNIST dataset and used it to generate new samples.
Dans cette section, nous discutons d’un type spécifique de modèle génératif appelé auto-encodeurs variationnels (VAEs pour Variational Autoencoders) et comparons leurs fonctionnalités et avantages par rapport aux auto-encodeurs classiques. Nous explorons en détail la fonction objectif du VAE, en comprenant notamment comment elle impose une certaine structure dans l’espace latent. Enfin, nous mettons en œuvre et entraînons un VAE sur le jeu de données MNIST et l’utilisons pour générer de nouveaux échantillons.
Contrastive Methods in Energy-Based Models
Méthodes Contrastives pour les modèles à base d’énergie
Recap
Recapitulatif
As we have learned from the last lecture, there are two main classes of learning methods:
Comme nous l’avons vu lors du dernier cours, il existe deux grandes catégories de méthodes d’apprentissage :
1. Contrastive Methods that push down the energy of training data points, F(xi​,yi​), while pushing up energy on everywhere else, F(xi​,y’).
1. Les méthodes contrastives qui poussent vers le bas l’énergie des points des données d’entraînement, F(xi​,yi​), tout en poussant vers le haut l’énergie sur tous les autres points, F(xi​,y’).
2. Architectural Methods that build energy function F which has minimized/limited low energy regions by applying regularization.
2. Les méthodes architecturales qui construisent une fonction d’énergie F qui minimise/limite les régions à faible énergie en appliquant une régularisation.
To distinguish the characteristics of different training methods, Dr. Yann LeCun has further summarized 7 strategies of training from the two classes mention before. One of which is methods that are similar to Maximum Likelihood method, which push down the energy of data points and push up everywhere else.
Pour distinguer les caractéristiques des différentes méthodes d’entraînement, Yann a listé lors du cours précédent sept stratégies d’entraînement des deux classes mentionnées à l’instant. L’une d’entre elles est une méthode similaire à la méthode du maximum de vraisemblance, qui pousse l’énergie des points de données vers le bas et vers le haut partout ailleurs.
Maximum Likelihood method probabilistically pushes down energies at training data points and pushes everywhere else for every other value of y’≠yi. Maximum Likelihood doesn’t “care” about the absolute values of energies but only “cares” about the difference between energy. Because the probability distribution is always normalized to sum/integrate to 1, comparing the ratio between any two given data points is more useful than simply comparing absolute values.
La méthode du maximum de vraisemblance pousse de façon probabiliste les énergies vers le bas des points des données d’entraînement et vers le haut partout ailleurs pour chaque autre valeur de y’≠yi​. La méthode du maximum de vraisemblance ne se soucie pas des valeurs absolues des énergies, mais seulement de la différence entre les énergies. Comme la distribution des probabilités est toujours normalisée à 1, la comparaison du rapport entre deux points donnés est plus utile que la simple comparaison des valeurs absolues.
Contrastive methods in self-supervised learning
Méthodes contrastives en apprentissage autosupervisé
In contrastive methods, we push down on the energy of observed training data points (xi​, yi​), while pushing up on the energy of points outside of the training data manifold.
Dans les méthodes contrastives, nous poussons vers le bas l’énergie des points des données d’entraînement observés (xi​, yi​), tout en poussant vers le haut l’énergie des points en dehors de la variété des données d’entraînement.
In self-supervised learning, we use one part of the input to predict the other parts. We hope that our model can produce good features for computer vision that rival those from supervised tasks.
Dans l’apprentissage autosupervisé, nous utilisons une partie des données d’entrée pour prédire les autres parties. Nous espérons que notre modèle peut produire de bonnes caractéristiques pour la vision par ordinateur qui rivalisent avec celles des tâches supervisées.
Researchers have found empirically that applying contrastive embedding methods to self-supervised learning models can indeed have good performances which rival that of supervised models. We will explore some of these methods and their results below.
Les chercheurs ont constaté empiriquement que l’application de méthodes d’enchâssement contrastives (contrastive embedding methods) à des modèles d’apprentissage autosupervisé peut donner de bonnes performances rivalisant avec celles des modèles supervisés. Nous allons explorer certaines de ces méthodes et leurs résultats.
Contrastive embedding
Méthodes d’enchâssement contrastives
Conceptually, contrastive embedding methods take a convolutional network, and feed x and y through this network to obtain two feature vectors: h and h’. Because x and y have the same content (i.e. a positive pair), we want their feature vectors to be as similar as possible. As a result, we choose a similarity metric (such as cosine similarity) and a loss function that maximizes the similarity between h and h’. By doing this, we lower the energy for images on the training data manifold.
Conceptuellement, les méthodes d’enchâssement contrastives prennent un réseau convolutif et passent x et y à travers ce réseau pour obtenir deux vecteurs de caractéristiques : h et h’. Comme x et y ont le même contenu (une paire positive), nous voulons que leurs vecteurs de caractéristiques soient aussi similaires que possible. Par conséquent, nous choisissons une métrique de similarité (telle que la similarité cosinus) et une fonction de perte qui maximise la similarité entre h et h’. Ce faisant, nous réduisons l’énergie des images sur la variété des données d’entraînement.
However, we also have to push up on the energy of points outside this manifold. So we also generate negative samples (xneg​, yneg​), images with different content (different class labels, for example). We feed these to our network above, obtain feature vectors h and h’, and now try to minimize the similarity between them.
Cependant, nous devons également pousser l’énergie des points situés en dehors de cette variété. Ainsi, nous générons également des échantillons négatifs (xneg​, yneg​), des images au contenu différent (labels de classe différents par exemple). Nous les transmettons à notre réseau, obtenons les vecteurs de caractéristiques h et h’, et essayons de minimiser la similarité entre eux.
This method allows us to push down on the energy of similar pairs while pushing up on the energy of dissimilar pairs.
Cette méthode nous permet de pousser vers le bas l’énergie des paires similaires tout en poussant vers le haut l’énergie des paires dissemblables.
Recent results (on ImageNet) have shown that this method can produce features that are good for object recognition that can rival the features learned through supervised methods.
Des résultats récents (sur ImageNet) ont montré que cette méthode peut produire des caractéristiques qui sont bonnes pour la reconnaissance d’objets et qui peuvent rivaliser avec les caractéristiques apprises par des méthodes supervisées.
Self-Supervised Results (MoCo, PIRL, SimCLR)
Résultats des méthodes autosupervisées (MoCo, PIRL, SimCLR)
As seen in the figure above, MoCo and PIRL achieve SOTA results (especially for lower-capacity models, with a small number of parameters). PIRL is starting to approach the top-1 linear accuracy of supervised baselines (~75%).
Comme le montre la figure ci-dessus, les méthodes MoCo et PIRL obtiennent les résultats de l’état de l’art (en particulier pour les modèles de faible capacité, avec un petit nombre de paramètres). PIRL commence à se rapprocher du top 1 de la précision linéaire des baselines supervisées (environ 75%).
We can understand PIRL more by looking at its objective function: NCE (Noise Contrastive Estimator) as follows.
Nous pouvons mieux comprendre PIRL en examinant sa fonction objectif, la NCE (Noise Contrastive Estimator) :