English
stringlengths
2
2.26k
French
stringlengths
2
1.87k
For the reparameterise function, if the model is in training mode, we compute the standard deviation (std) from log variance (logvar). We use log variance instead of variance because we want to make sure the variance is non-negative, and taking the log of it ensures that we have the full range of the variance, which makes the training more stable.
Pour la fonction reparameterise, si le modèle est en mode entraînement, nous calculons l’écart-type (std) de la variance logarithmique (logvar). Nous utilisons la variance logarithmique au lieu de la variance parce que nous voulons nous assurer que la variance n’est pas négative, et le fait de prendre le logarithme de celle-ci nous assure d’avoir la gamme complète de la variance, ce qui entraîne une plus grande stabilité de l’apprentissage.
During training, the reparameterise function will do the reparameterisation trick so that we can do backpropagation in training. To connect to the concept of a yellow bubble, as explained in the lecture, every time this function is called, we draw a point eps = std.data.new(std.size()).normal_(), so if we do 100 times, we will get 100 points which roughly forms a sphere because it’s normal distribution, and the line eps.mul(std).add_(mu) will make this sphere centred in mu with radius equal to std.
Pendant l’entraînement, la fonction reparameterise permet de faire l’astuce permettant la rétropropagation. Pour faire le lien avec le concept de la bulle jaune, chaque fois que cette fonction est appelée, nous dessinons un point eps = std.data.new(std.size()).normal_(). Donc si nous le faisons 100 fois, nous obtenons 100 points qui forment approximativement une sphère parce que c’est une distribution normale et la ligne eps.mul(std).add_(mu) fait que cette sphère est centrée en mu avec un rayon égal à std.
For the forward function, we first compute the mu (first half) and logvar (second half) from the encoder, then we compute the z via the reparamterise function. Finally, we return the output of the decoder.
Pour la fonction forward, nous calculons d’abord mu (première moitié) et le logvar (seconde moitié) à partir de l’encodeur, puis nous calculons le symbole z via la fonction reparamterise. Enfin, nous renvoyons la sortie du décodeur.
Loss function for the VAE
Fonction de perte pour le VAE
Here we define the reconstruction loss (binary cross entropy) and the relative entropy (KL divergence penalty).
Nous définissons ici la perte de reconstruction (entropie binaire croisée) et l’entropie relative (pénalité de divergence KL).
Generating new samples
Générer de nouveaux échantillons
After we train our model, we can sample a random z from the normal distribution and feed it to our decoder. We can observe in Figure 6 that some of the results are not good because our decoder has not “covered” the whole latent space. This can be improved if we train the model for more epochs.
Après avoir entraîné notre modèle, nous pouvons échantillonner un z aléatoire de la distribution normale et l’envoyer à notre décodeur. Nous pouvons observer sur la figure 6 que certains des résultats ne sont pas bons parce que notre décodeur n’a pas couvert tout l’espace latent. Cela peut être amélioré si nous entraînons le modèle pour d’autres époques.
We can look at how one digit morphs into another, which would not have been possible if we used an autoencoder. We can see that when we walk in the latent space, the output of the decoder still looks legit. Figure 7 below shows how we morph the digit 3 to 8.
Nous pouvons voir comment un chiffre se transforme en un autre, ce qui n’aurait pas été possible si nous avions utilisé un auto-encodeur. Nous pouvons voir que lorsque nous marchons dans l’espace latent, la sortie du décodeur semble toujours légitime. La figure 7 ci-dessous montre comment nous transformons le chiffre 3 en 8.
Projection of means
Projection des moyennes
Finally, let’s take a look at how the latent space changes during/after training. The following charts in Figure 8 are the means from the output of the encoder, projected on 2D space, where each colour represents a digit. We can see that from epoch 0, the classes are spreading everywhere, with only little concentration. As the model is trained, the latent space becomes more well-defined and the classes (digits) starts to form clusters.
Enfin, examinons comment l’espace latent change pendant ou après l’entraînement. Les graphiques de la figure 8 sont les moyennes issues de la sortie de l’encodeur, projetées sur l’espace 2D, où chaque couleur représente un chiffre. Nous pouvons voir qu’à partir de l’époque 0, les classes se répandent partout, avec une faible concentration. Au fur et à mesure que le modèle est entraîné, l’espace latent devient plus défini et les classes (chiffres) commencent à former des groupes.
Week 9
Semaine 9
We discussed discriminative recurrent sparse auto-encoders and group sparsity. The main idea was how to combine sparse coding with discriminative training. We went through how to structure a network with a recurrent autoencoder similar to LISTA and a decoder. Then we discussed how to use group sparsity to extract invariant features.
Nous discutons des auto-encodeurs discriminants récurrents épars et de l’éparsité de groupe. L’idée principale est de savoir comment combiner un codage épars avec un entraînement discriminant. Nous examinons comment structurer un réseau avec un auto-encodeur récurrent similaire à LISTA et un décodeur. Nous discutons ensuite de la manière d’utiliser l’éparsité de groupe pour extraire les caractéristiques invariantes.
In this section, we talked about the World Models for autonomous control including the neural network architecture and training schema. Then, we discussed the difference between World Models and Reinforcement Learning (RL). Finally, we studied Generative Adversarial Networks (GANs) in terms of energy-based model with the contrastive method.
Dans cette section, nous parlons des modèles du monde (world models) pour le contrôle autonome, y compris l’architecture du réseau neuronal et le schéma d’entraînement. Ensuite, nous discutons de la différence entre les modèles du monde et l’apprentissage par renforcement. Enfin, nous étudions les Generative Adversarial Networks (GANs) à travers les EBMs avec la méthode contrastive.
During this week’s practicum, we explored Generative Adversarial Networks (GANs) and how they can produce realistic generative models. We then compared GANs with VAEs from week 8 to highlight key differences between two networks. Next, we discussed several model limitations of GANs. Finally, we looked at the source code for the PyTorch example Deep Convolutional Generative Adversarial Networks (DCGAN).
Nous explorons les GANs et la manière dont ils peuvent produire des modèles générateurs réalistes. Nous comparons ensuite les GANs avec les VAEs de la semaine 8 pour mettre en évidence les principales différences entre les deux réseaux. Ensuite, nous discutons de plusieurs limites des GANs. Enfin, nous examinons le code source de l’exemple « PyTorch Deep Convolutional Generative Adversarial Networks (DCGAN) ».
Discriminative Recurrent Sparse Auto-Encoder and Group Sparsity
Auto-encodeurs discriminants récurrents épars et l’éparsité de groupe
Discriminative recurrent sparse autoencoder (DrSAE)
Auto-encodeurs discriminants récurrents épars (Discriminative recurrent sparse autoencoder : DrSAE)
The idea of DrSAE consists of combining sparse coding, or the sparse auto-encoder, with discriminative training.
L’idée des DrSAEs consiste à combiner un codage épars ou l’auto-encodeur épars avec un entraînement discriminant.
The encoder, We​, is similar to the encoder in the LISTA method. The X variable is run through We​, and then through a non-linearity. This result is then multiplied by another learned matrix, S, and added to We​. Then it is sent through another non-linearity. This process can be repeated a number of times, with each repetition as a layer.
L’encodeur We​ est similaire à celui de la méthode LISTA. La variable X est passée par We​, puis par une non-linéarité. Ce résultat est ensuite multiplié par une autre matrice apprise, S, et ajouté à We​. Il est ensuite envoyé à travers une autre non-linéarité. Ce processus peut être répété un certain nombre de fois, chaque répétition constituant une couche.
We train this neural network with 3 different criteria:
Nous entraînons ce réseau de neurones avec 3 critères différents :
1. L1​: Apply L1​ criterion on the feature vector Z to make it sparse.
1. L1​ : appliquer le critère L1​ sur le vecteur d’entités Z pour le rendre épars.
2. Reconstruct X: This is done using a decoding matrix that reproduces the input on the output. This is done by minimizing square error, indicated by Wd​ in Figure 1.
2. Reconstruire X : ceci est fait en utilisant une matrice de décodage qui reproduit l’entrée sur la sortie. Ceci est fait en minimisant l’erreur quadratique, indiquée par Wd​ dans la figure 1.
3. Add a Third Term: This third term, indicated by Wc​, is a simple linear classifier which attempts to predict a category.
3. Ajouter un troisième terme : ce troisième terme, indiqué par Wc​, est un simple classifieur linéaire qui tente de prédire une catégorie.
The system is trained to minimize all 3 of these criteria at the same time.
Le système est entraîné à minimiser ces trois critères en même temps.
The advantage of this is by forcing the system to find representations that can reconstruct the input, then you’re basically biasing the system towards extracting features that contain as much information about the input as possible. In other words, it enriches the features.
L’avantage de cette méthode est de forcer le système à trouver des représentations qui peuvent reconstruire l’entrée, puis nous biaisons le système vers l’extraction de caractéristiques qui contiennent autant d’informations sur l’entrée que possible. En d’autres termes, cela enrichit les caractéristiques.
Group Sparsity
Eparsité de groupe
The idea here is to generate sparse features, but not just normal features that are extracted by convolutions, but to basically produce features that are sparse after pooling.
L’idée ici est de générer des caractéristiques éparses, c’est-à-dire pas seulement des caractéristiques normales qui sont extraites par des convolutions mais de produire essentiellement des caractéristiques qui sont éparses après le pooling.
Figure 2 shows an example of an auto-encoder with group sparsity. Here, instead of the latent variable Z going to an L1​, it goes through basically an L2​ over groups. So you take the L2​ norm for each component in a group of Z, and take the sum of those norms. So now that is what is used as the regulariser, so we can have sparsity on groups of Z. These groups, or pools of features, tend to group together features that are similar to one another.
La figure 2 montre un exemple d’auto-encodeur avec éparsité de groupe. Ici, au lieu de la variable latente Z passant par une L1​, elle passe par une L2​ sur les groupes. Nous prenons donc la norme L2​ pour chaque composant dans un groupe de Z et effectuons la somme de ces normes. C’est donc ce qui est utilisé comme régulariseur afin que nous puissions avoir une certaine éparsité dans les groupes de Z. Ces groupes de caractéristiques ont tendance à regrouper des caractéristiques qui sont similaires les unes aux autres.
AE with group sparsity: questions and clarification
Auto-encodeur avec éparsité de groupe : questions des étudiants
Can a similar strategy used in the first slide with classifier and regulariser be applied for VAE?
Une stratégie similaire à celle utilisée dans la première diapositive avec le classifieur et le régulariseur peut-elle être appliquée pour les VAEs ?
Adding noise and forcing sparsity in a VAE are two ways of reducing the information that the latent variable/code. Prevent learning of an identity function.
Ajouter du bruit et forcer l’éparsité dans un VAE sont deux moyens de réduire l’information de la variable latente. Cela empêche l’apprentissage d’une fonction d’identité.
In slide “AE with Group Sparsity”, what is Pj​?
Dans la diapositive « AE with Group Sparsity », qu’est-ce que Pj​ ?
p is a pool of features. For a vector z, it would be a subset of the values in z.
p est un pool de caractéristiques. Pour un vecteur z, ce serait un sous-ensemble des valeurs de z.
Clarification on feature pooling.
Clarification sur le pooling des caractéristiques.
Encoder produces latent variable z, which is regularized using the L2​ norm of pooled features. This z is used by the decoder for image reconstruction.
L’encodeur produit une variable latente z qui est régularisée en utilisant la norme L2​ des caractéristiques mises en commun. Cette variable z est utilisée par le décodeur pour la reconstruction de l’image.
Does group regularization help with grouping similar features?
La régularisation des groupes aide-t-elle à regrouper des caractéristiques similaires ?
The answer is unclear, work done here was done before computational power/ data was readily available. Techniques have not been brought back to the forefront.
La réponse n’est pas claire, le travail effectué ici a été fait avant que la puissance de calcul/les données ne soient facilement disponibles. Les techniques n’ont pas été remises au premier plan.
Image level training, local filters but no weight sharing
Entraînement au niveau de l’image, filtres locaux mais pas de partage de poids
The answer about whether it helps is not clear. People interested in this are either interested in image restoration or some kind of self-supervised learning. This would work well when dataset was very small. When you have an encoder and decoder that is convolutional and you train with group sparsity on complex cells, after you are done pre-training, the system you get rid of the decoder and only use the encoder as a feature extractor, say the first layer of the convolutional net and you stick a second layer on top of it.
La réponse à la question de savoir si cela aide n’est pas claire. Les personnes travaillant sur le sujet s’intéressent soit à la restauration d’images, soit à une sorte d’apprentissage autosupervisé. Cela fonctionnerait plutôt bien lorsque le jeu de données est très réduit. Lorsque nous avons un encodeur et un décodeur convolutifs et entraînons avec l’éparsité de groupe sur des cellules complexes, après avoir terminé l’entraînement, le système nous débarrasse du décodeur et n’utilise l’encodeur que comme un extracteur de caractéristiques. Nous pouvons alors coller une deuxième couche par-dessus.
As can be seen above, you are start with an image, you have an encoder which is basically Convolution RELU and some kind of scaling layer after this. You train with group sparsity. You have a linear decoder and a criterion which is group by 1. You take the group sparsity as a regulariser. This is like L2 pooling with an architecture similar to group sparsity.
Comme on peut le voir ci-dessus, nous commençons avec une image, nous avons un encodeur qui est en fait une convolution puis une ReLU et une sorte de couche de mise à l’échelle. Nous entrainons avec une éparsité de groupe. Nous avons un décodeur linéaire et un critère qui est le groupe par 1. Nous prenons l’éparsité de groupe comme régularisation. C’est comme le pooling L2 avec une architecture similaire à l’éparsité de groupe.
You can also train another instance of this network. This time, you can add more layers and have a decoder with the L2 pooling and sparsity criterion, train it to reconstruct its input with pooling on top. This will create a pretrained 2-layer convolutional net. This procedure is also called Stacked Autoencoder. The main characteristic here is that it is trained to produce invariant features with group sparsity.
Nous pouvons aussi entraîner une autre instance de ce réseau. Cette fois, en ajoutant d’autres couches et en ayant un décodeur avec le polling L2 et le critère d’éparsité. On entraîne alors à reconstruire l’entrée avec le pooling au-dessus. Cela crée un ConvNet à deux couches pré-entraîné. Cette procédure est également appelée stacked autoencoder. La principale caractéristique de cette procédure est qu’elle est entraînée à produire des caractéristiques invariantes avec une éparsité de groupe.
Should we use all possible sub-trees as groups?
Devrions-nous utiliser tous les sous-arbres possibles comme groupes ?
It’s up to you, you can use multiple trees if you want. We can train the tree with a bigger tree than necessary and then removes branches rarely used.
C’est à vous de décider, vous pouvez utiliser plusieurs arbres si vous le souhaitez. Nous pouvons entraîner l’arbre avec un arbre plus grand que nécessaire et ensuite retirer les branches rarement utilisées.
These are called pin-wheel patterns. This is a kind of organisation of the features. The orientation varies continuously as you go around those red dots. If we take one of those red dots and if do a little circle around the red dots, you notice that the orientation of the extractor kind of varies continuously as you move around. Similar trends are observed in the brain.
C’est ce qu’on appelle les pinwheel patterns (motifs en forme de pales de turbines). C’est une sorte d’organisation des caractéristiques. L’orientation varie continuellement lorsque vous contournez ces points rouges. Si nous prenons un de ces points rouges et si nous faisons un petit cercle autour des points rouges, nous remarquons que l’orientation de l’extracteur varie en quelque sorte continuellement lorsque nous nous déplaçons. Des tendances similaires sont observées dans le cerveau.
Is the group sparsity term trained to have a small value?
Le terme d’éparsité de groupe est-il entraîné à avoir une petite valeur ?
It is a regulariser. The term itself is not trained, it’s fixed. It’s just the L2 norm of the groups and the groups are predetermined. But, because it is a criterion, it determines what the encoder and decoder will do and what sort of features will be extracted.
Il s’agit d’un régulariseur. Le terme lui-même n’est pas entraîné, il est fixe. C’est juste la norme L2 des groupes et les groupes sont prédéterminés. Mais, comme c’est un critère, il détermine ce que l’encodeur et le décodeur vont faire et quel type de caractéristiques seront extraites.
Here, there is a linear decoder with square reconstruction error. There is a criterion in the energy. The matrix S is either determined by hand or learned so as to maximise this term. If the terms in S are positive and large, it implies that the system does not want zi and zj to be on at the same time. Thus, it is sort of a mutual inhibition (called natural inhibition in neuroscience). Thus, you try to find a value for S that is as large as possible.
Ici, il y a un décodeur linéaire avec une erreur de reconstruction quadratique. Il y a un critère dans l’énergie. La matrice S est soit déterminée à la main, soit apprise de façon à maximiser ce terme. Si les termes dans S sont positifs et grands, cela implique que le système ne veut pas que zi​ et zj​ soient allumés en même temps. Il s’agit donc d’une sorte d’inhibition mutuelle (appelée inhibition naturelle en neurosciences). Nous essayons donc de trouver une valeur pour S qui soit la plus grande possible.
If you organise S in terms of a tree, the lines represent the zero terms in the S matrix. Whenever you don’t have a line, there is a non-zero term. So, every feature inhibits all other features except those which are up the tree or down the tree from it. This is something like the converse of group sparsity.
En organisant S en termes d’arbre, les lignes représentent les termes nuls dans la matrice S. Chaque fois qu’il n’y a pas de ligne, il y a un terme non nul. Ainsi, chaque caractéristique inhibe toutes les autres caractéristiques, sauf celles qui sont en haut de l’arbre ou en bas de l’arbre. C’est un peu l’inverse de l’éparsité de groupe.
You see again that systems are organising features in more or less a continuous fashion. Features along the branch of a tree represent the same feature with different levels of selectivity. Features along the periphery vary more or less continuously because there is no inhibition.
Nous voyons encore une fois que les systèmes organisent les caractéristiques de manière plus ou moins continue. Les caractéristiques le long de la branche d’un arbre représentent la même caractéristique avec différents niveaux de sélectivité. Les caractéristiques en périphérie varient plus ou moins.
To train this system, at each iteration, you give an x and find the z which minimizes this energy function.Then do one step of gradient descent to update W. You can also do one step of gradient ascent to make the terms in S larger.
Pour entraîner ce système, à chaque itération, nous donnons un x et trouvons z qui minimise cette fonction énergétique. Ensuite, nous faisons une étape de descente de gradient pour mettre à jour le W. Nous pouvons également faire une étape de montée de gradient pour augmenter les termes en S.
World Models and Generative Adversarial Networks
Modèles du monde et réseaux génératifs antagonistes
World models for autonomous control
Modèles du monde pour le contrôle autonome
One of the most important uses of self-supervised learning is to learn world models for control. When humans perform a task, we have an internal model for how the world works. For example, we gain an intuition for physics when we’re about 9 months old, mostly through observation. In some sense, this is similar to self-supervised learning; in learning to predict what will happen, we learn abstract principles, just like self-supervised models learn latent features. But taking this one step further, the internal models let us act on the world. For example, we can use our learned physics intuition and our learned understanding of how our muscles work to predict — and execute — how to catch a falling pen.
L’une des utilisations les plus importantes de l’apprentissage autosupervisé est l’apprentissage de modèles du monde pour le contrôle. Lorsque les humains effectuent une tâche, ils disposent d’un modèle interne pour le fonctionnement du monde. Par exemple, nous acquérons une intuition pour la physique à l’âge de 9 mois environ, principalement par l’observation. Dans un certain sens, cela ressemble à l’apprentissage autosupervisé. En apprenant à prédire ce qui va se passer, nous apprenons des principes abstraits, tout comme les modèles autosupervisés apprennent des caractéristiques latentes. Mais en allant plus loin, les modèles internes nous permettent d’agir sur le monde. Par exemple, nous pouvons utiliser notre intuition en physique et notre compréhension du fonctionnement de nos muscles pour prédire (et exécuter) comment attraper un stylo qui tombe.
What is a “world model”?
Qu’est-ce qu’un modèle du monde (world model) ?
An autonomous intelligence system comprises four major modules (Figure 1.). First, the perception module observes the world and computes a representation of the state of the world. This representation is incomplete because 1) the agent doesn’t observe the whole universe, and 2) the accuracy of the observations is limited. It is also worth noting that in the feed-forward model, the perception module is only present for the initial time step. Second, the actor module (also called a policy module) imagines taking some action based on the (represented) state of the world. Third, the model module predicts the outcome of the action given the (represented) state of the world, and also possibly given some latent features. This prediction gets passed forward to the next time step as the guess for the next state of the world, taking on the role of the perception module from the initial time step. Fig 2 gives an in-detail demonstration of this feed-forward process. Finally, the critic module turns that same prediction into a cost of performing the proposed action, e.g. given the speed with which I believe the pen is falling, if I move muscles in this particular way, how badly will I miss the catch?
Un système intelligent autonome comprend quatre grands modules (figure 1). Tout d’abord, le module de perception observe le monde et calcule une représentation de l’état du monde. Cette représentation est incomplète parce que : 1) l’agent n’observe pas l’univers en entier 2) la précision des observations est limitée. Il est également intéressant de noter que dans le modèle feed-forward, le module de perception n’est présent que pour le pas de temps initial. Deuxièmement, le module acteur (également appelé module politique) imagine une action basée sur l’état (représenté) du monde. Troisièmement, le module modèle prédit le résultat de l’action en fonction de l’état (représenté) du monde, et peut-être aussi en fonction de certaines caractéristiques latentes. Cette prédiction est transmise au pas de temps suivant en tant que supposition de l’état suivant du monde, en prenant le rôle du module de perception à partir du pas de temps initial. La figure 2 présente une démonstration détaillée de ce processus d’anticipation. Enfin, le module critique transforme cette même prédiction en un coût de réalisation de l’action proposée. Par exemple étant donné la vitesse à laquelle je crois que le stylo tombe, si je bouge les muscles de cette manière particulière, à quel point vais-je rater la prise ?
The classical setting
Le cadre classique
In classical optimal control, there is no actor/policy module, but rather just an action variable. This formulation is optimized by a classical method called Model Predictive Control, which was used by NASA in the 1960s to compute rocket trajectories when they switched from human computers (mostly Black women mathematicians) to electronic computers. We can think of this system as an unrolled RNN, and the actions as latent variables, and use backpropagation and gradient methods (or possibly other methods, such as dynamic programming for a discrete action set) to infer the sequence of actions that minimizes the sum of the time step costs.
Dans le cadre classique du contrôle, il n’y a pas de module acteur/politique, mais plutôt une variable d’action. Cette formulation est optimisée par une méthode classique appelée « Model Predictive Control » qui a été utilisée par la NASA dans les années 1960 pour calculer les trajectoires des fusées lorsqu’elles sont passées des ordinateurs humains (principalement des mathématiciennes noires) aux ordinateurs électroniques. Nous pouvons considérer ce système comme un RNN déroulé et les actions comme des variables latentes. On peut utiliser des méthodes de rétropropagation et de gradient (ou éventuellement d’autres méthodes, comme la programmation dynamique pour un ensemble d’actions discrètes) pour inférer la séquence d’actions qui minimise la somme des coûts des pas de temps.
Aside: We use the word “inference” for latent variables, and “learning” for parameters, though the process of optimizing them is generally similar. One important difference is that a latent variable takes a specific value for each sample, whereas, parameters are shared between samples.
Note : nous utilisons le mot « inférence » pour les variables latentes et « apprentissage » pour les paramètres, bien que le processus d’optimisation de ceux-ci soit généralement similaire. Une différence importante est qu’une variable latente prend une valeur spécifique pour chaque échantillon, alors que les paramètres sont partagés entre les échantillons.
An improvement
Une amélioration
Now, we’d prefer not to go through the complicated process of backpropagating every time we want to make a plan. To address this, we use the same trick we used for variational autoencoder to improve sparse coding: we train an encoder to directly predict the optimal action sequence from the world representations. In this regime, the encoder is called a policy network.
Nous préférons ne pas passer par le processus compliqué de la rétropropagation chaque fois que nous voulons faire un plan. Pour y remédier, nous utilisons la même astuce que pour l’auto-encodeur variationnel pour améliorer le codage épars : nous entraînons un encodeur à prédire directement la séquence d’action optimale à partir des représentations du monde. Dans ce régime, l’encodeur est appelé un réseau politique.
Once trained, we can use the policy networks to predict the optimal action sequence immediately after perception.
Une fois entraînés, nous pouvons utiliser les réseaux politiques pour prédire la séquence d’action optimale immédiatement après la perception.
Reinforcement learning (RL)
Apprentissage par renforcement
The main differences between RL and what we have studied up to this point are two-fold:
Les principales différences entre l’apprentissage par renforcement (nous le noterons RL dans la suite, d’après le terme anglais Reinforcement learning) et ce que nous avons étudié jusqu’à présent sont de deux ordres :
1. In Reinforcement learning environments, the cost function is a black box. In other words, the agent does not understand the reward dynamics.
1) Dans les environnements d’apprentissage par renforcement, la fonction de coût est une boîte noire. En d’autres termes, l’agent ne comprend pas la dynamique de la récompense.
2. In the setting of RL, we don’t use a forward model of the world to step the environment. Instead we interact with the real world and learn the result by observing what happens. In the real world our measure of the state of the world is imperfect so it is not always possible to predict what will happen next.
2) Dans le cadre du RL, nous n’utilisons pas un modèle de prédiction du monde. Au lieu de cela, nous interagissons avec le monde réel et apprenons le résultat en observant ce qui se passe. Dans le monde réel, notre mesure de l’état du monde est imparfaite et il n’est donc pas toujours possible de prédire ce qui se passera ensuite.
The main problem of Reinforcement learning is that the cost function is not differentiable. This means that the only way to learn is through trial and error. Then the problem becomes how to explore the state space efficiently. Once you come up with a solution to this the next issue is the fundamental question of exploration vs. exploitation: would you rather take actions to maximally learn about the environment or instead exploit what you have already learned to get as high a reward as possible?
Le principal problème du RL est que la fonction de coût n’est pas différenciable. Cela signifie que la seule façon d’apprendre est de procéder par essais et erreurs. Le problème devient alors de savoir comment explorer efficacement l’espace des états. Une fois que vous avez trouvé une solution à ce problème, la question qui suit est celle fondamentale de l’exploration vs l’exploitation : préférez-vous prendre des actions pour apprendre le plus possible sur l’environnement ou plutôt exploiter ce que vous avez déjà appris pour obtenir une récompense aussi élevée que possible ?
Actor-Critic methods are a popular family of RL algorithms which train both an actor and a critic. Many RL methods work similarly, by training a model of the cost function (the critic). In Actor-Critic methods the role of the critic is to learn the expected value of the value function. This enables back-propagation through the module, since the critic is just a neural network. The actor’s responsibility is to propose actions to take in the environment, and the critic’s job is to learn a model of the cost function. The actor and the critic work in tandem that leads to more efficient learning than if no critic is used. If you don’t have a good model of the world it is much more difficult to learn: e.g. the car next to the cliff will not know that falling off a cliff is a bad idea. This enables humans and animals to learn much more quickly than RL agents: we have really good world models in our head.
Les méthodes Acteur-Critique sont une famille populaire d’algorithmes de RL qui entraînent à la fois un acteur et un critique. De nombreuses méthodes de RL fonctionnent de manière similaire, en entraînant un modèle de la fonction de coût (le critique). Dans les méthodes Acteur-Critique, le rôle du critique est d’apprendre la valeur attendue de la fonction de valeur. Cela permet de faire une rétropropagation dans le module, puisque le critique n’est qu’un réseau neuronal. La responsabilité de l’acteur est de proposer des actions à entreprendre dans l’environnement. Le rôle du critique est d’apprendre un modèle de la fonction de coût. L’acteur et le critique travaillent en tandem, ce qui permet un apprentissage plus efficace que si aucun critique n’est utilisé. Sans un bon modèle du monde, il est beaucoup plus difficile d’apprendre. Par exemple, la voiture à côté de la falaise ne saura pas que tomber d’une falaise est une mauvaise idée. Un modèle du monde permet aux humains et plus généralement aux animaux d’apprendre beaucoup plus rapidement que les agents du RL. Nous avons de très bons modèles du monde dans notre tête.
We cannot always predict the future of the world due to inherent uncertainty: aleatory and epistemic uncertainty. Aleatoric uncertainty is due to things you cannot control or observe in the environment. Epistemic uncertainty is when you cannot predict the future of the world because your model does not have enough training data.
Nous ne pouvons pas toujours prédire l’avenir du monde en raison de l’incertitude inhérente : l’incertitude aléatoire et épistémique. L’incertitude aléatoire est due à des choses ne pouvant pas être contrôlé ou observé dans l’environnement. L’incertitude épistémique, est quand il n’est pas possible de prédire l’avenir du monde car le modèle ne contient pas assez de données d’entraînement.
The forward model would like to be able to predict
Le modèle de prédiction aimerait pouvoir prédire
where z is a latent variable of which we don’t know the value. z represents what you cannot know about the world but which still influences the prediction (i.e. aleatoric uncertainty). We can regularize z with sparsity, noise, or with an encoder. We can use forward models to learn to plan. The system works by having a decoder decode a concatenation of the state representation and the uncertainty z. The best z is defined as the z that minimizes the difference between s^t+1​ and the actual observed st+1​.
où z est une variable latente dont nous ne connaissons pas la valeur. z représente ce que nous ne pouvons pas savoir sur le monde mais qui influence quand même la prédiction (c’est-à-dire l’incertitude aléatoire). On peut régulariser z avec parcimonie, du bruit ou avec un encodeur. Nous pouvons utiliser des modèles de prédiction pour apprendre à planifier. Le système fonctionne en ayant un décodeur décodant une concaténation de la représentation d’état et de l’incertitude z. Le meilleur z est défini comme celui qui minimise la différence entre s^t+1 et le st+1 effectivement observé.
Generative Adversarial Network
Réseaux génératifs antagonistes
There are many variations of GAN and here we think of GAN as a form of energy-based model using contrastive methods. It pushes up the energy of contrastive samples and pushes down the energy of training samples. A basic GAN consists of two parts: a generator which produces contrastive samples intelligently and a discriminator (sometimes called critic) which is essentially a cost function and acts as an energy model. Both the generator and the discriminator are neural nets.
Il existe de nombreuses variantes des réseaux génératifs antagonistes (GANs pour Generative Adversarial Networks). Nous considérons ici le GAN comme une forme de modèle à base d’énergie utilisant des méthodes contrastives. Il augmente l’énergie des échantillons contrastifs et diminue l’énergie des échantillons d’entraînement. Un GAN de base se compose de deux parties : un générateur qui produit des échantillons contrastifs de manière intelligente et un discriminateur (parfois appelé critique) qui est essentiellement une fonction de coût agissant comme un modèle énergétique. Le générateur et le discriminateur sont tous deux des réseaux neuronaux.
The two kinds of input to GAN are respectively training samples and contrastive samples. For training samples, GAN passes these samples through the discriminator and makes their energy go down. For contrastive samples, GAN samples latent variables from some distribution, runs them through the generator to produce something similar to training samples, and passes them through the discriminator to make their energy go up. The loss function for discriminator is as follows:
Les deux types d’entrée dans le GAN sont respectivement des échantillons d’entraînement et des échantillons contrastifs. Pour les échantillons d’entraînement, le GAN les fait passer à travers le discriminateur et baisse leur énergie. Pour les échantillons contrastifs, le GAN échantillonne les variables latentes d’une certaine distribution, les fait passer par le générateur pour produire quelque chose de similaire aux échantillons d’entraînement et les fait passer par le discriminateur pour faire monter leur énergie. La fonction de perte pour le discriminateur est la suivante :
where Ld can be a margin-based loss function like F(y)+[m−F(yˉ)]+ or log⁡(1+exp⁡[F(y)])+log⁡(1+exp⁡[−F(yˉ)])log(1+exp[F(y)])+log(1+exp[−F(yˉ​)]) as long as it makes F(y) decrease and F(yˉ) increase. In this context, y is the label, and yˉ is the response variable gives lowest energy except y itself. There is going to be a different loss function for the generator:
où Ld​ peut être une fonction de perte avec marge comme F(y)+[m−F(yˉ)]+ ou log⁡(1+exp⁡[F(y)])+log⁡(1+exp⁡[−F(yˉ)])log(1+exp[F(y)])+log(1+exp[−F(yˉ​)]) tant que cela fait diminuer F(y) et augmenter F(yˉ). Dans ce contexte, y est le label et yˉ est la variable réponse qui donne l’énergie la plus faible sauf y lui-même. La fonction de perte est différente pour le générateur :
where z is the latent variable and G is the generator neural net. We want to make the generator adapt its weight and produce yˉ with low energy that can fool the discriminator.
où z est la variable latente et G est le réseau générateur. Nous voulons faire en sorte que le générateur adapte son poids et produise yˉ avec une faible énergie pouvant tromper le discriminateur.
The reason why this type of model is called generative adversarial network is because we have two objective functions that are incompatible with each other and we need to minimize them simultaneously. It’s not a gradient descent problem because the goal is to find a Nash equilibrium between these two functions and gradient descent is not capable of this by default.
La raison pour laquelle ce type de modèle est appelé réseaux génératifs antagonistes est que nous avons deux fonctions objectives qui sont incompatibles l’une avec l’autre et que nous devons les minimiser simultanément. Ce n’est pas un problème de descente de gradient car le but est de trouver un équilibre de Nash entre ces deux fonctions or la descente de gradient n’en est pas capable par défaut.
There will be problems when we have samples that are close to the true manifold. Assume that we have an infinitely thin manifold. The discriminator needs to produce 0 probability outside the manifold and infinite probability on the manifold. Since this is very difficult to achieve, GAN uses sigmoid and produces 0 outside the manifold and produces 1 on the manifold. The problem with this is that if we train the system successfully where we get the discriminator to produce 0 outside the manifold, the energy function is completely useless. This is because the energy function is not smooth where all energy outside the data manifold will be infinity and all energy on the data manifold will be 0. We don’t want the energy value to go from 0 to infinity in a very small step. Researchers have proposed many ways to fix this problem by regularizing the energy function. A good example of improved GAN is Wasserstein GAN which limits the size of discriminator weight.
Il y aura des problèmes lorsque nous aurons des échantillons qui seront proches de la vraie variété. Supposons que nous ayons une surface infiniment fine. Le discriminateur doit produire une probabilité de 0 à l’extérieur de la variété et une probabilité infinie sur la variété. Comme cela est très difficile à réaliser, le GAN utilise une sigmoïde pour produire 0 en dehors de la variété et 1 sur la variété. Le problème est que si nous entraînons le système avec succès en faisant en sorte que le discriminateur produise 0 en dehors de la variété, la fonction d’énergie est complètement inutile. En effet, la fonction d’énergie n’est pas homogène car toute l’énergie en dehors de la variété de données sera infinie et toute l’énergie sur la variété de données sera nulle. Nous ne voulons pas que la valeur de l’énergie passe de 0 à l’infini en un tout petit pas. Les chercheurs ont proposé de nombreux moyens pour résoudre ce problème en régularisant la fonction d’énergie. Un bon exemple de GAN amélioré est le GAN de Wasserstein qui limite la taille du poids du discriminateur.
Generative Adversarial Networks
Réseaux génératifs antagonistes
Introduction to generative adversarial networks (GANs)
Introduction aux réseaux génératifs antagonistes (GANs)
GANs are a type of neural network used for unsupervised machine learning. They are comprised of two adversarial modules: generator and cost networks. These modules compete with each other such that the cost network tries to filter fake examples while the generator tries to trick this filter by creating realistic examples x^. Through this competition, the model learns a generator that creates realistic data. They can be used in tasks such as future predictions or for generating images after being trained on a particular dataset.
Les GANs sont un type de réseau de neurones utilisé pour l’apprentissage machine non supervisé. Ils sont composés de deux modules antagonistes : les réseaux générateur et coût. Ces modules se font concurrence de telle sorte que le réseau coût tente de filtrer les faux exemples tandis que le générateur tente de tromper ce filtre en créant des exemples réalistes x^. Grâce à cette compétition, le générateur du modèle apprend à créer des données réalistes. Ces données peuvent être utilisées dans des tâches telles que la prédiction future ou pour générer des images spécialisées suite à un entraînement sur un jeu de données particulier.
GANs are examples of energy based models (EBMs). As such, the cost network is trained to produce low costs for inputs closer to the true data distribution denoted by the pink x in Fig. 2. Data from other distributions, like the blue x^ in Fig. 2, should have high cost. A mean squared error (MSE) loss is typically used to calculate the cost network’s performance. It is worth noting that the cost function outputs a positive scalar value within a specified range i.e.cost:Rn→R+∪0. This is unlike a classic discriminator which uses discrete classification for its outputs.
Les GANs sont des exemples de modèles à base d’énergie (EBMs). En tant que tel, le réseau coût est entraîné à produire des coûts faibles pour les entrées les plus proches de la distribution réelle des données, désignée par le x rose dans la figure 2. Les données provenant d’autres distributions, comme le x^ bleu de la figure 2, devraient avoir un coût élevé. Une perte d’erreur quadratique moyenne (MSE) est généralement utilisée pour calculer la performance du réseau de coût. Il convient de noter que la fonction de coût produit une valeur scalaire positive dans une plage spécifiée c’est-à-dire couˆt:Rn→R+∪0. Ceci est différent d’un discriminateur classique qui utilise une classification discrète pour ses sorties.
Meanwhile, the generator network (generator:Z→Rn) is trained to improve its mapping of random variable z to realistic generated data x^ to trick the cost network. The generator is trained with respect to the cost network’s output, trying to minimize the energy of x^. We denote this energy as C(G(z)), where C(⋅) is the cost network and G(⋅) is the generator network.
Pendant ce temps, le réseau générateur (generateur:Z→Rn) est entraîné à améliorer la correspondance de la variable aléatoire z aux données réalistes x^ générées pour tromper le réseau de coût. Le générateur est entraîné par rapport à la sortie du réseau de coût, en essayant de minimiser l’énergie de x^. Nous désignons cette énergie par C(G(z)), où C(⋅) est le réseau coût et G(⋅) est le réseau générateur.
The training of the cost network is based on minimizing the MSE loss, while the training of the generator network is through minimizing the cost network, using gradients of C(x^) with respect to x^.
L’entraînement du réseau coût est basée sur la minimisation de la perte MSE, tandis que l’entraînement du réseau générateur est basée sur la minimisation du réseau coût, en utilisant des gradients de C(x^) par rapport à x^.
To ensure that high cost is assigned to points outside the data manifold and low cost is assigned to points within it, the loss function for the cost network LC​ is C(x)+[m−C(G(z))]+ for some positive margin mm. Minimizing LC requires that C(x)→0 and C(G(z))→m. The loss for the generator LG​ is simply C(G(z)), which encourages the generator to ensure that C(G(z))→0. However, this does create instability.
Pour garantir qu’un coût élevé est attribué aux points situés à l’extérieur de la variété de données et qu’un coût faible est attribué aux points situés à l’intérieur de la variété, la fonction de perte pour le réseau coût LC est C(x)+[m−C(G(z))]+ pour une certaine marge positive mm. Pour minimiser LC​, il faut que C(x)→0 et C(G(z)→m. La perte pour le générateur LG​ est simplement C(G(z)), ce qui encourage le générateur à s’assurer que C(G(z))→0. Cependant, cela crée une instabilité.
Difference between GANs and VAEs
Différence entre les GANs et les VAEs
Compared to Variational Auto-Encoders (VAEs) from week 8, GANs create generators slightly differently. Recall, VAEs map inputs x to a latent space Z with an encoder and then map from Z back to the data space with a decoder to get x^. They then use the reconstruction loss to push x and x^ to be similar. GANs, on the other hand, train through an adversarial setting with the generator and cost networks competing as described above. These networks are successively trained through backpropagation through gradient based methods. Comparison of this architectural difference can be seen in Fig. 3.
Par rapport aux VAEs de la semaine 8, les GANs créent des générateurs légèrement différents. Rappelons que les VAE associent les entrées x vers un espace latent Z avec un encodeur puis associent Z vers l’espace de données avec un décodeur pour obtenir x^. Ils utilisent ensuite la perte de reconstruction pour pousser x et x^ à être similaires. Les GANs en revanche sont entrainés dans un cadre antagoniste avec les réseaux générateur et coût qui sont en concurrence comme décrit ci-dessus. Ces réseaux sont successivement entraînés par rétropropagation au moyen de méthodes basées sur le gradient. Une comparaison des différences architecturales est présentée à la figure 3.
GANs also differ from VAEs through how they produce and use z. GANs start by sampling z, similar to the latent space in a VAE. They then use a generative network to map z to x^. This x^ is then sent through a discriminator/cost network to evaluate how “real” it is. One of the main differences from VAE and GAN is that we do not need to measure a direct relationship (i.e. reconstruction loss) between the output of the generative network x^ and real data x. Instead, we force x^ to be similar to x by training the generator to produce x^ such that the discriminator/cost network produces scores that are similar to those of real data x, or more “real”.
Les GANs diffèrent également des VAEs par la façon dont ils produisent et utilisent les z. Les GANs commencent par échantillonner z, comme l’espace latent dans un VAE. Ils utilisent ensuite un réseau génératif pour mettre en correspondance z avec x^. Ce x^ est envoyé à travers un réseau discriminateur/coût pour évaluer son caractère « réel ». Une des principales différences entre le VAE et le GAN est que nous n’avons pas besoin de mesurer une relation directe (c’est-à-dire la perte de reconstruction) entre la sortie du réseau générateur x^ et les données réelles x. Au lieu de cela, nous forçons x^ à être similaire à x en entraînant le générateur à produire x^ de telle sorte que le réseau discriminateur/coût produise des scores similaires à ceux des données réelles x.
Major pitfalls in GANs
Les principaux pièges avec les GANs
While GANs can be powerful for building generators, they have some major pitfalls.
Si les GANs peuvent être puissants pour la construction de générateurs, ils présentent quelques pièges importants.
1. Unstable convergence
1. Convergence instable
As the generator improves with training, the discriminator performance gets worse because the discriminator can no longer easily tell the difference between real and fake data. If the generator is perfect, then the manifold of the real and fake data will lie on top of each other and the discriminator will create many misclassifications.
Au fur et à mesure que le générateur s’améliore avec l’entraînement, les performances du discriminateur se détériorent car celui-ci ne peut plus faire facilement la différence entre les données réelles et les fausses. Si le générateur est parfait, les données réelles et fausses se superposeront et le discriminateur créera de nombreuses erreurs de classification.
This poses a problem for convergence of the GAN: the discriminator feedback gets less meaningful over time. If the GAN continues training past the point when the discriminator is giving completely random feedback, then the generator starts to train on junk feedback and its quality may collapse. [Refer to training convergence in GANs]
Cela pose un problème pour la convergence du GAN : le retour d’information du discriminateur devient moins significatif avec le temps. Si le GAN continue à s’entraîner au-delà du moment où le discriminateur donne un retour d’information complètement aléatoire, alors le générateur commence à s’entraîner sur le retour d’information indésirable et sa qualité peut s’effondrer (cf. la convergence de l’entraînement dans les GANs).
As a result of this adversarial nature between the generator and discriminator there is an unstable equilibrium point rather than an equilibrium.
En raison de cette nature contradictoire entre le générateur et le discriminateur, il existe un point d’équilibre instable plutôt qu’un équilibre.
2. Vanishing gradient
2. Disparition du gradient
Let’s consider using the binary cross entropy loss for a GAN:
Envisageons d’utiliser la perte binaire d’entropie croisée pour un GAN :
As the discriminator becomes more confident, D(x) gets closer to 1 and D(x^) gets closer to 0. This confidence moves the outputs of the cost network into flatter regions where the gradients become more saturated. These flatter regions provide small, vanishing gradients that hinder the generator network’s training. Thus, when training a GAN, you want to make sure that the cost gradually increases as you become more confident.
Au fur et à mesure que le discriminateur devient plus confiant, D(x) se rapproche de 1 et D(x^) se rapproche de 0. Cette confiance déplace les sorties du réseau coût vers des régions plus plates où les gradients sont plus saturés. Ces régions plus plates présentent de petits gradients qui disparaissent et qui entravent l’entraînement du réseau générateur. Ainsi, lorsque de l’entraînement d’un GAN, il faut nous assurer que le coût augmente progressivement à mesure que nous devenons plus confiant.
3. Mode collapse
3. Effondrement des modes
If a generator maps all z’s from the sampler to a single x^ that can fool the discriminator, then the generator will produce only that x^. Eventually, the discriminator will learn to detect specifically this fake input. As a result, the generator simply finds the next most plausible x^ and the cycle continues. Consequently, the discriminator gets trapped in local minima while cycling through fake x^’s. A possible solution to this issue is to enforce some penalty to the generator for always giving the same output given different inputs.
Si un générateur fait correspondre tous les z de l’échantillonneur à un seul x^ qui peut tromper le discriminateur, alors le générateur produira seulement ce x^. Finalement, le discriminateur apprendra à détecter spécifiquement cette fausse entrée. En conséquence, le générateur trouve simplement le x^ suivant le plus plausible et le cycle continue. Par conséquent, le discriminateur se retrouve piégé dans les minima locaux pendant qu’il passe en revue les faux x^. Une solution possible à ce problème est d’imposer une pénalité au générateur pour avoir toujours donné la même sortie avec des entrées différentes.
Deep Convolutional Generative Adversarial Network (DCGAN) source code
Code source du Deep Convolutional Generative Adversarial Network (DCGAN)
The source code of the example can be found here.
Le code source de l’exemple peut être trouvé ici.
Generator
Générateur