English
stringlengths
2
2.26k
French
stringlengths
2
1.87k
Evaluation
Evaluation
Evaluation can be performed by full fine-tuning (initialisation evaluation) or training a linear classifier (feature evaluation). PIRL robustness has been tested by using images in-distribution by training it on in-the-wild images. So we just took 1 million images randomly from Flickr, which is the YFCC data set. And then we basically performed pre-training on these images and then performed transplanting on different data sets.
L’évaluation peut être effectuée par un finetuning complet (évaluation de l’initialisation) ou par l’entraînement d’un classifieur linéaire (évaluation des caractéristiques). La robustesse de PIRL a été testée en l’entraînant sur des images en milieu naturel, à savoir un million d’images prises au hasard sur Flickr (jeu de données YFCC). Puis il a été appliqué sur différents jeux de données.
Evaluating on Object Detection task
Evaluation sur la tâche de détection d’objets
PIRL was first evaluated on object detection task (a standard task in vision) and it was able to outperform ImageNet supervised pre-trained networks on both VOC07+12 and VOC07 data sets. In fact, PIRL outperformed even in the stricter evaluation criteria, APall and that’s a good positive sign.
PIRL a d’abord été évalué sur la tâche de détection d’objets. Il a surpassé les réseaux pré-entraînés de manière supervisée sur ImageNet sur les jeux de données VOC07+12 et VOC07. En fait, PIRL a même surpassé les critères d’évaluation les plus stricts, APall.
Evaluating on Semi-supervised Learning
Évaluation sur l’apprentissage semisupervisé
PIRL was then evaluated on semi-supervised learning task. Again, PIRL performed fairly well. In fact, PIRL was better than even the pre-text task of Jigsaw. The only difference between the first row and the last row is that, PIRL is an invariant version, whereas Jigsaw is a covariant version.
PIRL a ensuite été évalué sur une tâche d’apprentissage semisupervisée. Là encore, il a obtenu d’assez bons résultats. En fait, il a même été meilleur que la tâche de prétexte Jigsaw. La seule différence entre la première et la dernière rangée est que PIRL est une version invariante, alors que Jigsaw est une version covariante.
Evaluating on Linear Classification
Évaluation sur la classification linéaire
Now when evaluating on Linear Classifiers, PIRL was actually on par with the CPCv2, when it came out. It also worked well on a bunch of parameter settings and a bunch of different architectures. And of course, now you can have fairly good performance by methods like SimCLR or so. In fact, the Top-1 Accuracy for SimCLR would be around 69-70, whereas for PIRL, that’d be around 63.
Sur l’évaluation sur de la classification, PIRL est au même niveau que CPCv2. Il a également bien fonctionné sur un certain nombre de paramètres et d’architectures différentes. Depuis, la méthode SimCLR fait mieux avec une précision top-1 d’environ 69-70 contre environ 63 pour PIRL.
Evaluating on YFCC images
Evaluation sur les images YFCC
PIRL was evaluated on “In-the-wild” Flickr images from the YFCC data set. It was able to perform better than Jigsaw, even with 100 times smaller data set. This shows the power of taking invariance into consideration for the representation in the pre-text tasks, rather than just predicting pre-text tasks.
PIRL a été évalué sur les images du jeu de données YFCC. Il a été plus performant que Jigsaw, même avec un jeu de données 100 fois plus petit. Cela montre la puissance de la prise en compte de l’invariance pour la représentation dans les tâches de prétexte, plutôt que de simplement prédire les tâches de prétexte.
Semantic Features
Caractéristiques sémantiques
Now, going back to verifying the semantic features, we look at the Top-1 accuracy for PIRL and Jigsaw for different layers of representation from conv1 to res5. It’s interesting to note that the accuracy keeps increasing for different layers for both PIRL and Jigsaw, but drops in the 5th layer for Jigsaw. Whereas, the accuracy keeps improving for PIRL, i.e. more and more semantic.
Maintenant, pour en revenir à la vérification des caractéristiques sémantiques, nous examinons la précision Top-1 pour PIRL et Jigsaw pour différentes couches de représentation, de conv1 à res5. Il est intéressant de noter que la précision augmente pour les différentes couches pour PIRL et Jigsaw, mais qu’elle diminue dans la 5e couche pour Jigsaw. En revanche, la précision continue à s’améliorer pour PIRL, c’est-à-dire de plus en plus sémantique.
Scalability
Passage à l’échelle
PIRL is very good at handling problem complexity because you’re never predicting the number of permutations, you’re just using them as input. So, PIRL can easily scale to all 362,880 possible permutations in the 9 patches. Whereas in Jigsaw, since you’re predicting that, you’re limited by the size of your output space.
PIRL est très efficace pour gérer la complexité des problèmes car on ne prédit jamais le nombre de permutations, on les utilise simplement comme données d’entrée. Ainsi, PIRL peut facilement s’adapter aux 362880 permutations possibles dans les 9 patchs. Alors que dans Jigsaw, nous sommes limités par la taille de l’espace de sortie.
The paper “Misra & van der Maaten, 2019, PIRL” also shows how PIRL could be easily extended to other pretext tasks like Jigsaw, Rotations and so on. Further, it could even be extended to combinations of those tasks like Jigsaw+Rotation.
Le papier de PIRL montre également comment il peut être facilement étendu à d’autres tâches de prétexte comme Jigsaw, les rotations, etc. En outre, il peut même être étendu à des combinaisons de ces tâches comme Jigsaw+Rotation.
Invariance vs. performance
Invariance vs performance
In terms of invariance property, one could, in general, assert that the invariance of PIRL is more than that of the Clustering, which in turn has more invariance than that of the pretext tasks. And similarly, the performance to is higher for PIRL than Clustering, which in turn has higher performance than pretext tasks. This suggests that taking more invariance in your method could improve performance.
En termes de propriété d’invariance, on pourrait, en général, affirmer que l’invariance de PIRL est plus que celle du Clustering, qui à son tour a plus d’invariance que celle des tâches de prétexte. De même, la performance est plus élevée pour PIRL que pour le Clustering, qui à son tour a une performance plus élevée que les tâches de prétexte. Cela suggère que le fait d’ajouter de l’invariance dans une méthode pourrait améliorer les performances.
Shortcomings
Lacunes
1. It’s not very clear as to which set of data transforms matter. Although Jigsaw works, it’s not very clear why it works.
1. Il n’est pas très clair de savoir quel ensemble de données transforme la matière. Bien que Jigsaw fonctionne, on ne sait pas très bien pourquoi.
2. Saturation with model size and data size.
2. Saturation avec la taille du modèle et la taille des données.
3. What invariances matter? (One could think about what invariances work for a particular supervised task in general as future work.)
3. Quelles sont les invariances importantes ? On pourrait penser à celles qui fonctionnent pour une tâche supervisée particulière en général comme un travail futur.
So in general, we should try to predict more and more information and try to be as invariant as possible.
Donc, en général, nous devrions essayer de prévoir de plus en plus d’informations et essayer d’être aussi invariants que possible.
Some important questions asked as doubts
Questions des étudiants sur plusieurs sujets
Contrastive learning and batch norms
L’apprentissage contrastif et la batch normalisation
Wouldn’t the network learn only a very trivial way of separating the negatives from the positives if the contrasting network uses the batch norm layer (as the information would then pass from one sample to the other)?
Le réseau n’apprendrait-il pas une façon très triviale de séparer les négatifs des positifs si le réseau utilise la couche de batch normalisation (car l’information passerait alors d’un échantillon à l’autre) ?
In PIRL, no such phenomenon was observed, so just the usual batch norm was used
Dans PIRL, aucun phénomène de ce type n’a été observé, donc seule la batch normalisation habituelle a été utilisée.
So is it fine to use batch norms for any contrasting networks?
Est-il donc acceptable d’utiliser une normalisation par batch pour des réseaux contrastifs ?
In general, yeah. In SimCLR, a variant of the usual batch norm is used to emulate a large batch size. So, batch norm with maybe some tweaking could be used to make the training easier
En général, oui. Dans SimCLR, une variante de la normalisation par batch est utilisée pour émuler une grande taille de batch. Ainsi, la normalisation par batch avec peut-être quelques modifications pourrait être utilisée pour faciliter l’entraînement.
Does the batch norm work in the PIRL paper only because it’s implemented as a memory bank - as all the representations aren’t taken at the same time? (As batch norms aren’t specifically used in the MoCo paper for instance)
La normalisation par batch fonctionne-t-elle dans le papier PIRL uniquement parce qu’elle est mise en œuvre en tant que banque de mémoire ? Etant donné que toutes les représentations ne sont pas prises en même temps
Yeah. In PIRL, the same batch doesn’t have all the representations and possibly why batch norm works here, which might not be the case for other tasks where the representations are all correlated within the batch
Oui. Dans PIRL, le même batch n’a pas toutes les représentations et est peut-être la raison de pourquoi la normalisation par batch fonctionne ici. Cela pourrait ne pas être le cas pour d’autres tâches où les représentations sont toutes corrélées dans le batch.
So, other than memory bank, are there any other suggestions how to go about for n-pair loss? Should we use AlexNet or others that don’t use batch norm? Or is there a way to turn off the batch norm layer? (This is for a video learning task)
Outre la banque de mémoire, existe-t-il d’autres suggestions sur la manière de procéder en cas de perte n-paires ? Devrions-nous utiliser AlexNet qui n’utilise pas la noramlisation par batch ou existe-t-il un moyen de désactiver la couche de normalisation par batch ? Notamment dans le cadre d’une tâche d’apprentissage vidéo
Generally frames are correlated in videos, and the performance of the batch norm degrades when there are correlations. Also, even the simplest implementation of AlexNet actually uses batch norm. Because, it’s much more stable when trained with a batch norm. You could even use a higher learning rate and you could also use for other downstream tasks. You could use a variant of batch norm for example, group norm for video learning task, as it doesn’t depend on the batch size
Généralement, les images sont corrélées dans les vidéos et la performance de la normalisation par batch se dégrade lorsqu’il y a des corrélations. De plus, même la plus simple des implémentations d’AlexNet utilise en fait la normalisation par batch. En effet, il est beaucoup plus stable lorsqu’il est entraîné avec. Vous pourriez même utiliser un taux d’apprentissage plus élevé et vous pourriez également l’utiliser pour d’autres tâches en aval. Vous pouvez utiliser une variante de la normalisation par batch, par exemple la normalisation par groupe pour les tâches d’apprentissage vidéo, car elle ne dépend pas de la taille du batch.
Loss functions in PIRL
Fonctions de perte dans PIRL
In PIRL, why is NCE (Noise Contrastive Estimator) used for minimizing loss and not just the negative probability of the data distribution: h(vI,vIt)?
Dans PIRL, pourquoi utilise-t-on le NCE (Noise Contrastive Estimator) pour minimiser les pertes et pas seulement la probabilité négative de la distribution des données : h(vI​,vIt​) ?
Actually, both could be used. The reason for using NCE has more to do with how the memory bank paper was set up. So, with k+1 negatives, it’s equivalent to solving k+1 binary problem. Another way of doing it is using a softmax, where you apply a softmax and minimize the negative log-likelihood
En fait, les deux pourraient être utilisés. La raison de l’utilisation du NCE a plus à voir avec la façon dont le papier de la banque de données a été mis en place. Ainsi, avec k+1 négatifs, cela équivaut à résoudre k+1 problème binaire. Une autre façon de procéder est d’utiliser une fonction softmax et minimiser la log-vraisemblance négative.
Self-supervised learning project related tips
Conseils relatifs aux projets d’apprentissage autosupervisés
How do we get a simple self-supervised model working? How do we begin the implementation?
Comment faire fonctionner un modèle simple et autosupervisé ? Comment en amorcer la mise en œuvre ?
There are a certain class of techniques that are useful for the initial stages. For instance, you could look at the pretext tasks. Rotation is a very easy task to implement. The number of moving pieces are in general good indicator. If you’re planning to implement an existing method, then you might have to take a closer look at the details mentioned by the authors, like - the exact learning rate used, the way batch norms were used, etc. The more number of these things, the harder the implementation. Next very critical thing to consider is data augmentation. If you get something working, then add more data augmentation to it.
Il existe une certaine classe de techniques qui sont utiles pour les étapes initiales. Par exemple, vous pouvez examiner les tâches de prétexte. La rotation est une tâche très facile à mettre en œuvre. Le nombre de pièces en mouvement est en général un bon indicateur. Si vous envisagez de mettre en œuvre une méthode existante, vous devrez peut-être examiner de plus près les détails mentionnés par les auteurs, comme le taux d’apprentissage exact utilisé, la manière dont les normes de lot ont été utilisées, etc. Plus ces éléments sont nombreux, plus la mise en œuvre est difficile. Le prochain point très important à prendre en compte est l’augmentation des données. Si quelque chose fonctionne, il faut y ajouter une augmentation des données.
Generative models
Modèles génératifs
Have you thought of combining generative models with contrasting networks?
Avez-vous pensé à combiner des modèles génératifs avec des réseaux contrastifs ?
Generally, it’s good idea. But, it hasn’t been implemented partly because it is tricky and non-trivial to train such models. Integrative approaches are harder to implement, but perhaps the way to go in the future.
Généralement, c’est une bonne idée. Mais, elle n’a pas été mise en œuvre en partie parce qu’il est délicat et non trivial d’entraîner de tels modèles. Les approches intégratives sont plus difficiles à implémenter mais c’est peut-être la voie à suivre à l’avenir.
Distillation
Distillation
Wouldn’t the uncertainty of the model increase when richer targets are given by softer distributions? Also, why is it called distillation?
L’incertitude du modèle n’augmenterait-elle pas lorsque des cibles plus riches sont données par des distributions plus douces ? Aussi, pourquoi l’appelle-t-on distillation ?
If you train on one hot labels, your models tend to be very overconfident. Tricks like label smoothing are being used in some methods. Label smoothing is just a simple version of distillation where you are trying to predict a one hot vector. Now, rather than trying to predict the entire one-hot vector, you take some probability mass out of that, where instead of predicting a one and a bunch of zeros, you predict say 0.97 and then you add 0.01, 0.01 and 0.01 to the remaining vector (uniformly). Distillation is just a more informed way of doing this. Instead of randomly increasing the probability of an unrelated task, you have a pre-trained network to do that. In general softer distributions are very useful in pre-training methods. Models tend to be over-confident and so softer distributions are easier to train. They converge faster too. These benefits are present in distillation
Si vous entraînez sur un seul label, vos modèles ont tendance à être trop confiants. Des astuces comme le lissage des labels sont utilisées dans certaines méthodes. Le lissage de label est une simple version de la distillation où vous essayez de prédire un vecteur one-hot. Maintenant, plutôt que d’essayer de prédire le vecteur one-hot entier, vous en retirez une certaine masse de probabilité, où au lieu de prédire un 1 et un tas de 0, vous prédisez par exemple 0,97 et vous ajoutez ensuite 0,01, 0,01 et 0,01 au vecteur restant (uniformément). La distillation est simplement une façon plus éclairée de procéder. Au lieu d’augmenter de manière aléatoire la probabilité d’une tâche sans rapport, vous disposez d’un réseau pré-entraîné pour le faire. En général, les distributions plus douces sont très utiles dans les méthodes d’entraînement préalable. Les modèles ont tendance à être trop confiants et les distributions plus douces sont plus faciles à entraîner. Elles convergent aussi plus rapidement. Ces avantages sont présents dans la distillation.
The Truck Backer-Upper
Le Truck Backer-Upper
Setup
Configuration
The goal of this task is to build a self-learning controller which controls the steering of the truck while it backs up to the loading dock from any arbitrary initial position.
Le but est de construire un contrôleur autosupervisé qui contrôle la direction du camion pendant qu’il recule vers le quai de chargement à partir de n’importe quelle position initiale arbitraire.
Note that only backing up is allowed, as shown below in Figure 1.
A noter que seul le recul est autorisé, comme le montre la figure 1 ci-dessous.
The state of the truck is represented by six parameters:
L’état du camion est représenté par six paramètres :
Θcab​: Angle of the truck
Θcab​ : angle du camion
xcab,ycab: The cartesian of the yoke (or front of the trailer).
xcab,ycab : le cartésien de l’avant de la remorque.
Θtrailer​: Angle of the trailer
Θtrailer​ : angle de la remorque
xtrailer,ytrailer: The cartesian of the (back of the) trailer.
xtrailer,ytrailer : le cartésien de l’arrière de la remorque.
The goal of the controller is to select an appropriate angle ϕ at each time k, where after the truck will back up in a fixed small distance. Success depends on two criteria:
Le but du contrôleur est de sélectionner un angle approprié ϕ à chaque temps k, où après le camion reculera sur une petite distance fixe. Le succès dépend de deux critères :
1. The back of the trailer is parallel to the wall loading dock, e.g. Θtrailer=0.
1. L’arrière de la remorque est parallèle au quai de chargement mural, par exemple Θtrailer​=0.
2. The back of the trailer (xtrailer,ytrailer) is as close as possible to the point (xdock,ydock) as shown above.
2. L’arrière de la remorque (xtrailer,ytrailer) est aussi proche que possible du point (xdock,ydock) indiqué ci-dessus.
More Parameters and Visualization
Plus de paramètres et de visualisation
In this section, we also consider a few more parameters shown in Figure 2. Given car length L, d1​ the distance between car and trailer and d2​ the length of the trailer, etc, we can calculate the change of angle and positions:
Dans cette section, nous examinons quelques autres paramètres illustrés dans la figure 2. Étant donné la longueur de la voiture L, d1​ la distance entre la voiture et la remorque et d2​ la longueur de la remorque, nous pouvons calculer le changement d’angle et de positions :
Here, s denotes the signed speed and ϕ the negative steering angle. Now we can represent the state by only four parameters: xcab​, ycab​, θ0​ and θ1​. This is because Length parameters are known and xtrailer,ytrailer is determined by xcab,ycab,d1,θ1​.
Ici, s indique la vitesse signée et ϕ l’angle de braquage négatif. Maintenant, nous pouvons représenter l’état par seulement quatre paramètres : xcab​, ycab​, θ0​ et θ1. Cela s’explique par le fait que les paramètres de longueur sont connus et que xtrailer,ytrailer est déterminé par xcab,ycab,d1,θ1​.
At each time step k, a steering signal which ranges from −π4 to π4 will be fed in and the truck will take back up using the corresponding angle.
À chaque pas de temps k, un signal de direction allant de −π4 à π4 est introduit et le camion reprend la route en utilisant l’angle correspondant.
There are several situations where the sequence can end:
Il existe plusieurs situations dans lesquelles la séquence peut se terminer :
If the truck drives into itself (jackknifes, as in Figure 3.2)
Si le camion se rentre dedans (mise en portefeuille, comme dans la figure 3.2)
If the truck goes out of boundary (shown in Figure 3.3)
Si le camion sort de la limite (comme dans la figure 3.3)
If the truck reaches the dock (shown in Figure 3.4)
Si le camion atteint le quai (comme sur la figure 3.4)
Training
Entraînement
The training process involves two stages: (1) training of a neural network to be an emulator of the truck and trailer kinematics and (2) training of a neural network controller to control the truck.
entraînement d’un réseau de neurones pour devenir un émulateur de la cinématique du camion et de la remorque
As shown above, in the abstract diagram, the two blocks are the two networks that will be trained. At each time step kk, the “Trailer Truck Kinematics”, or what we have been calling the emulator, takes in the 6-dimension state vector and the steering signal generated from the controller and generate a new 6-dimension state at time k+1k+1.
entraînement d’un réseau de neurones pour contrôler le camion
Emulator
Emulateur
The emulator takes the current location (Θcabt​,xcabt​,ycabt​, Θtrailert, xtrailert​, ytrailert​) plus the steering direction ϕt as input and outputs the state at next timestep (Θcabt+1​,xcabt+1​,ycabt+1​, Θtrailert+1​, xtrailert+1, ytrailert+1​). It consists of a linear hidden layer, with ReLu activation function, and an linear output layer. We use MSE as the loss function and train the emulator via stochastic gradient descent.
L’émulateur prend l’emplacement actuel (ΘcabtΘcabt​,xcabt,ycabtxcabt​,ycabt​, Θtrailert, xtrailert​, ytrailert​) plus le sens de direction ϕt comme entrée et sort l’état au pas de temps suivant (Θcabt+1​,xcabt+1,ycabt+1​, Θtrailert+1​, xtrailert+1, ytrailert+1). Il se compose d’une couche cachée linéaire, avec fonction d’activation ReLU, et d’une couche de sortie linéaire. Nous utilisons la MSE comme fonction de perte et entraînons l’émulateur via une descente de gradient stochastique.
In this setup, the the simulator can tell us the location of next step given the current location and steering angle. Therefore, we don’t really need a neural-net that emulates the simulator. However, in a more complex system, we may not have access to the underlying equations of the system, i.e. we do not have the laws of the universe in a nice computable form. We may only observe data that records sequences of steering signals and their corresponding paths. In this case, we want to train a neural-net to emulate the dynamic of this complex system.
Dans cette configuration, le simulateur peut nous indiquer l’emplacement de l’étape suivante, compte tenu de la position actuelle et de l’angle de braquage. Par conséquent, nous n’avons pas vraiment besoin d’un réseau neuronal qui émule le simulateur. Cependant, dans un système plus complexe, nous pouvons ne pas avoir accès aux équations sous-jacentes du système, c’est-à-dire que nous n’avons pas les lois de l’univers sous une forme calculable agréable. Nous ne pouvons observer que des données qui enregistrent des séquences de signaux de direction et leurs trajectoires correspondantes. Dans ce cas, nous voulons entraîner un réseau de neurones pour émuler la dynamique de ce système complexe.
In order to train enumlator, there are two important function in Class truck we need to look into when we train the emulator.
Afin d’entraîner l’énumérateur, il y a deux fonctions importantes dans le Class truck que nous devons examiner lorsque nous formons l’émulateur.
First is the step function which gives the output state of the truck after computation.
La première est la fonction step qui donne l’état de sortie du camion après le calcul.
We generate two lists first. We generate an input list by appending the randomly generated steering angle ϕ and the initial state which coming from the truck by running truck.state(). And we generate an output list that is appended by the output state of the truck which can be computed by truck.step(ϕ).
Nous générons d’abord deux listes : une liste d’entrée en ajoutant l’angle de braquage généré aléatoirement ϕ et l’état initial qui provient du camion en exécutant truck.state() et une liste de sortie à laquelle est ajouté l’état de sortie du camion qui peut être calculé par truck.step(ϕ).
We now can train the emulator:
Nous pouvons maintenant entraîner l’émulateur :
Notice that torch.randperm(len(train_inputs)) gives us a random permutation of the indices within the range 0 to length of training inputs minus 1. After the permutation of indices, each time ϕ_state is chosen from the input list at the index i. We input ϕ_state through the emulator function that has a linear output layer and we get next_state_prediction. Notice that the emulator is a neural netork defined as below:
Remarquons que torch.randperm(len(train_inputs)) nous donne une permutation aléatoire des indices dans la fourchette 0 à la longueur des entrées d’entrainement moins 1. Après la permutation des indices, chaque fois que ϕ_state est choisi dans la liste des entrées à l’index i. Nous entrons ϕ_state par la fonction de l’émulateur qui a une couche de sortie linéaire et nous obtenons next_state_prediction.
Here we use MSE to calculate the loss between the true next state and the next state prediction, where the true next state is coming from the output list with index i that corresponding to the index of the ϕ_state from input list.
L’émulateur est un réseau de neurones défini comme ci-dessous :
Controller
Contrôleur
Block C represents the controller. It takes in the current state and ouputs a steering angle. Then block T (emulator) takes both the state and angle to produce the next state.
Le bloc C représente le contrôleur. Il prend en compte l’état actuel et fournit un angle de braquage. Ensuite, le bloc T (émulateur) prend à la fois l’état et l’angle pour produire l’état suivant.
To train the controller, we start from a random initial state and repeat the procedure(C and T) until the trailer is parallel to the dock. The error is calculated by comparing the trailer location and dock location. We then find the gradients using backpropagation and update parameters of the controller via SGD.
Pour entraîner le contrôleur, nous partons d’un état initial aléatoire et répétons la procédure (C et T) jusqu’à ce que la remorque soit parallèle au quai. L’erreur est calculée en comparant l’emplacement de la remorque et l’emplacement du quai. Nous trouvons ensuite les gradients en utilisant la rétropropagation et mettons à jour les paramètres du contrôleur via SGD.
Detailed Model Structure
Structure détaillée du modèle
This is a detailed graph of (C, T) process. We start with a state (6 dimension vector), multiply it with a tunable weights matrix and get 25 hidden units. Then we pass it through another tunable weights vector to get the output (steering signal). Similarly, we input the state and angle ϕ (7 dimension vector) through two layers to produce the state of next step.
Voici un graphique détaillé du processus (C, T). Nous commençons par un état (vecteur à 6 dimensions), le multiplions par une matrice de poids accordables et obtenons 25 unités cachées. Ensuite, nous le faisons passer par un autre vecteur de poids accordables pour obtenir la sortie (signal de direction). De même, nous introduisons l’état et l’angle ϕ (vecteur à 7 dimensions) à travers deux couches pour produire l’état de l’étape suivante.
To see this more clearly, we show the exact implementation of the emulator:
Pour y voir plus clair, nous montrons l’implémentation exacte de l’émulateur :
Examples of Movement
Exemples de mouvements
Following are four examples of movement for different initial state. Notice that the number of time steps in each episode varies.
Voici quatre exemples de mouvements pour différents états initiaux. A noter que le nombre de pas de temps dans chaque épisode varie.
Week 11
Semaine 11
In this section, we discussed about the common activation functions in Pytorch. In particular, we compared activations with kink(s) versus smooth activations - the former is preferred in a deep neural network as the latter might suffer with gradient vanishing problem. We then learned about the common loss functions in Pytorch.
Dans cette section, nous discutons des fonctions d’activation communes dans PyTorch. En particulier, nous comparons les fonctions d’activation avec coude(s) par rapport aux fonctions d’activation lisses. La première est préférée dans un réseau neuronal profond car la seconde pourrait souffrir d’un problème de disparition du gradient. Nous découvrons ensuite les fonctions de perte communes dans PyTorch.
In this section, we continued to learn about loss functions - in particular, margin-based losses and their applications. We then discussed how to design a good loss function for EBMs as well as examples of well-known EBM loss functions. We gave particular attention to margin-based loss function here, as well as explaining the idea of “most offending incorrect answer.
Dans cette section, nous continuons d’aborder les fonctions de perte en particulier celles basées sur une marge et leurs applications. Nous discutons ensuite de la manière de concevoir une bonne fonction de perte pour les EBMs ainsi que des exemples de fonctions de perte bien connues des EBMs. Nous accordons une attention particulière à la fonction de perte basée sur une marge, tout en expliquant l’idée de réponse incorrecte la plus offensante.
This practicum proposed effective policy learning for driving in dense traffic. We trained multiple policies by unrolling a learned model of the real world dynamics by optimizing different cost functions. The idea is to minimize the uncertainty in the model’s prediction by introducing a cost term that represents the model’s divergence from the states it is trained on.
Nous proposons un apprentissage d’une politique dans le cadre d’une conduite dans un trafic dense. Nous entraînons de multiples politiques en déroulant un modèle appris de la dynamique du monde réel en optimisant différentes fonctions de coût. L’idée est de minimiser l’incertitude dans les prédictions du modèle en introduisant un terme de coût qui représente la divergence du modèle par rapport aux états sur lesquels il est entraîné.
Activation and loss functions (part 1)
Fonction de perte et d’activation
Activation functions
Fonctions d’activation
In today’s lecture, we will review some important activation functions and their implementations in PyTorch. They came from various papers claiming these functions work better for specific problems.
Passons en revue certaines fonctions d’activation importantes et leurs implémentations dans PyTorch. Elles sont issues de diverses publications affirmant que ces fonctions fonctionnent mieux pour des problèmes spécifiques.
There are variations in ReLU. The Random ReLU (RReLU) is defined as follows.
Il y a des variations de la ReLU. La ReLU aléatoire (RReLU pour Random ReLU) est définie comme suit :
Note that for RReLU, a is a random variable that keeps samplings in a given range during training, and remains fixed during testing. For PReLU , a is also learned. For Leaky ReLU, a is fixed.
Notez que pour la RReLU, a est une variable aléatoire qui maintient les échantillonages dans une fourchette donnée pendant l’entraînement, et reste fixe pendant le test. Pour la PReLU, a est également appris. Pour la LeakyReLU, a est fixe.
Here a is a fixed parameter. The bottom part of the equation prevents the problem of dying ReLU which refers to the problem when ReLU neurons become inactive and only output 0 for any input. Therefore, its gradient is 0. By using a negative slope, it allows the network to propagate back and learn something useful.
Ici, a est un paramètre fixe. La partie inférieure de l’équation évite que les neurones ReLU deviennent inactifs et ne renvoient à chaque fois 0 pour toute entrée donnée. Par conséquent, sa pente est nulle. En utilisant une pente négative, la fonction permet au réseau de se rétropropager et d’apprendre quelque chose d’utile.
LeakyReLU is necessary for skinny network, which is almost impossible to get gradients flowing back with vanilla ReLU. With LeakyReLU, the network can still have gradients even we are in the region where everything is zero out.
Avec la LeakyReLU, le réseau peut toujours avoir des gradients même si nous sommes dans une région où tout est à zéro.
The above activation functions (i.e. ReLU, LeakyReLU, PReLU) are scale-invariant.
Les fonctions d’activation ci-dessus (ReLU, LeakyReLU, PReLU) sont invariantes au changement d’échelle.
Softplus is a smooth approximation to the ReLU function and can be used to constrain the output of a machine to always be positive.
La softplus est une approximation lisse de la fonction ReLU et peut être utilisée pour contraindre la sortie d’une machine à toujours être positive.
The function will become more like ReLU, if the β gets larger and larger.
La fonction ressemble davantage à la fonction ReLU quand le β augmente.
Unlike ReLU, it can go below 0 which allows the system to have average output to be zero. Therefore, the model may converge faster. And its variations (CELU, SELU) are just different parametrizations.
Contrairement à la ReLU, cette fonction peut descendre en dessous de 0, ce qui permet au système d’avoir une sortie moyenne de 0. Par conséquent, le modèle peut converger plus rapidement. Ses variations (CELU, SELU) ne sont que des paramétrages différents.
where Φ(x) is the Cumulative Distribution Function for Gaussian Distribution.
où Φ(x) est la fonction de distribution cumulative pour la distribution gaussienne.