Datasets:
English
stringlengths 2
2.26k
| French
stringlengths 2
1.87k
⌀ |
---|---|
Week 1 | Semaine 1 |
We discuss the motivation behind deep learning. We begin with the history and inspiration of deep learning. Then we discuss the history of pattern recognition and introduce gradient descent and its computation by backpropagation. Finally, we discuss the hierarchical representation of the visual cortex. | Nous discutons de la motivation derrière l’apprentissage profond. Nous commençons par l’histoire et l’inspiration de celui-ci. Ensuite, nous discutons de l’histoire de la reconnaissance des motifs et nous introduisons la descente de gradient et son calcul par rétropropagation. Enfin, nous discutons de la représentation hiérarchique du cortex visuel. |
We first discuss the evolution of CNNs, from Fukushima to LeCun to AlexNet. We then discuss some applications of CNN’s, such as image segmentation, autonomous vehicles, and medical image analysis. We discuss the hierarchical nature of deep networks and the attributes of deep networks that make them advantageous. We conclude with a discussion of generating and learning features/representations. | Nous abordons d’abord l’évolution des ConvNets, de Fukushima à Le Cun et AlexNet. Nous abordons ensuite certaines applications des ConvNets, telles que la segmentation d’images, les véhicules autonomes et l’analyse d’images médicales. Nous discutons de la nature hiérarchique des réseaux profonds et de leurs attributs qui les rendent avantageux. Nous concluons par une discussion sur la génération et l’apprentissage de caractéristiques/représentations. |
We discuss the motivation for applying transformations to data points visualized in space. We talk about Linear Algebra and the application of linear and non-linear transformations. We discuss the use of visualization to understand the function and effects of these transformations. We walk through examples in a Jupyter Notebook and conclude with a discussion of functions represented by neural networks. | Nous discutons de la motivation à appliquer des transformations à des points de données visualisés dans l’espace. Nous parlons d’algèbre linéaire et de l’application des transformations linéaires et non linéaires. Nous voyons l’utilisation de la visualisation pour comprendre les effets de ces transformations. Nous passons en revue des exemples dans un notebook Jupyter et concluons par une discussion sur les fonctions représentées par les réseaux de neurones. |
Motivation of Deep Learning, and Its History and Inspiration | Motivation de l'apprentissage profond, son histoire et son inspiration |
Course plan | Plan du cours |
Basics of Supervised Learning, Neural Nets, Deep Learning | Les bases de l’apprentissage supervisé, des réseaux de neurones et de l’apprentissage profond |
Backpropagation and architectural components | Rétropropagation et composantes architecturales |
Convolutional neural network and its applications | Les réseaux de neurones convolutifs et leurs applications |
More Deep Learning Architectures | Plus d’architectures d’apprentissage profond |
Regularization Tricks / Optimization Tricks / Understanding how Deep Learning works | Astuces pour la régularisation / astuces pour l’optimisation / comprendre le fonctionnement de l’apprentissage profond |
Energy-based models | Modèles à base d’énergie |
Self-supervised learning and beyond | L’apprentissage autosupervisé et au-delà |
Inspiration of Deep Learning and its history | L’inspiration de l’apprentissage profond et son histoire |
On a conceptual level, deep learning is inspired by the brain but not all of the brain’s details are relevant. For a comparison, aeroplanes were inspired by birds. The principle of flying is the same but the details are extremely different. | Sur le plan conceptuel, l’apprentissage profond est inspiré par le cerveau. Cependant tous les détails du cerveau ne sont pas pertinents. À titre de comparaison, les avions ont été inspirés par les oiseaux. Le principe du vol est le même, mais les détails sont extrêmement différents (les avions ne battant pas des ailes). |
The history of deep learning goes back to a field which changed its name now to cybernetics. It started in the 1940s with McCulloch and Pitts. They came up with the idea that neurons are threshold units with on and off states. You could build a Boolean circuit by connecting neurons with each other and conduct logical inference with neurons. The brain is basically a logical inference machine because neurons are binary. Neurons compute a weighted sum of inputs and compare that sum to its threshold. It turns on if it’s above the threshold and turns off if it’s below, which is a simplified view of how neural networks work. | L’histoire de l’apprentissage profond remonte à un domaine qui a changé de nom pour devenir aujourd’hui la cybernétique. Elle a commencé dans les années 1940 avec McCulloch et Pitts. Ils ont eu comme idée que les neurones sont des unités de seuil avec des états de marche et d’arrêt. De ce fait, il est possible de construire un circuit booléen en connectant les neurones entre eux et d’effectuer des inférences logiques avec les neurones. Le cerveau est essentiellement une machine d’inférence logique car les neurones sont binaires. Les neurones calculent une somme pondérée d’entrées et comparent cette somme à son seuil. Un neurone s’allume s’il est supérieur au seuil et s’éteint s’il est inférieur. Ceci est une vue simplifiée du fonctionnement des réseaux neuronaux. |
In 1947, Donald Hebb had the idea that neurons in the brain learn by modifying the strength of the connections between neurons. This is called hyper learning, where if two neurons are fired together, then the connection linked between them increases; if they don’t fire together, then the connection decreases. | En 1947, Donald Hebb a eu l’idée que les neurones du cerveau apprennent en modifiant la force des connexions entre eux. C’est ce qu’on appelle l’hyperapprentissage, où si deux neurones sont activés ensemble alors la connexion entre eux augmente et s’ils ne sont pas activés ensemble alors la connexion diminue. |
Later in 1948, cybernetics were proposed by Norbert Wiener, which is the idea that by having systems with sensors and actuators, you have a feedback loop and a self-regulatory system. The rules of the feedback mechanism of a car all come from this work. | Plus tard, en 1948, la cybernétique a été proposée par Norbert Wiener. Il se base sur l’idée qu’en ayant des systèmes avec des capteurs et des actionneurs, alors il y a une boucle de rétroaction et un système d’autorégulation. Les règles du mécanisme de rétroaction d’une voiture sont toutes issues de son travail. |
In 1957, Frank Rosenblatt proposed the Perceptron, which is a learning algorithm that modifies the weights of very simple neural nets. | En 1957, Frank Rosenblatt a proposé le Perceptron, un algorithme d’apprentissage qui modifie les poids de réseaux neuronaux très simples. |
Overall, this idea of trying to build intellectual machines by simulating lots of neurons was born in 1940s, took off in 1950s, and completely died in late 1960s. The main reasons for the field dying off in 1960 are: | Dans l’ensemble, cette idée d’essayer de construire des machines intellectuelles en simulant de nombreux neurones est née dans les années 1940. Elle a pris son essor dans les années 1950 et s’est complètement éteinte à la fin des années 1960. Les principales raisons de la disparition du domaine en 1960 sont les suivantes : |
The researchers used neurons that were binary. However, the way to get backpropagation to work is to use activation functions that are continuous. At that time, researchers didn’t have the idea of using continuous neurons and they didn’t think they can train with gradients because binary neurons are not differential. | Les chercheurs ont utilisé des neurones binaires. Cependant, la façon de faire fonctionner la rétropropagation est d’utiliser des fonctions d’activation qui sont continues. À cette époque, les chercheurs n’avaient pas l’idée d’utiliser des neurones continus et ils ne pensaient pas pouvoir réaliser l’entraînement avec des gradients car les neurones binaires ne sont pas différentiels. |
With continuous neurons, one would have to multiply the activation of a neuron by a weight to get a contribution to the weighted sum. However, before 1980, the multiplication of two numbers, especially floating-point numbers, were extremely slow. This resulted in another incentive to avoid using continuous neurons. | Avec les neurones continus, il faudrait multiplier l’activation d’un neurone par un poids pour obtenir une contribution à la somme pondérée. Cependant, avant 1980, la multiplication de deux nombres, en particulier des nombres à virgule flottante, était extrêmement lente. Cela n’encourageait donc pas à utiliser des neurones continus. |
Deep Learning took off again in 1985 with the emergence of backpropagation. In 1995, the field died again and the machine learning community abandoned the idea of neural nets. In early 2010, people start using neuron nets in speech recognition with huge performance improvement and later it became widely deployed in the commercial field. In 2013, computer vision started to switch to neuron nets. In 2016, the same transition occurred in natural language processing. Soon, similar revolutions will occur in robotics, control, and many other fields. | L’apprentissage profond a pris un nouvel essor en 1985 avec l’apparition de la rétropropagation. En 1995, le domaine a périclité à nouveau et la communauté de l’apprentissage machine a abandonné l’idée des réseaux neuronaux. Début 2010, les gens ont commencé à utiliser les réseaux de neurones dans la reconnaissance vocale avec une amélioration considérable des performances et, plus tard, ils ont été largement déployés dans le domaine commercial. En 2013, la vision par ordinateur a commencé à passer aux réseaux de neurones. En 2016, la même transition a eu lieu dans le traitement du langage naturel. Bientôt, des révolutions similaires se produiront dans la robotique, le contrôle et bien d’autres domaines. |
Supervised Learning | L’apprentissage supervisé |
90% of deep learning applications use supervised learning. Supervised learning is a process by which, you collect a bunch of pairs of inputs and outputs, and the inputs are feed into a machine to learn the correct output. When the output is correct, you don’t do anything. If the output is wrong, you tweak the parameter of the machine and correct the output toward the one you want. The trick here is how you figure out which direction and how much you tweak the parameter and this goes back to gradient calculation and backpropagation. | 90% des applications d’apprentissage profond utilisent l’apprentissage supervisé. L’apprentissage supervisé est un processus par lequel, on collecte un tas de paires d’entrées et de sorties. Les entrées sont introduites dans une machine pour apprendre la sortie correcte. Lorsque la sortie est correcte, on ne fait rien. Si la sortie est incorrecte, on ajuste le paramètre de la machine afin d’obtenir une nouvelle sortie ressemblant davantage à celle désirée. L’astuce consiste à déterminer la direction et l’ampleur de l’ajustement du paramètre, ce qui revient à calculer le gradient et la rétropropagation. |
Supervised learning stems from Perceptron and Adaline. The Adaline is based on the same architecture with weighted inputs; when it is above the threshold, it turns on and below the threshold, it turns off. The Perceptron is a 2-layer neuron net where the second layer is trainable and the first layer is fixed. Most of the time, the first layer is determined randomly and that’s what they call associative layers. | L’apprentissage supervisé est issu du Perceptron et de l’Adaline. L’Adaline est basé sur la même architecture avec des entrées pondérées. Au-dessus du seuil, cela s’allume et en dessous du seuil, cela s’éteint. Le Perceptron est un réseau de neurones à deux couches dont la première couche est fixe et la deuxième couche est entraînable. La plupart du temps, la première couche est déterminée de manière aléatoire et c’est ce qu’on appelle les couches associatives. |
History of Pattern Recognition and introduction to Gradient Descent | Histoire de la reconnaissance des motifs et de l’introduction de la descente en gradient |
The foregoing is the conceptual basis of pattern recognition before deep learning developed. The standard model of pattern recognition consists of feature extractor and trainable classifier. Input goes into the feature extractor, extracting relevant useful characteristics of inputs such as detecting an eye when the purpose is recognizing the face. Then, the vector of features is fed to the trainable classifier for computing weighted sum and comparing it with the threshold. Here, a trainable classifier could be a perceptron or single neural network. The problem is feature extractor should be engineered by hand. Which means, pattern recognition/computer vision focus on feature extractor considering how to design it for a particular problem, not much devoted to a trainable classifier. | La base conceptuelle de la reconnaissance des motifs précède le développement de l’apprentissage profond. Le modèle standard de reconnaissance des motifs comprend un extracteur de caractéristiques et un classifieur pouvant être entraîné. L’entrée va dans l’extracteur de caractéristiques où sont extraites les caractéristiques pertinentes comme la détection d’un œil lorsque le but est de reconnaître le visage. Ensuite, le vecteur de caractéristiques est envoyé au classifieur (pouvant être entraîné) pour calculer la somme pondérée et la comparer avec le seuil. Dans ce cas, un classifieur pouvant être entraîné peut être un perceptron ou un réseau neuronal unique. Le problème est que l’extracteur de caractéristiques doit être conçu à la main. Ce qui signifie que la reconnaissance des motifs et la vision par ordinateur se concentrent sur l’extracteur en considérant la façon de le concevoir pour un problème particulier, ce qui n’est pas vraiment le cas d’un classifieur pouvant être entraîné. |
After the emergence and development of deep learning, the 2-stage process changed to the sequences of modules. Each module has tunable parameters and nonlinearity. Then, stack them making multiple layers. This is why it is called “deep learning”. The reason why using nonlinearity rather than linearity is that two linear layers could be one linear layer since the composition of two linear is linear. | Après l’émergence et le développement de l’apprentissage profond, le processus en deux étapes est passé à des séquences de modules. Chaque module a des paramètres réglables et une non-linéarité. Ensuite, il faut les empiler pour former plusieurs couches. C’est pourquoi on l’appelle « apprentissage profond ». La raison pour laquelle on utilise une non-linéarité plutôt qu’une linéarité est que deux couches linéaires reviennent à une seule couche linéaire puisque la composition de deux linéaires est linéaire. |
The simplest multi-layer architecture with tunable parameters and nonlinearity could be: the input is represented as a vector such as an image or audio. This input is multiplied by the weight matrix whose coefficient is a tunable parameter. Then, every component of the result vector is passed through a nonlinear function such as ReLU. Repeating this process, it becomes a basic neural network. The reason why it is called a neural network is that this architecture calculates the weighted sum of components of input by corresponding rows of a matrix. | L’architecture multicouche la plus simple avec des paramètres réglables et la non-linéarité pourrait être la suivante. L’entrée est représentée par un vecteur tel qu’une image ou un son. Cette entrée est multipliée par la matrice de poids dont le coefficient est un paramètre réglable. Ensuite, chaque composante du vecteur de résultat est passée par une fonction non linéaire telle que la ReLU (Rectified Linear Unit). En répétant ce processus, cela devient un réseau neuronal de base. La raison pour laquelle on parle de neurones est que cette architecture calcule la somme pondérée des composantes d’entrée par les lignes correspondantes d’une matrice. |
Back to the point of supervised learning, we are comparing the resulting output with target output then optimize the objective function which is the loss, computing a distance/penalty/divergence between the result and target. Then, average this cost function over the training set. This is the goal we want to minimize. In other words, we want to find the value of the parameters that minimize this average. | Pour en revenir à l’apprentissage supervisé, nous comparons le résultat obtenu avec le résultat cible puis nous optimisons la fonction objectif qui est la perte du calcul de la distance/pénalité/divergence entre le résultat et la cible. Ensuite, nous faisons la moyenne de cette fonction de coût sur le jeu d’entraînement. C’est l’objectif que nous voulons minimiser. En d’autres termes, nous voulons trouver la valeur des paramètres qui minimisent cette moyenne. |
The method of how to find it is computing gradient. For example, if we are lost in a smooth mountain at foggy night and want to go to the village in the valley. One way could be turning around and seeing which way the steepest way is to go down then take a small step down. The direction is (negative) gradient. With the assumption that the valley is convex, we could reach the valley. | La méthode pour trouver cette valeur est le calcul du gradient. Par exemple, si nous sommes perdus dans une montagne par une nuit brumeuse et nous voulons aller au village dans la vallée, un moyen pourrait être de faire demi-tour et de voir quel est le chemin le plus raide pour descendre puis de faire un petit pas vers le bas. La direction est le gradient (négatif). En supposant que la vallée est convexe, nous pouvons atteindre la vallée. |
The more efficient way is called Stochastic Gradient Descent (SGD). Since we want to minimize average loss over the training set, we take one sample or small group of samples and calculate the error, then use gradient descent. Then, we take a new sample and get a new value for the error, then get the gradient which is a different direction normally. Two of the main reasons for using SGD are that it helps a model to converge fast empirically if the training set is very large and it enables better generalization, which means getting similar performance on various sets of data. | Le chemin le plus efficace est appelé la « descente de gradient stochastique » (SGD en anglais pour Stochastic Gradient Descent). Comme nous voulons minimiser la perte moyenne sur le jeu d’entraînement, nous prenons un échantillon ou un petit groupe d’échantillons et nous calculons l’erreur. Puis nous utilisons la descente de gradient. Ensuite, nous prenons un nouvel échantillon et obtenons une nouvelle valeur pour l’erreur. Nous avons alors le gradient qui est normalement une direction différente. Deux des principales raisons d’utiliser la SGD sont qu’elle permet à un modèle de converger rapidement si le jeu d’entraînement est très grand et qu’elle permet une meilleure généralisation, c’est-à-dire qu’elle donne des performances similaires sur différents jeux de données. |
Computing gradients by backpropagation | Calculer les gradients par rétropropagation |
Computing gradients by backpropagation is a practical application of the chain rule. The backpropagation equation for the input gradients is as follows: | Le calcul des gradients par rétropropagation est une application pratique de la règle de la chaîne. L’équation de rétropropagation pour les gradients d’entrée est la suivante : |
The backpropagation equation for the weight gradients is as follows: | Dans la même logique, l’équation de rétropropagation pour les gradients des poids est la suivante : |
Note that instead of scalar inputs, they will be vector inputs. More generally, multi-dimensional inputs. Backpropagation allows you to compute the derivative of the difference of the output you want and the output you get (which is the value of the objective function) with respect to any value inside the network. Finally, backpropagation is essential as it applies to multiple layers. | Notez qu’au lieu d’entrées scalaires, il s’agit d’entrées vectorielles. Plus généralement, il s’agit d’entrées multidimensionnelles. La rétropropagation permet de calculer la dérivée de la différence entre la sortie souhaitée et la sortie obtenue (qui est la valeur de la fonction objectif) par rapport à toute valeur à l’intérieur du réseau. Enfin, la rétropropagation est essentielle car elle s’applique à plusieurs couches. |
Hierarchical representation of the Visual Cortex | Représentation hiérarchique du cortex visuel |
Experiments by Fukushima gave us an understanding of how our brain interprets the input to our eyes. In summary, it was discovered that neurons in front of our retina compress the input (known as contrast normalization) and the signal travels from our eyes to our brain. After this, the image gets processed in stages and certain neurons get activated for certain categories. Hence, the visual cortex does pattern recognition in a hierarchical manner. | Les expériences de Fukushima nous ont permis de comprendre comment notre cerveau interprète les données transmises à nos yeux. En résumé, les neurones situés devant notre rétine compriment l’entrée (connue sous le nom de normalisation du contraste) et le signal voyage de nos yeux à notre cerveau. Ensuite, l’image est traitée par étapes et certains neurones sont activés pour certaines catégories. Ainsi, le cortex visuel effectue une reconnaissance des motifs de manière hiérarchique. |
Experiments in which researchers poked electrodes in specific areas of the visual cortex, specifically the V1 area made researchers realize that certain neurons react to motifs that appear in a very small area in a visual field and similarly with neighbouring neurons and neighbouring areas in the visual field. Additionally, neurons that react to the same visual field, react to different types of edges in an organized manner (e.g. vertical or horizontal edges). It is also important to note that there’s also the idea that the visual process is essentially a feed forward process. Hence, somehow fast recognition can be done without some recurrent connections. | Des expériences dans lesquelles des chercheurs ont enfoncé des électrodes dans des zones spécifiques du cortex visuel, en particulier la zone V1, ont permis de réaliser que certains neurones réagissent à des motifs qui apparaissent dans une très petite zone du champ visuel et de la même façon avec les neurones voisins et les zones voisines du champ visuel. En outre, les neurones qui réagissent au même champ visuel réagissent à différents types de bords de manière organisée (par exemple, les bords verticaux ou horizontaux). Il est également important de noter qu’il y a aussi l’idée que le processus visuel est essentiellement un processus feed forward. Par conséquent, une reconnaissance rapide peut être effectuée d’une manière ou d’une autre, sans que certaines connexions récurrentes soient nécessaires. |
Evolution and Uses of CNNs and Why Deep Learning? | Evolution et utilisations des ConvNets et « pourquoi l'apprentissage profond » ? |
Evolution of CNNs | Evolution des ConvNets |
In animal brains, neurons react to edges that are at particular orientations. Groups of neurons that react to the same orientations are replicated over all of the visual field. | Dans le cerveau des animaux, les neurones réagissent aux bords qui ont des orientations particulières. Les groupes de neurones qui réagissent aux mêmes orientations sont reproduits sur l’ensemble du champ visuel. |
Fukushima (1982) built a neural net (NN) that worked the same way as the brain, based on two concepts. First, neurons are replicated across the visual field. Second, there are complex cells that pool the information from simple cells (orientation-selective units). As a result, the shift of the picture will change the activation of simple cells, but will not influence the integrated activation of the complex cell (convolutional pooling). | En se basant sur deux concepts, Fukushima (1982) a construit un réseau de neurones qui fonctionne de la même manière que le cerveau. Premièrement, les neurones sont répliqués sur l’ensemble du champ visuel. Deuxièmement, il existe des cellules complexes qui regroupent les informations provenant de cellules simples (unités d’orientation-sélection). Par conséquent, le déplacement de l’image modifie l’activation des cellules simples mais n’influence pas l’activation intégrée de la cellule complexe (le pooling convolutif). |
LeCun (1990) used backprop to train a CNN to recognize handwritten digits. There is a demo from 1992 where the algorithm recognizes the digits of any style. Doing character/pattern recognition using a model that is trained end-to-end was new at that time. Previously, people had used feature extractors with a supervised model on top. | Yann Le Cun (1990) a utilisé la rétropropagation pour entraîner un ConvNet à reconnaître les chiffres manuscrits. Il existe une démo de 1993 où l’algorithme reconnaît les chiffres de n’importe quel style. La reconnaissance de caractères/motifs à l’aide d’un modèle entraîné de bout en bout était nouvelle à l’époque. Auparavant, les gens utilisaient des extracteurs de caractéristiques avec un modèle supervisé par-dessus. |
These new CNN systems could recognize multiple characters in the image at the same time. To do it, people used a small input window for a CNN and swiped it over the whole image. If it activated, it meant there was a particular character present. | Ces nouveaux systèmes ConvNets pouvaient reconnaître plusieurs caractères dans l’image en même temps. Pour ce faire, les gens utilisaient une petite fenêtre de saisie pour un ConvNet et la glissaient sur toute l’image. Si elle s’activait, cela signifiait qu’un caractère particulier était présent. |
Later, this idea was applied to faces/people detection and semantic segmentation (pixel-wise classification). Examples include Hadsell (2009) and Farabet (2012). This eventually became popular in industry, used in autonomous driving applications such as lane tracking. | Plus tard, cette idée a été appliquée à la détection des visages/personnes et à la segmentation sémantique (classification au niveau du pixel). Citons par exemple Hadsell (2009) et Farabet (2012). Cette méthode a fini par devenir populaire dans l’industrie, utilisée dans des applications de conduite autonome telles que le suivi de voie. |
Special types of hardware to train CNN were a hot topic in the 1980s, then the interest dropped, and now it has become popular again. | Les capacités de calcul pour entraîner un ConvNet étaient un sujet brûlant dans les années 1980, puis l’intérêt a chuté, et est maintenant redevenu populaire. |
The deep learning (though the term was not used at that time) revolution started in 2010-2013. Researchers focused on inventing algorithms that could help train large CNNs faster. Krizhevsky (2012) came up with AlexNet, which was a much larger CNN than those used before, and trained it on ImageNet (1.3 million samples) using GPUs. After running for a couple of weeks AlexNet beat the performance of the best competing systems by a large margin – a 25.8% vs. 16.4% top-5 error rate. | La révolution de l’apprentissage profond (bien que le terme ne soit pas utilisé à l’époque) a commencé en 2010-2013. Les chercheurs se sont concentrés sur l’invention d’algorithmes qui pourraient aider à entraîner plus rapidement les gros ConvNets. Krizhevsky (2012) a conçu AlexNet, qui était un ConvNet beaucoup plus grand que ceux utilisés auparavant, et l’a entraîné sur ImageNet (1,3 million d’échantillons) en utilisant des GPUs. Après quelques semaines de fonctionnement, AlexNet a largement dépassé les performances des meilleurs systèmes concurrents avec un taux d’erreur pour les 5 premières sorties du modèle (Top-5 error rate) de 16,4% contre 25,8% pour les autres. |
After seeing AlexNet’s success, the computer vision (CV) community was convinced that CNNs work. While all papers from 2011-2012 that mentioned CNNs had been rejected, since 2016 most accepted CV papers use CNNs. | Après avoir vu le succès d’AlexNet, la communauté de la vision par ordinateur (souvent abrégée en CV en anglais pour Computer Vision) a été convaincue que les ConvNets fonctionnent. Alors que tous les articles de 2011-2012 mentionnant les ConvNets étaient alors rejetés, depuis 2016 la plupart des papiers acceptés utilisent les ConvNets. |
Over the years, the number of layers used has been increasing: LeNet – 7, AlexNet – 12, VGG – 19, ResNet – 50. However, there is a trade-off between the number of operations needed to compute the output, the size of the model, and its accuracy. Thus, a popular topic now is how to compress the networks to make the computations faster. | Au fil des ans, le nombre de couches utilisées a augmenté : 7 pour LeNet, 12 pour AlexNet, 19 pour VGG, 50 pour ResNet. Toutefois, il y a un compromis à faire entre le nombre d’opérations nécessaires pour calculer le résultat, la taille du modèle et sa précision. Ainsi, un sujet actuellement populaire est de savoir comment comprimer les réseaux pour rendre les calculs plus rapides. |
Deep Learning and Feature Extraction | Apprentissage profond et extraction de caractéristiques |
Multilayer networks are successful because they exploit the compositional structure of natural data. In compositional hierarchy, combinations of objects at one layer in the hierarchy form the objects at the next layer. If we mimic this hierarchy as multiple layers and let the network learn the appropriate combination of features, we get what is called Deep Learning architecture. Thus, Deep Learning networks are hierarchical in nature. | Les réseaux multicouches ont du succès parce qu’ils exploitent la structure des données naturelles (la parole, les images, le texte). Dans la hiérarchie des compositions, les combinaisons d’objets à une couche de la hiérarchie forment les objets de la couche suivante. Si nous imitons cette hiérarchie sous forme de couches multiples et que nous laissons le réseau apprendre la combinaison de caractéristiques appropriée, nous obtenons ce que l’on appelle l’architecture d’apprentissage profond. Ainsi, les réseaux d’apprentissage profond sont de nature hiérarchique. |
Deep learning architectures have led to an incredible progress in computer vision tasks ranging from identifying and generating accurate masks around the objects to identifying spatial properties of an object. Mask-RCNN and RetinaNet architectures mainly led to this improvement. | Les architectures d’apprentissage profond ont conduit à un progrès incroyable dans les tâches de vision par ordinateur, allant de l’identification et de la génération de masques précis autour d’objets à l’identification des propriétés spatiales d’un objet. Les architectures Mask-RCNN et RetinaNet ont principalement conduit à cette amélioration. |
Mask RCNNs have found their use in segmenting individual objects, i.e. creating masks for each object in an image. The input and output are both images. The architecture can also be used to do instance segmentation, i.e. identifying different objects of the same type in an image. Detectron, a Facebook AI Research (FAIR) software system, implements all these state-of-the-art object detection algorithms and is open source. | Mask-RCNN est utilité dans la segmentation d’objets individuels, c’est-à-dire la création de masques pour chaque objet d’une image. L’entrée et la sortie sont toutes deux des images. L’architecture peut également être utilisée pour faire de la segmentation d’instance, c’est-à-dire identifier différents objets du même type dans une image. Detectron, un système logiciel de Facebook AI Research (FAIR), met en œuvre tous ces algorithmes de détection d’objets de pointe et est open source. |
Some of the practical applications of CNNs are powering autonomous driving and analysing medical images. | Certaines des applications pratiques des ConvNets sont l’aide à la conduite et l’analyse d’images médicales. |
Although the science and mathematics behind deep learning is fairly understood, there are still some interesting questions that require more research. These questions include: Why do architectures with multiple layers perform better, given that we can approximate any function with two layers? Why do CNNs work well with natural data such as speech, images, and text? How are we able to optimize non-convex functions so well? Why do over-parametrised architectures work? | Bien que les sciences et les mathématiques qui sous-tendent l’apprentissage profond soient assez bien comprises, il reste quelques questions intéressantes qui nécessitent davantage de recherche. Ces questions sont les suivantes : Pourquoi les architectures à plusieurs couches sont-elles plus performantes, étant donné que nous pouvons approximer n’importe quelle fonction avec deux couches ? Pourquoi les ConvNets fonctionnent-ils aussi bien avec des données naturelles telles que la parole, les images et le texte ? Comment sommes-nous capables d’optimiser aussi bien les fonctions non convexes ? Pourquoi les architectures surparamétrées fonctionnent-elles ? |
Feature extraction consists of expanding the representational dimension such that the expanded features are more likely to be linearly separable; data points in higher dimensional space are more likely to be linearly separable due to the increase in the number of possible separating planes. | L’extraction de caractéristiques consiste à élargir la dimension de représentation de telle sorte que les caractéristiques élargies aient plus de chances d’être linéairement séparables (en raison de l’augmentation du nombre de plans de séparation possibles). |
Earlier machine learning practitioners relied on high quality, hand crafted, and task specific features to build artificial intelligence models, but with the advent of Deep Learning, the models are able to extract the generic features automatically. Some common approaches used in feature extraction algorithms are highlighted below: | Auparavant, les experts en apprentissage machine s’appuyaient sur des caractéristiques de haute qualité, artisanales et spécifiques à une tâche afin de construire des modèles d’intelligence artificielle. Mais avec l’avènement de l’apprentissage profond, les modèles sont capables d’extraire automatiquement les caractéristiques génériques. Certaines approches courantes utilisées dans les algorithmes d’extraction de caractéristiques sont mises en évidence ci-dessous : |
Space tiling | Pavage de l’espace (Space tiling) |
Random Projections | Projections aléatoires (Random Projections) |
Polynomial Classifier (feature cross-products) | Classifieur polynomial (Polynomial Classifier) |
Radial basis functions | Fonctions radiales (Radial basis functions) |
Kernel Machines | Machines à noyaux (Kernel Machines) |
Because of the compositional nature of data, learned features have a hierarchy of representations with increasing level of abstractions. For example: | En raison de la nature compositionnelle des données, les traits appris ont une hiérarchie de représentations avec un niveau d’abstraction croissant. Par exemple : |
Images - At the most granular level, images can be thought of as pixels. Combination of pixels constitute edges which when combined forms textons (multi-edge shapes). Textons form motifs and motifs form parts of the image. By combining these parts together we get the final image. | pour les images : Au niveau le plus granulaire, les images peuvent être considérées comme des pixels. La combinaison de pixels constitue des bords qui, lorsqu’ils sont combinés, forment des textons (formes à bords multiples). Les textons forment des motifs et les motifs font partie de l’image. En combinant ces parties ensemble, on obtient l’image finale. |
Text - Similarly, there is an inherent hierarchy in textual data. Characters form words, when we combine words together we get word-groups, then clauses, then by combining clauses we get sentences. Sentences finally tell us what story is being conveyed. | pour le texte : De même, il existe une hiérarchie inhérente aux données textuelles. Les caractères forment des mots, lorsque nous combinons des mots ensemble, nous obtenons des groupes de mots, puis en les combinant nous obtenons des phrases. Les phrases nous disent finalement quelle histoire est véhiculée. |
Speech - In speech, samples compose bands, which compose sounds, which compose phones, then phonemes, then whole words, then sentences, thus showing a clear hierarchy in representation. | pour la parole : Dans la parole, les échantillons composent des bandes, qui composent des sons, puis des phonèmes, puis des mots entiers, puis des phrases, montrant ainsi une hiérarchie claire dans la représentation. |
Learning representations | Apprendre les représentations |
There are those who dismiss Deep Learning: if we can approximate any function with 2 layers, why have more? | Certaines personnes rejettent l’apprentissage profond car si nous pouvons approcher n’importe quelle fonction avec deux couches, pourquoi en avoir plus ? |
For example: SVMs find a separating hyperplane “in the span of the data”, meaning predictions are based on comparisons to training examples. SVMs are essentially a very simplistic 2 layer neural net, where the first layer defines “templates” and the second layer is a linear classifier. The problem with 2 layer fallacy is that the complexity and size of the middle layer is exponential in N (to do well with a difficult task, need LOTS of templates). But if you expand the number of layers to log(N), the layers become linear in N. There is a trade-off between time and space. | Par exemple, les SVMs (de l’anglais support vector machines, pouvant être traduit en français par machines à vecteurs de support) trouvent un hyperplan de séparation dans l’étendue des données. Cela signifie que les prédictions sont basées sur des comparaisons avec des exemples d’entraînement. Les SVMs peuvent être vues comme un réseau neuronal à deux couches très simpliste, où la première couche définit des « pochoirs » et la seconde couche est un classifieur linéaire. Le problème avec deux couches est que la complexité et la taille de la couche intermédiaire sont exponentielles en N (pour réussir une tâche difficile, il faut BEAUCOUP de modèles). Mais si vous augmentez le nombre de couches à log(N), les couches deviennent linéaires en N. Il y a un compromis entre le temps et l’espace. |
An analogy is designing a circuit to compute a boolean function with no more than two layers of gates – we can compute any boolean function this way! But, the complexity and resources of the first layer (number of gates) quickly becomes infeasible for complex functions. | Une analogie consiste à concevoir un circuit pour calculer une fonction booléenne avec un maximum de deux couches de portes : nous pouvons calculer toute fonction booléenne de cette façon ! Mais, la complexité et les ressources de la première couche (nombre de portes) deviennent rapidement inutilisables pour les fonctions complexes. |
What is “deep”? | Qu’est-ce que la « profondeur » ? |
An SVM isn’t deep because it only has two layers | Une SVM n’est pas profonde car ne comporte que deux couches |
A classification tree isn’t deep because every layer analyses the same (raw) features | Un arbre de classification n’est pas profond car chaque couche analyse les mêmes caractéristiques (brutes) |
A deep network has several layers and uses them to build a hierarchy of features of increasing complexity | Un réseau profond comporte plusieurs couches et les utilise pour construire une hiérarchie de caractéristiques d’une complexité croissante |
How can models learn representations (good features)? | Comment les modèles peuvent-ils apprendre les représentations (les bonnes caractéristiques) ? |
Manifold hypothesis: natural data lives in a low-dimensional manifold. Set of possible images is essentially infinite, set of “natural” images is a tiny subset. For example: for an image of a person, the set of possible images is on the order of magnitude of the number of face muscles they can move (degrees of freedom) ~ 50. An ideal (and unrealistic) feature extractor represents all the factors of variation (each of the muscles, lighting, etc.). | L’ensemble des images possibles est essentiellement infini, l’ensemble des images « naturelles » est un minuscule sous-ensemble. Par exemple : pour une image d’une personne, l’ensemble des images possibles est de l’ordre de grandeur du nombre de muscles du visage qu’elle peut bouger (degrés de liberté) soit environ 50. Un extracteur de caractéristiques idéal (et irréaliste) représente tous les facteurs de variation (chacun des muscles, éclairage, etc.). C’est l’hypothèse de la multiplicité : les données naturelles vivent dans une multiplicité à faible dimension. |
For the face example, could some other dimensionality reduction technique (i.e. PCA) extract these features? | Pour l’exemple du visage, l’ACP qui est une technique de réduction de la dimensionnalité pourrait-elle extraire ces traits ? |
Would only work if the manifold surface is a hyperplane, which it is not | Cela ne fonctionnerait que si la surface est un hyperplan, ce qui n’est pas le cas. |
Problem Motivation, Linear Algebra, and Visualization | null |
Resources | Ressources |
Please follow Alfredo Canziani on Twitter @alfcnz. Videos and textbooks with relevant details on linear algebra and singular value decomposition (SVD) can be found by searching Alfredo’s Twitter, for example type linear algebra (from:alfcnz) in the search box. | Nous vous invitons à suivre Alfredo Canziani sur Twitter @alfcnz. Vous trouverez sur son compte des vidéos et des manuels contenant des détails pertinents sur l’algèbre linéaire et la décomposition en valeurs singulières (SVD). Ce contenu est trouvable en effectuant une recherche (en anglais) sur le Twitter d’Alfredo, en tapant par exemple linear algebra (from:alfcnz) dans la barre de recherche. |
Transformations and motivation | Transformations et motivation |
As a motivating example, let us consider image classification. Suppose we take a picture with a 1 megapixel camera. This image will have about 1,000 pixels vertically and 1,000 pixels horizontally, and each pixel will have three colour dimensions for red, green, and blue (RGB). Each particular image can then be considered as one point in a 3 million-dimensional space. With such massive dimensionality, many interesting images we might want to classify – such as a dog vs. a cat – will essentially be in the same region of the space. | À titre d’exemple, considérons la classification d’images. Supposons que nous prenons une photo avec un appareil photo de 1 mégapixel. Cette image aura environ 1000 pixels verticalement et 1000 pixels horizontalement. De plus chaque pixel aura trois dimensions de couleur pour le rouge, le vert et le bleu (RVB). Chaque image peut donc être considérée comme un point dans un espace à 33 millions de dimensions. Avec une telle dimensionnalité, de nombreuses images intéressantes que nous pourrions vouloir classer, comme un chien ou un chat, se trouveront essentiellement dans la même région de l’espace. |
In order to effectively separate these images, we consider ways of transforming the data in order to move the points. Recall that in 2-D space, a linear transformation is the same as matrix multiplication. For example, the following are linear transformations: | Afin de séparer efficacement ces images, nous envisageons des moyens de transformer les données afin de déplacer les points. Rappelons que dans l’espace bidimensionnel, une transformation linéaire équivaut à une multiplication matricielle. Par exemple, les transformations suivantes peuvent être obtenues en changeant les caractéristiques de la matrice : |
Rotation (when the matrix is orthonormal). | Rotation : lorsque la matrice est orthonormée. |
Scaling (when the matrix is diagonal). | Mise à l’échelle (« scalabilité ») : lorsque la matrice est diagonale. |
Reflection (when the determinant is negative). | Réflexion : lorsque le déterminant est négatif. |
Shearing. | Shearing. |
Note that translation alone is not linear since 0 will not always be mapped to 0, but it is an affine transformation. Returning to our image example, we can transform the data points by translating such that the points are clustered around 0 and scaling with a diagonal matrix such that we “zoom in” to that region. Finally, we can do classification by finding lines across the space which separate the different points into their respective classes. In other words, the idea is to use linear and nonlinear transformations to map the points into a space such that they are linearly separable. This idea will be made more concrete in the following sections. | Notez que la translation seule n’est pas linéaire puisque 0 ne sera pas toujours mis en correspondance avec 0, mais c’est une transformation affine. Pour revenir à notre exemple d’image, nous pouvons transformer les points de données en les translatant de manière à ce qu’ils soient regroupés autour de 0 et en les mettant à l’échelle à l’aide d’une matrice diagonale de manière à effectuer un « zoom avant » sur cette région. Enfin, nous pouvons effectuer une classification en trouvant des lignes dans l’espace qui séparent les différents points dans leurs classes respectives. En d’autres termes, l’idée est d’utiliser des transformations linéaires et non linéaires pour représenter les points dans un espace tel qu’ils soient linéairement séparables. Cette idée est rendue plus concrète dans les sections suivantes. |
Data visualization - separating points by colour using a network | Visualisation des données : séparation des points à l’aide d’un réseau |
In our visualization, we have five branches of a spiral, with each branch corresponding to a different colour. The points live in a two dimensional plane and can be represented as a tuple; the colour represents a third dimension which can be thought of as the different classes for each of the points. We then use the network to separate each of the points by colour. | Dans notre visualisation, nous avons cinq branches d’une spirale, chaque branche correspondant à une couleur différente. Les points vivent dans un plan bidimensionnel et peuvent être représentés sous la forme d’un tuple. La couleur représente une troisième dimension qui peut être considérée comme les différentes classes pour chacun des points. Nous utilisons ensuite le réseau pour séparer chacun des points par couleur. |
The network "stretches" the space fabric in order to separate each of the points into different subspaces. At convergence, the network separates each of the colours into different subspaces of the final manifold. In other words, each of the colours in this new space will be linearly separable using a one vs. all regression. The vectors in the diagram can be represented by a five by two matrix; this matrix can be multiplied to each point to return scores for each of the five colours. Each of the points can then be classified by colour using their respective scores. Here, the output dimension is five, one for each of the colours, and the input dimension is two, one for the x and y coordinates of each of the points. To recap, this network basically takes the space fabric and performs a space transformation parametrised by several matrices and then by non-linearities. | Le réseau « étire » le tissu spatial afin de séparer chacun des points en différents sous-espaces. À la convergence, le réseau sépare chacune des couleurs en différents sous-espaces de la surface finale. En d’autres termes, chacune des couleurs dans ce nouvel espace sera linéairement séparable par une régression « un contre tous ». Les vecteurs du diagramme peuvent être représentés par une matrice de 5×25×2. Cette matrice peut être multipliée à chaque point pour obtenir des scores pour chacune des cinq couleurs. Chacun des points peut ensuite être classé par couleur en utilisant les scores respectifs. Ici, la dimension de sortie est de cinq, une pour chacune des couleurs, et la dimension d’entrée est de deux, une pour les coordonnées x et y de chacun des points. Pour résumer, ce réseau prend le tissu spatial et effectue une transformation de l’espace paramétrée par plusieurs matrices puis par des non-linéarités. |
The first matrix maps the two dimensional input to a 100 dimensional intermediate hidden layer. We then have a non-linear layer, ReLU or Rectified Linear Unit, which is simply positive part (⋅)+(⋅)+ function. Next, to display our image in a graphical representation, we include an embedding layer that maps the 100 dimensional hidden layer input to a two-dimensional output. Lastly, the embedding layer is projected to the final, five-dimensional layer of the network, representing a score for each colour. | La première matrice fait correspondre l’entrée bidimensionnelle à une couche cachée intermédiaire à 100 dimensions. Nous avons ensuite une couche non linéaire, ReLU (Rectified Linear Unit), qui est simplement une fonction partie positive (⋅)+. Ensuite, pour afficher notre image dans une représentation graphique, nous incluons une couche de représentation vectorielle qui fait correspondre l’entrée de la couche cachée à 100 dimensions à une sortie bidimensionnelle. Enfin, la couche est projetée sur la couche finale à cinq dimensions du réseau, représentant un score pour chaque couleur. |
Random neural net | Réseau neuronal aléatoire |
Lastly, we visualize the transformation performed by a simple, untrained neural network. The network consists of a linear layer, which performs an affine transformation, followed by a hyperbolic tangent non-linearity, and finally another linear layer. Examining the transformation in Fig. 6, we see that it is unlike the linear and non-linear transformations seen earlier. Going forward, we will see how to make these transformations performed by neural networks useful for our end goal of classification. | Enfin, nous visualisons la transformation effectuée par un simple réseau de neurones non entraîné. Le réseau est constitué d’une couche linéaire, qui effectue une transformation affine, suivie d’une tangente hyperbolique non-linéaire, et enfin d’une autre couche linéaire. En examinant la transformation de la figure 6, nous constatons qu’elle est différente des transformations linéaires et non linéaires vues précédemment. Nous allons voir comment rendre utiles ces transformations effectuées par les réseaux de neurones pour notre objectif final de classification. |
Week 2 | Semaine 2 |
We start by understanding what parametrised models are and then discuss what a loss function is. We then look at Gradient-based methods and how it’s used in the backpropagation algorithm in a traditional neural network. We conclude this section by learning how to implement a neural network in PyTorch followed by a discussion on a more generalized form of backpropagation. | Nous commençons par comprendre ce que sont les modèles paramétrés, puis nous discutons de ce qu’est une fonction de perte. Nous examinons ensuite les méthodes basées sur les gradients et leur utilisation dans l’algorithme de la rétropropagation d’un réseau neuronal traditionnel. Nous concluons cette section en apprenant comment mettre en œuvre un réseau de neurones dans PyTorch, puis nous discutons d’une forme plus généralisée de rétropropagation. |
We begin with a concrete example of backpropagation and discuss the dimensions of Jacobian matrices. We then look at various basic neural net modules and compute their gradients, followed by a brief discussion on softmax and logsoftmax. The other topic of discussion in this part is Practical Tricks for backpropagation. | Nous commençons par un exemple concret de rétropropagation et discutons des dimensions des matrices jacobiennes. Nous examinons ensuite divers modules de base des réseaux de neurones et calculons leurs gradients, puis nous discutons brièvement des fonctions softmax et logsoftmax. L’autre sujet de discussion dans cette partie est celui des astuces pratiques pour la rétropropagation. |
Dataset information
Dataset from the French translation by Loïck Bourdois of the course by Yann Le Cun and Alfredo Canziani from the NYU.
More than 3000 parallel data were created. The whole corpus has been manually checked to make sure of the good alignment of the data.
Note that the English data comes from several different people (about 190, see the acknowledgement section below).
This has an impact on the homogeneity of the texts (some write in the past tense, others in the present tense; the abbreviations used are not always the same; some write short sentences, while others write sentences of up to 5 or 6 lines, etc.).
The translation into French was done by a single person in order to alleviate the problems mentioned above and to propose a homogeneous translation.
This means that the corpus of data does not correspond to word by word translations but rather to concept translations.
In this logic, the data were not aligned at the sentence level but rather at the paragraph level.
The translation choices made are explained here.
Usage
from datasets import load_dataset
dataset = load_dataset("lbourdois/en-fr-nyu-dl-course-corpus", sep=";")
Acknowledgments
A huge thank you to the more than 190 students who shared their course notes (in chronological order of contribution):
Yunya Wang, SunJoo Park, Mark Estudillo, Justin Mae, Marina Zavalina, Peeyush Jain, Adrian Pearl, Davida Kollmar, Derek Yen, Tony Xu, Ben Stadnick, Prasanthi Gurumurthy, Amartya Prasad, Dongning Fang, Yuxin Tang, Sahana Upadhya, Micaela Flores, Sheetal Laad, Brina Seidel, Aishwarya Rajan, Jiuhong Xiao, Trieu Trinh, Elliot Silva, Calliea Pan, Chris Ick, Soham Tamba, Ziyu Lei, Hengyu Tang, Ashwin Bhola, Nyutian Long, Linfeng Zhang, Poornima Haridas, Yuchi Ge, Anshan He, Shuting Gu, Weiyang Wen, Vaibhav Gupta, Himani Shah, Gowri Addepalli, Lakshmi Addepalli, Guido Petri, Haoyue Ping, Chinmay Singhal, Divya Juneja, Leyi Zhu, Siqi Wang, Tao Wang, Anqi Zhang, Shiqing Li, Chenqin Yang, Yakun Wang, Jimin Tan, Jiayao Liu, Jialing Xu, Zhengyang Bian, Christina Dominguez, Zhengyuan Ding, Biao Huang, Lin Jiang, Nhung Le, Karanbir Singh Chahal,Meiyi He, Alexander Gao, Weicheng Zhu, Ravi Choudhary,B V Nithish Addepalli, Syed Rahman,Jiayi Du, Xinmeng Li, Atul Gandhi, Li Jiang, Xiao Li, Vishwaesh Rajiv, Wenjun Qu, Xulai Jiang, Shuya Zhao, Henry Steinitz, Rutvi Malaviya, Aathira Manoj, Richard Pang, Aja Klevs, Hsin-Rung Chou, Mrinal Jain, Kelly Sooch, Anthony Tse, Arushi Himatsingka, Eric Kosgey, Bofei Zhang, Andrew Hopen, Maxwell Goldstein, Zeping Zhan, William Huang, Kunal Gadkar, Gaomin Wu, Lin Ye, Aniket Bhatnagar, Dhruv Goyal, Cole Smith, Nikhil Supekar, Zhonghui Hu, Yuqing Wang, Alfred Ajay Aureate Rajakumar, Param Shah, Muyang Jin, Jianzhi Li, Jing Qian, Zeming Lin, Haochen Wang, Eunkyung An, Ying Jin, Ningyuan Huang, Charles Brillo-Sonnino, Shizhan Gong, Natalie Frank, Yunan Hu, Anuj Menta, Dipika Rajesh, Vikas Patidar, Mohith Damarapati, Jiayu Qiu, Yuhong Zhu, Lyuang Fu, Ian Leefmans, Trevor Mitchell, Andrii Dobroshynskyi, Shreyas Chandrakaladharan, Ben Wolfson, Francesca Guiso, Annika Brundyn, Noah Kasmanoff, Luke Martin, Bilal Munawar, Alexander Bienstock, Can Cui, Shaoling Chen, Neil Menghani, Tejaishwarya Gagadam, Joshua Meisel, Jatin Khilnani, Go Inoue, Muhammad Osama Khan, Muhammad Shujaat Mirza, Muhammad Muneeb Afzal, Junrong Zha, Muge Chen, Rishabh Yadav, Zhuocheng Xu, Yada Pruksachatkun, Ananya Harsh Jha, Joseph Morag, Dan Jefferys-White, Brian Kelly, Karl Otness, Xiaoyi Zhang, Shreyas Chandrakaladharan, Chady Raach, Yilang Hao, Binfeng Xu, Ebrahim Rasromani, Mars Wei-Lun Huang, Anu-Ujin Gerelt-Od, Sunidhi Gupta, Bichen Kou, Binfeng Xu, Rajashekar Vasantha, Wenhao Li, Vidit Bhargava, Monika Dagar, Nandhitha Raghuram, Xinyi Zhao, Vasudev Awatramani, Sumit Mamtani, Srishti Bhargava, Jude Naveen Raj Ilango, Duc Anh Phi, Krishna Karthik Reddy Jonnala, Rahul Ahuja, jingshuai jiang, Cal Peyser, Kevin Chang, Gyanesh Gupta, Abed Qaddoumi, Fanzeng Xia, Rohith Mukku, Angela Teng, Joanna Jin, Yang Zhou, Daniel Yao and Sai Charitha Akula.
Citation
@misc{nyudlcourseinfrench,
author = {Canziani, Alfredo and LeCun, Yann and Bourdois, Loïck},
title = {Cours d’apprentissage profond de la New York University},
howpublished = "\url{https://lbourdois.github.io/cours-dl-nyu/}",
year = {2023}"}
License
- Downloads last month
- 53