1.1) What means Learning for Artificial Intelligence?
[ Ссылка ]
1.2) How Deep Learning differs from Machine Learning?
[ Ссылка ]
2.1) What is a Tensor? Data Representation for Deep Learning
[ Ссылка ]
2.2) Dot Product to Find the Angle between Vectors
[ Ссылка ]
2.3) Gradient Descent and Directional Derivatives
[ Ссылка ]
2.4) Deterministic vs Stochastic Gradient Descent
[ Ссылка ]
2.5) Stochastic Gradient Descent with Momentum
[ Ссылка ]
2.6) Root Mean Square Propagation (RMSprop)
[ Ссылка ]
3.1) What is Entropy for Information Theory?
[ Ссылка ]
3.2) Why Minimize the Cross-Entropy instead of the Classification Error?
[ Ссылка ]
3.3) How Logistic Sigmoid is related to Softplus Function?
[ Ссылка ]
3.4) Why Softmax as Activation Function?
[ Ссылка ]
4.1) How Feedforward differs from Recurrent Neural Network?
[ Ссылка ]
4.2) Why Rectified Linear Unit (ReLU) for Feedforward Network?
[ Ссылка ]
5.1) Great Jupyter Notebooks for Learning Keras!
[ Ссылка ]
5.2) How to Activate the Free GPU/TPU on Google Colab?
[ Ссылка ]
5.3) Neural Network: Handwritten Digits Classification
[ Ссылка ]
5.4) Sentiment Analysis on Movie Reviews
[ Ссылка ]
5.5) Predicting House Prices with Keras
[ Ссылка ]
Ещё видео!