Ahlad Kumar
Ahlad Kumar
  • 210
  • 1 376 459

Відео

Lecture 15: Support Vector Machine 3 (Soft SVM and Kernel SVM)
Переглядів 8942 роки тому
Lecture 15: Support Vector Machine 3 (Soft SVM and Kernel SVM)
Lecture 14: Support Vector Machine 2
Переглядів 7122 роки тому
Lecture 14: Support Vector Machine 2
Lecture 13: Support Vector Machine (SVM) 1
Переглядів 9742 роки тому
Lecture 13: Support Vector Machine (SVM) 1
ISRO Sponsored Generative Adversarial Network (GAN) Seminar
Переглядів 5262 роки тому
Indian Space Research Organisation (www.isro.gov.in/) sponsored seminar at DAIICT (www.daiict.ac.in/)
ISRO Sponsored Natural Language Processing (NLP) Seminar
Переглядів 3382 роки тому
Indian Space Research Organisation (www.isro.gov.in/) sponsored seminar at DAIICT (www.daiict.ac.in/)
Lecture 12: Perceptron Algorithm
Переглядів 4912 роки тому
Lecture 12: Perceptron Algorithm
Lecture 11: Logistic Regression 2
Переглядів 3912 роки тому
Lecture 11: Logistic Regression 2
Lecture 10: Logistic Regression 1
Переглядів 5852 роки тому
Lecture 10: Logistic Regression 1
Lecture 9: Proximal Gradient Descent
Переглядів 1,1 тис.2 роки тому
Lecture 9: Proximal Gradient Descent
Lecture 8 : LASSO Regression
Переглядів 9852 роки тому
Lecture 8 : LASSO Regression
Lecture 7: Role of Regularization in Regression
Переглядів 7002 роки тому
Lecture 7: Role of Regularization in Regression
Lecture 6 : Kernel Regression
Переглядів 8942 роки тому
Lecture 6 : Kernel Regression
Lecture 24 : Transformers
Переглядів 1,1 тис.2 роки тому
Lecture 24 : Transformers
Lecture 5 : Non Linear Regression and Kernel Trick
Переглядів 1,1 тис.2 роки тому
Lecture 5 : Non Linear Regression and Kernel Trick
Lecture 4: Linear Regression 2
Переглядів 8522 роки тому
Lecture 4: Linear Regression 2
Lecture 23
Переглядів 7682 роки тому
Lecture 23
Lecture 1: Introduction
Переглядів 2,2 тис.2 роки тому
Lecture 1: Introduction
Lecture 2 : Basics of Machine Learning
Переглядів 1,1 тис.2 роки тому
Lecture 2 : Basics of Machine Learning
Lecture 3: Linear Regression
Переглядів 9582 роки тому
Lecture 3: Linear Regression
Lecture 22
Переглядів 6942 роки тому
Lecture 22
Lecture 21
Переглядів 7872 роки тому
Lecture 21
Lecture 20
Переглядів 7272 роки тому
Lecture 20
Lecture 19
Переглядів 7122 роки тому
Lecture 19
Lecture 18
Переглядів 7132 роки тому
Lecture 18
Lecture 17
Переглядів 5592 роки тому
Lecture 17
Lecture 16
Переглядів 9402 роки тому
Lecture 16
Reinforcement Learning 7 : Markov Reward Process
Переглядів 5902 роки тому
Reinforcement Learning 7 : Markov Reward Process
Lecture 15
Переглядів 8032 роки тому
Lecture 15
Reinforcement Learning 6 : Markov Chain, Chapman Kolmogorov Equation and its Python Implementation
Переглядів 9952 роки тому
Reinforcement Learning 6 : Markov Chain, Chapman Kolmogorov Equation and its Python Implementation

КОМЕНТАРІ

  • @akeshagarwal794
    @akeshagarwal794 День тому

    Thanks Ahlad, I really liked your explanation of LSTM and GRU please continue to make videos on seq-2-seq models, Transformers, MoE

  • @darpan2648
    @darpan2648 День тому

    Sir how adjacency matrix can feed to machine learning

  • @johnparker2486
    @johnparker2486 4 дні тому

    Sir, thanks for the video. I have further modified your code to enhance the accuracy

  • @wicaksonoleksono7327
    @wicaksonoleksono7327 13 днів тому

    thanks ! great explanation

  • @sanyamsah3176
    @sanyamsah3176 16 днів тому

    23:00

  • @er.tabasumrafiq136
    @er.tabasumrafiq136 17 днів тому

    sir where are the links and code

  • @mlnjsh1
    @mlnjsh1 17 днів тому

    @AhladKumar pls help

  • @mlnjsh1
    @mlnjsh1 17 днів тому

    @ Ahlad Kumar I subscribed for premium content but your 7 hidden videos are not showing to me

  • @sanyamsah3176
    @sanyamsah3176 18 днів тому

    23:21 How to know how many flattened layers should be there..? I mean, why 120 & 84 FCs..?

  • @mlnjsh1
    @mlnjsh1 19 днів тому

    I join channel but i don't have access to all reinforcement learning videos

  • @mlnjsh1
    @mlnjsh1 19 днів тому

    I join the channel with 599 but i am not able to access the content

  • @kalmongar3533
    @kalmongar3533 23 дні тому

    By P(x), do u mean P(~x){i mean P(telta x)}? 4:25

  • @kalmongar3533
    @kalmongar3533 23 дні тому

    Hat's off to you and the people behind this work. Absolutely amazing

  • @er.tabasumrafiq136
    @er.tabasumrafiq136 25 днів тому

    can anybody explain me what is noise input to generator and why we use it

  • @girlAllenSQ
    @girlAllenSQ 25 днів тому

    🤔

  • @HuyQuang-kp5es
    @HuyQuang-kp5es 26 днів тому

    Thank you for sharing!

  • @priyansukushwaha5195
    @priyansukushwaha5195 27 днів тому

    Hey everyone, please note that sir made a mistake at 28:00, mistake that he clarified in next video . The expectation terms will also include minG and maxD on RHS of equation

  • @anmiecv
    @anmiecv 29 днів тому

    Please direct 1 or 2 more example for finding gm based on seeing the resistance in the Branches ..

  • @anmiecv
    @anmiecv Місяць тому

    In the last configuration you told, why CAN'T we take Rout as Rout of source degeneration resistance , or 2 stage cascode resistance

  • @adnanhashem98
    @adnanhashem98 Місяць тому

    I think that in 0:48 you meant to write and say that the role of the generator is to "...can fool the *discriminator* " instead of the generator.

  • @user-oq7ju6vp7j
    @user-oq7ju6vp7j Місяць тому

    LSTM architecture is more complex than RNN architecture, but formulas for gradient look much easier than for RNN. I think your formulas are incorrect. For example: dL / dWi = .....dit/dwi, and you write that dit/dwi = ht-1, but ht-1 is also depends on wi, because ht-1 = Ot-1*tanh(ft-1 * ct-2 + it-1 * gt-1), where it-1 also pedends on on wi

  • @user-oq7ju6vp7j
    @user-oq7ju6vp7j Місяць тому

    A huge amount of work done by you. Thanks teacher!!!

  • @user-oq7ju6vp7j
    @user-oq7ju6vp7j Місяць тому

    Thank you very much for math explanation. It was very important for me!!!You have simplified it to the smallest detail, now i can implement it in my code! Thanks!!!

  • @minuklee6735
    @minuklee6735 Місяць тому

    Thank you!!!

  • @sameerprajapati9467
    @sameerprajapati9467 Місяць тому

    💯💯💯

  • @bekaluderbew19
    @bekaluderbew19 Місяць тому

    God bless you brother

  • @AadyaGoel-kr9lv
    @AadyaGoel-kr9lv Місяць тому

    Could you share this code?

  • @andywub
    @andywub Місяць тому

    if the decoder generates based on the condition, what is the point of the Z? does it also mean conditions C dominate the influence on the decoder then?

  • @buh357
    @buh357 Місяць тому

    this is gold.

  • @sarikasaxena5567
    @sarikasaxena5567 Місяць тому

    Best graph neural network video

  • @88oitlgftk
    @88oitlgftk 2 місяці тому

    Link of the code?

  • @user-zu2sy2lq6t
    @user-zu2sy2lq6t 2 місяці тому

    just perfect explanation

  • @satheesh2021
    @satheesh2021 2 місяці тому

    Very nice

  • @yuanliu4818
    @yuanliu4818 2 місяці тому

    Hi Ahlad, your explaination is awesome. Thanks for posting the videos. It would be greate if you can keep posting new lectures about the most recent DL technologies, such as transformers and so on.

  • @xiaofengcheng6692
    @xiaofengcheng6692 2 місяці тому

    great

  • @avikthedrummer
    @avikthedrummer 2 місяці тому

    amazingly explained.....understood the notations so so easily. its easy to read a research paper related to GAN comparitively better.

  • @avikthedrummer
    @avikthedrummer 2 місяці тому

    sir any video which explains latent space easily?

  • @avikthedrummer
    @avikthedrummer 2 місяці тому

    sir wht do u mean by l2 nor , l1nor etc

  • @epistemophilicmetalhead9454
    @epistemophilicmetalhead9454 2 місяці тому

    NN not enough for images because: 1. every pixel has some correlation with neighbouring pixels but 1D representation takes pixels row wise and so the model can't properly learn this correlation 2. too many parameters to optimize cause every image has too many pixels 3. translation invariance: if you move the object in the image say in to the right, NN will think they're different

  • @user-ep7yh1ug3j
    @user-ep7yh1ug3j 2 місяці тому

    very interesting but boring...

  • @shahafraz3200
    @shahafraz3200 2 місяці тому

    Sir, kindly guide what we have to do in order to test discriminator model of our GAN.

  • @dronregmi1453
    @dronregmi1453 2 місяці тому

    Thank you for a great explanation. Is there a book covering this material

  • @satyamdubey4110
    @satyamdubey4110 2 місяці тому

    💖💖

  • @satyamdubey4110
    @satyamdubey4110 2 місяці тому

    💖💖

  • @satyamdubey4110
    @satyamdubey4110 2 місяці тому

    💖💖

  • @pickle32
    @pickle32 2 місяці тому

    exeellent lecture series. do you mind sharing the Google colab? Thanks

  • @madhavkumar9942
    @madhavkumar9942 3 місяці тому

    You are great

  • @asheerali2376
    @asheerali2376 3 місяці тому

    perfect explaination

  • @rishabhkumar722
    @rishabhkumar722 3 місяці тому

    @Ahlad Kumar Sir, Thank You for making these amazing lectures. It is the best lecture and detailed lecture on AutoEncoder and its series. Thank You once again. _/\_