با وجود تعداد زیادی ابزار یادگیری ماشین در حال حاضر ، چرا شما همیشه یک شبکه عصبی مصنوعی را برای همه بقیه انتخاب می کنید؟ این کلیپ و مورد دیگر می تواند چشم شما را به سمت قابلیت های عالی آنها باز کند! بدون هیچکدام از ریاضیات و کد ها به شبکه های عصبی نگاه دقیق تری خواهید کرد – دقیقاً همان چیزی که هستند و نحوه کار آنهاست. به زودی خواهید فهمید که چرا آنها چنین ابزاری قدرتمند هستند!
Deep Learning TV در
فیس بوک:
توییتر:
Deep Learning در درجه اول مربوط به شبکه های عصبی است ، جایی که شبکه ای از گره ها و لبه ها به هم پیوسته است. شبکه های عصبی برای انجام کارهای پیچیده مانند کار قرار دادن اشیاء در دسته ها بر اساس چند ویژگی طراحی شده اند. این فرایند که به عنوان طبقه بندی شناخته می شود ، کانون سری ماست.
طبقه بندی شامل گرفتن مجموعه ای از اشیاء و برخی از ویژگی های داده است که آنها را توصیف می کند ، و قرار دادن آنها در دسته ها. این توسط یک طبقه بندیگر انجام می شود که ویژگی های داده را به عنوان ورودی در نظر گرفته و مقداری (به طور معمول بین 0 تا 1) را به هر شی اختصاص می دهد. به این عمل شلیک یا فعال سازی گفته می شود. نمره بالا به معنی یک کلاس و نمره پایین به معنای طبقه دیگر است. انواع مختلفی از طبقه بندی کننده ها مانند رگرسیون لجستیک ، ماشین بردار پشتیبانی (SVM) و Na ،ve Bayes وجود دارد. اگر قبلاً از هر یک از این ابزارها استفاده کرده اید ، کدام یک مورد علاقه شماست؟ لطفا نظر دهید.
شبکه های عصبی شبکه های بسیار ساختار یافته ای هستند و سه نوع لایه دارند – یک ورودی ، یک خروجی و به اصطلاح لایه های پنهان که به هر لایه ای بین لایه های ورودی و خروجی اشاره دارد. هر گره (که به آن یک نورون نیز گفته می شود) در لایه های پنهان و خروجی دارای یک طبقه بندیگر است. نورون های ورودی ابتدا ویژگی های داده های جسم را دریافت می کنند. آنها پس از پردازش داده ها ، خروجی خود را به اولین لایه پنهان ارسال می کنند. لایه پنهان این خروجی را پردازش می کند و نتایج را به لایه مخفی بعدی ارسال می کند. این ادامه می یابد تا زمانی که داده ها به لایه خروجی نهایی برسند ، جایی که مقدار خروجی طبقه بندی شی را تعیین می کند. کل این فرآیند به عنوان Forward Propagation یا Forward Prop معروف است. نمرات موجود در لایه خروجی مشخص می کند که کدام مجموعه از ورودی ها متعلق به آن است.
پیوندها:
کتاب مایکل نیلسن –
آموزش ماشین Andrew Ng –
Andrew Ng Deep Learning –
آیا قبلاً با شبکه های عصبی کار کرده اید؟ اگر نه ، آیا تاکنون این موضوع واضح است؟ لطفا نظر دهید.
شبکه های عصبی گاهی اوقات Multilayer Perceptron یا MLP نامیده می شوند. این کمی گیج کننده است زیرا پرسپترون به یکی از شبکه های عصبی اصلی ، که دارای قابلیت فعال سازی محدود است ، اشاره دارد. با این حال ، این اصطلاح گیر کرده است – شبکه عصبی معمولی وانیلی شما به MLP گفته می شود.
قبل از اینکه یک نورون خروجی خود را به نورون بعدی در شبکه شلیک کند ، ابتدا باید ورودی را پردازش کند. برای این کار ، یک محاسبه اصلی را با ورودی و دو عدد دیگر انجام می دهد که به آنها وزن و تعصب گفته می شود. این دو شماره با تغییر شبکه عصبی روی مجموعه ای از نمونه های آزمایش تغییر می کنند. اگر دقت کم باشد ، وزن و اعداد تعصب کمی پیچیده می شوند تا دقت به آرامی بهبود یابد. هنگامی که شبکه عصبی به درستی آموزش داده شود ، دقت آن می تواند تا 95٪ باشد.
وام:
Nickey Pickorita (هنر YouTube) –
ایزابل دکوتنر (صدا) –
دن پارتینسکی (ویرایش کپی) –
Jagannath Rajagopal (خالق ، تهیه کننده و کارگردان) –
This just in – Andrew Ng's deeplearning.ai has released several Deep Learning courses on Coursera. Link: https://www.coursera.org/specializations/deep-learning. Enjoy!
Plz help me to understand from 2:23
What are perceptrons.. didn't explain that
Wow this enlighten ing I didn't get it easy before now I started with Encog and JEFF HILTON then I dropped it when I didn't get it.
Can u suggest deep learning project topics for final year project?? 😊 With IEEE PAPER
Thanks a lot. You made it easier to understand. Keep it up.
The most simplified explanation I have ever found on net, textbook, videos or tutorials, very well organized, and each line of this video answers the questions I have been asking everyone, looking everyone, I blame myself for not finding your channel earlier. Thank you, keep up the good work, community needs you!
do the neurons hold random numbers between 0 to 1? if so, why?
.. reduce costs…you people are sick!
Predictions and graphics…ahhhh get lost!
Is bias = node? For a function y = mx + c, m -> weight, c -> bias, x -> multipler (node value). Can you kindly explain?
Thanks for such good resources on Deep Learning. Just curious, do you make all these pretty pictures used in the video?
nice video, bookmarked the playlist, liked and subscribed 😀
The 75 who disliked are bonkerheads
She is awesome, short and sweet explanations, Thanks a lot
Too much boring history and long annoying introductions to topics that are not discussed. Plus please get rid of that annoying music and intro they just waste time.
Thank you 🙂
And I wonder if the support comments were paid for or were friends or family of this remarkable poor presenter.
All I can do is to support Bill Oddy……
The worst explanation I've ever heard in my life!
So where are all of these “inputs” and deep learning taken from??
Awesome video 🙂
Thanks for this awesome information! I would like to ask whether it is possible for a batch process (e.g. BFGS) not to use a learning rate. I am using a software which uses the BFGS algorithm for weight adjustment and the author states that it does not use a learning rate. Could someone clarify this for me?
I’m so sorry, this is still HARD to understand.
please explain with some examples
my thoughts: this tea and honey are really nice together. you cant go wrong with tea and honey, but this particular honey from russia and this cinnamon tea from poland. man oh man…
grt job thanks
I'm sorry but a 100 sided dice would work much better
The worst explanation I've ever heard in my life!
This is great. Thank you. Can you explain bias?
Why are the middle layers called "hidden layers"? Hidden from what?
Lovely, we are creating the seeds of our own destruction.
Some bed time reading http://neuralnetworksanddeeplearning.com/
Thank you so much for these. Perfect amount of information. Everything else I’ve found is either too simple or too complex.
Is this machine learning or deep learning? It sounds like machine learning to me, but the title says otherwise.
Question:
Is it safe to conclude that Neural Network is just a more interlink version of decision tree?
Simplest explanation I have seen. This is amazing, thanks!