سرانجام به اندازه گیری کمی از آنتروپی رسیدیم
درس بعدی را تماشا کنید:
درس قبلی را از دست دادید؟
علوم کامپیوتر در آکادمی خان: یادگیری موضوعاتی از علم کامپیوتر – الگوریتم ها (نحوه حل مشکلات رایج در علوم کامپیوتر و اندازه گیری کارایی راه حل های ما) ، رمزنگاری (نحوه محافظت از اطلاعات مخفی) و نظریه اطلاعات (نحوه رمزگذاری و فشرده سازی اطلاعات)
درباره آکادمی خان: آکادمی خان یک موسسه غیرانتفاعی است که مأموریت ارائه آموزش رایگان و در سطح جهانی را برای هر کس ، در هرجای دیگر فراهم می کند. ما معتقدیم زبان آموزان در هر سنی باید به محتوای آموزشی رایگان که می توانند با سرعت خاص خود تسلط داشته باشند ، دسترسی نامحدودی داشته باشند. ما برای کمک به دانش آموزان و معلمان در سراسر جهان از نرم افزار هوشمند ، تجزیه و تحلیل داده های عمیق و رابط های بصری کاربر استفاده می کنیم. منابع ما دوره های پیش دبستانی را از طریق تحصیلات مقدماتی در دانشگاه ، از جمله ریاضی ، زیست شناسی ، شیمی ، فیزیک ، اقتصاد ، امور مالی ، تاریخ ، گرامر و موارد دیگر پوشش می دهد. ما با همکاری برنامه نویس آزمون ، کالج ، آمادگی آزمون SAT شخصی سازی رایگان را ارائه می دهیم. آکادمی خان به ده ها زبان ترجمه شده است و سالانه 100 میلیون نفر از پلت فرم ما در سراسر جهان استفاده می کنند. برای اطلاعات بیشتر ، به www.khanacademy.org مراجعه کنید ، در فیس بوک با ما بپیوندید یا در توییتر درkhanacademy با ما همراه باشید. و به یاد داشته باشید ، شما می توانید هر چیزی را یاد بگیرید.
رایگان. برای همه. تا ابد. #YouCanLearn هر چیزی
در کانال علوم کامپیوتر کامپیوتر آکادمی مشترک شوید:
عضویت در فرهنگستان خان:.
لینک دانلود
I have asked several professors in different universities and countries, why we adopted a binary system to process information and they all answered because you can modulate it with electricity, the state on or off. This never satisfied me. Today I finally understand the deeper meaning and the brilliance of binary states in computing and its interfacing with our reality.
Wow, what a presentation!
so just to clarify, is the reason the decision tree for machine B is not the same as for A as you ask less questions overall? and how do you ensure that the structure of the decision tree is such that it asks the minimum number of questions?
The concept had been presented to me on some online course, but until this video I didn’t really understand it. Thank you!
Thank you!
Why is the number of bounces the log of the outcomes?
Thank you. Explains the intuition behind Entropy very clearly.
The starting example is calculatedly wrongly, PEOPLE.
I can't understand what is being said. Its too bliidy complicated. One if the worst lectures of Khan academy.
Heckin Shanon
🕳❤️🌟😇♾😇🌟❤️🕳
Intuition always wins 🤣
awesome video!
What do they mean by number of outcomes? Can someone give me an example using the ABCD examples they used?
still confused why #outcome=1/pi
Cool beat
can't we just ask one question?
is it abc or d ?
edit: nevermind, i just figured that 1 bit removes uncertainty of 1/2
You should update this video. The mistakes are absurd and misleading.
The 'M' and 'W' are switched and upside down while the 'Z' is just a sideways 'N'…my vote is intentional 6:32
Huh??? Why am I finding out that information entropy was a concept. MIND BLOWN!!!
So if I recall correctly, the one with the highest entropy is the least informative one, then the, if a machine generates symbols, and apply the formula for each symbol, which symbol provides the most information? the one with the least amount of bits? how does that make sense, isn't it the one with the highest amount of bits? calculated by p log( 1/p)
can someone explain in #bounces=p(a)x1+p(b)x3+p(c)x3+p(d)x2 at 3:44 , how numbers 1,3,3 & 2 came?