سرانجام به اندازه گیری کمی از آنتروپی رسیدیم

درس بعدی را تماشا کنید:

درس قبلی را از دست دادید؟

علوم کامپیوتر در آکادمی خان: یادگیری موضوعاتی از علم کامپیوتر – الگوریتم ها (نحوه حل مشکلات رایج در علوم کامپیوتر و اندازه گیری کارایی راه حل های ما) ، رمزنگاری (نحوه محافظت از اطلاعات مخفی) و نظریه اطلاعات (نحوه رمزگذاری و فشرده سازی اطلاعات)

درباره آکادمی خان: آکادمی خان یک موسسه غیرانتفاعی است که مأموریت ارائه آموزش رایگان و در سطح جهانی را برای هر کس ، در هرجای دیگر فراهم می کند. ما معتقدیم زبان آموزان در هر سنی باید به محتوای آموزشی رایگان که می توانند با سرعت خاص خود تسلط داشته باشند ، دسترسی نامحدودی داشته باشند. ما برای کمک به دانش آموزان و معلمان در سراسر جهان از نرم افزار هوشمند ، تجزیه و تحلیل داده های عمیق و رابط های بصری کاربر استفاده می کنیم. منابع ما دوره های پیش دبستانی را از طریق تحصیلات مقدماتی در دانشگاه ، از جمله ریاضی ، زیست شناسی ، شیمی ، فیزیک ، اقتصاد ، امور مالی ، تاریخ ، گرامر و موارد دیگر پوشش می دهد. ما با همکاری برنامه نویس آزمون ، کالج ، آمادگی آزمون SAT شخصی سازی رایگان را ارائه می دهیم. آکادمی خان به ده ها زبان ترجمه شده است و سالانه 100 میلیون نفر از پلت فرم ما در سراسر جهان استفاده می کنند. برای اطلاعات بیشتر ، به www.khanacademy.org مراجعه کنید ، در فیس بوک با ما بپیوندید یا در توییتر درkhanacademy با ما همراه باشید. و به یاد داشته باشید ، شما می توانید هر چیزی را یاد بگیرید.

رایگان. برای همه. تا ابد. #YouCanLearn هر چیزی

در کانال علوم کامپیوتر کامپیوتر آکادمی مشترک شوید:
عضویت در فرهنگستان خان:.

لینک دانلود

21 پاسخ به “آنتروپی اطلاعات | سفر به تئوری اطلاعات | علوم کامپیوتر | فرهنگستان خان”

  1. I have asked several professors in different universities and countries, why we adopted a binary system to process information and they all answered because you can modulate it with electricity, the state on or off. This never satisfied me. Today I finally understand the deeper meaning and the brilliance of binary states in computing and its interfacing with our reality.

  2. so just to clarify, is the reason the decision tree for machine B is not the same as for A as you ask less questions overall? and how do you ensure that the structure of the decision tree is such that it asks the minimum number of questions?

  3. So if I recall correctly, the one with the highest entropy is the least informative one, then the, if a machine generates symbols, and apply the formula for each symbol, which symbol provides the most information? the one with the least amount of bits? how does that make sense, isn't it the one with the highest amount of bits? calculated by p log( 1/p)

نظرات بسته شده اند.