این سخنرانی 4 البته 6.S094: آموزش عمیق برای اتومبیل های رانندگی (نسخه 2018) است. این کلاس رایگان و برای همه آزاد است. این مقدمه ای است برای تمرین یادگیری عمیق از طریق موضوع کاربردی ساختن یک اتومبیل رانندگی.

طرح کلی:
0:00 – چشم انداز رایانه ای و شبکه های عصبی تحولی
22:15 – معماری شبکه برای طبقه بندی تصویر
34:39 – شبکه های عصبی کاملاً تکاملی
44:35 – جریان نوری
50:07 – مسابقه بخش پویایی صحنه SegFuse SegFuse

اطلاعات:
اسلایدها:
سایت اینترنتی:
GitHub:
لیست پخش:

اتصال:
– اگر از این فیلم لذت بردید ، لطفاً در این کانال مشترک شوید.
– پادکست AI:
– نمایش پشتیبانی خود:
– LinkedIn:
– توییتر:
– فیس بوک:
– اینستاگرام:
– Slack:

پیوندها:
لیست پخش:
سخنرانی 1: یادگیری عمیق –
سخنرانی 2: اتومبیل های خودران –
سخنرانی 3: آموزش تقویت عمیق –
سخنرانی 4: چشم انداز رایانه –
سخنرانی 5: یادگیری عمیق برای سنجش انسان –

بحث مهمان: ساچا آرنود ، ویمو –
بحث مهمان: Emilio Frazolli ، nuTonomy –
بحث مهمان: استرلینگ اندرسون ، شفق قطبی –

2017:
بحث مهمان: Sertac Karaman، MIT –
صحبتهای مهمان: کریس Gerdes ، استنفورد -.

لینک دانلود

14 پاسخ به “MIT 6.S094: چشم انداز رایانه”

  1. Thank you Lex, very clear and informative.
    One thing: 3.59 "the structure of the visual cortex is in layers". The slide before, differences, topology: human brains have no "layers" — a bit misleading

  2. # Some timestamps:
    – Computer Vision is Deep Learning: 00:5301:57
    – Images are numbers: 01:5803:13
    – Visual Cortex: 03:5104:37
    – Deep learning is hard: 04:3806:42
    – KNN: 10:4411:32
    – Learning is optimization of a function: 12:0512:42
    – CNN: 13:3621:30
    – SENet: 29:3032:06
    – Capsule Networks: 32:0734:23
    – Fully Convolutional Networks: 35:2237:53
    – SegNet: 39:5040:15
    – Dilated convolutions: 40:1641:05
    – Deeplap: 41:0641:49
    – Key Aspects of Segment: 41:5042:50
    – ResNet-DUC
    – FlowNet: 44:2648:47
    – FlowNet 2.0: 48:4950:06

  3. The way Lex speaks is very powerful. Always to the point and every sentence have a meaning and purpose with a clear voice. Love it. Love the video. Liked and subscribed

  4. The more I look at different kinds of networks and their strengths and weaknesses, the more I believe that unsupervised learning for relabeling used during yak scrapping is an important tool. In the case given for capsule networks, i.e. the CNN discounting the relationship information, a simple relabeling would guarantee that the CNN would properly identify disarranged faces. Unsupervised clustering would be a good way to identify what relabeling needs to occur.

  5. In a typical CNN, we slide the 'window' from left to right, top to bottom. Is this a Western bias, derived from the way we used to read scrolled paper ?

    The left-right-top-bottom rectangular scan doesn't have any intrinsic meaning, and doesn't mimic the way our retinas work.

    What happens if we use circular rather than rectangular images, and 'grow' from the centre of an image outward ?

نظرات بسته شده اند.