یادگیری وزن دهی شده بر اساس دشواری: رویکرد جدید شبه برنامه درسی

نوع فایل : word

تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش : 16

تعداد کلمات : 4500

مجله : Expert Systems With Applications

انتشار : 2019

ترجمه متون داخل جداول : ترجمه شده است

درج جداول در فایل ترجمه : درج شده است

منابع داخل متن : به صورت فارسی درج شده است

کیفیت ترجمه : طلایی

:

تاریخ انتشار
15 جولای 2021
دسته بندی
تعداد بازدیدها
1133 بازدید
27,000 تومان

عنوان فارسی مقاله:یادگیری وزن دهی شده بر اساس دشواری: رویکرد  جدید شبه برنامه درسی مبتنی بر نمونه های دشوار برای آموزش شبکه عصبی

 چکیده

یادگیری برنامه درسی ، که در آن مثالهای آموزشی به تدریج از مرحله آسان به دشواری پیش می روند ، در کارهای مختلف اعمال شده و عملکرد بهتری نسبت به سایر رویکردهای یادگیری ماشینی نشان داده است. با این حال ، شناسایی سطح دشواری از قبل اغلب به دانش دامنه نیاز دارد و یک فرایند زمانبر است. ما به طور پویا بر اساس نتایج حاصل از شبکه های عصبی در حین آموزش ، دشواری مثال ها را تعیین می کنیم و یک عملکرد از دست دادن را برای ارتقا آموزش با مثال های دشوار پیشنهاد می دهیم. نتایج تجربی تأیید می کند که روش پیشنهادی توانایی تعمیم در چندین مجموعه داده را بهبود می بخشد(رویکرد جدید شبه برنامه درسی).

ادامه مطلب

راهنمای خرید:
  • لینک دانلود فایل بلافاصله بعد از پرداخت وجه به نمایش در خواهد آمد.
  • همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
  • ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
  • در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.

Title: Difficulty-Weighted Learning: A Novel Curriculum-Like Approach Based on Difficult Examples for Neural Network Training

Abstract

Curriculum learning, in which training examples gradually proceed from easy to difficulty, has been applied to various tasks and demonstrated better performance than other machine learning approaches. However, identifying the difficulty level in advance often requires domain knowledge and is a time-consuming process. We dynamically decide the difficulty of examples based on outputs from neural networks during training and propose a loss function to promote training with difficult examples. Experimental results verify that the proposed method improves the generalization ability across several datasets.