فی توو

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

فی توو

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا

اختصاصی از فی توو بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا دانلود با لینک مستقیم و پر سرعت .

بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا


بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا

 

 

 

 

 

 

 

مقاله با عنوان بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا در فرمت ورد در 24 صفحه و شامل مطالب زیر می باشد:

مقدمه
خلاصه ای از الگوریتم BP
فرمول بندی الگوریتم BP
معایب الگوریتم استاندارد پس انتشار خطا (SBP)
بهبود الگوریتم استاندارد پس انتشار خطا (SBP)
الگوریتم BP از نوع دسته ای (BBP)
رفتار شبکه با الگوریتم SBP (0ـــ)
روش ممنتم برای الگوریتم BP (MBP)
نرخ یادگیری متغیر (VLR)
الگوریتم پس انتشار خطای تطبیقی (ABP)
الگوریتم پس انتشار خطا با نرخ یادگیری و ضریب ممنتم تطبیقی (BPALM)
تغییرات علامت
الگوریتم یادگیری Super SAB
الگوریتم پس انتشار خطا با سه ترم
آنالیز همگرایی
الگوریتم پس انتشار خطای بهبود پذیر (Rprop)
نتیجه گیری
مراجع


دانلود با لینک مستقیم


بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا

شناسایی سیستم غیرخطی با استفاده از فازی عصبی ANFIS IDENTIFICATION

اختصاصی از فی توو شناسایی سیستم غیرخطی با استفاده از فازی عصبی ANFIS IDENTIFICATION دانلود با لینک مستقیم و پر سرعت .

شناسایی سیستم غیرخطی با استفاده از فازی عصبی ANFIS IDENTIFICATION


 شناسایی سیستم غیرخطی با استفاده از فازی عصبی ANFIS IDENTIFICATION

 شناسایی سیستم غیرخطی با استفاده از فازی عصبی ANFIS IDENTIFICATION در این روش با استفاده از کنترلر فازی عصبی ضرایب شناسایی سیستم های درجه 1 و 2 را می توانیم محاسبه و تابع تبدیل سیستم را استخراج نماییم.

 


دانلود با لینک مستقیم


شناسایی سیستم غیرخطی با استفاده از فازی عصبی ANFIS IDENTIFICATION

مدلسازی متوسط حجم روزانه ترافیک با استفاده از شبکه های عصبی انتشار برگشتی (BP)

اختصاصی از فی توو مدلسازی متوسط حجم روزانه ترافیک با استفاده از شبکه های عصبی انتشار برگشتی (BP) دانلود با لینک مستقیم و پر سرعت .

مدلسازی متوسط حجم روزانه ترافیک با استفاده از شبکه های عصبی انتشار برگشتی (BP)


مدلسازی متوسط حجم روزانه ترافیک با استفاده از شبکه های عصبی انتشار برگشتی (BP)

• مقاله با عنوان: مدلسازی متوسط حجم روزانه ترافیک با استفاده از شبکه های عصبی انتشار برگشتی (BP) 

• نویسندگان: شاهین شعبانی ، مهدی معتمدی سده ، فرید امجدی 

• محل انتشار: دهمین کنگره بین المللی مهندسی عمران - دانشگاه تبریز - 15 تا 17 اردیبهشت 94 

• فرمت فایل: PDF و شامل 8 صفحه می باشد.

 

 

چکیــــده:

پیش بینی دقیق جریان ترافیک کوتاه مدت، نقشی بنیادی در سیستم‌های هوشمند حمل و نقل و نیز سیستم‌های مدیریت ترافیک پیشرفته ایفا می‌کند. در پژوهش حاضر، از شبکه‌های عصبی انتشار برگشتی به منظور پیش بینی متوسط حجم روزانه ترافیک استفاده شده است. داده‌های حقیقی استفاده شده برای مدلسازی، از جاده قدیم قم - تهران طی دوره زمانی بین سال‌های 1385 تا 1387 بدست آمده است. سپس، تغییر متغیری بر روی داده‌ها صورت پذیرفته و داده‌های حاصل از نگاشت، به منظور آموزش شبکه عصبی، بکار گرفته می‌شوند. در این راستا برای دستیابی به بهترین شبکه، از الگوریتم‌های آموزشی مختلفی استفاده شده است. سپس شبکه‌های آموزش دیده برای پیش بینی احجام ترافیکی روزهای آتی مورد استفاده قرار گرفته و اعتبار سنجی می‌شوند. نتایج نشان می‌دهد که روش حاضر، احجام روزانه ترافیکی را با دقتی بالا و سرعتی مطلوب پیش بینی می‌کند.

________________________________

** توجه: خواهشمندیم در صورت هرگونه مشکل در روند خرید و دریافت فایل از طریق بخش پشتیبانی در سایت مشکل خود را گزارش دهید. **

** توجه: در صورت مشکل در باز شدن فایل PDF مقالات نام فایل را به انگلیسی Rename کنید. **

** درخواست مقالات کنفرانس‌ها و همایش‌ها: با ارسال عنوان مقالات درخواستی خود به ایمیل civil.sellfile.ir@gmail.com پس از قرار گرفتن مقالات در سایت به راحتی اقدام به خرید و دریافت مقالات مورد نظر خود نمایید. **


دانلود با لینک مستقیم


مدلسازی متوسط حجم روزانه ترافیک با استفاده از شبکه های عصبی انتشار برگشتی (BP)

32ص بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا

اختصاصی از فی توو 32ص بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا دانلود با لینک مستقیم و پر سرعت .

32ص بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا


32ص  بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا

32 ص

شبکه های عصبی چند لایه پیش خور1 به طور وسیعی د ر زمینه های متنوعی از قبیل طبقه بندی الگوها، پردازش تصاویر، تقریب توابع و ... مورد استفاده قرار گرفته است.

الگوریتم یادگیری پس انتشار خطا2، یکی از رایج ترین الگوریتم ها جهت آموزش شبکه های عصبی چند لایه پیش خور می باشد. این الگوریتم، تقریبی از الگوریتم بیشترین تنزل3 می باشد و در چارچوب یادگیری عملکردی 4 قرار می گیرد.

عمومیت یافتن الگوریتمBP ، بخاطر سادگی و کاربردهای موفقیت آمیزش در حل مسائل فنی- مهندسی می باشد.

علیرغم، موفقیت های کلی الگوریتم BP در یادگیری شبکه های عصبی چند لایه پیش خور هنوز، چندین مشکل اصلی وجود دارد:

- الگوریتم پس انتشار خطا، ممکن است به نقاط مینیمم محلی در فضای پارامتر، همگرا شود. بنابراین زمانی که الگوریتم BP همگرا                می شود، نمی توان مطمئن شد که به یک جواب بهینه رسیده باشیم.

- سرعت همگرایی الگوریتم BP، خیلی آهسته است.

از این گذشته، همگرایی الگوریتم BP، به انتخاب مقادیر اولیه وزنهای شبکه، بردارهای بایاس و پارامترها موجود در الگوریتم، مانند نرخ یادگیری، وابسته است.

در این گزارش، با هدف بهبود الگوریتم BP، تکنیک های مختلفی ارائه شده است. نتایج شبیه سازیهای انجام شده نیز نشان می دهد، الگوریتم های پیشنهادی نسبت به الگوریتم استاندارد BP، از سرعت همگرایی بالاتری برخوردار هستند.

خلاصه ای از الگوریتم BP

از قانون یادگیری پس انتشار خطا (BP)، برای آموزش شبکه های عصبی چند لایه پیش خور که عموماً شبکه های چند لایه پرسپترون 5 (MLP) هم نامیده می شود، استفاده می شود، استفاده می کنند. به عبارتی توپولوژی شبکه های MLP، با قانون یادگیری پس انتشار خطا تکمیل می شود. این قانون تقریبی از الگوریتم بیشترین نزول (S.D) است و در چارچوب یادگیری عملکردی قرار می گیرد.

بطور خلاصه، فرایند پس انتشار خطا از دو مسیر اصلی تشکیل می شود. مسیر رفت6 و مسیر برگشت 7 .

در مسیر رفت، یک الگوی آموزشی به شبکه اعمال می شود و تأثیرات آن از طریق لایه های میانی به لایه خروجی انتشار می یابد تا اینکه

_________________________________

  1. Multi-Layer Feedforward Neural Networks
  2. Back-Propagation Algorithm
  3. Steepest Descent (S.D)
  4. Performance Learning
  5. Multi Layer Perceptron
  6. Forward Path
  7. Backward Path

نهایتاً خروجی واقعی شبکه MLP، به دست می آید. در این مسیر، پارامترهای شبکه (ماتریس های وزن و بردارهای بایاس)، ثابت و بدون تغییر در نظر گرفته می شوند.

در مسیر برگشت، برعکس مسیر رفت، پارامترهای شبکه MLP تغییر و تنظیم می گردند. این تنظیمات بر اساس قانون یادگیری اصلاح خطا1 انجام می گیرد. سیگنال خطا، رد لایه خروجی شبکه تشکیل می گردد. بردار خطا برابر با اختلاف بین پاسخ مطلوب و پاسخ واقعی شبکه می باشد. مقدار خطا، پس از محاسبه، در مسیر برگشت از لایه خروجی و از طریق لایه های شبکه به سمت پاسخ مطلوب حرکت کند.

در شبکه های MLP، هر نرون دارای یک تابع تحریک غیر خطی است که از ویژگی مشتق پذیری برخوردار است. در این حالت، ارتباط بین پارامترهای شبکه و سیگنال خطا، کاملاً پیچیده و و غیر خطی می باشد، بنابراین مشتقات جزئی نسبت به پارامترهای شبکه به راحتی قابل محاسبه نیستند. جهت محاسبه مشتقات از قانون زنجیره ای2 معمول در جبر استفاده می شود.

فرمول بندی الگوریتم BP

الگوریتم یادگیری BP، بر اساس الگوریتم تقریبی SD است. تنظیم پارامترهای شبکه، مطابق با سیگنالهای خطا که بر اساس ارائه هر الگو به شبکه محاسبه می شود، صورت می گیرد.

الگوریتم بیشترین تنزل با معادلات زیر توصیف می شود:

(1)                                      

(2)                                                 

به طوری WLji و bLj، پارامترهای نرون j ام در لایه iام است. α، نرخ یادگیری2 و F، میانگین مربعات خطا می باشد.

(3)                                                              

(4)                                                                               

(5)          

به طوریکه SLj(k)، حساسیت رفتار شبکه در لایه L ام است.


دانلود با لینک مستقیم


32ص بهبود سرعت یادگیری شبکه های عصبی چند لایه با الگوریتم پس انتشار خطا