اخیرا ، شبکه های عصبی پیش نگر (FNN ها)، مخصوصا FNN ها با دو لایه ، به طور گسترده مورد استفاده قرار گرفته است در واقع ، FNN ها با دو لایه رایج ترین شبکه های عصبی در کاربرد های عملی هستند. عموما ، یک FNN با دو لایه برای طبقه بندی الگو هایی که به طور غیر خطی قابل تفکیک هستند و همچنین کاربرد های تخمینی، مناسب است. ثابت شده است که FNN های دو لایه ای میتواند تقریبا هر تابع پیوسته و یا غیر پیوسته را تخمین بزند. یادگیری یک بخش بسیار مهم از هر شبکه عصبی است و برای بسیاری از محقق ها این بخش بسیار جذاب است. برای FNN ها ، اکثر کاربرد ها از الگوریتم های انتشار بازگشتی (BP) استاندارد و یا بهبود یافته ، به عنوان روش پرورش شبکه استفاده میکنند. الگوریتم های BP یک الگوریتم مبتنی بر گرادیان است که چندین مشکل دارد ، مانند همگرایی آرام و همچنین گیر کردن در حالت بهینه ی موضعی.
در FNN ها ، در طول روند یادگیری ، هدف یافتن بهترین ترکیب از وزن های ارتباط ها و بایاس ها است تا بتوان به حد اقل خطا دست پیدا کرد. اما ، در بیشتر مواقع FNN ها به نقطه ای همگرا میشوند که از نظر موضعی بهترین راه حل هستند اما در نگاهی کلی ، راه حل بهینه نیستند. به بیان دیگر ، الگوریتم های یادگیری موجب میشوند که FNN ها به حالت کمترین مقدار ممکن خطا در حالت موضعی برسند و به حداقل میان در حالت کلی دست پیدا نکنند. بر اساس مرجع 10 ، همگرایی الگوریتم BP بسیار به مقادیر اولیه وزن ها ، بایاس ها و پارامتر های آن وابسته است. این پارامتر ها شامل نرخ یادگیری و اندازه ی حرکت است. در مقالات ، استفاده از روش های بهینه سازی ابتکاری و یا الگوریتم های تکاملی یک راه حل رایج برای بهبود مشکلات الگوریتم های مبتنی بر BP رایج است.
روش های مختلف بهینه سازی ابتکاری متعددی برای پرورش FNN ها مورد استفاده قرار گرفته است ، مانند شبيه سازي تبريد (SA ) ، الگوریتم های ژنتیک ( GA ها ) ، بهینه سازی های ازدحام ذرات (PSO) ، بهینه سازی های مغناطیسی ( MOA ) و تکامل های تفاضلی ( DE ) . بر اساس مرجع 10 ، بعضی از این موارد مانند SA و GA ، میتوانند احتمال رسیدن به حالت بهینه ی موضعی را کاهش دهند ، اما هنوز سرعت همگرایی آن ها پایین است. بر اساس مرجع های 16 و 22 ، PSO یکی از رایج ترین و کار آمد ترین ها و الگوریتم های بهینه سازی ذرات نیز یکی از بهترین ها برای کاهش مشکلات ذکر شده هستند. در این مقاله ، کارایی GSA و PSOGSA ها برای پرورش FNN ها در مقایسه با PSO ، مورد بررسی قرار گرفته است.
بقیه ی مقاله نیز به صورت زیر سازماندهی شده است :
بخش 4-2 مقدمه ی خلاصه از ایده ی PSO ، GSA و PSOGSA را به ترتیب ، ارائه میدهد. بخش 5 روش اعمال PSO ، GSA و PSOGSA را به عنوان الگوریتم های یادگیری تکاملی روی FNN ها مورد بحث قرار میدهد. نتایج آزمایشی نیز در بخش 6 بررسی شده است. نهایتا ، بخش 7 از مقاله ، نتیجه گیری را انجام میدهد.