پایان نامه ها و مقالات

احتمال برنده شدن

دانلود پایان نامه

بـه

صورت زیر تنظیم میشود.

(۴‐۸۲) j IW1,1 (q)) j IW1,1 (q − ۱) α ( p(q)− jIW1,1(q−۱))

روش یادگیری کوهنن باعث میشود که وزنهای نرون یک بردار ورودی را یـاد بگیرنـد، و بـه ایـن

دلیل در کاربردهای تشخیص الگو مفید می باشد.

به این ترتیب نرونی که بردار وزن آن از همه نرونهای دیگـر بـه ورودی نزدیکتـر اسـت، طـوری

تغییر میکند که بیشتر به ورودی نزدیکتر شود. نتیجه این تغییـر ایـن خواهـد بـود کـه در صـورت

عرضه کردن ورودی مشابه ورودی قبلی بـه شـبکه، نـرون برنـده در رقابـت قبلـی، دارای شـانس

بیشتری برای برنده شدن مجدد خواهد داشت.

هر چقدر ورودیهای بیشتری به شبکه عرضه شود، هر نرونی که بـه ایـن ورودیهـا نزدیکتـر باشـد

بردار وزن آن طوری تنظیم میشود که به این ورودیها نزدیک ونزدیکتر شود. در نتیجه، اگـر تعـداد

نرونها به اندازه کافی باشد، هر خوشه از ورودیهای مشابه، یک نرون خواهد داشـت کـه خروجـی

۱۳-Kohonen Learning Rule

۴٧

آن با عرضه کردن یک بردار از این خوشه یک و در غیر این صورت صـفر خواهـد بـود. بـه ایـن

ترتیب شبکه یاد گرفته است که بردارهای ورودی عرضه شده را طبقه بندی کند.

۴‐۶‐۲‐۲ روش یادگیری بایاس١۴ (learncon)

یکی از محدودیتهای شبکه های رقابتی این است که یک نرون ممکن است هرگز تنظیم نشود. بـه

عبارت دیگر، بعضی از بردارهای وزن نرونی ممکن است در آغاز از هر بردار ورودی دور باشـند،

و هر چند آموزش را ادامه دهیم هرگز در رقابت پیروز نشوند. نتیجـه ایـن اسـت وزن هـای آنهـا

تنظیم نمیشود و هرگز در رقابت پیروز نمی شوند. این نرون های نا مطلـوب، کـه بـه نـرون هـای

مرده اطلاق می شوند، هرگز عمل مفیدی انجام نمی دهند.

برای جلوگیری از روی دادن این مورد، بایاسهایی اعمال میشود تا اینکه نرونهـایی کـه بـه نـدرت

برنده میشوند، احتمال برنده شدن را دررقابتهای بعدی داشته باشند. یک با یـاس مثبـت بـه منفـی

فاصله اضافه می شود، به این ترتیب احتمال برنده شدن نرون دورتر بیشتر می شود.

به این منظور، یک متوسط از خروجی نرونها نگهداری میشود. این مقادیر نمایانگر درصـد برنـده

شدن نرونها در رقابتهای قبلی می باشد. و از آنها برای تنظیم با یاس های نرونها استفاده می شوند

به این ترتیب که با یاس نرونهای غالبا برنده کاهش و بر عکس با یاس نرونهایی که بندرت برنـده

می شود، افزایش می یابد.

برای اطمینان از درستی متوسطهای خروجی، نرخ یادگیری learncon بسیار کمتر از learnk انتخـاب

می شود. نتیجه این است که بایاس نرونهایی که اغلب بازنده اند در مقابل نرون هـای غالبـا برنـده

افزایش مییابد. هنگامی که بایاس نرونهای غالباﹰ بازنده افزایش می یابد، فضای ورودی که نرون بـه

۱۴-Bias Learning Rule

۴٨

آن پاسخ می دهد نیز گسترش می یابد. هر چقـدر فـضای ورودی افـزایش بیابـد، نرونهـای غالبـاﹰ

بازنده، به ورودیهای بیشتری پاسخ میدهند. سرانجام این نرون نـسبت بـه سـایر نرونهـا بـه تعـداد

برابری از ورودیها پاسخ خواهد داد

این امر، دو نتیجه خوب دارد. اول اینکـه، اگـر یـک نـرون بـه علـت دوری وزنهـای آن از همـه

ورودیها هرگز برنده نشود، بایاس آن عاقبت به حدی بزرگ خواهد شد که این نرون بتواند برنـده

شود. وقتی که این اتفاق ( برنده شدن نرون ) روی داد، این نرون به سمت دسته هـایی از ورودی

حرکت خواهد کرد. هنگامی که وزن یک نرون در بازه یک دسته از ورودیها قـرار گرفـت، بایـاس

آن به سمت صفر کاهش خواهد یافت به این ترتیب مشکل نرون بازنده حل خواهد شد.

فایده دوم استفاده از بایاس این است که آنها نرونها را وادار می کننـد کـه هـر کـدام درصـدهای

یکسانی از ورودیها را طبقه بندی کنند. بنابراین، اگـر یـک ناحیـه از فـضای ورودی دارای تعـداد

بیشتری از بردارهای ورودی نسبت به سـایر مکانهـا باشـد، ناحیـه بـا چگـالی بیـشتر در ورودی،

نرونهای بیشتری جذب خواهد کرد. و در نتیجه این ناحیه بـه زیـر گروههـای کـوچکتری تقـسیم

خواهد شد.

۴‐۷‐ نگاشت های خود سازمانده١۵ (SOM)

نگاشت های خود سازمانده یاد می گیرند کـه بردارهـای ورودی را آنطـور کـه در فـضای ورودی

طبقه بندی شده اند، طبقه بندی کنند. تفاوت آنها با لایه های رقابتی این است که نرونهای مجـاور

نگاشت خود سازمانده، قسمتهای مجاور از فضای ورودی را تشخیص می دهند.

۱۵-Self Organizing Maps

۴٩

بنابراین، نگاشتهای خود سازمانده هم توزیع( مثل لایه ها رقابتی) و هم موقعیت مکانی بردارهای

ورودی آموزشی را یاد می گیرند. در اینجا یک شبکه نگاشت خود سازمانده نرون برنـده i* را بـه

روشی مشابه لایه رقابتی تعیین می کند. اما به جای اینکه تنها نرون برنده تنظیم شود، تمام نرونهـا

در یک همسایگی مشخص N (d) از نرون برنده با استفاده از قانون کوهنن تنظیم می شوند. یعنی،
i*
ما تمام نرونهای i Ni* (d) را طبق رابطه زیر تنظیم می کنیم

(۴‐۹۲) i W (q))i W (q − ۱) α ( p(q)−i IW (q−۱))

یا

(۴‐٣٠i W (q) (1−α) i W (q − ۱) αp(q) (

در اینجا همسایگی N (d) شامل آ
ندیس تمام نرونهایی است کـه در شـعاع d بـه مرکزیـت نـرون
i*
برنده i* قرار دارند.

(۴‐۱۳) Ni* (d) {j,dij≤d}

بنابراین، هنگامی که بردار p به شبکه عرضه میشود، وزنهای نرون برنده و همسایه های نزدیک آن

به سمت p حرکت خواهد کرد. در نتیجه، بعد از آزمونهای پی در پی فـراوان، نرونهـای همـسایه،

نمایانگر بردارهای مشابه هم خواهند بود.

برای توضیح مفهوم همسایگی، شکل ۴‐۰۱ را در نظر بگیرید. شکل سمت چـپ یـک همـسایگی

دو بعدی به شعاع d=1 را حول نرون ۱۳ نشان میدهد. دیاگرام سمت راست یـک همـسایگی بـه

شعاع d=2 را نشان میدهد. این همسایگی ها را میتوان به صورت زیر نوشت:

N13 (1) {8,12,13,14,18}

و

۵٠

N13 (2) {3,7,8,9,11,12,13,14,15,17,18,19,23}

شکل۴‐۰۱نمایش همسایگی

میتوان نرونها را در یک فضای یک بعدی، دو بعدی، سه بعدی یا حتـی بـا ابعـاد بیـشتر نیـز قـرار

دهیم. برای یک شبکه SOM یک بعدی ، یک نرون تنها دو همسایه (یا اگر نرونها در انتها باشـند

یک همسایه) در شعاع یک خواهد داشت.

۴‐۸‐ شبکه یادگیری کوانتیزه کننده برداری١۶]۵۳[

معماری شبکه عصبی LVQ در شکل۴‐۱۱ نشان داده شده است. یـک شـبکه LVQ در لایـه اول از

یک شبکه رقابتی و در لایه دوم از یک شبکه خطی تـشکیل شـده اسـت. لایـه رقـابتی بردارهـای

ورودی را به همان روش لایه های رقابتی ذکر شده، طبقه بندی میکند. لایه خطـی نیـز کلاسـهای

لایه رقابتی را بصورت کلاسهای مورد نظر کاربر طبقه بندی میکند. ما کلاسهایی کـه لایـه رقـابتی

جدا کرده است را زیر کلاس و کلاسهایی را که لایـه خطـی مـشخص میکنـد، کلاسـهای هـدف

مینامیم.

۱۶-Learning Vector Quantization Networks

۵١

شکل۴‐۱۱ معماری شبکه LVQ

هر دوی لایه های رقابتی و خطی دارای تنها یک نرون بـرای هـر زیـر کـلاس یـا کـلاس هـدف

هستند. به همین دلیل لایه رقابتی میتواند S1 کلاس را یاد بگیرد. در مرحله بعد این S1 کـلاس در

S2 کلاس توسط لایه خطی طبقه بندی خواهد شد.( S1 همیشه از S2 بزرگتر است.)

برای مثال فرض کنید که نرونهای ١،٢و٣ در لایهرقابتی، زیر کلاسهایی از ورودی را یـاد میگیرنـد

که به کلاس هدف شماره ٢ لایه خطی تعلق دارند. آنگـاه نرونهـای رقـابتی ١،٢و٣ دارای وزنهـای

Lw2,1 برابر یک در نرون n2 لایهخطی، و وزنهای صفر برای بقیه نرونهای لایه خطی خواهند بود.

بنابراین این نرون لایه خطی ( ( n2 در صورت برنده شدن هر یک از نرونهای ١،٢و٣ لایـه رقـابتی،

یک ١ در خروجی ایجاد خواهد کرد. به این ترتیب زیر کلاسهای لایه رقابتی بـصورت کلاسـهای

هدف ترکیب خواهند شد.

خلاصه، یک ١ در iامین ردیف از a1 (بقیه عناصر a1 صفر خواهد بود)، iامـین ردیـف از Lw2,1

را به عنوان خروجی شبکه انتخاب میکند. این ستون شامل یک ١ که نمایانگر یـک کـلاس هـدف

است، خواهد بود را تعیین کنیم. اما ما باید با استفاده از یک عملیات آموزشی به لایه اول بفهمانیم،

که هر ورودی را در زیر کلاس مورد نظر طبقه بندی کند.

۵٢

۴‐٨‐١ روش یاد گیری (learnlv1) LVQ1

یادگیری LVQ در لایه رقابتی بر اساس یک دسته از جفتهای ورودی/ هدف میباشد.

(۴‐۲۳) { p1 ,t1},{ p2 ,t2},…,{ pQ ,tQ}

هر بردار هدف شامل یک ١ میباشد. بقیه عناصر صفر هستند. عدد ١ نمایانگر طبقه بردار ورودی

میباشد. برای نمونه، جفت آموزشی زیر را در نظر بگیرید.

۰

۲

(۴‐٣٣)

۰
− ۱ ,

t1

p1

۱

۰

۰

در اینجا ما بردارهای ورودی سه عنصری داریم، و هر بردار ورودی باید به یکی از چهـار کـلاس

تعلق گیرد. شبکه باید طوری آموزش یابد که این بردار ورودی را در سومین کـلاس طبقـه بنـدی

کند.

به منظور آموزش شبکه، یک بردار ورودی p ارائه میشود، و فاصله از p بـرای هـر ردیـف بـردار

وزن ورودی Iw1,1 محاسبه میشود. نرونهای مخفی لایه اول به رقابت می پردازند. فرض کنیـد کـه

iامین عنصر از n1 مثبت ترین است، و نرون i* رقابت را می برد. آنگاه تابع تبدیل رقابتی یک ۱ را

به عنوان i* عنصر از a1 تولید می کند. تمام عناصر دیگرa1 صفر هستند. هنگـامی کـهa1 در وزنهـای

لایه دوم یعنیLw2,1 ضرب میشود، یک موجود در a1 کلاس k* مربوطه راانتخاب میکنـد. بـه ایـن

ترتیب، شبکه بردار ورودی p را در کلاس k* قرار داده و a2 یک شـده اسـت. البتـه ایـن تعیـین

k*

کلاس بردار p توسط شبکه بسته به اینکه آیا ورودی در کلاس k* است یا نه، میتواند درسـت یـا

غلط باشد.

۵٣

اگر تشخیص شبکه درست باشد سطر i* ام ازIw1,1 را طوری تصحیح میکنیم کـه ایـن سـطر بـه

بردار ورودی نزدیکتر شود، وبرعکس، در صورت غلـط بـودن تـشخیص ، تـصحیح بـه گونـه ای

صورت میگیرد که این سطر ماتریس وزن Iw1,1
از ورودی دورتر میشود. بنابراین اگـر p درسـت

طبقه بندی شود، یعنی

(۴‐٣۴( a2k* tk* 1) (

ما مقدار جدید i* امین ردیف ازIw1,1 را چنین تنظیم میکنیم:

(۴‐٣۵)
IW1,1 (q) i*IW1,11α(p(q)−i*IW1,1(q−۱))
از طرفی، اگر طبقه بندی اشتباه باشد،
(۴‐٣۶)
a2k* 1 ≠ tk* 0
مقدار جدیدi* امین ردیف را Iw1,1 را طبق رابطه زیر تغییر میدهیم

نوشته های مشابه

همچنین ببینید

بستن
بستن