شبکه های عصبی

دانلود پایان نامه

تبـدیلهـا

میتوانند با یک آنالیز چند بعدی، که در بخش بعد بحث خواهد شد، شروع شوند.

۴‐۳‐ انتخاب نوع تبدیل موجک

چه موقع آنالیز پیوسته از آنالیز گسسته مناسبتر است؟ هنگامی که انرﮊی سیگنال محدود است، اگر

از یک تبدیل موجک مناسب استفاده کنیم، تمام مقادیر یک تجزیه برای بازسازی شکل موج اصلی

لازم نخواهد بود. در این شرایط، یک سیگنال پیوسته را میتوان بوسیله تبـدیل گسـسته آن کـاملاﹰ

مشخص کرد. بنابراین آنالیز گسسته کافی است و آنالیز پیوسته اضافی خواهـد بـود. هنگـامی کـه

سیگنال بصورت پیوسته یا یک شبکه زمانی ریز ثبت میشود، هر دو نوع آنالیز، امکانپذیر خواهـد

بود. کدامیک باید استفاده شود؟ جواب این است: هر یک مزایای مربوط به خود را دارد.

• آنالیز پیوسته معمولاﹰ برای تفسیر آسانتر اسـت، چـرا کـه اضـافات آن، تمایـل بـه تقویـت ویژگیها دارد و و اطلاعات را بسیار واضحتر خواهد کرد. این موضوع بـرای بـسیاری از ویژگیهای مفید درست است. آنالیز پیوسته تفسیر را راحتر، و خوانایی را بیشتر مـی کنـد، در عوض حجم بیشتری برای زخیره لازم دارد.

• آنالیز گسسته حجم ذخیره سازی را کاهش میدهد و برای بازسازی کافی است.

٣٧

۴‐۴‐ آنالیز مالتی رزولوشن٩ و الگوریتم DWT سریع

برای اینکه تبدیل موجک مفید باشد، باید آنرا با الگوریتمهای سریع به منظور استفاده در ماشینهای

محاسباتی، پیادهسازی کنیم. یعنی روشی مثل FFT که هم ضرایب تبدیل wavwlet را بدست آورد و

هم بازسازی تابعی را که نمایش میدهد، انجام دهد.

۴‐۴‐۱‐آنالیز مالتی رزولوشن (MRA)

آنالیز مالتیرزولوشن Mallat را که خیلی عمومیت دارد، توضیح میدهیم. با فضایl2 که شامل تمام
توابع جمعپذیر مربعی است، شروع میکنیم، یعنی: f در فضای l2 (s) است، اگرMRA . ∫f 2 ∞

s

یک سری افزایشی از زیر فضای بسته {vj}jjzاسـت، کـه l2 (R)را تخمـین میزنـد. شـروع کـار،

انتخاب یک تابع مقیاسدهی مناسـبΦ اسـت. تـابع مقیـاسدهـی بـه منظـور ارضـاﺀ پیوسـتگی،

یکنواختی و بعضی شرایط لازم بعدی انتخاب شده است. اما نکته مهمتر این اسـت کـه، مجموعـه

{φ(x − k), k z} یک اساس درست برای فضای مرجع v0 ایجاد میکند. رابطههای زیر آنالیز را

توصیف میکنند:

(۴‐۲۱) …v-1 v0 v1
فضاهایvj به صورت تودرتو قرار گرفتهاند. فضای l2 (R) اشتراک تمامvj را شامل مـیشـود. بـه

عبارت دیگر j z vj در(l2 (R متراکم شده است. اشتراک همهvj ها تهی است.

(۴‐۳۱)

۹-Multiresolution

٣٨

فضاهای vj وvjj1 مشابه هستند. اگر فضایvj دارای فاصـلههـای خـالی(φ۱,k (x ، k z باشـد،

آنگـــاه فـــضایijj1 دارای فاصـــلههـــای(φ۱,k (x ، k z اســـت. فاصـــلهvjj1 بوســـیله تـــابع

، که تولید میشود.

حالا شکلگیری موجک را توضـیح مـیدهـیم. چـون v0 v1 ، هـر تـابعی در v0 را مـیتـوانیم
بصورت ترکیبی از توابع پایه ۲φ(x − k) ازv1 بنویسیم. مخصوصاﹰΦ باید معادلات دو بعـدی ۴۱

و ۵۱ را برآورده کند:

(۴‐۴۱) ۲φ (x − k) (φ (x) ∑h(k

k

ضرایب h(k) بصورت((۲Φ(x − k h(k) (Φ(x), تعریف شـدهانـد. حـال بـه عـضو عمـودی

wj از vj برvjj1 ،vjj1 vj wj را در نظر بگیرید. این بدان معناست که تمام اعضایvj بـر
اعضای wj عمود هستند. ما لازم داریم که

تعریف زیر را ارائه میدهیم:

(۴‐۵۱) ۲∑(−۱)k h(−k 1)φ (x − k) ψ (x)

k

ما میتوانیم نشان دهیم کـه۲{ψ(x − k), k z} یـک اسـاس درسـت بـرایw1 اسـت. دوبـاره، خاصیت تشابه MRI عنوان میکند که۲j{ψ( ۲jx − k), k z} یک اساس بـرایwj اسـت. از

آنجــــا کــــه v wدر l2 (R) متمرکــــز اســــت، خــــانواده داده شــــده
j j z j j z
۲j{ψ( ۲jx − k), k z} یک اساس بـرای l2 (R) اسـت. بـرای یـک تـابع داده شـده f l2 (R)

٣٩

میتوان N را طوری بیابیم که f N vj ، f را بالاتر از دقت تعیین شده، تقریب بزند. اگـرgi wi

و f i vi آنگاه

(۴‐١۶)

معادله (۴‐١۶) تجزیه موجک تابع f است.

۴‐۵ ‐ زبان پردازش سیگنالی]۳۳و۴۳[

ما مراحل آنالیز مالتیرزولوشنی را با زبان پردازش سیگنالی تکرار میکنیم. آنالیز مالتی رزولوشـن

waveletبا الگوریتم کد کردن زیرباند یا محوطهای در پردازش سیگنال در ارتباط اسـت. همچنـین،

فیلترهای آینهای مربعی هم در الگوریتم مالتی رزولوشـن Mallat قابـل تـشخیص اسـت. در نتیجـه

نمایش زمان‐ مقیاس یک سیگنال دیجیتال با اسـتفاده از روشـهای فیلتـر کـردن دیجیتـال حاصـل

میشود.

معادلات۴‐۴۱ و۴‐۵۱ را از بخش قبل به خاطر بیاورید. سـریهای{h(k), k z} و {g(k), k z}

در اصطلاح پردازش سیگنال، فیلترهای آیینهای مربعی هستند. ارتباط بین h و g چنین است:

(۴‐۷۱) g(k) (−۱)n h(1 − n)

h(k) فیلتر پایین گذر و g(k) فیلتر بالا گذر است. این فیلتر با خانواده فیلترهای بـا پاسـخ ضـزبه

محدود (FIR) تعلق دارند. خواص زیر را میتوان با استفاده از تبدیل فوریه و عمـود بـودن اثبـات

کرد:

(۴‐۸۱)
∑g(k) 0 ∑h(k) 2

k
k

۴٠

عملیات تجزیه با عبور سیگنال (دنباله) از یک فیلتر پایین گذر نیم باند دیجیتال
با پاسخ ضربه h(n)

شروع میشود. فیلتر کردن یک سیگنال معادل با عملیات ریاضی کانولوشن سیگنال با پاسخ ضـربه

فیلتر میباشد. یک فیلتر پایین گذر نـیم بانـد تمـام فرکانـسهایی را کـه بـالاتر از نـصف بیـشترین

فرکانس سیگنال قرار دارند را حذف میکند

اگر سیگنال با نرخ نایکویست (که دو برابر بیشترین فرکانس در سیگنال است) نمونهبرداری شـده

باشد، بالاترین فرکانس که در سیگنال وجود داردπرادیان است. یعنـی، فرکـانس نایکویـست در

حوزه فرکانسی گسسته مطابق با π(rad/s) میباشد. بعد از عبور سیگنال از یک فیلتر پایین گذر نـیم

باند، طبق روش نایکویست میتوان نصف نمونهها را حذف کـرد، چـرا کـه حـال سـیگنال دارای

حداکثر فرکانس(π/۲(rad/s میباشد. به این ترتیب سیگنال حاصل دارای طـولی بـه انـدازه نـصف

طول سیگنال اولیه میباشد.

شکل۴‐۶ طرح الگوریتم کد کردن زیر باند(قسمت بالا تجزیه و قسمت پایین ترکیب را نمایش میدهد)

۴١

حال مقیاس سیگنال دو برابر شده است. توجه کنید فیلتـر پـایینگـذر، اطلاعـات فرکـانس بـالای

سیگنال را حذف کرده است، اما مقیاس را بدون تغییر گذاشته است. این تنها کاهش تعداد نمونهها

است که مقیاس را تغییر میدهد. از طرف دیگر رزولوشن که به میزان اطلاعلت موجود در سیگنال

ارتباط دارد، توسط فیلتر کردن تغییر کرده است. فیلتر پـایین گـذر نـیم بانـد نـصف، فرکانـسها را

حذف کرده است، که میتوان این عمل را به نصف شدن اطلاعات تفـسیر کـرد. توجـه کنیـد کـه

کاهش نمونهها بعد از فیلتر کردن تاثیری در میزان رزولوشن ندارد، چرا کـه بعـد از فیلتـر کـردن

نصف نمونهها اضافی خواهد بود. پس نصف کردن نمونههـا باعـث حـذف هیچگونـه اطلاعـاتی

نمیشود. خلاصه، فیلتر کردن اطلاعات را نصف میکند، ولی مقیـاس را تغییـر نمـیدهـد. سـپس

سیگنال با نرخ دو نمونه برداری میشود، چرا که حال نصف نمونهها اضـافی اسـت. ایـن عمـل ،

مقیاس را دو برابر میکند. عملیات توصیف شده در شکل۴‐۶ نشان داده شده است.

یک روش بسیار مختصر برای توصیف این عملیات و همچنین عملیات موثر برای تعیین ضـرایب

موجک نمایش عملکرد فیلترها است. برای یک دنبالـه، فf {f n}} نمایـانگر سـیگنال گسـستهای

است که باید تجزیه شود و G وH بوسیله روابط هممرتبه زیر تعریف می شوند:

(۴‐۹۱)

(۴‐۰۲)

معادلات ۴‐۹۱و ۴‐۰۲ فیلتر کردن سیگنال با فیلترهای دیجیتال h(k) و g(k) که معـادل عملگـر

ریاضی کانولوشن با پاسخ ضربه فیلترها میباشد، را نمایش میدهد. فاکتور ۲k کاهش نمونههـا را

نمایش میدهد.

۴٢

عملگرهای G و H مربوط به گام اول در تجزیه موجک میباشند. تنها تفاوت این است که روابط با

از ضریب ۲ معادلات ۴‐١٣و۴‐١۴ چشمپوشی کرده است. بنابراین تبـدیل موجـک گسـسته را

میتوان در یک خط خلاصه کرد‐ شکل ۴‐۷ را ببینید:

(۴‐۱۲)

(۰) ۰ (j 1) (j 2) (۱)
که ما میتوانیم d ,d ,…, d ,d را جزئیات ضرایب و cرا تقریب ضرایب بنامیم.

جزئیات و ضرایب با روش تکرار حاصل می شوند:

شکل۴‐۷ نمایش تجزیه توسط موجک

برای مقایسه این روش با SWT، بیایید دنباله x(k) حاصـل از ضـرب داخلـی سـیبگنال پیوسـته

u(t) با انتقالهای صحیح تابع مقیاس دهی را تعریف کنیم

(۴‐۲۲)

حال، ما میتوانیم SWT را با استفاده از DWT طبق رابطه زیر بدست آوریم

(۴‐۳۲)

که برای هر عدد صحیح j ≥ ۰ و هر عدد صحیح k درست است.

۴٣

عملیات بازسازی مشابه عملیات تجزیه است. تعداد نمونههای سـیگنال در هـر سـطحی دو برابـر

− − − −

میشود، از فیلترهای ترکیب کننده نشان داده شده بـا H و G عبـو داده مـیشـود، و سـپس جمـع

− − − −

H و G را طبق روابط زیر تعریف میکنیم

(۴‐۴۲)

(۴‐۵۲)

AP

Signal

۴

۱۰

x 10
۲

۵

۰

۱۵
۱۰

۵
۰۰
۰.۴
۰.۳
۰.۲
۰.۱
۰

CD5

۵

CD6

۰.۵

۰

۰

۳۰
۲۰
CD3
۱۰
-۵۰
۱۵
۱۰
CD4
۵
۰
-۰.۵

۰.۵

۱

۰

۰

۸۰
۶۰
۴۰
۲۰
-۰.۵۰
۴۰
۳۰
۲۰
۱۰
۰

CD1

۰.۲

CD2

۰.۵

۰

۰

۴۰۰
۳۰۰
۲۰۰
۱۰۰
-۰.۲۰
۲۰۰
۱۵۰
۱۰۰
۵۰
۰
-۰.۵

شکل۴‐۸ مثالی از تجزیه .DWT سیگنال اصلی، سیگنال تقریب((AP

و سیگنالهای جزئیات(CD1تا (CD6

با استفاده مکرر از روابط بالا داریم

(۴‐۶۲)

۴۴

که در حوزه زمانی

(۴‐۷۲)

Dj و cجزئیات و تقریب نامیده میشوند. یک مثـال از تجزیـه در شـکل۸ ، همـراه بـا تقریـب و

جزئیات و سیگنال اصلی نشان داده شده است.

۴‐۶‐ شبکه عصبی

۴‐۶‐۱ مقدمه]۵۳[

خودسازماندهی١٠ شبکهها یکی از موضوعات بـسیار جالـب در شـبکههـای عـصبی میباشـد. ایـن

شبکهها میتوانند انتظام و ارتباط موجود در ورودی خود را تشخیص و به ورودیهـای دیگـر طبـق

این انتظام پاسخ دهند. نرونهای شبکه های عـصبی رقـابتی طـرز تـشخیص گـروه هـای مـشابه از

بردارهای ورودی را یاد میگیرند. نگاشـتهای خـود سـازمانده طـرز تـشخیص گـروه هـای مـشابه

بردارهای ورودی را به این شکل یاد میگیرند که نرونهـای مجـاور هـم از لحـاظ مکـانی در لایـه

نرونی، به بردارهای ورودی مشابه پاسخ می دهند.

یادگیری کوانتیزه نمودن برداری (LVQ) روشی است که از ناظر برای یادگیری شبکه هـای رقـابتی

استفاده میکند. یک لایه رقابتی خود به خود طبقه بندی بردارهای ورودی را یـاد میگیـرد. بـا ایـن

وجود، کلاسهایی که لایه رقابتی پیدا می کند، تنها به فاصله بردارهای ورودی ارتباط دارد. اگـر دو

بردار ورودی خیلی به هم شبیه باشند، احتمالآ لایه رقابتی آن دو را در یک کلاس قرار مـی دهـد.

در شبکه های عصبی رقابتی، روشی یرای تشخیص اینکه آیا دو نمونه بردار ورودی در یک طبقـه

۱۰-Self Organizing

۴۵

قرار می گیرند یا نه، وجود ندارد. با این وجود، شبکه های طبقـه بنـدی بردارهـای ورودی را در

طبقه هایی که توسط خود کاربر تعیین می شوند، انجام می دهد.

۴‐۶‐۲‐ یادگیری رقابتی١١

نرونها در یک لایه رقابتی طوری توزیع می شوند که بتوانند بردارهای ورودی را تـشخیص دهنـد.

معماری یک شبکه رقابتی در شکل(۴‐۹) نشان داده شده است.

جعبه ||dist|| بردار ورودی p و ماتریس وزن ورودی IW1,1 را بـه عنـوان ورودی دریافـت مـی

کند، و برداری شامل s1 عنصر تولید می کنـد. ایـن عناصـر، منفـی فاصـله بـین بـردار ورودی و

بردارهای j IW1,1 تشکیل شده از سطر های ماتریس وزن ورودی، می باشند.

شکل۴‐۹معماری شبکه رقابتی

ورودی خالص١٢ n1 یک لایه رقابتی، با جمع کردن بایاس b با فاصله هـای بردارهـای ورودی از

سطرهای ماتریس وزن، محاسبه میشوند. اگر بایاسها صفر باشند، بیشترین مقداری که یـک ورودی

خالص میتواند داشته باشد، صفر خواهد بود. این هنگامی اتفاق می افتد که بردار ورودی p برابر با

یکی از بردارهای وزن شبکه باشد.

-Competitive Learning -Net Weight

۱۱

۱۲

۴۶

تابع تبدیل رقابتی یک بردار وزن خالص را دریافت می کند، و خروجی صفر را برای همه نرونهـا،

به غیر از نرون برنده (نرون دارای کمترین فاصله)، که همـان نـرون مربـوط بـه بزرگتـرین عنـصر

ورودی خالصn1 میباشد، تولید می کند، و نـرون برنـده دارای خروجـی ۱ خواهـد بـود. فوائـد

استفاده از جمله بایاس در هنگام بحث از آموزش شبکه روشن خواهد شد.

۴‐۶‐۲‐۱ روش یادگیری کوهنن١٣ (learnk)

وزنهای نرون برنده (یک سطر در ماتریس وزن ورودی) با روش یادگیری کوهنن تنظیم می شـود.

فرض کنید که i امین نرون برنده شـود، آنگـاه عناصـر i امـین سـطر از مـاتریس وزن ورودی

این نوشته در پایان نامه ها و مقالات ارسال شده است. افزودن پیوند یکتا به علاقه‌مندی‌ها.

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *