اشاره‏های وابسته پسین[۱۹۴]:اشاره‏های وابسته‏های پسین (که همان وابسته‏های پیشین انگلیسی هستند)، اشاره‏هایی هستند که در موقعیتی بعد از واژه(ها) قرار می‏گیرند. برای اینکه ساختار وابسته‏های پسین قابل نشانه‏گذاری باشند، باید با ساختار اشاره‏های اسم عام و خاص معادل باشد، مگر اینکه خودش بتواند در گروه‏های شخص، مکان، سازمان، و یا سیاسی، قرار بگیرد. به طور کلی هر اشاره وابسته پسین، می‏تواند به صورت وابسته‏ی اشاره نام (NAMPOS) یا وابسته‏ی اشاره اسم عام (NOMPOS) درنظر گرفته‏شود.
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))

 

مثال۱۰: سربازان {اسرائیلی }

 

NAMPOS-GPE

 

۲-۲-۴-۳-۲. ساختارهای پیچیده
هدف از این ساختارها، شناسائی ناحیه‏های پیچیده‏ای است که قوانین اشاره‏های ساده در مورد آنها صدق نمی‏کند. عموماً هسته را در ساختارهای پیچیده مشخص نمی‏کنند. در درون محدوده ساختار‏های پیچیده، اشاره‏های ساده نشانه‏گذاری خواهند شد. هر کدام از این ساختارهای پیچیده تا حدی دارای قوانینی هستند.
۲-۲-۴-۴-۲-۱. ساختارهای عطف بیان/ بدل[۱۹۵]
یک ساختاری است که در آن یک یا دو اشاره‏ی کامل به یک موجودیت واحد ارجاع دارند. دو اشاره، در کنار هم قرار می‏گیرند، به طوری که یکی از آنها دیگری را توصیف یا تشریح می‏کند. در حالیکه این مسئله در حالتی که دو اسم پشت سر هم می‏آیند صادق نیست. در نشانه‏گذاری، اشاره عطف بیان[۱۹۶]، به خودی خود دارای انتساب هسته نیست.

 

مثال۱۱: رئیس جمهور روسیه، ولادیمیر پوتین

 

APP-PER-IND-SPC

 

الف) عطف بیان‏های چند بخشی:این در زمانی است که بیش از دو عنصر وجود داشته باشد که در این حالت، همه‏ی عناصر بعد از اولی به عنوان کلاس غیرارجاعی در نظر گرفته می‏شوند.
مثال۱۲: ایران، سرزمین پهناور، مهد تمدن،
ب) عطف بیان‏های نا منطبقمثال ۱۲ نمونه‏ای از عطف بیان‏های نامنطبق است.
مثال۱۲: کاظمی و منوچهری، رئیس جمهور و وزیر
۲-۲-۵.جمع‏بندی:
به طور کلی در این بخش پیکره جدیدی با نشانه‏گذاری انواع اشاره‏ها و اطلاعات هم‏مرجعی را معرفی نمودیم. پیکره لوتوس شامل ۴۰ متن نشانه‏گذاری شده است، که می‏تواند‏ به عنوان یک منبع مناسب برای پژوهش‏های مربوط به کشف اشاره و هم‏مرجعی مورد استفاده قرار بگیرد.
فصل سوم
الگوریتم­های پیشنهادی
برای تشخیص مرجع مشترک
در این فصل به صورت اجمالی الگوریتم‏های ارزیابی شده در این پایان‏ نامه را بررسی کرده و زمینه تئوری آن‏ها را شرح می‏دهیم.
۳-۱. رده‏بندی دودویی
هدف از یادگیری با ناظر، فراگرفتن تابعی است که ورودی را به خروجی بنگارد. یک یادگیر باناظر عموماً شامل رده‏بندی‏دودویی ، رده‏بندی چندتایی ( به ازایk های کوچک) و یا رگرسیون می‏باشد. به عنوان نمونه‏ای از رده‏بندی دودویی می‏توان پیش‏بینی وضع هوا را در نظر گرفت که در آن آفتابی بودن هوای فردا بر اساس داده‏هایی که از وضع هوای روزهای قبل بدست آمده‏اند، پیش‏بینی می‏شود. چنین تصمیم‏ گیری‏هایی بر پایه یک تابع ویژگی، که به صورت نشان داده می‏شود و در آن فضای ویژگی‏هاست، انجام می‏گیرد. به عنوان نمونه، در مثال قبل، می‏تواند بیانگر اطلاعاتی همچون دما ، فشار جوی و تاریخ باشد. معمولا ، F برابر است ، که فضایی از بردارهای حقیقی بعدی است.
۳-۱-۱. جداکننده‏های خطی
می‏توان رده‏بندهای دودویی را به عنوان جداکننده خطی نیز در نظر گرفت که داده‏های فضای دوبعدی را با یک خط از یکدیگر افراز می‏کند. معمولاً فرض می‏شود که رده‏بندها خطی هستند، به این معنا که ابر صفحه[۱۹۷]های متمایل‏شده هستند (در مواقعی که داده‏ها به صورت خطی تفکیک‏پذیر نباشند، از هسته‏ها استفاده می‏شود که داده‏ها را به فضایی با ابعاد بیشتر می‏نگارند تا داده‏های خطی تفکیک‏پذیر شوند).

 
 
 

شکل ۳-۱: شمایی از داده‏ها‏ی خطی و غیر خطی جدایی پذیر

 

بنابراین، تابع رده‏بند دودویی با بردار وزن و مقدار عددی فرموله می‏شود. فرمول رده‏بند دودویی در رابطه‏ی ۳-۱ نشان داده شده است.
رابطه (۳-۱)
تصمیمات رده‏بندی بر مبنای علامت انجام می‏گیرد : اگر باشد ، آنگاه کلاس +۱ در نظر گرفته می‏شود و هرگاه باشد، کلاس -۱انتخاب می‏شود. هنگامی که خود را به فرض خطی بودن مقید می‏کنیم، مسئله یادگیری به پیدا کردن مقادیر مناسب برای w و b تبدیل می‏شود. این مقادیر بر اساس داده‏های آموزشی یادگرفته می‏شود.
۳-۱-۱-۱. پرسپترون
الگوریتم پرسپترون[۸۶،۳۶] که الهام گرفته از ساختار عصبی بدن انسان است، بردار وزن w و مقدار b را به روشی بر‏خط می‏آموزد؛ بدین معنا که در هر زمان یکی از نمونه‏های مجموعه آموزشی یاد گرفته می‏شود. در هر مرحله، پرسپترون اطمینان حاصل می‏کند که پارامترهای جاری به گونه‏ای تنظیم شده‏اند که نمونه مورد بررسی را درست رده‏بندی کنند و اگر این چنین بود یادگیری با نمونه بعدی ادامه می‏یابد. در غیر این صورت، بردار وزن و مقدار گرایش بگونه‎‏ای اصلاح می‏شوند که به نمونه مورد بررسی نزدیک‏تر باشند. الگوریتم آن قدر در کل مجموعه آموزشی تکرار می‏شود که یا اصلاح جدیدی صورت نگیرد و یا تعداد تکرارها به حداکثر رسیده باشد. اگر داده‏ها تفکیک‏پذیر باشند، قابل اثبات است که پرسپترون در نهایت به مجموعه‏ای از پارامترها همگرا می‏شود که کل داده آموزشی را به درستی رده‏بندی می‏کنند. البته شایان ذکر است که این روش به قابلیت تعمیم بسیار ضعیفی منجر می‏شود. به همین منظور برای بهبود قابلیت تعمیم، از میانگین‏گیریِ وزنی استفاده می‏شود. میانگین‏گیریِ وزنی با تغییر الگوریتم پرسپترون استاندارد و به این صورت انجام می‏گیرد که بردار وزنی نهایی برگردانده شده، میانگین تمام بردارهای وزنی است که در طول آموزش بدست آمده‏اند. می‏توان نشان داد که میانگین وزنی به راه حل‏های پایدارتر و با قابلیت تعمیم بهتری منجر می‏شود. [۷،۱۱۲]
یک راه حل ساده پیاده‏سازی میانگین وزنی به این صورت است که دو مجموعه از پارامترها در هر مرحله حفظ شوند: پارامترهای جاری و پارامترهای میانگین.
در هر مرحله از الگوریتم (پس از پردازش یک نمونه)، پارامتر جاری و پارامترهای میانگین در هرمرحله از الگوریتم (پس از پردازش یک نمونه)، پارامترهای جاری و پارامترهای میانگین افزوده می‏شود و پس از خاتمه الگوریتم، پارامترهای میانگین بر تعداد مراحل تقسیم می‏شوند و پارامتر‏های حاصل با عنوان پارامترهای نهایی در نظرگرفته‏می‏شود. یکی از ویژگی‏های مثبت این الگوریتم علاوه بر سادگی آن، این است که بردار معمولا یک بردار پراکنده است که موجب می‏شود بروز بردار ویژگی اصلی به صورت کارایی صورت پذیرد، البته باید توجه داشت که جمع کردن و میانگین گرفتن از بردار‏ها‏ی ویژگی در این روش تا حدودی ناکارآمد می‏باشد.
شکل ۳-۲، یک پیاده‏سازی مناسب از الگوریتم پرسپترون میانگین‏دار را نمایش می‏دهد. در مرحله اول، بردار وزن و مقدار گرایش جاری با صفر مقدار دهی اولیه می‏شوند. در مرحله دوم، بردار وزن و گرایش میانگین با صفر مقدار دهی اولیه می‏شوند. در مرحله سوم، شمارنده میانگین با ۱ مقدار دهی می‏شود . الگوریتم در حلقه ی(I) تکرار می‏شود در هر تکرار الگوریتم یکی از نمونه‏ها را پردازش می‏کنند. در مرحله ششم بررسی می‏شود که آیا الگوریتم نمونه را درست رده‏بندی کرده است یا خیر. در صورتی نمونه درست رده‏بندی نشده است که و پیش بینی جاری، ، علامت جبری یکسانی نداشته باشند، که در آن صورت ضرب آنها منفی می‏شود. در صورتی که نمونه با پارامترهای درست رده‏بندی نشده باشد، الگوریتم در مرحله هفتم، را به و را به نزدیکتر می‏نماید. در مرحله هشتم برداروزنی میانگین به طریقی مشابه بروز می‏شود با این تفاوت که شمارنده میانگین به عنوان عامل افزاینده به کار می‏رود در نهایت در مرحله دهم صرف نظر از اینکه تصحیح بردار وزنی و یا مقدار گرایش صورت گرفته است یا خیر ، شمارندهC افزایش می‏یابد.
پس از خاتمه الگوریتم، پارامترهای نهایی به عنوان خروجی بازگردانده می‏شوند در مورد الگوریتمی که از میانگین وزنی استفاده نمی‏کند، مقادیر و به عنوان خروجی بازگردانده می‏شوند؛ ولی در مورد الگوریتم میانگین‏دار، مقادیر و به عنوان خروجی بازگردانده می‏شوند و بدین صورت میانگین وزن دار حاصل می‏شود.

موضوعات: بدون موضوع  لینک ثابت


فرم در حال بارگذاری ...