دانلود منابع پایان نامه در رابطه با چارچوبی جدید برای تشخیصِ مرجعِمشترک واسمِ اشاره در متون پارسی- ... |
اشارههای وابسته پسین[۱۹۴]:اشارههای وابستههای پسین (که همان وابستههای پیشین انگلیسی هستند)، اشارههایی هستند که در موقعیتی بعد از واژه(ها) قرار میگیرند. برای اینکه ساختار وابستههای پسین قابل نشانهگذاری باشند، باید با ساختار اشارههای اسم عام و خاص معادل باشد، مگر اینکه خودش بتواند در گروههای شخص، مکان، سازمان، و یا سیاسی، قرار بگیرد. به طور کلی هر اشاره وابسته پسین، میتواند به صورت وابستهی اشاره نام (NAMPOS) یا وابستهی اشاره اسم عام (NOMPOS) درنظر گرفتهشود.
(( اینجا فقط تکه ای از متن درج شده است. برای خرید متن کامل فایل پایان نامه با فرمت ورد می توانید به سایت feko.ir مراجعه نمایید و کلمه کلیدی مورد نظرتان را جستجو نمایید. ))
مثال۱۰: سربازان {اسرائیلی }
NAMPOS-GPE
۲-۲-۴-۳-۲. ساختارهای پیچیده
هدف از این ساختارها، شناسائی ناحیههای پیچیدهای است که قوانین اشارههای ساده در مورد آنها صدق نمیکند. عموماً هسته را در ساختارهای پیچیده مشخص نمیکنند. در درون محدوده ساختارهای پیچیده، اشارههای ساده نشانهگذاری خواهند شد. هر کدام از این ساختارهای پیچیده تا حدی دارای قوانینی هستند.
۲-۲-۴-۴-۲-۱. ساختارهای عطف بیان/ بدل[۱۹۵]
یک ساختاری است که در آن یک یا دو اشارهی کامل به یک موجودیت واحد ارجاع دارند. دو اشاره، در کنار هم قرار میگیرند، به طوری که یکی از آنها دیگری را توصیف یا تشریح میکند. در حالیکه این مسئله در حالتی که دو اسم پشت سر هم میآیند صادق نیست. در نشانهگذاری، اشاره عطف بیان[۱۹۶]، به خودی خود دارای انتساب هسته نیست.
مثال۱۱: رئیس جمهور روسیه، ولادیمیر پوتین
APP-PER-IND-SPC
الف) عطف بیانهای چند بخشی:این در زمانی است که بیش از دو عنصر وجود داشته باشد که در این حالت، همهی عناصر بعد از اولی به عنوان کلاس غیرارجاعی در نظر گرفته میشوند.
مثال۱۲: ایران، سرزمین پهناور، مهد تمدن،
ب) عطف بیانهای نا منطبق: مثال ۱۲ نمونهای از عطف بیانهای نامنطبق است.
مثال۱۲: کاظمی و منوچهری، رئیس جمهور و وزیر
۲-۲-۵.جمعبندی:
به طور کلی در این بخش پیکره جدیدی با نشانهگذاری انواع اشارهها و اطلاعات هممرجعی را معرفی نمودیم. پیکره لوتوس شامل ۴۰ متن نشانهگذاری شده است، که میتواند به عنوان یک منبع مناسب برای پژوهشهای مربوط به کشف اشاره و هممرجعی مورد استفاده قرار بگیرد.
فصل سوم
الگوریتمهای پیشنهادی
برای تشخیص مرجع مشترک
در این فصل به صورت اجمالی الگوریتمهای ارزیابی شده در این پایان نامه را بررسی کرده و زمینه تئوری آنها را شرح میدهیم.
۳-۱. ردهبندی دودویی
هدف از یادگیری با ناظر، فراگرفتن تابعی است که ورودی را به خروجی بنگارد. یک یادگیر باناظر عموماً شامل ردهبندیدودویی ، ردهبندی چندتایی ( به ازایk های کوچک) و یا رگرسیون میباشد. به عنوان نمونهای از ردهبندی دودویی میتوان پیشبینی وضع هوا را در نظر گرفت که در آن آفتابی بودن هوای فردا بر اساس دادههایی که از وضع هوای روزهای قبل بدست آمدهاند، پیشبینی میشود. چنین تصمیم گیریهایی بر پایه یک تابع ویژگی، که به صورت نشان داده میشود و در آن فضای ویژگیهاست، انجام میگیرد. به عنوان نمونه، در مثال قبل، میتواند بیانگر اطلاعاتی همچون دما ، فشار جوی و تاریخ باشد. معمولا ، F برابر است ، که فضایی از بردارهای حقیقی بعدی است.
۳-۱-۱. جداکنندههای خطی
میتوان ردهبندهای دودویی را به عنوان جداکننده خطی نیز در نظر گرفت که دادههای فضای دوبعدی را با یک خط از یکدیگر افراز میکند. معمولاً فرض میشود که ردهبندها خطی هستند، به این معنا که ابر صفحه[۱۹۷]های متمایلشده هستند (در مواقعی که دادهها به صورت خطی تفکیکپذیر نباشند، از هستهها استفاده میشود که دادهها را به فضایی با ابعاد بیشتر مینگارند تا دادههای خطی تفکیکپذیر شوند).
شکل ۳-۱: شمایی از دادههای خطی و غیر خطی جدایی پذیر
بنابراین، تابع ردهبند دودویی با بردار وزن و مقدار عددی فرموله میشود. فرمول ردهبند دودویی در رابطهی ۳-۱ نشان داده شده است.
رابطه (۳-۱)
تصمیمات ردهبندی بر مبنای علامت انجام میگیرد : اگر باشد ، آنگاه کلاس +۱ در نظر گرفته میشود و هرگاه باشد، کلاس -۱انتخاب میشود. هنگامی که خود را به فرض خطی بودن مقید میکنیم، مسئله یادگیری به پیدا کردن مقادیر مناسب برای w و b تبدیل میشود. این مقادیر بر اساس دادههای آموزشی یادگرفته میشود.
۳-۱-۱-۱. پرسپترون
الگوریتم پرسپترون[۸۶،۳۶] که الهام گرفته از ساختار عصبی بدن انسان است، بردار وزن w و مقدار b را به روشی برخط میآموزد؛ بدین معنا که در هر زمان یکی از نمونههای مجموعه آموزشی یاد گرفته میشود. در هر مرحله، پرسپترون اطمینان حاصل میکند که پارامترهای جاری به گونهای تنظیم شدهاند که نمونه مورد بررسی را درست ردهبندی کنند و اگر این چنین بود یادگیری با نمونه بعدی ادامه مییابد. در غیر این صورت، بردار وزن و مقدار گرایش بگونهای اصلاح میشوند که به نمونه مورد بررسی نزدیکتر باشند. الگوریتم آن قدر در کل مجموعه آموزشی تکرار میشود که یا اصلاح جدیدی صورت نگیرد و یا تعداد تکرارها به حداکثر رسیده باشد. اگر دادهها تفکیکپذیر باشند، قابل اثبات است که پرسپترون در نهایت به مجموعهای از پارامترها همگرا میشود که کل داده آموزشی را به درستی ردهبندی میکنند. البته شایان ذکر است که این روش به قابلیت تعمیم بسیار ضعیفی منجر میشود. به همین منظور برای بهبود قابلیت تعمیم، از میانگینگیریِ وزنی استفاده میشود. میانگینگیریِ وزنی با تغییر الگوریتم پرسپترون استاندارد و به این صورت انجام میگیرد که بردار وزنی نهایی برگردانده شده، میانگین تمام بردارهای وزنی است که در طول آموزش بدست آمدهاند. میتوان نشان داد که میانگین وزنی به راه حلهای پایدارتر و با قابلیت تعمیم بهتری منجر میشود. [۷،۱۱۲]
یک راه حل ساده پیادهسازی میانگین وزنی به این صورت است که دو مجموعه از پارامترها در هر مرحله حفظ شوند: پارامترهای جاری و پارامترهای میانگین.
در هر مرحله از الگوریتم (پس از پردازش یک نمونه)، پارامتر جاری و پارامترهای میانگین در هرمرحله از الگوریتم (پس از پردازش یک نمونه)، پارامترهای جاری و پارامترهای میانگین افزوده میشود و پس از خاتمه الگوریتم، پارامترهای میانگین بر تعداد مراحل تقسیم میشوند و پارامترهای حاصل با عنوان پارامترهای نهایی در نظرگرفتهمیشود. یکی از ویژگیهای مثبت این الگوریتم علاوه بر سادگی آن، این است که بردار معمولا یک بردار پراکنده است که موجب میشود بروز بردار ویژگی اصلی به صورت کارایی صورت پذیرد، البته باید توجه داشت که جمع کردن و میانگین گرفتن از بردارهای ویژگی در این روش تا حدودی ناکارآمد میباشد.
شکل ۳-۲، یک پیادهسازی مناسب از الگوریتم پرسپترون میانگیندار را نمایش میدهد. در مرحله اول، بردار وزن و مقدار گرایش جاری با صفر مقدار دهی اولیه میشوند. در مرحله دوم، بردار وزن و گرایش میانگین با صفر مقدار دهی اولیه میشوند. در مرحله سوم، شمارنده میانگین با ۱ مقدار دهی میشود . الگوریتم در حلقه ی(I) تکرار میشود در هر تکرار الگوریتم یکی از نمونهها را پردازش میکنند. در مرحله ششم بررسی میشود که آیا الگوریتم نمونه را درست ردهبندی کرده است یا خیر. در صورتی نمونه درست ردهبندی نشده است که و پیش بینی جاری، ، علامت جبری یکسانی نداشته باشند، که در آن صورت ضرب آنها منفی میشود. در صورتی که نمونه با پارامترهای درست ردهبندی نشده باشد، الگوریتم در مرحله هفتم، را به و را به نزدیکتر مینماید. در مرحله هشتم برداروزنی میانگین به طریقی مشابه بروز میشود با این تفاوت که شمارنده میانگین به عنوان عامل افزاینده به کار میرود در نهایت در مرحله دهم صرف نظر از اینکه تصحیح بردار وزنی و یا مقدار گرایش صورت گرفته است یا خیر ، شمارندهC افزایش مییابد.
پس از خاتمه الگوریتم، پارامترهای نهایی به عنوان خروجی بازگردانده میشوند در مورد الگوریتمی که از میانگین وزنی استفاده نمیکند، مقادیر و به عنوان خروجی بازگردانده میشوند؛ ولی در مورد الگوریتم میانگیندار، مقادیر و به عنوان خروجی بازگردانده میشوند و بدین صورت میانگین وزن دار حاصل میشود.
فرم در حال بارگذاری ...
[جمعه 1400-09-05] [ 10:59:00 ب.ظ ]
|