مارس 2017

ساختار‌های سريال درختی

مشکل تغییرپذیری درون‌کلاسی برای کلاس هدف و همچنین معایب استفاده از چندین دسته‌بندی‌کننده سريال به طور همزمان، در روش ارائه شده توسط لینهارت و همکاران [49] برطرف شد. روش آنها یک ساختار درختی از دسته‌بندی‌کننده‌ها را پیشنهاد می‌کرد که در شکل  زیر نمایش داده شده‌است. در هر گره[1] از این ساختار درختی، برای ساختن شاخه‌ها، الگوریتم خوشه‌بندی […]

ساختار‌های سريال درختی بیشتر بخوانید »

روش AdaBoost.ECC

الگوریتم AdaBoost.ECC، از بسیاری جهات شبیه AdaBoost.OC است. تفاوت اصلی این دو الگوریتم این است که، AdaBoost.ECC ارزش  را بر اساس شبه خطا در هر دور از اجرای الگوریتم، محاسبه نمی‌کند؛ بلکه  و  را که به ترتیب نشان‌دهنده رای‌های مثبت و منفی فرضیه  در مساله دوکلاسه است را در هر دور محاسبه می‌کند. بر اساس

روش AdaBoost.ECC بیشتر بخوانید »

روش AdaBoost.OC

الگوریتم‌های AdaBoost.OC و AdaBoost.ECC، قوانین روش ECOC را با یادگیری جمعی تقویتی ادغام کرده و به کمک این استراتژی، توانسته‌اند بر معایت روش AdaBoost.M2 فائق آیند. روش‌های یادگیری تقویتی مبتنی بر ECOC، به طور تکرار شونده، ستون‌های ماتریس کدگذاری را تولید می‌کنند به طوری که اغتشاش[1] میان کلاس‌ها در هر دور اجرای الگوریتم تقویتی، کاهش

روش AdaBoost.OC بیشتر بخوانید »

روش‌های Boosting چند‌کلاسه

اولین الگوریتم تعمیم یافته AdaBoost برای حل مسائل چند‌کلاسه، الگوریتمAdaBoost.M1  [36] است. نیاز به تولید خطای وزن‌دار بهتر از  در هر دور از اجرای الگوریتم AdaBoost ، اولین مانعی بود که در راستای تعمیم AdaBoost برای حل مسائل چند‌کلاسه وجود داشت. برای اکثر مسائل چند‌کلاسه k > 2 ، برقراری این شرایط بسیار سخت‌تر از

روش‌های Boosting چند‌کلاسه بیشتر بخوانید »

تکنیک های تجزیه کلاسی در یادگیری ماشین

رایج‌ترین تکنیک‌های تجزیه کلاسی، روش‌های یکی-در مقابل-یکی[1] (OAO) و یکی-در مقابل-همه[2] (OAA) است [27,28]. [1] One-against-one [2] One-against-all یکی-در مقابل-همه(OAA) روش یکی-در مقابل-همه، k دسته بندی کننده را برای یک مساله k–کلاسه می‌سازد. هر دسته‌بندی‌کننده برای شناختن یک کلاس در مقابل سایر کلاس‌ها آموزش داده می‌شود. در زمان بازیابی[1]، خروجی ایده آل آن است که

تکنیک های تجزیه کلاسی در یادگیری ماشین بیشتر بخوانید »

مسائل چند‌ کلاسه در یادگیری ماشین

در دو دهه اخیر شاهد ازدیاد ارایه گونه‌های مختلف از الگوریتم AdaBoost هستیم که تعدادی از آنها عبارتند از: الگوریتمRealBoost  [22] که خروجی یادگیر‌ها را بر اساس درجه اطمینان آنها بسط می‌دهد، GentelAdaBoost [23] که در مقابل داده‌های پرت[1] مقاوم‌تر است، [24]FloatBoost که با هدف کم کردن افزونگی[2] در دسته‌بندی‌کننده‌ها از طریق هرس[3] ارایه شد،

مسائل چند‌ کلاسه در یادگیری ماشین بیشتر بخوانید »

روش‌های BOOSTING

 [19] یک روش کلی برای بهبود دقت یادگیر‌های ضعیف، توسط یک پروسه تکرار‌شونده است. شپیر در سال 1990 اثبات کرد که یادگیر‌های ضعیف، که عملکرد آنها اندکی بهتر از حدس تصادفی است، می توانند طوری با هم ترکیب شوند که یک یادگیر قوی و دقیق را تشکیل دهند. روش Boosting همانند Bagging از باز‌نمونه‌گیری[1] داده‌ها

روش‌های BOOSTING بیشتر بخوانید »

اهمیت مسائل چند کلاسه در یادگیری ماشین

اکثر تحقیقات در زمینه یادگیری ماشین متمرکز بر مسائل دوکلاسه هستند. شماری از تکنیک‌های موفق و معروف یادگیری ماشین، نظیر طبقه‌بندی‌کننده‌های تقویتی[1]، بردارهای پشتیبان[2] [5] و روش RIPPER [6] در اصل برای مسائل دوکلاسه طراحی شده‌اند [7]. البته لازم به ذکر است که روش RIPPER با هدف حل مسائل چندکلاسه تعریف شد اما این روش در واقع حاصل

اهمیت مسائل چند کلاسه در یادگیری ماشین بیشتر بخوانید »

الگوریتم های یادگیری جمعی

القای دسته‌بندی‌کننده ها هنگامی که تعداد داده‌های آموزشی به طرز چشمگیری زیاد باشد با مشکل رو‌به‌رو خواهد شد. این پدیده باعث به وجود آمدن مرزهای کلاس[1]  پیچیده می‌شود؛ یادگیری دقیق این مرز‌ها، برای دسته‌بندی‌کننده‌هایی که سعی در تولید یک قانون برای توصیف داده دارند، به چالشی عظیم تبدیل می شود. پیچیدگی این وضعیت زمانی به

الگوریتم های یادگیری جمعی بیشتر بخوانید »

یادگیری ماشین

اصلی‌ترین زمینه تحقیقاتی در حوزه یادگیری ماشین، شناسایی الگو[1] است؛ یعنی استخراج اطلاعات و الگو‌های تکرار‌ شونده از داده ورودی[2]، که این اطلاعات برای انجام تصمیم‌گیری در مورد داده‌های نادیده[3] کاربرد دارد. بر اساس نوع پیش بینی داده‌های ‌نادیده، انواع روش‌های شناسایی الگو را می توان به دو گروه کلی روش‌های مبتنی بر دسته‌بندی[4] و

یادگیری ماشین بیشتر بخوانید »