پروپوزال انتخاب ویژگی در داده نامتعادل با خوشه بندی مبتنی بر تشخیص جامعه


در حال بارگذاری
۵ شهریور ۱۳۹۷
100 بازدید
۱۵۰۰۰ تومان
خرید

پروپوزال ارشد انتخاب ویژگی در مجموعه داده های نامتعادل با استفاده از روش خوشه بندی مبتنی بر تشخیص جامعه

پروپوزال موجود در این تایپیک در سال ۹۶ نگارش شده است. در دهه‌های گذشته رشد سریع کامپیوتر و فناوری‌های بانک اطلاعات باعث رشد سریع مجموعه‌های داده‌ای با ابعاد بالا شده است. از طرف دیگر، کاربردهایی با مجموعه‌های داده‌ای با ابعاد بالا که نیازمند سرعت و دقت بالایی هستند، به‌سرعت رو به افزایش است. داده‌کاوی به‌عنوان ارتباط‌دهنده هوش مصنوعی، یادگیری ماشین، آمار و پایگاه داده، در حال مقابله با این حجم عظیم داده‌ها، پردازش و تحلیل آن‌ها است. هدف داده‌کاوی، استخراج دانش از مجموعه‌های داده‌ای و تبدیل آن به یک ساختار قابل‌درک برای استفاده‌های بعدی است .

یکی از انواع چالش بر انگیز داده ها، مجموعه های داده نامتعادل است. به یک مجموعه داده نامتعادل گفته می شود اگر بسیاری از نمونه های موجود در آن مجموعه داده متعلق به یک کلاس و تعداد کمی از نمونه ها متعلق به دسته های دیگر باشد. به عبارتی دیگر یک مجموعه را می توان مجموعه داده نامتعادل نامید در حالی که حداقل یک کلاس در آن وجود داشته باشد که تعداد نمونه های آموزش مربوط به آن کلاس بسیار کم باشد. به این کلاس که تعداد نمونه های کمی در مجموعه آموزشی دارد کلاس اقلیت گفته می شود و سایر کلاس هایی که دارای نمونه های آموزش زیادی باشند کلاس اکثریت نامیده می شوند.

منابع و مراجع پروپوزال انتخاب ویژگی در داده نامتعادل با خوشه بندی مبتنی بر تشخیص جامعه:

 

  1. Cadenas, J.M., M.C. Garrido, and R. Martínez, Feature subset selection Filter–Wrapper based on low quality data. Expert Systems with Applications, 2013. ۴۰(۱۶): p. 6241-6252.
  2. Liu, Y. and Y.F. Zheng, FS_SFS: A novel feature selection method for support vector machines. Pattern Recognition, 2006. ۳۹(۷): p. 1333-1345.
  3. Xin Sun, et al., Using cooperative game theory to optimize the feature selection problem. Neurocomputing, 2012. ۹۷: p. 86-93.
  4. Zhang, X., et al., A dissimilarity-based imbalance data classification algorithm. Applied Intelligence, 2015. ۴۲(۳): p. 544-565.
  5. Moradi, P. and M. Rostami, A graph theoretic approach for unsupervised feature selection. Engineering Applications of Artificial Intelligence, 2015. ۴۴: p. 33-45.
  6. Chandrashekar, G. and F. Sahin, A survey on feature selection methods. Computers & Electrical Engineering, 2014. ۴۰(۱): p. 16-28.
  7. Carmen Lai, Marcel J.T. Reinders, and L. Wessels, Random subspace method for multivariate feature selection. Pattern Recognition Letters, 2006. ۲۷(۱۰): p. 067–۱۰۷۶.
  8. Saeys, Y., I. Inza, and P. Larranaga, A review of feature selection techniques in bioinformatics. Bioinformatics, 2007. ۲۳(۱۹): p. 2507-17.
  9. Raileanu, L.E. and K. Stoffel, Theoretical comparison between the Gini index and information gain criteria. Ann. Math. Artif. Intell. 41, 2004: p. 77-93.
  10. Mitchell, T.M., Machine Learning. McGraw-Hill,NewYork., 1997.
  11. Quanquan Gu, Zhenhui Li, and J. Han, Generalized Fisher Score for Feature Selection. In: Proceedings of the International Conference on Uncertainty in Artificial Intelligence, 2011.
  12. Xiaofei He, Deng Cai, and P. Niyogi1, Laplacian Score for Feature Selection. Adv. Neural Inf. Process. Syst, 2005. ۱۸: p. 507-514.
  13. S. Theodoridis and C. Koutroumbas, Pattern Recognition, 4th Edn. Elsevier Inc, 2009.
  14. Hanchuan Peng, Fuhui Long, and C. Ding, Feature selection based on mutual information criteria of max-dependency, max-relevance, and min-redundancy. IEEE Transactions Pattern Analysis and Machine Intelligence, 2005. ۲۷(۸): p. 1226 – 1238
  15. Artur J. Ferreira and M.A.T. Figueiredo, An unsupervised approach to feature discretization and selection. Pattern Recognition, 2012. ۴۵(۹): p. 3048–۳۰۶۰.
  16. Zhang, Z. and E.R. Hancock, Hypergraph based information-theoretic feature selection. Pattern Recognition Letters, 2012. ۳۳(۱۵): p. 1991-1999.
  17. Song, Q., J. Ni, and G. Wang, A Fast Clustering-Based Feature Subset Selection Algorithm for High-Dimensional Data. IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING, 2013. ۲۵(۱): p. 1 – 14.
  18. Monalisa Mandal and A. Mukhopadhyay, Unsupervised Non-redundant Feature Selection: A Graph-Theoretic Approach. In: Proceedings of the International Conference on Frontiers of Intelligent Computing: Theory and Applications (FICTA), 2013: p. pp 373-380.
  19. V. Blondel, et al., Fast unfolding of communities in large networks. Journal of Statistical Mechanics: Theory and Experiment, 2008. ۱۰۰۰۸: p. pp. 1–۱۲.
خرید
 راهنمای خرید:
  لینک دانلود فایل بلافاصله بعد از پرداخت وجه به نمایش در خواهد آمد.
  همچنین لینک دانلود به ایمیل شما ارسال خواهد شد به همین دلیل ایمیل خود را به دقت وارد نمایید.
  ممکن است ایمیل ارسالی به پوشه اسپم یا Bulk ایمیل شما ارسال شده باشد.
  در صورتی که به هر دلیلی موفق به دانلود فایل مورد نظر نشدید با ما تماس بگیرید.

 برچسب ها: