DSpace at VNU: Nghiên cứu ứng dụng kỹ thuật BoostMetric nhằm tăng hiệu quả phân lớp dữ liệu lớn

2 169 0
DSpace at VNU: Nghiên cứu ứng dụng kỹ thuật BoostMetric nhằm tăng hiệu quả phân lớp dữ liệu lớn

Đang tải... (xem toàn văn)

Thông tin tài liệu

Nghiên cứu ứng dụng kỹ thuật BoostMetric nhằm tăng hiệu phân lớp liệu lớn Nguyễn Thanh Tịnh Trường đại học Công nghệ Luận văn ThS Hệ thống thông tin; Mã số: 60 48 01 04 Người hướng dẫn: PGS.TS Nguyễn Hà Nam Năm bảo vệ: 2014 Abstract Tìm hiểu nghiên cứu thuật toán BoostMetric Weighted-kNN Từ xây dựng mơ hình kết hợp sử dụng BoostMetric Weighted-kNN nhằm tăng hiệu phân lớp liệu Keywords Khai phá liệu Kỹ thuật BoostMetric Công nghệ thông tin Content Chương 1: Luận văn giới thiệu khái quát Khai phá liệu số kỹ thuật Học máy bản, bao gồm hai thuật toán BoostMetric WkNN Chương 2: Luận văn đề xuất mơ hình kết hợp hai thuật tốn BoostMetric WkNN để làm tăng hiệu phân lớp liệu Chương 3: Thực nghiệm, kết quả, đánh giá Tiến hành thực nghiệm theo mơ hình đề xuất chương Phần kết luận: Tóm lược kết đạt luận văn References Tiếng Anh [1] Bernhard Scholkopf, Alexander J.Smola (2002), Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond, MIT Press, Massachusetts [2] Chunhua Shen, Junae Kim, Lei Wang, Anton van den Hengel (2009), “Positive Semidefinite Metric Learning with Boosting”, Advances in Neural Information Processing Systems, pp.1651-1659 [3] Chunhua Shen, Junae Kim, Lei Wang, Anton van den Hengel (2012), “Positive Semidefinite Metric Learning Using Boosting-like Algorithms”, Journal of Machine Learning Research, 13 (1), pp.1007-1036 [4] Dong-Sheng Cao, Jian-Hua Huang, Jun Yan, Liang-Xiao Zhang, Qian-Nan Hu, Qing-Song Xu, Yi-Zeng Liang (2012), “Kernel k-nearest neighbor algorithm as a flexible SAR modeling tool”, Chemometrics and Intelligent Laboratory Systems, 114, pp.19-23 [5] Hechenbichler Klaus, Schliep Klaus (2004), Weighted k-Nearest-Neighbor Techniques and Ordinal Classification, Discussion Paper 399, SFB 386, Ludwig-Maximilians University Munich [6] Jiawei Han, Micheline Kamber (2006), Data Mining – Concepts and Techniques 2nd Edition, Morgan Kaufmann, San Francisco [7] Kai Yu, Liang Ji, Xuegong Zhang (2002), “Kernel Nearest-Neighbor Algorithm”, Neural Processing Letters, 15 (2), pp.147-156 [8] Leif E.Peterson (2009), “K-Nearest Neighbor”, Scholarpedia, (2) [9] Rick Wicklin (2012), “What is Mahalanobis distance?”, SAS Blogs URL: http://blogs.sas.com/content/iml/2012/02/15/what-is-mahalanobis-distance/ ... Chemometrics and Intelligent Laboratory Systems, 114, pp.19-23 [5] Hechenbichler Klaus, Schliep Klaus (2004), Weighted k-Nearest-Neighbor Techniques and Ordinal Classification, Discussion Paper 399,... Neighbor”, Scholarpedia, (2) [9] Rick Wicklin (2012), “What is Mahalanobis distance?”, SAS Blogs URL: http://blogs.sas.com/content/iml/2012/02/15/what-is-mahalanobis-distance/ ... Paper 399, SFB 386, Ludwig-Maximilians University Munich [6] Jiawei Han, Micheline Kamber (2006), Data Mining – Concepts and Techniques 2nd Edition, Morgan Kaufmann, San Francisco [7] Kai Yu, Liang

Ngày đăng: 17/12/2017, 03:57

Tài liệu cùng người dùng

Tài liệu liên quan