کەی نزیکترین ھاوسێکان: جیاوازیی نێوان پێداچوونەوەکان
ناوەڕۆکی سڕاو ناوەڕۆکی زیادکراو
دروستکردنی وتاری نوێ تاگەکان: دروستکردنی وتاری نوێی بێپۆل دەستکاریی دیداری |
وێنە+ |
||
ھێڵی ١:
{{ئامادە کردن}}
[[پەڕگە:KnnClassification.svg|وێنۆک|نموونەیەکی پۆلێن بە k-NN. خاڵە سەوزەکە نموونەیەکی تازەیە. ئەگەر k بگرین ٣، واتە سێ نزیکترین ھاوسێی ھەڵبژێرین بۆ پۆلێن ئەوا نموونە تازەکە دەکەوێتە پۆلی سێگۆشەوە. ئەم حاڵەتە بە بازنە بچووکەکە پیشان دراوە. بەڵام ئەگەر k لە حاڵەتێکی تردا ٥ بێت، ئەم جارە ئەلگۆریتمەکە نموونە تازەکە وەک چوارگۆش پۆلێن دەکات. ئەم حاڵەتە بە بازنە گەورەکە پیشان دراوە.]]
ئەلگۆریتمی '''k-نزیکترین ھاوسێکان''' ({{بە ئینگلیزی|k-nearest neighbours}}) یا کەی ئێن ئێن k-NN ئەلگۆریتمێکی [[پۆلێنی ئاماری|پۆلێنکەرە]] کە بە جۆرێک لە ئەلگۆریتمی فێربوونی تەمبەڵ و ھەروەھا ئەلگۆریتمی ناپارامەتری دادەنرێت.<ref>{{Cite book|last=|first=|title=Provost, F. , & Fawcett, T. (2013). Data Science for Business: What you need to know about data mining and data-analytic thinking. " O'Reilly Media, Inc.".|publisher=|year=|isbn=|location=|pages=}}</ref><ref>{{Cite book|last=|first=|title=T. Hastie, R. Tibshirani, and J. Friedman, “The Elements of Statistical Learning,” Bayesian Forecast. Dyn. Model. , vol. 1, pp. 1–694, 2009.|publisher=|year=|isbn=|location=|pages=}}</ref> تەنیا پارامەتری ئەم ئەلگۆریتمە kە کە [[ژمارەی تەواو|ژمارەیەکی تەواوە]] کە ژمارەی ھاوسێکان پیشان دەدات. بۆ نموونە ئەگەر k دابنرێت ٣، ئەلگۆریتمەکە ٣ نزیکترین ھاوسێ دەدۆزێتەوە. ئەلگۆریتمی کەی ئێن ئێن بە دۆزینەوەی مەودای نموونەکان کار دەکات. واتە کاتێک دەیھەوێت نموونەیەکی تازە پۆلێن بکات سەرەتا مەوداکەی لە تەواو نموونەکانی ناو بنکەدراوەکە دەدۆزێتەوە. ئینجا k نزیکترین ھاوسێکانی ئەو نموونە تازەیە ھەڵدەبژێرێت. پۆلی نموونە تازەکە لە ڕووی نیشانە یا پۆلی ھاوسێ نزیکەکانەوە دەدۆزرێتەوە. واتە بە دەنگدان لە نێوان نزیکترین ھاوسێکاندا.<ref>{{Cite book|last=|first=|title=T. Hastie, R. Tibshirani, and J. Friedman, “The Elements of Statistical Learning,” Bayesian Forecast. Dyn. Model. , vol. 1, pp. 1–694, 2009.|publisher=|year=|isbn=|location=|pages=}}</ref>
|