کەی نزیکترین ھاوسێکان: جیاوازیی نێوان پێداچوونەوەکان
ناوەڕۆکی سڕاو ناوەڕۆکی زیادکراو
دروستکردنی وتاری نوێ تاگەکان: دروستکردنی وتاری نوێی بێپۆل دەستکاریی دیداری |
(بەبێ جیاوازی)
|
وەک پێداچوونەوەی ٠٥:٢١، ١٦ی نیسانی ٢٠٢٠
ئەم وتار یان بەشە لە پڕۆسەی فراوانکردن یان داڕشتنەوەیەکی سەرەکیدایە. ھەروەھا تۆیش دەتوانیت یارمەتیی بنیاتنانی بدەیت. ئەگەر ئەم وتار یان بەشە بۆ ماوەی چەند ڕۆژێک دەستکاری نەکرا، ئەوا تکایە ئەم داڕێژە لابە. ئەگەر تۆ ئەو دەستکاریکەرەی کە ئەم داڕێژەیەت زیاد کردووە و ھێشتاش بەچالاکی دەستکاریی دەکەیت، ئەوا تکایە دڵنیا ببەوە کە لەکاتی دەستکاریکردنە چالاکەکەدا، ئەم داڕێژە بە {{لە بەکارھێنان دایە}} دەگۆڕیت. بۆ چۆنییەتیی بەکارھێنانی پارامەترەکانی داڕێژە، کرتە لە بەستەرەکە بکە.
ئەم وتار دوایین جار لەلایەن Pirehelokan (لێدوان | بەشدارییەکان) دەستکاری کراوە ٤ ساڵ لەمەوبەر. (کاتگرەوەکە نوێ بکەوە) |
ئەلگۆریتمی k-نزیکترین ھاوسێکان (بە ئینگلیزی: k-nearest neighbours) یا کەی ئێن ئێن k-NN ئەلگۆریتمێکی پۆلێنکەرە کە بە جۆرێک لە ئەلگۆریتمی فێربوونی تەمبەڵ و ھەروەھا ئەلگۆریتمی ناپارامەتری دادەنرێت.[١][٢] تەنیا پارامەتری ئەم ئەلگۆریتمە kە کە ژمارەیەکی تەواوە کە ژمارەی ھاوسێکان پیشان دەدات. بۆ نموونە ئەگەر k دابنرێت ٣، ئەلگۆریتمەکە ٣ نزیکترین ھاوسێ دەدۆزێتەوە. ئەلگۆریتمی کەی ئێن ئێن بە دۆزینەوەی مەودای نموونەکان کار دەکات. واتە کاتێک دەیھەوێت نموونەیەکی تازە پۆلێن بکات سەرەتا مەوداکەی لە تەواو نموونەکانی ناو بنکەدراوەکە دەدۆزێتەوە. ئینجا k نزیکترین ھاوسێکانی ئەو نموونە تازەیە ھەڵدەبژێرێت. پۆلی نموونە تازەکە لە ڕووی نیشانە یا پۆلی ھاوسێ نزیکەکانەوە دەدۆزرێتەوە. واتە بە دەنگدان لە نێوان نزیکترین ھاوسێکاندا.[٣]
سەرچاوەکان
- ^ Provost, F. , & Fawcett, T. (2013). Data Science for Business: What you need to know about data mining and data-analytic thinking. " O'Reilly Media, Inc.".
- ^ T. Hastie, R. Tibshirani, and J. Friedman, “The Elements of Statistical Learning,” Bayesian Forecast. Dyn. Model. , vol. 1, pp. 1–694, 2009.
- ^ T. Hastie, R. Tibshirani, and J. Friedman, “The Elements of Statistical Learning,” Bayesian Forecast. Dyn. Model. , vol. 1, pp. 1–694, 2009.