プロの翻訳者、企業、ウェブページから自由に利用できる翻訳レポジトリまで。
structural diversity for decision tree ensemble learning
تنوع ساختاری برای گروه درخت تصمیم
最終更新: 2018-12-02
使用頻度: 1
品質:
参照:
it contains support vector machine, neural networks, bayes, boost, k-nearest neighbor, decision tree, ..., etc.
it contains support vector machine, neural networks, bayes, boost, k-nearest neighbor, decision tree, ... , etc.
最終更新: 2016-03-03
使用頻度: 1
品質:
参照:
the decision tree complexity or query complexity of the problem, where the queries are to an oracle which stores the adjacency matrix of a graph, is Θ("n"2).
پیچیدگی درخت تصمیم یا پیچیدگی پرسش (جستار) این مسئله (Θ("n"2 است (پرسش به برنامهای است برای ذخیرهسازی ماتریس هم جواری گراف).
最終更新: 2016-03-03
使用頻度: 1
品質:
参照:
警告:見えない HTML フォーマットが含まれています
2. why is tree pruning useful in decision tree induction? what is a drawback of using a separate set of tuples to evaluate pruning? answer: the decision tree built may overfit the training data. there could be too many branches, some of which may reflect anomalies in the training data due to noise or outliers. tree pruning addresses this issue of overfitting the data by removing the least reliable branches (using statistical measures). this generally results in a more compact and reliable decisi
2. چرا هرس درختان در القای درخت تصمیم مفید است؟ استفاده از مجموعه جداگانه تاپل ها برای ارزیابی هرس چه اشکالی دارد؟ پاسخ: درخت تصمیم ساخته شده ممکن است بیش از حد با داده های آموزشی مطابقت داشته باشد. ممکن است شاخه های زیادی وجود داشته باشد که برخی از آنها ممکن است ناهنجاری هایی را در داده های آموزشی به دلیل نویز یا نقاط پرت منعکس کنند. هرس درختان با حذف کمترین انشعابات قابل اعتماد (با استفاده از معیارهای آماری) به این موضوع مربوط به بیش از حد برازش داده ها می پردازد. این به طور کلی منجر به تصمیم گیری فشرده تر و قابل اعتمادتر می شود
最終更新: 2021-10-26
使用頻度: 1
品質:
参照: