تنظيم صفحاتك في مجموعات
يمكنك حفظ المحتوى وتصنيفه حسب إعداداتك المفضّلة.
هذا صوت ثور.
الشكل 19. ثور.
في عام 1906، تم تنظيم مسابقة لتقييم الوزن في
إنجلترا.
توقّع 787 مشاركًا وزن ثور. كان متوسّط الخطأ في التخمينات الفردية
يتراوح بين 17 و37 رطلًا (أي خطأ بنسبة 3.1%). ومع ذلك، كان متوسّط التقييمات المُقدَّرة للوزن يقلّ عن الوزن الفعلي للثور (1198 رطل) بمقدار 9 رطل فقط، ما يمثّل خطأً بنسبة 0.7% فقط.
الشكل 20: مخطّط بياني هرمي للوزن المقدَّر لكل فرد
توضّح هذه الحكاية حكمة الحشود: في
مواقف معيّنة، يقدّم الرأي الجماعي حكمًا جيدًا جدًا.
من الناحية الحسابية، يمكن وضع نموذج لحكمة الحشود باستخدام نظرية الحدّ المركزي:
بشكل غير رسمي، يميل الخطأ التربيعي بين قيمة ومتوسط N تخمينات صاخبة
لهذه القيمة إلى الصفر مع عامل 1/N.
ومع ذلك، إذا لم تكن المتغيرات مستقلة، يكون التباين أكبر.
في تعلُّم الآلة، يُعدّ
النموذج المجمّع مجموعة من النماذج
يتم احتساب متوسط توقعاتها (أو تجميعها بطريقة ما). إذا كانت نماذج المجموعة
مختلفة بما يكفي بدون أن تكون سيئة جدًا بشكل فردي، تكون جودة
المجموعة بشكل عام أفضل من جودة كل نموذج من نماذج
المجموعة الفردية. تتطلّب المجموعة وقتًا أطول للتدريب والاستنتاج مقارنةً بأحد نماذج
الفردية. بعد كل شيء، عليك إجراء عمليات التدريب والاستنتاج على نماذج متعددة بدلاً من نموذج واحد.
بشكل غير رسمي، لكي تعمل المجموعة على أفضل وجه، يجب أن تكون النماذج الفردية
مستقلة. على سبيل المثال، لن تكون المجموعة التي تتألف من 10 نماذج متطابقة تمامًا (أي ليست مستقلة على الإطلاق) أفضل من النموذج الفردي. من ناحية أخرى، قد يؤدي فرض استقلالية النماذج إلى تحسين
أداءها. تتطلّب عملية الدمج الفعّالة تحقيق التوازن بين استقلالية النموذج
وجودة النماذج الفرعية.
تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)
[[["يسهُل فهم المحتوى.","easyToUnderstand","thumb-up"],["ساعَدني المحتوى في حلّ مشكلتي.","solvedMyProblem","thumb-up"],["غير ذلك","otherUp","thumb-up"]],[["لا يحتوي على المعلومات التي أحتاج إليها.","missingTheInformationINeed","thumb-down"],["الخطوات معقدة للغاية / كثيرة جدًا.","tooComplicatedTooManySteps","thumb-down"],["المحتوى قديم.","outOfDate","thumb-down"],["ثمة مشكلة في الترجمة.","translationIssue","thumb-down"],["مشكلة في العيّنات / التعليمات البرمجية","samplesCodeIssue","thumb-down"],["غير ذلك","otherDown","thumb-down"]],["تاريخ التعديل الأخير: 2025-07-27 (حسب التوقيت العالمي المتفَّق عليه)"],[[["\u003cp\u003eThe "wisdom of the crowd" suggests that collective opinions can provide surprisingly accurate judgments, as demonstrated by a 1906 ox weight-guessing competition where the collective guess was remarkably close to the true weight.\u003c/p\u003e\n"],["\u003cp\u003eThis phenomenon can be explained by the Central Limit Theorem, which states that the average of multiple independent estimates tends to converge towards the true value.\u003c/p\u003e\n"],["\u003cp\u003eIn machine learning, ensembles leverage this principle by combining predictions from multiple models, improving overall accuracy when individual models are sufficiently diverse and reasonably accurate.\u003c/p\u003e\n"],["\u003cp\u003eWhile ensembles require more computational resources, their enhanced predictive performance often outweighs the added cost, especially when individual models are carefully selected and combined.\u003c/p\u003e\n"],["\u003cp\u003eAchieving optimal ensemble performance involves striking a balance between ensuring model independence to avoid redundant predictions and maintaining the individual quality of sub-models for overall accuracy.\u003c/p\u003e\n"]]],[],null,["# Random Forest\n\n\u003cbr /\u003e\n\nThis is an Ox.\n\n\n**Figure 19. An ox.**\n\n\u003cbr /\u003e\n\nIn 1906, a [weight judging competition was held in\nEngland](https://www.nature.com/articles/075450a0.pdf).\n787 participants guessed the weight of an ox. The median *error* of individual\nguesses was 37 lb (an error of 3.1%). However, the overall median of the\nguesses was only 9 lb away from the real weight of the ox (1198 lb), which was\nan error of only 0.7%.\n\n**Figure 20. Histogram of individual weight guesses.**\n\nThis anecdote illustrates the\n[Wisdom of the crowd](/machine-learning/glossary#wisdom_of_the_crowd): *In\ncertain situations, collective opinion provides very good judgment.*\n\nMathematically, the wisdom of the crowd can be modeled with the\n[Central limit theorem](https://wikipedia.org/wiki/Central_limit_theorem):\nInformally, the squared error between a value and the average of N noisy\nestimates of this value tends to zero with a 1/N factor.\nHowever, if the variables are not independent, the variance is greater.\n\nIn machine learning, an\n**[ensemble](/machine-learning/glossary#ensemble)** is a collection of models\nwhose predictions are averaged (or aggregated in some way). If the ensemble\nmodels are different enough without being too bad individually, the quality of\nthe ensemble is generally better than the quality of each of the individual\nmodels. An ensemble requires more training and inference time than a single\nmodel. After all, you have to perform training and inference on multiple models\ninstead of a single model.\n\nInformally, for an ensemble to work best, the individual models should be\nindependent. As an illustration, an ensemble composed of 10 of the exact same\nmodels (that is, not independent at all) won't be better than the individual\nmodel. On the other hand, forcing models to be independent could mean making\nthem worse. Effective ensembling requires finding the balance between model\nindependence and the quality of its sub-models."]]