هذه المقالة يتيمة. ساعد بإضافة وصلة إليها في مقالة متعلقة بها

إكس جي بوست

من أرابيكا، الموسوعة الحرة
اذهب إلى التنقل اذهب إلى البحث
اكس جي بوست
الشعار
معلومات عامة
نوع
نظام التشغيل
موقع الويب
معلومات تقنية
لغة البرمجة
الإصدار الأول
27 مارس 2014؛ منذ 10 سنين (2014-03-27)
الرخصة

اكس جي بوست[1] (باللغة الإنكليزية: XGBoost ; مختصر لـ eXtreme Gradient Boosting) هي مكتبة برمجيةمفتوحة المصدر، التي توفر اطار عمل لتقنيات تقنين التدرج المعزز في اللغات البرمجية سي++، جافا، بايثون، [2] ار، [3] جوليا، [4] بيرل، [5] و سكالا. تعمل المكتبة على انظمة تشغيل لينكس و مايكروسوفت ويندوز [6] و ماك او اس.[7] اعتمادا على وصف المشروع، فانه يهدف إلى توفير مكتبة تدعم «التدرج المعزز القابل للتطوير واعادة الاستعمال والتوزيع». يتم تشغيله على جهاز واحد، بالإضافة إلى أطر المعالجة الموزعة من اباتشي هدوب و اباتشي سبارك و اباتشي فلينك و داسك.[8] [9]

لقد اكتسبت المكتبة الكثير من الشعبية والاهتمام مؤخرًا باعتبارها الخوارزمية المفضلة للعديد من الفرق الفائزة في مسابقات التعلم الآلي.[10]

التاريخ

بدأت اكس جي بوست في البداية كمشروع بحثي بواسطة تيانكي جين[11] كجزء من مجموعة مجتمع التعلم الآلي العميق. في البداية، بدأ كتطبيق طرفي يمكن تهيئته باستخدام ملف تكوين libsvm. أصبح معروفًا جيدًا في دوائر مسابقة تعلم الالة بعد استخدامه في الحل الفائز لتحدي هيكز لتعلم الالة. بعد فترة وجيزة، تم إنشاء حزم بايثون و ار، ولدى اكس جي بوست الآن تطبيقات لحزم جافا و سكالا و جوليا و ليرل ولغات أخرى. جلب هذا التحدي اهتمام المزيد من المطورين إلى المكتبة، وساهم في شعبيتها بين مجتمع كاغل، حيث تم استخدامها لعدد كبير من المسابقات. [12]

سرعان ما تم دمجها مع عدد من الحزم الأخرى مما يسهل استخدامها في مجتمعات البرمجة. تم دمجها الآن مع مكتبة ساي كيت ليرن لمستخدمي بايثون ومع حزمة الإقحام لمستخدمي ار. يمكن أيضًا دمجها في أطر عمل مسار البيانات مثل اباتشي سبارك و اباتشي هيدوب و اباتشي فلينك.[13][14] يتوفر اكس جي بوست أيضًا على اوبن سي ال لمصفوفة البوابات المنطقية القابلة للبرمجة.[15] تم نشر تنفيذ فعال وقابل للتطوير لاكس جي بوست بواسطة تيانكي جين و كالوس جوسترين.[16]

السمات

تشمل الميزات البارزة لاكس جي بوست والتي تجعله مختلفًا عن خوارزميات تعزيز التدرج الأخرى: [17] [18] [19]

الخوارزمية

يعمل اكس جي بوست بالاعتماد على طريقة نيوتن في مساحة الوظيفة على عكس تعزيز التدرج الذي يعمل كنزول متدرج في مساحة الوظيفة، يتم استخدام تقريب تايلور من الدرجة الثانية في وظيفة الخسارة لإجراء الاتصال بطريقة نيوتن رافسون.

الجوائز

  • جائزة جون تشامبرز (2016) [20]
  • جائزة فيزياء الطاقة العالية تلتقي بالتعلم الآلي (2016) [21]

مراجع

  1. ^ "GitHub project webpage". مؤرشف من الأصل في 2022-09-01.
  2. ^ "Python Package Index PYPI: xgboost". مؤرشف من الأصل في 2021-10-07. اطلع عليه بتاريخ 2016-08-01.
  3. ^ "CRAN package xgboost". مؤرشف من الأصل في 2022-09-01. اطلع عليه بتاريخ 2016-08-01.
  4. ^ "Julia package listing xgboost". مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2016-08-01.
  5. ^ "CPAN module AI::XGBoost". مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2020-02-09.
  6. ^ "Installing XGBoost for Anaconda in Windows". مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2016-08-01.
  7. ^ "Installing XGBoost on Mac OSX". مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2016-08-01.
  8. ^ "Dask Homepage". مؤرشف من الأصل في 2022-09-14.
  9. ^ "Distributed XGBoost with Dask — xgboost 1.5.0-dev documentation". xgboost.readthedocs.io. مؤرشف من الأصل في 2022-06-04. اطلع عليه بتاريخ 2021-07-15.
  10. ^ "XGBoost - ML winning solutions (incomplete list)". غيت هاب. مؤرشف من الأصل في 2022-08-08. اطلع عليه بتاريخ 2016-08-01.
  11. ^ "Story and Lessons behind the evolution of XGBoost". مؤرشف من الأصل في 2022-03-07. اطلع عليه بتاريخ 2016-08-01.
  12. ^ "XGBoost - ML winning solutions (incomplete list)". غيت هاب. اطلع عليه بتاريخ 2016-08-01."XGBoost - ML winning solutions (incomplete list)".
  13. ^ "Rabit - Reliable Allreduce and Broadcast Interface". غيت هاب. مؤرشف من الأصل في 2022-09-01. اطلع عليه بتاريخ 2016-08-01.
  14. ^ "XGBoost4J". مؤرشف من الأصل في 2022-06-16. اطلع عليه بتاريخ 2016-08-01.
  15. ^ "XGBoost on FPGAs". غيت هاب. مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2019-08-01.
  16. ^ . ص. 785–794. {{استشهاد بمنشورات مؤتمر}}: الوسيط |title= غير موجود أو فارغ (مساعدة)
  17. ^ Gandhi, Rohith (24 May 2019). "Gradient Boosting and XGBoost". Medium (بEnglish). Archived from the original on 2022-07-31. Retrieved 2020-01-04.
  18. ^ "Boosting algorithm: XGBoost". Towards Data Science (بEnglish). 14 May 2017. Archived from the original on 2022-04-06. Retrieved 2020-01-04.
  19. ^ "Tree Boosting With XGBoost – Why Does XGBoost Win "Every" Machine Learning Competition?". Synced (بen-US). 22 Oct 2017. Archived from the original on 2022-08-23. Retrieved 2020-01-04.{{استشهاد ويب}}: صيانة الاستشهاد: لغة غير مدعومة (link)
  20. ^ "John Chambers Award Previous Winners". مؤرشف من الأصل في 2022-08-02. اطلع عليه بتاريخ 2016-08-01.
  21. ^ "HEP meets ML Award". مؤرشف من الأصل في 2021-10-06. اطلع عليه بتاريخ 2016-08-01.