• English
    • العربية
  • English
  • تسجيل الدخول
  • جامعة قطر
  • مكتبة جامعة قطر
  •  الصفحة الرئيسية
  • الوحدات والمجموعات
  • حقوق النشر
عرض التسجيلة 
  •   مركز المجموعات الرقمية لجامعة قطر
  • المستودع الرقمي لجامعة قطر
  • أكاديمية
  • مساهمة أعضاء هيئة التدريس
  • كلية الهندسة
  • علوم وهندسة الحاسب
  • عرض التسجيلة
  • مركز المجموعات الرقمية لجامعة قطر
  • المستودع الرقمي لجامعة قطر
  • أكاديمية
  • مساهمة أعضاء هيئة التدريس
  • كلية الهندسة
  • علوم وهندسة الحاسب
  • عرض التسجيلة
  •      
  •  
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Hybrid training of deep neural networks with multiple output layers for tabular data classification

    Icon
    عرض / فتح
    اصدار الناشر (بإمكانك الوصول وعرض الوثيقة / التسجيلةمتاح للجميع Icon)
    اصدار الناشر (تحقق من خيارات الوصول)
    تحقق من خيارات الوصول
    1-s2.0-S0031320325006958-main.pdf (1.563Mb)
    التاريخ
    2025-07-05
    المؤلف
    Al-Ali, Abdulaziz
    Suganthan, Ponnuthurai N.
    Aly, Hussein
    Hamdy, Mohamed
    البيانات الوصفية
    عرض كامل للتسجيلة
    الملخص
    In the rapidly evolving landscape of deep learning, the ability to balance performance and computational efficiency is indispensable. Layer-wise training, which involves independently training each hidden layer of a neural network with its private output layer, offers a promising avenue by enabling the construction of a single network that can leverage an ensemble of output layers during prediction. This approach has been successfully employed in state-of-the-art models like ensemble deep multilayer perceptron (edMLP) and ensemble deep random vector functional link (edRVFL), pushing the boundaries of their base models, MLP trained by backpropagation (BP) and RVFL trained using a closed-form solution (CFS). However, edRVFL often underperforms edMLP in accuracy, while edMLP incurs significantly higher computational cost. To this end, we introduce two novel hybrid training approaches that integrate BP and CFS, aiming to balance the trade-offs. Extensive experiments on diverse classification datasets reveal that one of the proposed models, ensemble deep adaptive sampling (edAS), achieves statistically significant improvements in classification accuracy over state-of-the-art models, including edRVFL, edMLP, and self-normalizing neural network (SNN), while being less computationally expensive. Furthermore, the second proposed model, MO-MLP, demonstrates statistically significant superiority over competing models while requiring less than one-third of the computation time needed by models that incorporate BP in a layer-wise manner. The source code for all proposed models is available on GitHub.11https://github.com/M-Hamdy-M/ed-hybrids.
    معرّف المصادر الموحد
    https://www.sciencedirect.com/science/article/pii/S0031320325006958
    DOI/handle
    http://dx.doi.org/10.1016/j.patcog.2025.112035
    http://hdl.handle.net/10576/68415
    المجموعات
    • علوم وهندسة الحاسب [‎2491‎ items ]

    entitlement


    مركز المجموعات الرقمية لجامعة قطر هو مكتبة رقمية تديرها مكتبة جامعة قطر بدعم من إدارة تقنية المعلومات

    اتصل بنا
    اتصل بنا | جامعة قطر

     

     

    الصفحة الرئيسية

    أرسل عملك التابع لجامعة قطر

    تصفح

    محتويات مركز المجموعات الرقمية
      الوحدات والمجموعات تاريخ النشر المؤلف العناوين الموضوع النوع اللغة الناشر
    هذه المجموعة
      تاريخ النشر المؤلف العناوين الموضوع النوع اللغة الناشر

    حسابي

    تسجيل الدخول

    إحصائيات

    عرض إحصائيات الاستخدام

    مركز المجموعات الرقمية لجامعة قطر هو مكتبة رقمية تديرها مكتبة جامعة قطر بدعم من إدارة تقنية المعلومات

    اتصل بنا
    اتصل بنا | جامعة قطر

     

     

    Video