• English
    • العربية
  • English
  • تسجيل الدخول
  • جامعة قطر
  • مكتبة جامعة قطر
  •  الصفحة الرئيسية
  • الوحدات والمجموعات
  • المساعدة
    • إرسال الأعمال الأكاديمية
    • سياسات الناشر
    • أدلة المستخدم
    • الأسئلة الأكثر تكراراً
  • عن المستودع الرقمي
    • الرؤية والرسالة
عرض التسجيلة 
  •   مركز المجموعات الرقمية لجامعة قطر
  • المستودع الرقمي لجامعة قطر
  • أكاديمية
  • مراكز البحث
  • مركز الكندي لبحوث الحوسبة
  • الشبكات وخدمات البنية التحتية للمعلومات والبيانات
  • عرض التسجيلة
  • مركز المجموعات الرقمية لجامعة قطر
  • المستودع الرقمي لجامعة قطر
  • أكاديمية
  • مراكز البحث
  • مركز الكندي لبحوث الحوسبة
  • الشبكات وخدمات البنية التحتية للمعلومات والبيانات
  • عرض التسجيلة
  •      
  •  
    JavaScript is disabled for your browser. Some features of this site may not work without it.

    Self-Distillation for Randomized Neural Networks

    Thumbnail
    عرض / فتح
    Self-Distillation_for_Randomized_Neural_Networks.pdf (4.407Mb)
    التاريخ
    2023
    المؤلف
    Hu, Minghui
    Gao, Ruobin
    Suganthan, Ponnuthurai Nagaratnam
    البيانات الوصفية
    عرض كامل للتسجيلة
    الملخص
    Knowledge distillation (KD) is a conventional method in the field of deep learning that enables the transfer of dark knowledge from a teacher model to a student model, consequently improving the performance of the student model. In randomized neural networks, due to the simple topology of network architecture and the insignificant relationship between model performance and model size, KD is not able to improve model performance. In this work, we propose a self-distillation pipeline for randomized neural networks: the predictions of the network itself are regarded as the additional target, which are mixed with the weighted original target as a distillation target containing dark knowledge to supervise the training of the model. All the predictions during multi-generation self-distillation process can be integrated by a multi-teacher method. By induction, we have additionally arrived at the methods for infinite self-distillation (ISD) of randomized neural networks. We then provide relevant theoretical analysis about the self-distillation method for randomized neural networks. Furthermore, we demonstrated the effectiveness of the proposed method in practical applications on several benchmark datasets.
    DOI/handle
    http://dx.doi.org/10.1109/TNNLS.2023.3292063
    http://hdl.handle.net/10576/62283
    المجموعات
    • الشبكات وخدمات البنية التحتية للمعلومات والبيانات [‎142‎ items ]

    entitlement


    مركز المجموعات الرقمية لجامعة قطر هو مكتبة رقمية تديرها مكتبة جامعة قطر بدعم من إدارة تقنية المعلومات

    اتصل بنا | ارسل ملاحظاتك
    اتصل بنا | ارسل ملاحظاتك | جامعة قطر

     

     

    الصفحة الرئيسية

    أرسل عملك التابع لجامعة قطر

    تصفح

    محتويات مركز المجموعات الرقمية
      الوحدات والمجموعات تاريخ النشر المؤلف العناوين الموضوع النوع اللغة الناشر
    هذه المجموعة
      تاريخ النشر المؤلف العناوين الموضوع النوع اللغة الناشر

    حسابي

    تسجيل الدخول

    إحصائيات

    عرض إحصائيات الاستخدام

    عن المستودع الرقمي

    الرؤية والرسالة

    المساعدة

    إرسال الأعمال الأكاديميةسياسات الناشرأدلة المستخدمالأسئلة الأكثر تكراراً

    مركز المجموعات الرقمية لجامعة قطر هو مكتبة رقمية تديرها مكتبة جامعة قطر بدعم من إدارة تقنية المعلومات

    اتصل بنا | ارسل ملاحظاتك
    اتصل بنا | ارسل ملاحظاتك | جامعة قطر

     

     

    Video