Advanced deep and shallow learning

למידה עמוקה ורדודה מתקדמת

מספר פרויקט
318
סטטוס - הצעה
הצעה
אחראי אקדמי
שנה
2025

הרקע לפרויקט:

The realization of classification tasks using deep learning is a primary goal of artificial intelligence; however, its possible universal behavior remains unexplored. Herein, we demonstrate a scaling behavior for the test error, ϵ, as a function of the number of classified labels, 𝐾. For trained utmost deep architectures on CIFAR-100 ϵ(K)∝Kρ with ρ∼1, and in case of reduced deep architectures, ρ continuously decreases until a crossover to ϵ(K)∝log(K) is observed for shallow architectures. A similar crossover is observed for shallow architectures, where the number of filters in the convolutional layers is proportionally increased. This unified the scaling behavior of deep and shallow architectures, which yields a reduced latency method. The dependence of Δϵ/ΔK on the trained architecture is expected to be crucial in learning scenarios involving dynamic number of labels.

מטרת הפרויקט:

מימוש אלגוריתם של למידת מכונה והשוואה לאלגוריתמים נוספים

תכולת הפרויקט:

• קריאה של מאמרי רקע
• מימוש אלג' למידת מכונה
• השואה של האלגוריתמים השונים על גבי דאטה-סטים שונים
• ניתוח תאורטי של האלגוריתמים

קורסי קדם:

הסתברות וסטטיסטיקה

מקורות:

ידע בפייתון

תאריך עדכון אחרון : 30/09/2024