Complexity of hyperconcepts

פרסום מחקרי: פרסום בכתב עתמאמרביקורת עמיתים

1 ציטוט ‏(Scopus)

תקציר

In machine-learning, maximizing the sample margin can reduce the learning generalization error. Samples on which the target function has a large margin (γ) convey more information since they yield more accurate hypotheses. Let X be a finite domain and S denote the set of all samples S ⊆ X of fixed cardinality m. Let H be a class of hypotheses h on X. A hyperconcepth is defined as an indicator function for a set A ⊆ S of all samples on which the corresponding hypothesis h has a margin of at least γ. An estimate on the complexity of the class H of hyperconcepts h is obtained with explicit dependence on γ, the pseudo-dimension of H and m.

שפה מקוריתאנגלית
עמודים (מ-עד)2-10
מספר עמודים9
כתב עתTheoretical Computer Science
כרך363
מספר גיליון1
מזהי עצם דיגיטלי (DOIs)
סטטוס פרסוםפורסם - 25 אוק׳ 2006
פורסם באופן חיצוניכן

טביעת אצבע

להלן מוצגים תחומי המחקר של הפרסום 'Complexity of hyperconcepts'. יחד הם יוצרים טביעת אצבע ייחודית.

פורמט ציטוט ביבליוגרפי