Command Palette

Search for a command to run...

2日前

伝達型オンライン学習における最適な誤りバウンド

Zachary Chase Steve Hanneke Shay Moran Jonathan Shafer

伝達型オンライン学習における最適な誤りバウンド

要約

我々は、オンライン学習におけるラベルなしデータの有効性に関する30年以上にわたる未解決問題を、帰納的学習と標準的オンライン学習の誤り境界の差を精密に定量化することによって解決した。本研究では、Littlestone次元が ( d ) である任意の概念クラスに対して、帰納的誤り境界が少なくとも ( \Omega(\sqrt{d}) ) であることを証明した。これは、Ben-David、Kushilevitz、Mansour(1995年、1997年)およびHanneke、Moran、Shafer(2023年)によって得られた従来の下界 ( \Omega(\log \log d) )、( \Omega(\sqrt{d}) )、( \Omega(\sqrt{\log d}) ) に対して指数的に改善する結果である。さらに、我々の下界がタイトであることも示した:任意の ( d ) に対して、Littlestone次元が ( d ) であるクラスが存在し、その帰納的誤り境界は ( O(\sqrt{d}) ) となる。この上界は、Ben-Davidら(1997年)が得た従来の最良上界 ( \frac{2}{3}d ) よりも改善している。これらの結果は、帰納的学習と標準的オンライン学習の間に二次的なギャップが存在することを示しており、ラベルなしインスタンス列に対する先進的なアクセスが学習性能に与える利点を強調している。これは、PAC学習設定において帰納的学習と標準的学習が類似したサンプル複雑性を示すのと対照的である。

AI で AI を構築

アイデアからローンチまで — 無料の AI 共同コーディング、すぐに使える環境、最適価格の GPU で AI 開発を加速。

AI 共同コーディング
すぐに使える GPU
最適価格
今すぐ始める

Hyper Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
伝達型オンライン学習における最適な誤りバウンド | 論文 | HyperAI超神経