ICML読み会2013 で発表してきました
- 先日行われたICML読み会2013で発表してきました.主催者の @sla さん,会場提供をして頂いた中川先生,および読み会を盛り上げて頂いた他発表者・参加者の皆様ありがとうございました!やはり論文読み会は刺激的で非常に楽しいひとときが過ごせました.
- これからも定期的に論文読み会が開催されるとの事なので,これからも楽しみですね.(KDD読み会とかNIPS読み会とか?)
- 自分は"Large-Scale Learning with Less RAM via Randomization"という論文の紹介を行いました.発表資料を以下に載せておきます.
- 論文の概要は,
- "そもそも重みベクトルの値を格納するのにfloat型が本当に必要なの?もっとビット数減らしても精度変わらないんじゃないの?ビット数減らせれば,GPUやL1cacheに載せる事も考えられるようになるよね."というモチベーションから出発.
- Regret等の理論保証のある形での学習/予測時のビット数削減方法を提案.
- という話になっています.
- 発表資料中に誤りや訂正すべき点などあれば,コメント等でご報告頂ければ幸いです.