スポンサーサイト

上記の広告は1ヶ月以上更新のないブログに表示されています。
新しい記事を書く事で広告が消せます。

#JapanR でLT発表しました

昨日参加したJapanRでRandomforestで高次元の変数重要度を見るというLTをやりました。下記が元ネタの論文です。
A computationally fast variable importance test for random forests for high-dimensional data

投稿中の論文でこの手法を試してみたので、
帰ってくるまでに背景を抑えておこうというのがモチベーションでした。

Permutationに基づく変数重要度の歴史も合わせて書かれており、
ここに至るまでの流れをある程度つかむことができたかなと思います。

下記パッケージから割りとかんたんに試して見ることができるので、
使ってみると便利かもしれません。
ranger: A Fast Implementation of Random Forests
vita: Variable Importance Testing Approaches

以下スライド


LT大会では生存報告が重要だというコメントが出ておりましたので、
もうちょっと生きている感じを出していきたいと思います。
スポンサーサイト

統計的学習の基礎読書会 6章前半 #カステラ本

本日赤坂のYahoo!で開催された統計的学習の基礎読書会で発表しました。
序盤はある程度形になったような気もするのですが、
中盤以降スライドを作ったときにはわかった気がしていたけど、
実際に話してみるとうまく説明ができないいつものパターン。

なかなか説明できるまで理解を深めるのは難しいです...。



本日は機会をいただきありがとうございました。
また次があれば頑張ります。

DSLT祭りとか講演資料とか

ここへのアウトプットサボってましたが、
Yahoo!さんで開催されたDSLT祭りで発表したので資料上げておきます。

Kaggle上位陣と同じことができなくても、
後で公開された結果見て何やってるのか分かるところまで行きたいですね。


母校で専門分野のデータ分析入門で思うところを話したので、そちらの資料もついでに。

第53回 Tokyo.Rで発表しました

ご無沙汰しております。
第53回 Tokyo.RでMxnetによる回帰というタイトルで発表しました。

発表自体は回帰の記事は少ないので試してみたという内容でしたが、
発表のために手を動かしてコードを書いていると、
直感的に隠れ層やdropputを書けるように作られていることがわかりました。

今からRで深層学習を始めたい人にも向いているかもしれません。
私にとっては慣れたRで実行可能というのは大きな利点ですね。

また、現在は判別のみですが、caretにも"avMxnet"が追加されており、
慣れ親しんだcaretのフレームワークでチューニングもできるようです。
今後も注目していきたいパッケージですね。

下記発表スライドです。

Tokyowebminingで発表しました

昨日の第50回 データマイニング+WEB @東京( #TokyoWebmining 50th ) ー機械学習 実活用 祭りーで発表してきました。

発表の機会を下さった主催者の皆様、議論にご参加くださった参加者の皆様、また、会場をご提供頂いたフリークアウトの皆様、ありがとうございました。

今回の内容は昨年2月にsubmitし、9月にacceptになった自分の論文の話でした。関東に移ってきてからTokyoWebminingやTokyo.R、そこで知り合った人たちから刺激を受けてはじめた機械学習を実活用できた初めての形のある結果だったので、内容の良さはおいておくにしても思い入れのある論文になりました。こういう適用法もありかな、くらいの知見になれば幸いです。今後とも宜しくお願いいたします。

上記広告は1ヶ月以上更新のないブログに表示されています。新しい記事を書くことで広告を消せます。