久しぶりの日記

  • 統数研では毎週水曜に統計数理セミナー http://www.ism.ac.jp/meetings/seminar.html というのが行われていて、だいたい所内の研究者が今やっている研究の話をします。
    • 誰でも聞きにこれるわけですが、僕の見た印象だと統数研の人が多い気がする。立川が都心から遠いせいか、あんまり周知されていないせいなのかな、と思ったり。
  • 最近はてんやの天ぷらにはまってる。うまい。
    • 立川も駅前まで行けばごはんを食べるところには不自由しない。
    • そのかわり体重が単調増加中。運動しなければ。
  • あと統数研は缶コーヒー1本80円なのでついつい缶コーヒーを買ってしまう。缶コーヒー好きとしては申し分ない環境だけど、お金がもったいない気もする。
    • そういえばNAISTカップコーヒーが飲みたい。牛乳屋さんのコーヒーが好き。
  • 昼ごはんは向かいの市役所で食べている。なぜなら統数研には食堂がないから。
    • 食堂のおばちゃんがご飯を多めにくれるのでありがたく頂いている。そのかわり体重が単調増加。
    • 食堂のおばちゃんが僕の年齢をだいたい当てることができた。今まで実年齢よりも高めに見られることが多かっただけにうれしい。
  • 昼ごはんは研究室の人と一緒に食べることが多い。留学生もいるので英語で会話する。
    • つたない英語で会話してるわけだけど、食堂のおばちゃん達から見るとすごく英語が喋れるように見えるらしい。ほめられた。
  • 自分がいる研究室は国際色豊かで、今年だけでもオーストラリア人、フランス人、インド人、バングラデシュ人、中国人の人たちとしゃべった。
    • 研究に関することをしゃべるほうが楽な気がする。世間話は全然無理。英語で世間話ができるようになりたい。

NIPS2012おもしろそうな論文メモ

おもしろそうなタイトルの論文をメモ。あくまでメモ。

  • Adaptive Stratified Sampling for Monte-Carlo integration of Differentiable functions
    • A. Carpentier, R. Munos
  • Ancestor Sampling for Particle Gibbs
    • F. Lindsten, M. Jordan, T. Schön
  • A new metric on the manifold of kernel matrices with application to matrix geometric means
    • S. Sra
  • Assessing Blinding in Clinical Trials
    • O. Arandjelovic
  • Bayesian Nonparametric Modeling of Suicide Attempts
    • F. Ruiz, I. Valera, C. Blanco, F. Perez-Cruz
  • Causal discovery with scale-mixture model for spatiotemporal variance dependencies
    • Z. Chen, K. Zhang, L. CHAN
  • Deep Learning of invariant features via tracked video sequences
    • W. Zou, A. Ng, S. Zhu, K. Yu
  • Density-Difference Estimation
    • M. Sugiyama, T. Kanamori, T. Suzuki, M. Plessis, S. Liu, I. Takeuchi
  • Effective Split-Merge Monte Carlo Methods for Nonparametric Models of Sequential Data
    • M. Hughes, E. Fox, E. Sudderth
  • Efficient Monte Carlo Counterfactual Regret Minimization in Games with Many Player Actions
    • R. Gibson, M. Lanctot, N. Burch, D. Szafron
  • Emergence of Object-Selective Features in Unsupervised Feature Learning
    • A. Coates, A. Karpathy, A. Ng
  • Ensemble weighted kernel estimators for multivariate entropy estimation
    • K. Sricharan, A. Hero
  • Entangled Monte Carlo
    • S. Jun, L. Wang, A. Bouchard-Côté
  • Expectation Propagation in Gaussian Process Dynamical Systems
    • M. Deisenroth, S. Mohamed
  • Fast Bayesian Inference for Non-Conjugate Gaussian Process Regression
    • M. Khan, S. Mohamed, K. Murphy
  • High-Order Multi-Task Feature Learning to Identify Longitudinal Phenotypic Markers for Alzheimer Disease Progression Prediction
    • H. Wang, F. Nie, H. Huang, J. Yan, S. Kim, S. Risacher, A. Saykin, L. Shen
  • High Dimensional Semiparametric Scale-invariant Principal Component Analysis
    • F. Han, H. Liu
  • How Prior Probability Influences Decision Making: A Unifying Probabilistic Model
    • Y. Huang, A. Friesen, T. Hanks, M. Shadlen, R. Rao
  • Human memory search as a random walk in a semantic network
    • J. Abbott, J. Austerweil, T. Griffiths
  • Identifiability and Unmixing of Latent Parse Trees
    • P. Liang, S. Kakade, D. Hsu
  • Kernel Hyperalignment
    • A. Lorbert, P. Ramadge
  • Kernel Latent SVM for Visual Recognition
    • W. Yang, Y. Wang, A. Vahdat, G. Mori
  • Latent Coincidence Analysis: A Hidden Variable Model for Distance Metric Learning
    • M. Der, L. Saul
  • Latent Graphical Model Selection: Efficient Methods for Locally Tree-like Graphs
    • A. Anandkumar, R. Valluvan
  • Learning from Distributions via Support Measure Machines
    • K. Muandet, K. Fukumizu, F. Dinuzzo, B. Schölkopf
  • Learning High-Density Regions for a Generalized Kolmogorov-Smirnov Test in High-Dimensional Data
    • A. Glazer, M. Lindenbaoum, S. Markovitch
  • Learning Mixtures of Tree Graphical Models
    • A. Anandkumar, D. Hsu, F. Huang, S. Kakade
  • Learning Networks of Heterogeneous Influence
    • N. DU, L. Song, A. Smola, M. Yuan
  • Learning Probability Measures with respect to Optimal Transport Metrics
    • G. Canas, L. Rosasco
  • Learning to Discover Social Circles in Ego Networks
    • J. McAuley, J. Leskovec
  • Link Prediction in Graphs with Autoregressive Features
    • E. Richard, S. Gaiffas, N. Vayatis
  • Max-Margin Structured Output Regression for Spatio-Temporal Action Localization
    • D. Tran, J. Yuan
  • MCMC for continuous-time discrete-state systems
    • V. Rao, Y. Teh
  • Meta-Gaussian Information Bottleneck
    • M. Rey, V. Roth
  • Monte Carlo Methods for Maximum Margin Supervised Topic Models
    • Q. Jiang, J. Zhu, M. Sun, E. Xing
  • Multiple Operator-valued Kernel Learning
    • H. Kadri, A. Rakotomamonjy, F. Bach, p. preux
  • Multiplicative Forests for Continuous-Time Processes
    • J. Weiss, S. Natarajan, D. Page
  • Multiresolution Gaussian Processes
    • E. Fox, D. Dunson
  • Non-parametric Approximate Dynamic Programming via the Kernel Method
    • N. Bhat, C. Moallemi, V. Farias
  • No voodoo here! Learning discrete graphical models via inverse covariance estimation
    • P. Loh, M. Wainwright
  • Nystr{ö}m Method vs Random Fourier Features: A Theoretical and Empirical Comparison
    • T. Yang, Y. Li, M. Mahdavi, R. Jin, Z. Zhou
  • On Lifting the Gibbs Sampling Algorithm
    • D. Venugopal, V. Gogate
  • Online L1-Dictionary Learning with Application to Novel Document Detection
    • S. Kasiviswanathan, H. Wang, A. Banerjee, P. Melville
  • On the connections between saliency and tracking
    • V. Mahadevan, N. Vasconcelos
  • Optimal kernel choice for large-scale two-sample tests
    • A. Gretton, B. Sriperumbudur, D. Sejdinovic, H. Strathmann, S. Balakrishnan, M. Pontil, K. Fukumizu
  • Patient Risk Stratification for Hospital-Associated C. Diff as a Time-Series Classification Task
    • J. Wiens, J. Guttag, E. Horvitz
  • Phoneme Classification using Constrained Variational Gaussian Process Dynamical System
    • H. Park, J. Kim, S. Park, S. Yun, C. Yoo
  • Pointwise Tracking the Optimal Regression Function
    • Y. Wiener, R. El-Yaniv
  • Priors for Diversity in Generative Latent Variable Models
  • Probabilistic Event Cascades for Alzheimer's disease
    • J. Huang, D. Alexander
  • Putting Bayes to sleep
    • W. Koolen, D. Adamskiy, M. Warmuth
  • Recognizing Activities by Attribute Dynamics
    • W. Li, N. Vasconcelos
  • Reducing statistical time-series problems to binary classification
    • D. Ryabko, J. Mary
  • Scalable Inference of Overlapping Communities
    • P. Gopalan, D. Mimno, S. Gerrish, M. Freedman, D. Blei
  • Semantic Kernel Forests from Multiple Taxonomies
    • S. Hwang, K. Grauman, F. Sha
  • Sparse Approximate Manifolds for Differential Geometric MCMC
    • B. Calderhead, M. Sustik
  • Spectral learning of linear dynamics from generalised-linear observations with application to neural population data
    • L. Buesing, J. Macke, M. Sahani
  • Symmetric Correspondence Topic Models for Multilingual Text Analysis
    • K. Fukumasu, K. Eguchi, E. Xing
  • The representer theorem for Hilbert spaces: a necessary and sufficient condition
    • F. Dinuzzo, B. Schölkopf
  • The variational hierarchical EM algorithm for clustering hidden Markov models.
    • E. Coviello, A. Chan, G. Lanckriet
  • Training sparse natural image models with a fast Gibbs sampler of an extended state space
    • L. Theis, J. Sohl-Dickstein, M. Bethge

覚えておきたい英文用例(完全に自分用メモ)

完全に自分用メモです.随時更新.

This question differs from the first one we asked in that we are now not interested in µ

The probability density function of the gamma distribution can be expressed in terms of the gamma function parameterized in terms of a shape parameter k and scale parameter

Both parametrizations are common because either can be more convenient depending on the situation.

Bearing in mind that ...

This is unsurprising given that ... ( 実験結果が芳しくないときの言い訳を書く )

この三ヶ月における最大の発見

松本研に入ってはや六ヶ月が過ぎました.信じられません.前回ブログを更新したのが入学後三ヶ月だったので,もうその二倍経過してしまったことになります.このままだと次にブログを更新することになるのは入学後12ヶ月後になってしまうのではないでしょうか…汗

ではこの三ヶ月で最大の発見を披瀝いたしましょう.いえ,自分の人生においても重要度ベスト5に入るぐらい重要な発見です.
その最大の発見とは…

頭痛の完全な解消方法

です!!

恐ろしい...この発見が世界を変えてしまうのではないか...俺は,なんていうことを知ってしまったのだ…(アホか

と思ってしまうぐらい自分ではこの方法が頭痛の解消に効いているわけなのです.今まで頭痛を解消するために色々とやってきました(散歩,ジョギング,スクワット,頭の中で同じ単語を唱え続ける,etc.etc...)が,しばらく続けると有効性が一過性のものであることがどれについてもわかってきてしまい,頭痛の苦しみから逃れることができないでいました.しかし,この方法は今のところ一ヶ月間は非常に有効に効いています.したがって,今まで試してきた方法の中では一番有望であると言えます.

うだうだ言ってないで,さっさと本論に入れ?はいはい,わかっておりますよ!

その方法とは…

頭が痛くなったら目をつぶる

ことです!!

・・・

え?当たり前?自明?そんなことは知っていました?
…すみません,自分は知りませんでした.

まあしかし,目をつぶると頭痛に本当によく効きます.頭がギューっと絞めつけられるように感じたら,目をつぶって何十秒か(何分か,何十分か,長ければ長いほどよい)すると頭痛が和らいでいるのです.何十秒か目をつぶっているのはドラクエホイミみたいなものです.HP30回復です.ホイミさえ覚えていれば無限に戦い続けられます.それと同じで目をつぶることさえ覚えておけば,無限に勉強(あるいは研究)することができます.まあ無限に勉強なんかしてもしょうがないですけど汗

というわけで,各位,自分が目をつぶっているときはホイミしているのだと思って生暖かく見守ってください.オチはそういうことです.

近況

id:keiskS さんにブログを書くように発破をかけてしまったので、自分も久しぶりにブログを更新します。

松本研に入ってから早くも3カ月経ちました。密度が非常に濃い3カ月だったので、体感としては群馬にいたときの1年分ぐらいには相当するような気がします。この3カ月で学んだことをざっと挙げると以下のようになります。


(1)新しい環境に身を置くことの大切さ
 ・意外に実家から遠くでもやっていける
 ・新しい知り合いが増える
 ・異なるバックグラウンドを持つ人と出会える
 ・価値観の相対化

(2)人との出会いが財産
 ・研究(あるいは人生?)の方向性が変わりました
 ・同期・先輩・先生
 ・特にid:orthobox には脱帽

(3)聞くは一時の恥、聞かぬは一生の恥(ある意味当たり前ですが...)
 ・自分が何についてわからないのかを把握すること
 ・わからないことは恥ずかしいことではない、わかったふりをすることの方がまずい
 ・質問をするときには謙虚に
 ・逆に教えるときには相手の気持ちに配慮する

(4)感覚を鋭敏に(ある意味当たり前ですが...②)
 ・自分がどういうことに興味があるのか(研究、趣味)
 ・自分が今どういう状態にあるのか(やる気、疲労、感情)
 ・相手が今どういう状態にあるのか

(5)カレーはレシピ通りではダメ
 ・スパイスは味見をしながら微調整すること
 ・チームワーク
 ・味見をしすぎると味が分からなくなる

なんかまだ3カ月しか経っていないのに色々な人に感謝の言葉を言いたい今日この頃です。でも一人ひとり名前を挙げていくと映画のスタッフロールみたいになってしまいそうなので割愛します。これからもよろしくお願いします。
 

正式にM本研に配属されました

本日掲示板で配属先研究室が発表され、M本研に正式に配属されることになりました!めでたしめでたし

しかし今年のM本研新入生は過去最多なのか連携講座と客員講座を合わせると14名が配属されたようです。よくテレビでやってる「五男六女の大家族!」みたいな感じで楽しそうですね! お父さんお母さん(教員の方々?w)には負担が増えてしまうとは思いますが、そこはお兄さんお姉さんが面倒を見てくれると勝手に期待しています。w

他のM本研の新M1の方々と話していて、みなさんが様々なバックグラウンドを持ってNAISTにやってきているのを知ると、NAISTに来てよかったなあと思います。たぶん他の大学院に進学しても、ここまで多様な経歴を持った人たちとは会えなかったんじゃないだろうか。。。

少なくとも二年間、M本研でカレー作りの腕だけは磨いて、手に職をつけて卒業できるように頑張ります!(いや、研究もがんばりますが。。。