肩こり対策に関して見直してみる

TL;DR

  • 今年の目標の一つに「肩こり許すまじ」がある
  • 肩こりに良さそうなことを年初から色々と試してみているので、その効果のほどを振り返ってみる
  • 多少効果があるものもあるが、机での作業時間が支配的な気がするのでより良い方法を考える必要がありそう

機械学習の理論と実装はどう学んでいくと良いのだろうか

TL;DR

  • 機械学習エンジニアは理論と実装の両方が求められる場合が少なくない
  • この二つは割と異なる学びの過程がある気がしているが、自分を例にとってそれを考えてみる
  • かなり強引に言うなら、理論は要素を積み重ねて全体を理解するやり方で、実装は全体から必要な要素を削り出していくやり方、な気がする
  • 自分は実装に関してはどうトレーニングを積んでいくのが良いかいまいち分かっていない

「マリオオデッセイ」をクリアした

TL;DR

  • switch でマリオオデッセイをクリアした
  • ムーン 500 個集めて月の国もっと裏までクリアしたので結構頑張った
  • 前評判通りで完成度が高いゲームだった、満足

数理科学「機械学習の数理」を読んだ

TL;DR

  • 数理科学201808号「機械学習の数理」を読んだので感想を書いておく
  • トピックは幅広くて眺めていて面白いが、基礎となる数理というより応用例みたいな感じ
  • (致し方ないことだが)頁数的に説明が省略気味なので数式を追うのは結構辛い

ReLU6 とは何者なのか?

TL;DR

  • MobileNet で使われていることで有名な ReLU6 を復習してみた
  • 初出の論文(と思われるもの)では sparse feature を得るために使うという導入だった
  • MobileNet の文脈では固定小数点数の演算に適している(上限を与えない場合と比べて resolution が高い)
  • とはいえ 6 は実験によって決めるべきパラメタでしかなく、それ以上に深い意味はない(と思う)

Chrome で Overleaf v2 を使う

TL;DR

  • Overleaf の version 2 が出たので試してみた
  • Chrome で遭遇するエディタのカーソルがズレる問題を解決した(フォントのカスタマイズで固定幅フォントを「Monaco」にする)
  • reference search など新しい機能が使えて全体的に良い感じ
  • 具体的な例は こちら

A Mini-Introduction To Information Theory を眺めてみた

TL;DR

  • ひょんなことから Witten が書いたレビュー論文を眺めてみた
  • 特に前半の古典の話は物理っぽい書き方で好き(Stirling の公式は前提となるが)
  • 古典と量子の違いは意識的に書かれていて読みやすかった
  • 分からないところも色々あるが、そのうち何かのきっかけでちゃんと勉強するかもしれない(しなそう)

「ベヨネッタ2」をクリアした

TL;DR

  • switch でベヨネッタ2をクリアした
  • ノーマル全クリとハード一部、それとウィッチトライアルをクリアしてロダンも倒した
  • 面白かったけど個人的には前作の方が良かった(単に思い出補正の可能性あり)
  • ウィッチトライアルとロダンが難しくてストレスが溜まった。ゲームでストレス良くない

咳がヤバイ

TL;DR

  • GW終盤から発生した断続的な咳が治らずヤバイ
  • 二度ほど病院に行ったが根本的な原因は分からず。アレルギーも絡んだ喘息のような感じがするが果たして…
  • こうすれば快方に向かうというのが分からないというのはかなりのストレスであることに気付かされた

機械学習をやる上で線形代数のどのような知識が必要になるのか

TL;DR

  • 「機械学習をやるなら線形代数はやっとけ」的な話が出るけど具体的な話があまり見当たらない
  • 研究でなく実務レベルで機械学習を扱う場合にどのような線形代数の知識が必要になるのか考えてみた
  • 高校でやるベクトル・行列+αくらいあれば概念的には十分で、計算が苦じゃない基礎体力が重要では?

Deep Learning with Python を読んだ

TL;DR

  • Deep Learning with Python を読んだ
  • よく書かれている本で、特に初学者〜中級者が Keras を使ってモデル構築ができるようになるには最適
  • 扱っているトピック自体は他の本と比べてそこまで変わっていないが、一つ一つの質は高い
  • 個人的には Keras の実装の話などをもっとして欲しかった

「ゼルダの伝説 ブレス オブ ザ ワイルド」をクリアした

TL;DR

  • switch を買った
  • ゼルダの伝説 ブレス オブ ザ ワイルド をクリアした
  • 純粋に素晴らしく、いまの自分が他人の作ったゲームでこんなに楽しめるなんて思ってなかった
  • 開発エピソードを眺めたりすると良い作品を作るには良い手法が重要なんだなぁと思う

確定申告の提出書類を作成した

TL;DR

  • 平成29年分の確定申告の提出書類を作成した
  • 検討の結果、会計ソフトなどは何も使わずに全て自分で作成した
  • 作ったのは確定申告書Bと青色申告決算書と医療費控除の明細書

MiSTEL BAROCCO MD600 を買った

TL;DR

  • MiSTEL BAROCCO MD600 分離式 英語配列 茶軸 を購入
  • 付属品のケーブルが短くてキーボードがあまり離せないので、micro(B)オス-mcro(B)オスのケーブルも購入
  • マクロプログラムモードでキーの割当をする場合にwindows環境でのファームウェアupgradeが必要かも

2017年のまとめ

TL;DR

  • 2017年も頑張った、何はともあれ自分を褒める
  • 2017年は仕事の時間が長かったので、2018年はもう少し時間配分を変えよう

Dynamic Routing Between Capsules を読んだ

TL;DR

  • neuron をまとめてベクトル化した capsule という概念を導入。各成分は特徴量の表出を parametrize
  • routing という手法を導入し、in と out の内積値で低次カプセルから高次カプセルへの値の受け渡しを記述
  • CapsNet というモデルを具体的に構成し、特に MNIST の画像を重ねた MultiMNIST で高い性能を発揮
  • capsule は CNN では効率的に扱えてない平行移動以外のアフィン変換を効率的に扱い得るもので、発展性がある

Googleの超解像RAISRの論文を読んだ(その2)

TL;DR

  • その1の内容は理解しているという前提で進める
  • 画像を同じような輝度勾配情報を持つbucketに分け、ローカルの情報を考慮してフィルタを学習する
  • 処理高速化のために勾配情報をハッシュ化したテーブルを構築する
  • 他のstate of the artと比べて遜色のない精度で、速度は2桁も速い

Googleの超解像RAISRの論文を読んだ(その1)

TL;DR

  • その1では RAISR の話はせず、前段となる定式化や基本的概念を説明する
  • 基本となる考えは、bilinear補間のようなcheapな補間にさらにフィルタを適用して高精度化するというもの
  • フィルタの学習には低解像度画像と高解像度画像のペアを用いる
  • 学習したフィルタはバンドパスフィルタのような振る舞いをすることが示された

ブログ開始

TL;DR

  • ブログを始めた
  • 日々のあれこれを書いていくことにする