-
SageMaker用のコードをローカルで動かす – scikit-learnの決定木でアヤメの種類を分類
SageMakerはローカルで使うことができるので、それを試してみた。 この記事を書くにあたって以下の公式の記事を参考にしています。 オンプレミス環境から Amazon SageMaker を利用する …
-
分散と標準偏差を計算しやすくする
分散と標準偏差を計算しやすく変形できる。 いちいち偏差\(x_i-\bar{x}\)を計算しておかなくても、2乗和\(x_i^2\)と平均\(\bar{x}\)がわかっていればOK。 \begin{e …
-
ロジスティック回帰
参考書籍を読んでいく. 今回はロジスティック回帰. 未知のサンプルのクラスの所属確率を見積もることができる, という重要なことが書かれている. また重みの学習は勾配降下法のフレームワークの中で統一され …
-
機械学習の分類問題と損失関数の最小化の話
参考にした書籍でこの順序で誘導されていて理解しやすかったです. パーセプトロンによる一番簡単な教師あり学習を理解する ADALINEにより学習を凸で連続なコスト関数の最小化問題として捉える パーセプト …
-
微分フィルタだけで時系列データの過渡応答終了を検知したい
ある値の近傍を取る状態から別の値の近傍を取る状態へ遷移する時系列データについて、 どちらの状態でもない過渡状態を経て状態が遷移するみたい。 今回知りたいのは理論ではなく、定常状態に遷移したことをいかに …
-
勾配降下法
各地点において関数の値を最大にするベクトル\((\frac{\partial f}{\partial x_0},\frac{\partial f}{\partial x_1})\)を全地点に対して計算 …
-
勾配の可視化
2変数関数\(f(x_0,x_1)\)を各変数で偏微分する。 地点\((i,j)\)におけるベクトル\((\frac{\partial f(x_0,j)}{\partial x_0},\frac{\p …
-
おっさんが数値微分を復習する
引き続き、ゼロDの写経を続ける。今回は、学生の頃が懐かしい懐ワード、数値微分。 全然Deepに入れないけれどおっさんの復習。解析的な微分と数値微分が一致するところを確認してみる。 昔と違うのは、Pyt …
-
誤差, 2乗誤差と交差エントロピー誤差
台風で自宅に篭れるから勉強時間をとれるな..、と見積もってたのだけれども、 近所の多摩川がマジで溢れそうでそれどころではなく…。 時間が空いてしまったがゼロから作るDeepLearning …
-
MNISTの手書き文字認識用データ取得クラスの作成
MNISTから手書き文字認識用のデータセットをロードするクラスを作ってみた。 ロードしたデータセットをpickleでシリアライズ、デシリアライズする機能付き。 後々改造する予定でここに貼ったのはメンテ …