「機械学習」 一覧

Ward距離を使った階層型クラスタリング (お試し実行なし)

階層型クラスタリングについてわかりやすい解説を聞いたので頭の中にあるものを書き出してみます。 (せっかく聞いたシャープな解説が台無しになってしまっているかと思いますが…) 本当はもっとアク …

k-means法と近似解法 考え方

教師なし学習の問題。クラスタリング。 クラスタの個数を事前に指定するタイプと、自分でクラスタ数を設定できるタイプがあります。 今回、前者のk-means法をアイデアを聞いたので、まとめなおしてみようと …

sklearnに頼らずRidge回帰を自力で書いてみて正則化項の影響を考えてみるテスト

タイトルの通り。Losso回帰と違って損失関数を偏微分するだけで出来そうなのでやってみる。 Ridge回帰は線形回帰の1種だけれども、損失関数として最小二乗法をそのまま使わず、 \(L_2\)ノルムの …

NP困難な分類問題を代理損失の最小化に帰着させる話

機械学習の分類問題の中心にある決定境界の決定方法について かなり要領を得た説明を聞いて理解が2段階くらい先に進んだのでまとめてみます。 データが与えられただけの状態から決定境界を決める問題はNP困難で …

回帰直線の当てはまりの指標

前の記事で線形単回帰において訓練データから回帰係数を求める方法を書いてみた。 標本平均を使って母平均を推測する話とリンクさせることで、 回帰係数の95%信頼区間を求めることができた。 回帰係数\(\h …

単回帰曲線における回帰係数の精度(95%信頼区間)

線形単回帰で推定する回帰係数の精度を評価する方法を読んだのでまとめてみる。 当然、真の直線はわからないのだけれども、真の直線があると仮定した上で 推定した回帰係数との関係を考えることで、回帰係数の精度 …

損失関数の評価,バイアス-バリアンスと過学習のトレードオフ

損失関数をバイアス項、バリアンス項、削減不能誤差の和に分解できることと、 損失は削減不能誤差より下回らないこと、バイアス項、バアリアンス項のトレードオフが起こること、 を読んだ。過学習っていうのはこう …

損失関数

おっさんが入門した軌跡シリーズです。損失関数に関して学んだことをメモしておきます。 入力値\(x\)、正解\(t\)からなる訓練データ\(T=(x,t)\)が大量に与えられたときに、 \(f(x,w) …

決定木の分割基準,情報ゲイン,エントロピー

集合に対して再帰的に境界を入れていく操作が決定木の作成。 では、集合のどこに境界を入れれば良いか。 属性をテストすることにより得られる情報量が最も大きくなるように入れる。 汎化能力、みたいな言葉を読ん …

交差検証(CrossValidation)

同じ出処から取ってきたデータを全て訓練データとして使わずに、 訓練データとテストデータに分割して、訓練データで作ったモデルに対するテストデータの精度を返す、 みたいなことをやるらしい。交差検証(Cro …

Copyright© ikuty.com , 2022 AllRights Reserved Powered by AFFINGER4.