ウィリアムのいたずらの、まちあるき、たべあるき

ウィリアムのいたずらが、街歩き、食べ物、音楽等の個人的見解を主に書くブログです(たま~にコンピューター関係も)

続いてディープラーニングはPytorchを習ってきた

2019-08-23 08:27:33 | AI・BigData
回帰、分類、次元圧縮ときて、Scikit learnを使った機械学習のお勉強はここまで
(普通はあと、決定木をやると思う)。
ディープラーニングでscikit learnはつらいので、Pytorchで習ってきた!

【初心者向け】ゼロからわかるPyTorch実践入門ハンズオン~前編~
https://liberal-arts-beginners.connpass.com/event/142006/

をメモメモ





・今日の目標
 PyTorchの基礎文法
 ニューラルネット
 動かせるようになるまで


・自動微分を用いて簡単にニューラルネットワークを記述できる

PyTorchでできること
・テンソル
・自動微分
・損失関数、最適化関数が用意されている

単回帰分析
学習→推論

損失関数・最適化関数
・パラメータを決めるのに必要
・例:予測値の値と実測値の値の差の二乗を足し合わせる
E(Θ)=∑(yk-y~k)^2
 ↑
 パラメータ、いまはa,b

最適化関数
 E(Θ)を最小化するa,b
 →勾配降下法を使う
  微分して、傾きで決める
   改良1・確率的勾配法(SGD)、Adam

ニューラルネットワークについて
 重みw
 活性化関数:非線形の関数をはさむと・・

活性化関数
 ReLU関数(れる):0までは0、それ以降は直線
 シグモイド

ハンズオン
Google colabの利用
PyTorchはインストール簡単
import torchで使える

初期化されていない行列:何か入ってる
add_ → +=
転置
itemで肩まで出ししてくれる
.numpyでnumpyが入れるようになる

自動微分
テンソル用意
式を用意
.backword
勾配

最適化
tourch.optimにはいってる

やること(学習)
 モデルを決める
 損失関数を決める
 最適化関数を決める

ネットワーク
何X何のデータが来るか確認→ここがわからないと、組めない

(1)今日の内容理解
(2)論理和
(3)モデルの中身を変えてみる

公式ドキュメント
https://pytorch.org/

この記事についてブログを書く
  • Twitterでシェアする
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする
« 回帰、分類ときて、次は次元... | トップ | ファーウェイ、新AIチップ発表 »
最新の画像もっと見る

AI・BigData」カテゴリの最新記事