
Kerasに含まれるMNIST(手描き数字)のデータを取得してみた
purin_it ITエンジニアとして経験・学習したこと
これから、ニューラルネットワークで手書き数字を分類することを考えていくが、その際に、Kerasに含まれるMNIST(手描き数字)のデータを利 …
Kerasを用いたニューラルネットワークで分類モデルを作成してみた
purin_it ITエンジニアとして経験・学習したこと
以下のように、損失(誤差)関数で「交差エントロピー誤差」を利用し、活性化関数に「ReLU関数」「ソフトマックス関数」を利用した分類モデル …
交差エントロピー誤差とそれを利用した微分を計算してみた
purin_it ITエンジニアとして経験・学習したこと
入力値を\(y=(y_1,y_2,\ldots,y_K)\)、正解値を\(t=(t_1,t_2,\ldots,t_K)\)とした場合、以 …
ソフトマックス関数とその微分を計算してみた
purin_it ITエンジニアとして経験・学習したこと
以下の式で表現される関数をソフトマックス関数といい、ディープラーニングの活性化関数の1つとして利用される。
\[
\begin{eqnarray}
f_i(x) = \d …
Kerasを用いたニューラルネットワークの処理速度を改善してみた
purin_it ITエンジニアとして経験・学習したこと
ニューラルネットワークの構造や活性化関数、損失(誤差)関数、最適化関数を変えることで、正答率や処理速度を向上させることができる。 …
ReLU関数とその微分をグラフ化してみた
purin_it ITエンジニアとして経験・学習したこと
以下の式で表現される関数をReLU関数といい、ディープラーニングの活性化関数の1つとして利用される。
\[
\begin{eqnarray}
f(x) = \left\{ …
ニューラルネットワークにKerasを利用してみた
purin_it ITエンジニアとして経験・学習したこと
これまでは、ニューラルネットワークを自前で作成していたが、TensorflowやKeras、PyTorchといった、深層学習のフレームワ …
ニューラルネットワークで行列の積を利用してみた
purin_it ITエンジニアとして経験・学習したこと
ニューラルネットワークのフォワードプロパゲーションやバックプロパゲーションで、行列の積を利用すると、計算をシンプルにできる。 今回 …
ニューラルネットワークで活性化関数にtanh関数を利用してみた
purin_it ITエンジニアとして経験・学習したこと
これまでは、ニューラルネットワークの活性化関数にシグモイド関数を利用してきたが、偏微分の計算ができれば、活性化関数にシグモイド関数以外も …
ニューラルネットワークのバックプロパゲーションを実装してみた
purin_it ITエンジニアとして経験・学習したこと
以下の記事で、バックプロパゲーション(最急降下法を用いて、ニューラルネットワークの誤差を効率的に逆伝播させる手法)により、重み\(\bo …