超初心者がG検定をゼロから行き当たりばったりで勉強してみる~3日目~




こんばんはーーー!

3日目にして早速勉強をさぼってしまおうかと思いましたが、
やると決めたからにはやらねば!と戻ってまいりました。
あー、ほんとはさぼりたいなー。だって眠いんだもん…。

とりあえずはいまさらですが、改めてG検定について調べてみよう。
どうやら試験時間は120分で220問ほどあるらしい。

そしてどうやらオンライン受験らしい!

え?オンライン!?

ってことは…
カンニングし放題?
いったいどういうこと!?

合格者のブログによると、
問題数が多く1問約30秒で解く必要があるため、
カンニングしてる余裕などないらしい。

ほんとに~~?
検索なんて余裕でしょー。

ちょっと試してきますっ!





はいっ!戻りました。
無理でした!

問題を読む→意味が分からない→選択肢を読む→何から検索して良いか時間がなくて焦る

もたついてるうちにあっという間に30秒が経過。

ある程度知識をつけないと、無理だということがはっきりと判明しました!

ほっと安心…。

カンニングし放題ないい加減な試験で、
ただG検定協会だけがじゃぶじゃぶぼろ儲けシステムだと
モチベーションダダ下がりだと思いましたが、違ってたようで良かったです。

そして検定で出題される問題ですが、公式サイトに出題範囲が載っておりました!

G検定の試験範囲(シラバス)と例題という部分で、詳細はPDFをダウンロードです。

さて!
だいぶ前置きが無駄に長くなりましたが、
本日の1問を勉強したいと思います!


問題
ニューラルネットワークにおいて、出力値の変換に用いられる活性化関数の種類として、最も不適切な選択肢を選べ。

ReLU関数

プーリング関数

シグモイド関数


tanh関数

えーーー、今日もさっぱり分かりません!

ニューラルネットワーク、出力値の変換、活性化関数
これらすべて意味が分かりません💦

まずニューラルネットワーク

ニューラルネットワークとは、人間の脳神経系のニューロンを数理モデル化したものの組み合わせのことです。
ニューラルネットワークは、人間の脳のしくみ(ニューロン(*1)間のあらゆる相互接続)から着想を得たもので、脳機能の特性のいくつかをコンピュータ上で表現するために作られた数学モデルです。

udemyメディア

へー

出力値の変換と活性化関数は?

AI/機械学習のニューラルネットワークにおける活性化関数(Activation function)とは、あるニューロンから次のニューロンへと出力する際に、あらゆる入力値を別の数値に変換して出力する関数である。

機械学習における人工ニューラルネットワーク(ANN:Artificial Neural Network)は、人間における生体ニューラルネットワーク(BNN:Biological Neural Network)の基本的な挙動を模倣している。そのBNNでは、生体ニューロンが活性化(activation)することによって、電気信号がそのニューロンから次のニューロンへと伝播(でんぱ、※「伝搬:でんぱん」ではないので注意)していくことになる。ANNで、この「活性化」を表現するのが、活性化関数である。

@IT

なんとなく分かったような。
ニューロンは、生物の脳を構成する神経細胞のことだそうです。

ここまで調べてやっと問題の意味をなんとなく理解出来ました。
ここからは選択肢について調べねば。

ReLU関数

最も現在使われることの多い活性化関数。 xが負のとき0それ以外は恒等関数 シグモイドなどより計算が早いことが特徴

Thoth children

良く分かりませんが、最も使われてる活性化関数らしいです。
詳しくは引用元をご覧ください!

プーリング関数

「プーリング」処理では画像の特徴を粗く整理します。

Qiita

活性化関数とは関係なさそうですね。

シグモイド関数

シグモイド関数は、主に2値分類問題における出力層の活性化関数に用いられます。

機械学習ナビ

だそうです。

tanh関数

tanh関数はシグモイド関数と非常によく似ています。

tetoblog

だそうです。

ということで、不適切なのはプーリング関数ですね。
これはただ覚えるしかなさそうです💦

各関数の特調については、引用元の図を参照ください!
今回も検索しまくってそれぞれの関数の雰囲気は分かったけど、
こんなんでG検定、大丈夫かな…。

それでも明日もがんばろう!

にほんブログ村 その他日記ブログ ひとりごとへ
にほんブログ村



シェアする

  • このエントリーをはてなブックマークに追加

フォローする