超初心者がG検定をゼロから行き当たりばったりで勉強してみる~8日目~「BERTの後継モデル」




こんばんは。

最近、1日1断捨離してまして、
今日は20年ほど前に買って変色しまくっている香水を捨てようと、
中身をどうやって捨てようか悪戦苦闘していたところ、
うっかり左目にブシュッと香水が入ってしまい災難でした…。

目がめちゃくちゃ痛いし、腫れてくるし、視界もぼやけるしで、
勉強をさぼって早めに休憩しようと思いましたが、
さぼってはいけないと、今日も一問勉強することにしました。
そして香水事件から3,4時間経過後の現在、
左目の痛みはだいたい治まってきました。

前置きが長くなってしまいましたが、
今日も1問いってみましょう!

問題
BERTの後継モデルとして、最も不適切な選択肢を選べ。

GoogLeNet

ALBERT

ERNIE

XLNet



早速、BERTってなんでしょうか・・・?
パソコンの名前?ロボットの名前?

検索してみました。

BERTとは、Bidirectional Encoder Representations from Transformers の略で、「Transformerによる双方向のエンコード表現」と訳され、2018年10月にGoogleのJacob Devlinらの論文で発表された自然言語処理モデルです。翻訳、文書分類、質問応答など自然言語処理の仕事の分野のことを「(自然言語処理)タスク」と言いますが、BERTは、多様なタスクにおいて当時の最高スコアを叩き出しました。

Ledge.ai

人間の言語を処理するモデルみたいですね。
詳しくは、Ledge.aiにてご覧ください!
詳しく説明されているので、無知な私でもなんとなくこういうものなんだな、
理解できました。

そして、Ledge.aiのページに、
以下記載もありました。

「BERTの軽量版ALBERT(A Lite BERT)
BERTには先述のALBERTだけではなく、XLNetや中国語向けに改良されたERNIEなどの進化系がいくつか開発されています。」


ということで、不適切な選択肢は「GoogLeNet」になりますね。

GoogLeNetも何か分からないので、ちょっと検索してみます。

GoogLeNetという畳み込みニューラルネットワークの一種です。

AIZINE

畳み込みニューラルネットワーク!
1日1問学習で、最近学習した言葉です!学んだことが登場すると嬉しいですね。
畳み込みは画像認識に関するものでした。
GoogLeNetについては、先ほど検索したAIZINEに分かりやすく詳細が記載されています。面白そうなので、いつか私も試してみたくなりました!

ところで、選択肢の読み方ってなんだろう?

GoogLeNet → グーグルネット?
ALBERT → アルバート?
ERNIE → アーニー?
XLNet → エックスエルネット?

さらに
BERT → バート?

BERT、ALBERT、ERNIE
の3つは人間の名前っぽい雰囲気なので
自然言語処理と関連付けて覚えられそう。
XLNetは…、覚えるしかないかな。
XLだからちょっと強そうな感じ。XLサイズの大きくて強そうなやつ。
BERTのすごいやつって覚えようかな。
そういえば、あつもりにいますね、エックスエルっていうゾウのキャラ!

さて、今日は疲れたからそろそろ寝よっと。

明日もがんばるぞ!
たぶん。えい、えい、おーーーー!




にほんブログ村 その他日記ブログ ひとりごとへ
にほんブログ村



シェアする

  • このエントリーをはてなブックマークに追加

フォローする