こんばんは。
最近、1日1断捨離してまして、
今日は20年ほど前に買って変色しまくっている香水を捨てようと、
中身をどうやって捨てようか悪戦苦闘していたところ、
うっかり左目にブシュッと香水が入ってしまい災難でした…。
目がめちゃくちゃ痛いし、腫れてくるし、視界もぼやけるしで、
勉強をさぼって早めに休憩しようと思いましたが、
さぼってはいけないと、今日も一問勉強することにしました。
そして香水事件から3,4時間経過後の現在、
左目の痛みはだいたい治まってきました。
前置きが長くなってしまいましたが、
今日も1問いってみましょう!
問題
BERTの後継モデルとして、最も不適切な選択肢を選べ。
GoogLeNet
ALBERT
ERNIE
XLNet
早速、BERTってなんでしょうか・・・?
パソコンの名前?ロボットの名前?
検索してみました。
BERTとは、Bidirectional Encoder Representations from Transformers の略で、「Transformerによる双方向のエンコード表現」と訳され、2018年10月にGoogleのJacob Devlinらの論文で発表された自然言語処理モデルです。翻訳、文書分類、質問応答など自然言語処理の仕事の分野のことを「(自然言語処理)タスク」と言いますが、BERTは、多様なタスクにおいて当時の最高スコアを叩き出しました。
Ledge.ai
人間の言語を処理するモデルみたいですね。
詳しくは、Ledge.aiにてご覧ください!
詳しく説明されているので、無知な私でもなんとなくこういうものなんだな、
理解できました。
そして、Ledge.aiのページに、
以下記載もありました。
「BERTの軽量版ALBERT(A Lite BERT)
BERTには先述のALBERTだけではなく、XLNetや中国語向けに改良されたERNIEなどの進化系がいくつか開発されています。」
ということで、不適切な選択肢は「GoogLeNet」になりますね。
GoogLeNetも何か分からないので、ちょっと検索してみます。
GoogLeNetという畳み込みニューラルネットワークの一種です。
AIZINE
畳み込みニューラルネットワーク!
1日1問学習で、最近学習した言葉です!学んだことが登場すると嬉しいですね。
畳み込みは画像認識に関するものでした。
GoogLeNetについては、先ほど検索したAIZINEに分かりやすく詳細が記載されています。面白そうなので、いつか私も試してみたくなりました!
ところで、選択肢の読み方ってなんだろう?
GoogLeNet → グーグルネット?
ALBERT → アルバート?
ERNIE → アーニー?
XLNet → エックスエルネット?
さらに
BERT → バート?
BERT、ALBERT、ERNIE
の3つは人間の名前っぽい雰囲気なので
自然言語処理と関連付けて覚えられそう。
XLNetは…、覚えるしかないかな。
XLだからちょっと強そうな感じ。XLサイズの大きくて強そうなやつ。
BERTのすごいやつって覚えようかな。
そういえば、あつもりにいますね、エックスエルっていうゾウのキャラ!
さて、今日は疲れたからそろそろ寝よっと。
明日もがんばるぞ!
たぶん。えい、えい、おーーーー!