E資格は、深層学習の基礎知識と応用能力を証明できる資格です。しかし、E資格の試験問題の難易度は高く、且つ試験範囲もかなり広いため、効率よく試験勉強を進めることが必要です。そこでオススメなのが、キカガクの「E資格対策コース」とE資格対策の唯一の問題集である「徹底攻略ディープラーニングE資格エンジニア問題集 」(通称「黒本」)を組み合わせることです。具体的な勉強の進め方はコチラで紹介しています。
しかし、「E資格対策コース」と「黒本」は完全に対応しているわけではありません。今回は「E資格対策コース」の動画と「黒本」の設問の対応表を作成しましたので、こちらを参考してみてください。
勉強方法
E資格の受験勉強の主軸となるのが「徹底攻略ディープラーニングE資格エンジニア問題集 第2版」通称「黒本」です。問題集ではありますが、解説が非常に丁寧であり、且つ体系的に学習できる構成になっていますので、参考書としても活用できます。ただし、E資格試験と同等レベルの問題ばかりですので、難易度は高めです。そこで下の対応表通りに「E資格対策コース」の動画を視聴した後に「黒本」の対象部分の問題を解くことをオススメします。この動画は非常に分かりやすく簡潔にまとめられているので概要を捉えるには非常に有用で、抵抗感なく学習を進めることができます。
E資格対策コースと黒本の対応表
E資格対策コース | 黒本 | |
確率統計 | 期待値 | 2章-1 |
確率分布 | ||
ベイズ則-1 | 2章-5, 6 | |
ベイズ則-2 | ||
尤度関数 | 2章-2, 3, 4 | |
情報理論 | 情報量-1 | 3章-1 |
情報量-2 | ||
エントロピー | 3章-2, 3, 5, 6 | |
KLダイバージェンス | 3章-4 | |
教師あり学習 | 学習アルゴリズム | 4章-1, 2, 3, 5章-1, 6章-1, 2 |
特徴量の転移 | 13章-13 | |
能力・過剰適合・過少適合 | 6章-3, 4 | |
パラメータノルムペナルティー | 6章-5 | |
微分で必要な知識 | ||
条件付き対数尤度と平均二乗誤差 | 10章-3 | |
最近傍法 | 7章-6 | |
パーセプトロン-1 | 7章-4, 5 | |
パーセプトロン-2 | ||
パーセプトロン-3 | ||
パーセプトロン-4 | ||
パーセプトロン-5 | ||
サポートベクトルマシン-1 | ||
サポートベクトルマシン-2 | ||
サポートベクトルマシン-3 | ||
サポートベクトルマシン-4 | ||
ロジスティック回帰-1 | 7章-1, 2, 3 | |
ロジスティック回帰-2 | ||
ロジスティック回帰-3 | ||
ロジスティック回帰-4 | ||
ロジスティック回帰-5 | ||
性能指標・ハイパーパラメータ | 6章-6 | |
評価指標 | 5章-5 | |
教師なし学習 | k-means法 | 8章-1, 2 |
主成分分析(実装) | 8章-4, 5 | |
ニューラルネットワーク | 最尤推定による条件付き分布の学習 | 4章-4, 10章-3 |
sigmoid | 10章-2 | |
softmax | ||
relu | ||
tanh | ||
最急降下法の復習 | 6章-7 10章-4 | |
誤差逆伝播法-1 | ||
誤差逆伝播法-2 | ||
ドロップアウト-1 | 12章-2, 3 | |
ドロップアウト-2 | ||
正則化 | 12章-4 | |
バッチ正規化 | 12章-7, 8 | |
最急降下法 | 12章-1 | |
SGD | ||
モーメンタム | ||
ネステロフのモーメンタム | ||
Adagrad | ||
RMSProp | ||
Adam | ||
パラメータの初期化戦略 | ||
次元の呪い | 8章-6 | |
万能近似定理と深さ | 10章-9 | |
ノイズに対する頑健性 | ||
教師あり事前学習 | ||
半教師あり学習 | ||
マルチタスク学習 | 4章-6 | |
スパース表現 | ||
バギングやその他のアンサンブル手法 | ||
Layer正規化・Instance正規化 | 12章-9, 10 | |
画像認識 | CNN | 13章-1 |
畳み込み処理・プーリング | 13章-2 | |
データ集合の拡張 | 12章-5, 13章-12 | |
画像認識の有名なモデル-1 | 13章-4 | |
画像認識の有名なモデル-2 | ||
ResNetとWideNet | 13章-5 | |
R-CNNの概要 | 13章-6 | |
CNNの復習 | ||
R-CNNの中身 | ||
IoUとは | ||
Fast R-CNN | 13章-7 | |
Multi-task loss | 4章-6 | |
Faster R-CNN | 13章-9 | |
YOLO | 13章-8 | |
SSD | ||
U-Net | 13章-11 | |
FCN | ||
SegNet | ||
自然言語処理 | WordEmbedding | 15章-1 |
Transformer | 15章-5 | |
Transformer-Translation | ||
Theory BERT | 15章-6 | |
RNN | 教師強制と出力回帰 | 14章-5 |
深層回帰結合型ネットワークと再帰型ネットワーク | ||
通時的誤差逆伝播法 | 14章-2 | |
有向グラフィカルモデルとしてのRNN | ||
文脈で条件付けられた系列モデリング | ||
長期依存性の課題とその対策 | 14章-3, 4, 6 | |
LSTM-1 | ||
LSTM-2 | ||
LSTM補足 | ||
GRU | ||
GRU補足 | ||
Gradiendt Clipping | ||
双方向RNN | ||
Attention | 14章-7, 8 | |
生成モデル | AutoEncoder | 11章-5 |
VAE-1 | 16章-2 | |
VAE-2 | ||
GAN-1 | 16章-3 | |
GAN-2 | ||
強化学習 | 強化学習-1 | 9章-2 |
強化学習-2 | ||
強化学習-3 | ||
方策勾配法 | 9章-1, 5 | |
深層強化学習 | 17章-1 | |
ニューラルネットワーク実装 | 計算グラフ-1 | 11章-1, 2, 3, 4 |
計算グラフ-2 | ||
計算グラフ-3 | ||
計算グラフ-4 | ||
計算グラフ-5 | ||
NumpyでNN実装-1 | ||
NumpyでNN実装-2 | ||
NumpyでNN実装-3 | ||
NumpyでNN実装-4 | ||
NumpyでNN実装-5 | ||
NumpyでNN実装-6 | ||
NumpyでNN実装-7 | ||
NumpyでNN実装-8 | ||
NumpyでNN実装-9 | ||
NumpyでNN実装-10 | ||
NumpyでNN実装-11 | ||
NumpyでNN実装-12 | ||
NumpyでNN実装-13 | ||
NumpyでNN実装-14 | ||
NumpyでNN実装-15 | ||
トレンド・新技術領域 | AlphaGo | 17章-2 |
DenseNet | 13章-4 | |
MobileNet | 13章-3 | |
Pix2Pix | 16章-4, 5 | |
WaveNet | 15章-4 | |
Transformer | 15章-5 | |
モデル圧縮 | 18章-1, 2, 3 | |
機械学習ライブラリ | ||
分散処理 | 18章-4 | |
GPU | ||
線形代数 (新カリキュラム対象外) | ノルム | 8章-4 |
内積 | ||
逆行列 | ||
行列式 | ||
三次の逆行列 | ||
固有値分解 | ||
特異値分解 | ||
ラグランジュの未定乗数法 | ||
主成分分析-1 | ||
主成分分析-2 | ||
主成分分析-3 | ||
主成分分析-4 |
コメント
ブログ、いつも参考にさせていただいてます。
ありがとうございます。
認定プログラム修了済みで2023#2受験予定なのですが
黒本の新シラバス対応版の出版が2023年夏試験までに間に合いそうにないので、
現在販売されている黒本で試験対策しようと考えてます。
なので上記の対応表、とても参考になりました。
私は認定プログラムがキカガクではないので
一点、教えてもらいたいのですが
上記の表にない、黒本の箇所は、【新シラバス対応外】判断して
「試験対策としてやらないで大丈夫」という認識でよいのでしょうか?
受験生の立場としては、試験と関係ない問題の復習を省いて省力化したいので
アドバイスいただけると助かります。
よろしくお願いいたします。
ご返信が遅くなり申し訳ありません。
ご質問いただいている表にない箇所については
キカガクの動画にないだけで、基本的には新シラバス出題範囲内になります。
新シラバスで出題範囲外となったのは基本的に線形代数のみと考えてよいです。
試験まで時間はありませんが、頑張ってください!
返信、ありがとうございます。
とても参考になりました。