bugfix> python > 投稿

ディープラーニング(主にKerasで)でエンコーダー/デコーダーモデルについて少し学習した後、学習が行われる場所を理解できません。

エンコーダーは機能マップを作成するだけで、デコーダーはBackPropを使用して結果にできるだけ近づけようとしますか、またはモデルがトレーニングされるとエンコーダーも学習しますか?

最後の質問:正しく理解できた場合、フィルターは古典的な機械学習モデルのノードに相当し、学習するために重みを変更しますか?

回答 1 件
  • エンコーダーは入力データの圧縮表現を学習し、デコーダーはこの圧縮表現だけを使用して元の入力データを可能な限り再構築する方法を学習しようとします。最初の重み(通常はランダムに設定された)は、e。トレーニング中に、エンコーダーとデコーダーの両方の層の重みが調整され、e 削減されます。

    後で、通常、デコーダー層が削除され、エンコーダー層の出力(圧縮表現)が入力の機能マップとして使用されます。

    圧縮表現とはどういう意味ですか?入力がサイズ20 * 20 = 400エレメントの画像である場合、エンコーダーレイヤーはサイズ100で、圧縮係数は4になります。つまり、400エレメントのみでデータの本質をキャプチャする方法を学習しています最小のエラーで400個の要素データを再構築できる一方で、100個。

    フィルターはノードに相当し、トレーニング中に入力の最適な表現を学習するために重みを変更することについては正しいです。

あなたの答え