ディープラーニング(主にKerasで)でエンコーダー/デコーダーモデルについて少し学習した後、学習が行われる場所を理解できません。
エンコーダーは機能マップを作成するだけで、デコーダーはBackPropを使用して結果にできるだけ近づけようとしますか、またはモデルがトレーニングされるとエンコーダーも学習しますか?
最後の質問:正しく理解できた場合、フィルターは古典的な機械学習モデルのノードに相当し、学習するために重みを変更しますか?
関連した質問
- エポックではなくバッチに基づく指数関数的減衰学習率
- 独自の式を作成すると、tensorflowのメソッドと同じ結果が得られないのはなぜですか?
- tfkerasapplicationsInceptionV3の混合レイヤーとは何ですか?
- sklearnを使用して6つのデータセットのデータ分割を行う場合のValueError
- 列が単語であるデータセットがあります。同じ列を相互に追加するにはどうすればよいですか?
- 線形モデルは畳み込みまたはNNでトレーニング可能ですか?
- 複数の出力でのCNN損失?
- Pythonですべての重心の密度を計算するにはどうすればよいですか?
- 「モデル」オブジェクトには属性がありません「loss_functions」
- Pythonで平均予測値を取得する
エンコーダーは入力データの圧縮表現を学習し、デコーダーはこの圧縮表現だけを使用して元の入力データを可能な限り再構築する方法を学習しようとします。最初の重み(通常はランダムに設定された)は、e。トレーニング中に、エンコーダーとデコーダーの両方の層の重みが調整され、e 削減されます。
後で、通常、デコーダー層が削除され、エンコーダー層の出力(圧縮表現)が入力の機能マップとして使用されます。
圧縮表現とはどういう意味ですか?入力がサイズ20 * 20 = 400エレメントの画像である場合、エンコーダーレイヤーはサイズ100で、圧縮係数は4になります。つまり、400エレメントのみでデータの本質をキャプチャする方法を学習しています最小のエラーで400個の要素データを再構築できる一方で、100個。
フィルターはノードに相当し、トレーニング中に入力の最適な表現を学習するために重みを変更することについては正しいです。