Flatten1 [Deep Learning] TimeDistributed 2025.03.15 - [Data & Research] - [ML & DL 기초] Table of ContentsTensorFlow에서 사용하는 TimeDistributed의 사용방법에 대해 알아보고 Pytorch에서는 어떻게 구현하는지 알아보겠습니다. TimeDistributed는 시계열 데이터의 각 Time Step에 동일한 층(layer)을 독립적으로 적용(weight 공유)할 때 사용하는 wrapper입니다. 1. TensorFlow의 TimeDistributed예시1) 각 프레임(시간 축)마다 CNN으로 영상 특징 추출 → 그 결과를 LSTM에 전달TimeDistributed(Conv2D(...))(video_input) 예시2) 각 시점마다 분류해야 하는 문제 (POS tagging, NER.. 2025. 11. 24. 이전 1 다음 반응형