본문 바로가기

tensorflow2

[Deep Learning] TimeDistributed 2025.03.15 - [Data & Research] - [ML & DL 기초] Table of ContentsTensorFlow에서 사용하는 TimeDistributed의 사용방법에 대해 알아보고 Pytorch에서는 어떻게 구현하는지 알아보겠습니다. TimeDistributed는 시계열 데이터의 각 Time Step에 동일한 층(layer)을 독립적으로 적용(weight 공유)할 때 사용하는 wrapper입니다. 1. TensorFlow의 TimeDistributed예시1) 각 프레임(시간 축)마다 CNN으로 영상 특징 추출 → 그 결과를 LSTM에 전달TimeDistributed(Conv2D(...))(video_input) 예시2) 각 시점마다 분류해야 하는 문제 (POS tagging, NER.. 2025. 11. 24.
[Deep Learning] Progressive Disclosure of Complexity: TF 텐서플로우를 활용하더라도 여러가지 수준과 방법을 활용해서 Deep Neural Network 구조를 작성할 수가 있죠예를들어 같은 구조의 layer를 만들더라도 Sequential API, function API, Subclass 활용 등 다양한 방법으로 진행이 됩니다. 거기에 Tensorflow2.x 방식의 eager excution을 활용할 것이냐도 취사선택할 수 있는 옵션이죠. 사실 웬만한 기능은 요즘에는 TF2의 케라스에서 high level API로 구현이 많이 되어 있습니다. 하다못해 callback 같은 것들도 굉장히 편리하죠. 텐서플로우 공식 홈페이지에 이러한 코드 복잡성에 대한 정리가 되어 있는 부분이 있어서 정리합니다.  좀 더 자세한 내용이 궁금하신 분들은 영상을 참고하세요 2021. 11. 21.
반응형