본문 바로가기

기술 이야기32

[논문 리뷰] Track Anything Models(TAM) 리뷰 안녕하세요, 제가 최근에 포스팅했던 Segment Anything 논문 리뷰가 정말 핫합니다. 그만큼 많은 분들께서 이 연구의 중요성을 의식하신다는 뜻이겠죠?? 그런 의미에서 오늘은 Segment Anything을 비디오에 적용한 Track Anything을 소개할까 합니다. Full-paper로 나오지는 않았고, 서비스를 만들기 위해 필요한 모델을 갖다 붙인 느낌이지만 결과가 상당히 좋은 것 같아 리뷰할까 합니다. Segment Anything(SAM)의 특징 Image Segmentation의 신흥 강자 SAM의 특징은 무엇일까요? Class-agnostic: Class를 구분하지 않는다 Interactive: 사용자로부터 Prompt를 받는다 (point, box, text, mask) Powerf.. 2023. 5. 5.
[PyTorch] nn.Linear에 대한 질문 안녕하세요, 오늘은 PyTorch를 쓰다보면 굉장히 많이 접하게 되는 nn.Linear 함수에 대해 설명하려고 합니다. nn.Linear란 먼저, 논문을 읽거나 기타 자료를 볼 때 nn.Linear는 Fully Connected Layer(FC) 또는 Dense Layer라고 표현을 합니다. Fully Connected, Dense와 같은 단어에서 느낌이 오듯, Input/Output의 노드를 빼먹지 않고 촘촘하게 연결한 구조를 갖습니다. 그렇다고 Input 또는 Output 노드 사이의 연결이 존재하지는 않고, Bipartite Graph를 떠올리시면 쉽습니다 (참고). nn.Linear란 어떤 역할을 할까요? Classification: 분류 문제의 경우, 보통 네트워크의 가장 마지막에 붙어 이전까지.. 2023. 4. 28.
[논문 리뷰] DINOv2: Learning Robust Visual Features without Supervision 설명 안녕하세요, 오늘은 몇일 전 Meta에서 발표한 DINOv2 논문을 소개하려고 합니다. Computer Vision 분야에서 이미 유명한 DINO를 업그레이드 해서 발표했는데요, 이 Self-supervised Learning 방식은 어떻게 탄생했는지, 어떤 구조와 장점을 갖는지, 그리고 그 결과는 어떤지 리뷰하도록 하겠습니다. 논문: https://arxiv.org/pdf/2304.07193.pdf 코드: https://github.com/facebookresearch/dinov2 Introduction Meta, Google, OpenAI와 같은 거대한 기업에서는 요즘 Foundation models 연구에 한창인 것 같습니다. NLP에서는 GPT가 득세하고 많은 대중들의 사랑을 받았는데요, Comp.. 2023. 4. 21.
[논문 리뷰] VideoMAE - Masked Autoencoders are Date-Efficient Learners for Self-supervised Video Pre-Training 안녕하세요, 오늘은 비디오 계의 훌륭한 pre-trained 모델을 만든 VideoMAE: Masked Autoencoders are Date-Efficient Learners for Self-supervised Video Pre-Training 논문을 설명하도록 하겠습니다. 참고로 이번 리뷰는 MAE(Masked Autoencoder)를 이해하고 있어야 이해가 빠릅니다. 그럼 시작하겠습니다. 논문: https://arxiv.org/pdf/2203.12602.pdf 코드: https://github.com/MCG-NJU/VideoMAE Introduction 최근에는 자연어뿐만 아니라 이미지, 음성 등 많은 분야에서 Transformer를 채택해서 많은 성장이 있었죠? 연속적인 이미지의 집합인 비디오도 .. 2023. 4. 18.
[면접 꿀팁] Eigenvalue와 Eigenvector 설명 안녕하세요, 우리를 힘들게 하는 선형대수에는 eigenvalue, eigenvector라는 개념이 밥 먹듯 등장합니다. 다른 분야는 잘 모르겠지만 컴퓨터 비전을 공부한다면 누구나 맞닥뜨릴 Linear Transformation(선형 변환), Eigenvalue(고윳값), Eigenvector(고유 벡터)에 대해 간단히 리뷰하면 좋을 것 같습니다. Linear Transformation (선형 변환) Linear Transformation이란 무엇일까요? 거두절미하고 다음의 두 가지 성질을 만족하면 됩니다. 가산성(additivity): 두 벡터를 선형 변환한 결과를 더한 값은, 두 벡터를 각각 선형 변환한 결과를 더한 것과 같습니다. $$T(u+v) = T(u) + T(v)$$ 동차성(homogeneit.. 2023. 4. 15.
[면접 꿀팁] Similarity Search에 대하여 안녕하세요, 오늘은 Similarity Search에 대해 간단하게 소개해보려고 합니다. 경험상 실무에서 꽤 중요하게 다뤄지는 것에 반해 그 개념을 정확히 짚고 넘어갈 기회가 많지 않았던 것 같습니다. 그래서 리뷰해보겠습니다. Similarity Search란? Similarity Search란 단어의 직역대로 나와 비슷한 친구를 찾는 알고리즘을 말합니다. 머신러닝에서 Unsupervised method로 분류되고 같은 표현으로 Clustering 등으로 말하기도 합니다. 이게 왜 중요한 걸까요?? 두가지 예시를 들어보겠습니다. 나는 지금 딥러닝을 활용한 Classifier를 배포하려고 한다. 이 엔진은 현재 물품 1,000종에 대해 분류를 해주는 훌륭한 친구지만 앞으로 품목이 얼마나 더 늘어날 지 가늠.. 2023. 4. 14.