본문 바로가기

전체 글37

PyTorch 2.0 vs ONNX vs TensorRT 비교 안녕하세요, 딥러닝 모델을 개발하면 그 모델을 배포하는 과정이 매우 중요합니다. 어떻게 하면 더 빠르게 동작하는 서비스를 만들까 고민이 많으실텐데요, 오늘은 그 방법 중 몇가지를 비교하고 더 좋은 방법을 찾아보고자 글을 쓰도록 하겠습니다. 방법으로는 꽤 많이 알려진 PyTorch, ONNX, TensorRT를 골랐습니다. 왜 JAX가 없냐 물어보시면 JAX는 독자적 생태계가 확고해서 다음에 따로 리뷰하도록 하겠습니다. 참고로 글의 내용은 Nebuly Blog를 참조했습니다. 비교에 앞서 PyTorch, ONNX, TensorRT가 무엇인지 짧게 소개하면 이해가 더 쉬울 것 같습니다. PyTorch 2.0 언젠가부터 Tensorflow를 앞지르고 가장 인기있는 Deep Learning Framework이 .. 2023. 5. 19.
[논문 리뷰] IMAGEBIND: One Embedding Space To Bind Them All 안녕하세요, 오늘은 Meta의 새로운 논문 IMAGEBIND: One Embedding Space To Bind Them All를 읽고 설명해볼까 합니다. 이 논문은 무려 6가지의 Modalities - Image, Text, Audio, Depth, Thermal, and IMU를 한데 엮어 이해한 모델을 소개하고 있기 때문에 결과물의 수준이 많이 궁금해서 리뷰하도록 하겠습니다. 잡설이지만 요즘 구글, OpenAI, Meta 등의 글로벌 기업들은 하루가 멀다하고 새로운 연구들을 발표하기 때문에 대체 어떤 논문을 읽고 따라가야할까 고민이 많은 요즘입니다. 소개에 앞서 프로젝트 페이지를 공유드립니다. Project: https://imagebind.metademolab.com/ Github: https:/.. 2023. 5. 11.
[AI 소식] 베지 쉑(Veggie Shack) - 쉑쉑(Shake Shack)버거 AI 신메뉴 안녕하세요! 오늘 뉴스를 보다보니 쉑쉑버거에서 AI로 개발한 신메뉴 Veggie Shack이 출시됐다는 소식을 접했는데요, 저는 개인적으로 버거를 너무너무 좋아해서 더욱 흥미롭습니다. 사실 이 메뉴는 처음이 아니고 2018년도에 출시했었는데 다시금 연구해서 칼을 갈고 나오는걸까요? AI 신메뉴의 정체 Fortune에 따르면 이 버거는 콩과 같은 대체 단백질이 아니고 채소를 사용해 패티를 만들었다고 합니다. 기사에서는 칠레 푸드테크 스타트업 NotCo에서 개발한 주세페(Guiseppe)라는 알고리즘을 활용해서 개발했다고 합니다. 어떤 모델을 썼는지는 알기 어렵지만 데이터베이스에 있는 30만 그루의 식용 식물을 조합해 분자 수준에서 동물 유래 성분을 파악하고 맛과 식감을 복제한다고 합니다. 대충 정리하면 이.. 2023. 5. 5.
[논문 리뷰] Track Anything Models(TAM) 리뷰 안녕하세요, 제가 최근에 포스팅했던 Segment Anything 논문 리뷰가 정말 핫합니다. 그만큼 많은 분들께서 이 연구의 중요성을 의식하신다는 뜻이겠죠?? 그런 의미에서 오늘은 Segment Anything을 비디오에 적용한 Track Anything을 소개할까 합니다. Full-paper로 나오지는 않았고, 서비스를 만들기 위해 필요한 모델을 갖다 붙인 느낌이지만 결과가 상당히 좋은 것 같아 리뷰할까 합니다. Segment Anything(SAM)의 특징 Image Segmentation의 신흥 강자 SAM의 특징은 무엇일까요? Class-agnostic: Class를 구분하지 않는다 Interactive: 사용자로부터 Prompt를 받는다 (point, box, text, mask) Powerf.. 2023. 5. 5.
[PyTorch] nn.Linear에 대한 질문 안녕하세요, 오늘은 PyTorch를 쓰다보면 굉장히 많이 접하게 되는 nn.Linear 함수에 대해 설명하려고 합니다. nn.Linear란 먼저, 논문을 읽거나 기타 자료를 볼 때 nn.Linear는 Fully Connected Layer(FC) 또는 Dense Layer라고 표현을 합니다. Fully Connected, Dense와 같은 단어에서 느낌이 오듯, Input/Output의 노드를 빼먹지 않고 촘촘하게 연결한 구조를 갖습니다. 그렇다고 Input 또는 Output 노드 사이의 연결이 존재하지는 않고, Bipartite Graph를 떠올리시면 쉽습니다 (참고). nn.Linear란 어떤 역할을 할까요? Classification: 분류 문제의 경우, 보통 네트워크의 가장 마지막에 붙어 이전까지.. 2023. 4. 28.
[일상 잡담] MBTI와 AI 연구원 이야기 갑자기 왜 MBTI? 안녕하세요, 오늘은 뜬금 없이 MBTI 이야기를 해보려고 합니다. 어찌보면 이미 철 지난 MBTI를 갑자기 왜 꺼내는가 싶지만 저는 개인적으로 이게 혈액형이나 기타 잡다한 심리테스트보다 훨씬 가치 있다고 생각합니다. 왜냐하면 혈액형은 내 몸에 흐르는 피의 타입일 뿐, 내 행동과는 아무 관계가 없고 반면 MBTI는 문항 하나하나가 나의 심리, 행동 양식을 직접적으로 묻고 내가 그에 응답한 결과를 내어주는 것 이기 때문입니다. 아무튼 저의 MBTI는 INTJ인데, 이게 AI를 공부하는데 무슨 상관이 있나 생각한 내용을 적어봅니다. INTJ의 특징 다음은 ChatGPT가 말해주는 INTJ의 특징입니다! INTJ (내향적, 직관적, 사고형, 판단형)는 MBTI (Myers-Briggs Ty.. 2023. 4. 24.
[논문 리뷰] DINOv2: Learning Robust Visual Features without Supervision 설명 안녕하세요, 오늘은 몇일 전 Meta에서 발표한 DINOv2 논문을 소개하려고 합니다. Computer Vision 분야에서 이미 유명한 DINO를 업그레이드 해서 발표했는데요, 이 Self-supervised Learning 방식은 어떻게 탄생했는지, 어떤 구조와 장점을 갖는지, 그리고 그 결과는 어떤지 리뷰하도록 하겠습니다. 논문: https://arxiv.org/pdf/2304.07193.pdf 코드: https://github.com/facebookresearch/dinov2 Introduction Meta, Google, OpenAI와 같은 거대한 기업에서는 요즘 Foundation models 연구에 한창인 것 같습니다. NLP에서는 GPT가 득세하고 많은 대중들의 사랑을 받았는데요, Comp.. 2023. 4. 21.
[논문 리뷰] VideoMAE - Masked Autoencoders are Date-Efficient Learners for Self-supervised Video Pre-Training 안녕하세요, 오늘은 비디오 계의 훌륭한 pre-trained 모델을 만든 VideoMAE: Masked Autoencoders are Date-Efficient Learners for Self-supervised Video Pre-Training 논문을 설명하도록 하겠습니다. 참고로 이번 리뷰는 MAE(Masked Autoencoder)를 이해하고 있어야 이해가 빠릅니다. 그럼 시작하겠습니다. 논문: https://arxiv.org/pdf/2203.12602.pdf 코드: https://github.com/MCG-NJU/VideoMAE Introduction 최근에는 자연어뿐만 아니라 이미지, 음성 등 많은 분야에서 Transformer를 채택해서 많은 성장이 있었죠? 연속적인 이미지의 집합인 비디오도 .. 2023. 4. 18.
[면접 꿀팁] Eigenvalue와 Eigenvector 설명 안녕하세요, 우리를 힘들게 하는 선형대수에는 eigenvalue, eigenvector라는 개념이 밥 먹듯 등장합니다. 다른 분야는 잘 모르겠지만 컴퓨터 비전을 공부한다면 누구나 맞닥뜨릴 Linear Transformation(선형 변환), Eigenvalue(고윳값), Eigenvector(고유 벡터)에 대해 간단히 리뷰하면 좋을 것 같습니다. Linear Transformation (선형 변환) Linear Transformation이란 무엇일까요? 거두절미하고 다음의 두 가지 성질을 만족하면 됩니다. 가산성(additivity): 두 벡터를 선형 변환한 결과를 더한 값은, 두 벡터를 각각 선형 변환한 결과를 더한 것과 같습니다. $$T(u+v) = T(u) + T(v)$$ 동차성(homogeneit.. 2023. 4. 15.
[면접 꿀팁] Similarity Search에 대하여 안녕하세요, 오늘은 Similarity Search에 대해 간단하게 소개해보려고 합니다. 경험상 실무에서 꽤 중요하게 다뤄지는 것에 반해 그 개념을 정확히 짚고 넘어갈 기회가 많지 않았던 것 같습니다. 그래서 리뷰해보겠습니다. Similarity Search란? Similarity Search란 단어의 직역대로 나와 비슷한 친구를 찾는 알고리즘을 말합니다. 머신러닝에서 Unsupervised method로 분류되고 같은 표현으로 Clustering 등으로 말하기도 합니다. 이게 왜 중요한 걸까요?? 두가지 예시를 들어보겠습니다. 나는 지금 딥러닝을 활용한 Classifier를 배포하려고 한다. 이 엔진은 현재 물품 1,000종에 대해 분류를 해주는 훌륭한 친구지만 앞으로 품목이 얼마나 더 늘어날 지 가늠.. 2023. 4. 14.
[논문 리뷰] Consistency Models 리뷰 안녕하세요, 오늘은 OpenAI에서 발표한 Consistency Models을 소개합니다. 이 모델은 기존 Diffusion models이 노이즈로부터 원본 이미지 복원을 위해 수백번 ~ 수천번의 iteration을 반복하는 과정을 획기적으로 줄였다고 합니다. 저는 생성 모델의 전문가가 아니라서 심도 있는 내용은 없지만 본 설명이 이해에 도움이 된다면 좋겠습니다. 논문: https://arxiv.org/pdf/2303.01469.pdf Github: https://github.com/openai/consistency_models Introduction 최근 득세하고 있는 Diffusion Models... 그 이전에 한참을 유행했던 GAN(Generative Adversarial Network)에는 없는.. 2023. 4. 13.
[AI 소식] ChatGPT vs GPT-4: 특징과 차이점, 그리고 한계 안녕하세요, 오늘은 대부분이 알고 계실 ChatGPT와 이번에 공개된 GPT-4의 특징을 살펴보고 어떤 차이가 있는지, 그리고 아직까지 풀지 못한 문제는 무엇인지 짧게 설명하도록 하겠습니다. ChatGPT의 파급력 OpenAI는 ChatGPT를 공개해서 세상을 깜짝 놀라게 했습니다. 물론 LLM(Large Language Model)이라는 분야에서 GPT-1부터 꾸준히 연구를 진행한 끝에 얻은 결과물이지만 필자도 정말 많이 놀랐습니다. AI의 발전이 이렇게 빠르게 이루어질 줄이야… 언어가 필요한 모든 분야에 적용될 수 있을만큼 성능이 대단했는데, 단순한 대화를 넘어 각종 전문 분야에서도 막힘이 없고 유머와 같이 창의성이 필요한 내용에서도 사람들을 놀라게 했습니다. 실제로 다양한 분야에서 ChatGPT를 .. 2023. 4. 11.