본문 바로가기

분류 전체보기

(50)
[논문리뷰] Segment Anything Segment Anything (SAM) 논문 요약논문에서는 Segment Anything (SA) 프로젝트를 소개하며, 이미지 분할을 위한 새로운 모델, 데이터셋, 및 태스크를 제안한다. 이를 통해 프롬프트 기반 분할(promptable segmentation)을 수행하는 Segment Anything Model (SAM)을 개발하고, 1B 이상의 마스크를 포함하는 SA-1B 데이터셋을 구축했다. 아래 노션에 정리한 문서를 공유 합니다.https://gugaluv.notion.site/Segment-Anything-19a1fcd046768099839ccefa410273a2 Segment Anything | Notion참고 사이트 및 이미지 출처gugaluv.notion.site
MPS (Metal Performance Shaders) 사용 conda 가상환경 만들기 https://developer.apple.com/metal/pytorch/ Accelerated PyTorch training on Mac - Metal - Apple DeveloperPyTorch uses the new Metal Performance Shaders (MPS) backend for GPU training acceleration.developer.apple.com📌 1. Conda 가상환경 생성먼저, 원하는 Python 버전으로 Conda 가상환경을 생성conda create --name pytorch-mps python=3.10 -y 📌 2. Conda 환경 활성화아래 명령어로 만든 환경을 활성화conda activate pytorch-mps📌 3. PyTorch 설치 (MPS ..
[논문리뷰] Masked Autoencoders Are Scalable Vision Learners Abstract이 논문에서는 Masked Autoencoders (MAE)가 컴퓨터 비전에서 확장 가능한 자가 지도 학습(Self-Supervised Learning, SSL) 방법임을 보여줍니다.우리의 MAE 접근 방식은 간단합니다. 입력 이미지의 일부 패치를 무작위로 마스킹한 후, 손실된 픽셀을 복원하는 것입니다.이 방법은 두 가지 핵심 설계를 기반으로 합니다.비대칭 인코더-디코더(Asymmetric Encoder-Decoder) 아키텍처:인코더는 마스크 토큰(mask tokens) 없이 visible patches 만 처리합니다.디코더는 경량화되어 있으며, 잠재 표현(latent representation)과 마스크 토큰을 기반으로 원본 이미지를 복원합니다.높은 비율(예: 75%)의 마스킹이 의미 ..
[논문리뷰] ComKD-CLIP: Comprehensive Knowledge Distillation for ContrastiveLanguage-Image Pre-traning Model https://arxiv.org/abs/2408.04145 ComKD-CLIP: Comprehensive Knowledge Distillation for Contrastive Language-Image Pre-traning ModelContrastive Language-Image Pre-training (CLIP) models excel in integrating semantic information between images and text through contrastive learning techniques. It has achieved remarkable performance in various multimodal tasks. However, the deployment ofarxiv.orgComK..
Airflow 디버깅 및 수정내용 개요MLOps 과정 'Airflow 구성하기 - 예제 2 _ 파트 2' 에서 메모리 문제로 error 발생한 부분에 대한 디버깅 및 수정 내용입니다.디버깅 후 수정이라 Airflow 개발 내용은 생략 합니다. 문제점최종 Airflow HuggingFace 데이터셋 등록 과정에서 에러 발생Hugging Face 에 gugalove/mlops_gsod 로 create_repo 는 되나 데이터셋이 업로드 안됨 수정내용도커의 메모리 부족 의심되어 아래와 같이 Memory 확장 하였으나 failed 되는 시간만 늘어나고 결국 에러 발생 함디버깅 코드 추가 하여 문제점 확인mlops-quicklab/airflow/basic/dags/bigquery_to_huggingface.py18Gb 로 확장해도 결국 메모리 ..
Apple M4 pro chip 에서 keras 의 Stable Diffusion 모델 사용하기 개요https://keras.io/examples/generative/random_walks_with_stable_diffusion/ Keras documentation: A walk through latent space with Stable DiffusionA walk through latent space with Stable Diffusion Authors: Ian Stenbit, fchollet, lukewood Date created: 2022/09/28 Last modified: 2022/09/28 Description: Explore the latent manifold of Stable Diffusion. ⓘ This example uses Keras 3 View in Colab • GitHk..
Apple M4 pro vs M1 학습 속도 비교(GPU, CPU) 개요Apple M4 Pro 칩(14코어 CPU, 20코어 GPU, 16코어 Neural Engine) 을 장착한 Macbook Pro 14 에서 tensorflow 로 구현한 ResNet 과 VGG16 의 CPU 와 GPU 의 학습 속도를 비교해 보고 M1 MacMini 와의 차이는 어느 정도인지 확인한다. 살펴보기MPS (Metal Performance Shaders)MPS (Metal Performance Shaders)는 Apple의 GPU 가속 프레임워크인 Metal API를 기반으로 한 고성능 컴퓨팅 라이브러리입니다. 주로 Apple Silicon(M1, M2, M3, M4 등)과 macOS에서 머신 러닝 및 그래픽 연산을 가속화하기 위해 사용됩니다. MPS의 주요 특징 1. Apple의 GPU..
CPU(NumPy) and GPU(CuPy and PyTorch) 성능 비교 개요CPU(NumPy) and GPU(CuPy and PyTorch) 비교 테스트 내용행렬 곱셈 성능 비교:NumPy(CPU), CuPy(GPU), PyTorch(GPU) 구현을 비교다양한 행렬 크기 [128, 256, 512, 1024, 2048] 에 대해 테스트각 구현의 실행 시간과 CPU 대비 속도 향상을 측정실행 시간 시각화신경망 학습 성능 비교:간단한 이진 분류 신경망을 구현CPU와 GPU 기반 학습 시간을 비교다양한 히든 레이어 크기(64, 128, 256)에 대해 테스트각 설정에서의 학습 시간과 GPU 가속 효과를 측정구현 및 테스트 환경 : Colab PRO (GPU : Tesla T4)# GPU 사용 가능 여부 확인import torchprint(f"PyTorch version: {tor..