리스트
-
AI
Temporal Fusion Transformers 활용한 보행 행동 예측 아이디어
Temporal Fusion Transformers 논문 요약"Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting"은 다양한 시계열 예측 작업에 적용할 수 있는 새로운 주목 기반 아키텍처를 제안한 논문입니다.Google AI Research와 옥스포드 대학에서 공동연구하여 발표한 논문으로, 시계열 문제에서 높은 성능을 달성한 모델입니다. Transformer 구조를 사용하며 시계열 데이터 정보를 잘 추출할 수 있도록 개발한 모델로써, 미래 알 수 있는 변수와 공변량을 활용하여 예측을 수행하는 모델을 제시합니다. 당시 획기적은 구조를 제시하여 SOTA 성능을 달성하였습니다. 핵심 개념다중 시계열 통합: 정적..
-
아이펠_리서치
DETR + SAM 으로 Zero-shot Instance Segmentation 구현하기
개요local 환경에서 DETR 로 검출 된 object 의 bbox 를 SAM 에 prompt 입력으로 넣어 Instance Segmentation 을 수행하는 방법을 구현한다. 사용 모델Segment Anything [논문리뷰] Segment AnythingSegment Anything (SAM) 논문 요약논문에서는 Segment Anything (SA) 프로젝트를 소개하며, 이미지 분할을 위한 새로운 모델, 데이터셋, 및 태스크를 제안한다. 이를 통해 프롬프트 기반 분할(promptable segmentagugalove.tistory.com Segment AnythingMeta AI Computer Vision Researchsegment-anything.com DETR End-to-End Obj..
-
아이펠_리서치
[논문리뷰] Segment Anything
Segment Anything (SAM) 논문 요약논문에서는 Segment Anything (SA) 프로젝트를 소개하며, 이미지 분할을 위한 새로운 모델, 데이터셋, 및 태스크를 제안한다. 이를 통해 프롬프트 기반 분할(promptable segmentation)을 수행하는 Segment Anything Model (SAM)을 개발하고, 1B 이상의 마스크를 포함하는 SA-1B 데이터셋을 구축했다. 아래 노션에 정리한 문서를 공유 합니다.https://gugaluv.notion.site/Segment-Anything-19a1fcd046768099839ccefa410273a2 Segment Anything | Notion참고 사이트 및 이미지 출처gugaluv.notion.site
-
python
MPS (Metal Performance Shaders) 사용 conda 가상환경 만들기
https://developer.apple.com/metal/pytorch/ Accelerated PyTorch training on Mac - Metal - Apple DeveloperPyTorch uses the new Metal Performance Shaders (MPS) backend for GPU training acceleration.developer.apple.com📌 1. Conda 가상환경 생성먼저, 원하는 Python 버전으로 Conda 가상환경을 생성conda create --name pytorch-mps python=3.10 -y 📌 2. Conda 환경 활성화아래 명령어로 만든 환경을 활성화conda activate pytorch-mps📌 3. PyTorch 설치 (MPS ..
-
아이펠_리서치
[논문리뷰] Masked Autoencoders Are Scalable Vision Learners
Abstract이 논문에서는 Masked Autoencoders (MAE)가 컴퓨터 비전에서 확장 가능한 자가 지도 학습(Self-Supervised Learning, SSL) 방법임을 보여줍니다.우리의 MAE 접근 방식은 간단합니다. 입력 이미지의 일부 패치를 무작위로 마스킹한 후, 손실된 픽셀을 복원하는 것입니다.이 방법은 두 가지 핵심 설계를 기반으로 합니다.비대칭 인코더-디코더(Asymmetric Encoder-Decoder) 아키텍처:인코더는 마스크 토큰(mask tokens) 없이 visible patches 만 처리합니다.디코더는 경량화되어 있으며, 잠재 표현(latent representation)과 마스크 토큰을 기반으로 원본 이미지를 복원합니다.높은 비율(예: 75%)의 마스킹이 의미 ..
-
아이펠_리서치
[논문리뷰] ComKD-CLIP: Comprehensive Knowledge Distillation for ContrastiveLanguage-Image Pre-traning Model
https://arxiv.org/abs/2408.04145 ComKD-CLIP: Comprehensive Knowledge Distillation for Contrastive Language-Image Pre-traning ModelContrastive Language-Image Pre-training (CLIP) models excel in integrating semantic information between images and text through contrastive learning techniques. It has achieved remarkable performance in various multimodal tasks. However, the deployment ofarxiv.orgComK..
-
아이펠_리서치
Airflow 디버깅 및 수정내용
개요MLOps 과정 'Airflow 구성하기 - 예제 2 _ 파트 2' 에서 메모리 문제로 error 발생한 부분에 대한 디버깅 및 수정 내용입니다.디버깅 후 수정이라 Airflow 개발 내용은 생략 합니다. 문제점최종 Airflow HuggingFace 데이터셋 등록 과정에서 에러 발생Hugging Face 에 gugalove/mlops_gsod 로 create_repo 는 되나 데이터셋이 업로드 안됨 수정내용도커의 메모리 부족 의심되어 아래와 같이 Memory 확장 하였으나 failed 되는 시간만 늘어나고 결국 에러 발생 함디버깅 코드 추가 하여 문제점 확인mlops-quicklab/airflow/basic/dags/bigquery_to_huggingface.py18Gb 로 확장해도 결국 메모리 ..
-
AI
Apple M4 pro chip 에서 keras 의 Stable Diffusion 모델 사용하기
개요https://keras.io/examples/generative/random_walks_with_stable_diffusion/ Keras documentation: A walk through latent space with Stable DiffusionA walk through latent space with Stable Diffusion Authors: Ian Stenbit, fchollet, lukewood Date created: 2022/09/28 Last modified: 2022/09/28 Description: Explore the latent manifold of Stable Diffusion. ⓘ This example uses Keras 3 View in Colab • GitHk..
-
AI
Apple M4 pro vs M1 학습 속도 비교(GPU, CPU)
개요Apple M4 Pro 칩(14코어 CPU, 20코어 GPU, 16코어 Neural Engine) 을 장착한 Macbook Pro 14 에서 tensorflow 로 구현한 ResNet 과 VGG16 의 CPU 와 GPU 의 학습 속도를 비교해 보고 M1 MacMini 와의 차이는 어느 정도인지 확인한다. 살펴보기MPS (Metal Performance Shaders)MPS (Metal Performance Shaders)는 Apple의 GPU 가속 프레임워크인 Metal API를 기반으로 한 고성능 컴퓨팅 라이브러리입니다. 주로 Apple Silicon(M1, M2, M3, M4 등)과 macOS에서 머신 러닝 및 그래픽 연산을 가속화하기 위해 사용됩니다. MPS의 주요 특징 1. Apple의 GPU..
-
대학원
CPU(NumPy) and GPU(CuPy and PyTorch) 성능 비교
개요CPU(NumPy) and GPU(CuPy and PyTorch) 비교 테스트 내용행렬 곱셈 성능 비교:NumPy(CPU), CuPy(GPU), PyTorch(GPU) 구현을 비교다양한 행렬 크기 [128, 256, 512, 1024, 2048] 에 대해 테스트각 구현의 실행 시간과 CPU 대비 속도 향상을 측정실행 시간 시각화신경망 학습 성능 비교:간단한 이진 분류 신경망을 구현CPU와 GPU 기반 학습 시간을 비교다양한 히든 레이어 크기(64, 128, 256)에 대해 테스트각 설정에서의 학습 시간과 GPU 가속 효과를 측정구현 및 테스트 환경 : Colab PRO (GPU : Tesla T4)# GPU 사용 가능 여부 확인import torchprint(f"PyTorch version: {tor..
-
아이펠_리서치
Transformer 를 사용한 seq2seq 모델 실습
개요케창딥 11장에 나오는 Transformer Encoder 코드 학습 내용을 정리 합니다.https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb 도서의 코드 저장소. Contribute to gilbutITbook/080315 development by creating an account on GitHub." data-og-host="github.com" data-og-source-url="https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb" da..
-
아이펠_리서치
Transformer Decoder 구현 및 학습
개요케창딥 11장에 나오는 Transformer Encoder 코드 학습 내용을 정리 합니다.https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb 도서의 코드 저장소. Contribute to gilbutITbook/080315 development by creating an account on GitHub." data-og-host="github.com" data-og-source-url="https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb" da..
-
아이펠_리서치
Transformer Encoder 구현 및 학습
개요케창딥 11장에 나오는 Transformer Encoder 코드 학습 내용을 정리 합니다.https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb 도서의 코드 저장소. Contribute to gilbutITbook/080315 development by creating an account on GitHub." data-og-host="github.com" data-og-source-url="https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb" da..
-
AI
Residual Network 구현 및 학습
Residual Network (ResNet) 개요와 핵심 내용 정리Residual Network(ResNet)는 딥러닝 모델에서 신경망을 깊게 쌓을 때 발생하는 문제를 해결하기 위해 2015년 He et al.이 제안한 네트워크입니다. ResNet은 특히 딥러닝 모델의 깊이 증가에 따른 성능 저하 문제와 그래디언트 소실 문제를 해결하는 데 중요한 기여를 했습니다. 이 글에서는 ResNet의 기본 개념과 논문에서 강조된 중요한 내용들을 정리해 보겠습니다.1. ResNet의 주요 문제 해결 접근딥러닝 모델의 깊이 문제: 딥러닝에서는 일반적으로 모델의 깊이를 늘리면 더 높은 수준의 표현 학습이 가능해지지만, 지나치게 깊은 모델은 학습이 어려워지고 성능이 오히려 저하될 수 있습니다. 이러한 문제의 주요 원인 ..
-
아이펠_리서치
KerasTuner 와 Tensorboard 로 HyperParameter 시각화하기
KerasTuner 사용하기https://keras.io/api/keras_tuner/ Keras documentation: KerasTuner APIKerasTuner API The Hyperparameters class is used to specify a set of hyperparameters and their values, to be used in the model building function. The Tuner subclasses corresponding to different tuning algorithms are called directly by the user to start thekeras.io KerasTuner 설치!pip install keras-tuner -qimport ke..