분류 전체보기 (50) 썸네일형 리스트형 Vision Language Action (VLA) 모델 🤖 Vision Language Action (VLA) 모델 개요 및 주요 사례 정리AI와 로보틱스의 융합은 최근 눈부신 발전을 이루고 있으며, 그 중심에는 Vision-Language-Action (VLA) 모델이 있습니다. 이 글에서는 VLA 모델의 개념부터, 대표 모델들인 SayCan, PaLM-E, RT-1, RT-2, OpenVLA까지 간단하게 정리해보겠습니다.🧠 VLA 모델이란?VLA는 로봇이 비전(카메라 등 센서)과 언어(텍스트 명령어)를 이해하고, 이를 바탕으로 적절한 행동을 수행하도록 설계된 모델입니다.기존 로봇 시스템의 한계: 특정 task에 대해서만 학습됨 → 유연한 상황 대처 불가VLA 모델의 장점:상황을 시각적으로 인식 (Vision)언어로 된 명령을 이해 (Language)적.. Meta-Learning Lec12 요약 📚 Lec12: Bayesian Meta-Learning📍 강의 개요강의명: Bayesian Meta-Learning강의코드: AAI0032 (Meta Learning)기관: 한양대학교 인공지능학과🗂️ 목차Meta-Learning Inner Loops 요약Variational Lower Bound 개념Bayesian Black-box Meta-LearningBayesian Optimization 기반 Meta-LearningBayesian Meta-Learning 방법 요약Bayesian Meta-Learner 평가 방법Ambiguous Task 평가Active Learning 평가📌 1. Meta-Learning Inner Loops 요약Meta-learning의 inner loop는 task-.. Meta-Learning Lec11 요약 📘 Lec11: Variational Inference and Generative ModelsHanyang University / Meta Learning / AAI0032🗂️ 강의 개요강의 주제: Variational Inference(변분 추론)과 생성 모델주요 내용:확률적 모델잠재 변수(latent variable) 모델Variational Inference 및 ELBOAmortized Variational InferenceVariational Autoencoder (VAE)와 Conditional Models📍 1. Probabilistic Models확률적 모델: 데이터와 불확실성을 설명하기 위해 확률 분포를 사용하는 모델학습 목적: 모델 파라미터를 찾아서 데이터의 가능도(likelihoo.. Meta-Learning Lec10 요약 📘 Lec10-Advanced-Meta-Learning-Large-scale-meta-optimization 요약📢 1. 강의 개요주제: 대규모 메타 최적화(Large-Scale Meta-Optimization)에 관한 고급 메타러닝 주제학습 목표:기존 메타러닝 접근법이 규모로 인해 실패하는 시나리오 이해하기대규모 메타 최적화를 위한 기술 이해하기📚 2. 메타러닝 방법의 확장성💡 "메타러닝 방법이 확장 가능한가?"라는 질문에서 시작하는 중요한 주제두 유형의 사전 확률 비교수작업 설계 사전 확률(Hand-designed priors) vs 데이터 기반 사전 확률(Data-driven priors)데이터 기반 접근방식이 일반적으로 더 확장성이 있다고 추정됨메타러닝 발전 과정: 머신 비전 분야에서 모델.. Meta-Learning Lec9 요약 📘 Lec9: Advanced Meta-Learning – Task Construction한양대학교 인공지능학과 AAI0032 메타러닝📌 1. 강의 개요주제: 메타러닝에서의 task construction (태스크 구성) 심화핵심 질문:메타러닝에서 태스크를 어떻게 설계할까?supervised / unsupervised setting에서 어떤 차이가 있는가?memorization 문제를 어떻게 방지할 수 있을까?🗂️ 2. 주요 내용✅ Meta-learning Terminology 복습Black-box meta-learning: 모델이 내재적으로 빠르게 적응하도록 설계Optimization-based meta-learning: MAML, Reptile 같은 최적화 기반 접근Non-parametric m.. SAM 논문 소개 Segment Anything Model (SAM)Meta AI Research의 혁신적인 세그멘테이션 모델Notion : https://gugaluv.notion.site/SAM-1e31fcd04676800f863cc6007841d792?pvs=4 목차SAM 소개 및 개요SAM의 특징모델 구조프롬프트 엔지니어링SA-1B 데이터셋활용 사례한계점결론 및 향후 방향1. SAM 소개 및 개요Segment Anything Model이란?Meta AI Research에서 개발한 프롬프트 기반 이미지 세그멘테이션 모델2023년 4월 발표새로운 태스크: Promptable Segmentation다양한 형태의 프롬프트를 통해 이미지 내 객체 분할 가능강력한 Zero-shot 성능SAM의 목표범용적인 세그멘테이션 모델 .. Temporal Fusion Transformers 활용한 보행 행동 예측 아이디어 Temporal Fusion Transformers 논문 요약"Temporal Fusion Transformers for Interpretable Multi-horizon Time Series Forecasting"은 다양한 시계열 예측 작업에 적용할 수 있는 새로운 주목 기반 아키텍처를 제안한 논문입니다.Google AI Research와 옥스포드 대학에서 공동연구하여 발표한 논문으로, 시계열 문제에서 높은 성능을 달성한 모델입니다. Transformer 구조를 사용하며 시계열 데이터 정보를 잘 추출할 수 있도록 개발한 모델로써, 미래 알 수 있는 변수와 공변량을 활용하여 예측을 수행하는 모델을 제시합니다. 당시 획기적은 구조를 제시하여 SOTA 성능을 달성하였습니다. 핵심 개념다중 시계열 통합: 정적.. DETR + SAM 으로 Zero-shot Instance Segmentation 구현하기 개요local 환경에서 DETR 로 검출 된 object 의 bbox 를 SAM 에 prompt 입력으로 넣어 Instance Segmentation 을 수행하는 방법을 구현한다. 사용 모델Segment Anything [논문리뷰] Segment AnythingSegment Anything (SAM) 논문 요약논문에서는 Segment Anything (SA) 프로젝트를 소개하며, 이미지 분할을 위한 새로운 모델, 데이터셋, 및 태스크를 제안한다. 이를 통해 프롬프트 기반 분할(promptable segmentagugalove.tistory.com Segment AnythingMeta AI Computer Vision Researchsegment-anything.com DETR End-to-End Obj.. 이전 1 2 3 4 ··· 7 다음