AI/대학원 (17) 썸네일형 리스트형 Meta-Learning Lec12 요약 📚 Lec12: Bayesian Meta-Learning📍 강의 개요강의명: Bayesian Meta-Learning강의코드: AAI0032 (Meta Learning)기관: 한양대학교 인공지능학과🗂️ 목차Meta-Learning Inner Loops 요약Variational Lower Bound 개념Bayesian Black-box Meta-LearningBayesian Optimization 기반 Meta-LearningBayesian Meta-Learning 방법 요약Bayesian Meta-Learner 평가 방법Ambiguous Task 평가Active Learning 평가📌 1. Meta-Learning Inner Loops 요약Meta-learning의 inner loop는 task-.. Meta-Learning Lec11 요약 📘 Lec11: Variational Inference and Generative ModelsHanyang University / Meta Learning / AAI0032🗂️ 강의 개요강의 주제: Variational Inference(변분 추론)과 생성 모델주요 내용:확률적 모델잠재 변수(latent variable) 모델Variational Inference 및 ELBOAmortized Variational InferenceVariational Autoencoder (VAE)와 Conditional Models📍 1. Probabilistic Models확률적 모델: 데이터와 불확실성을 설명하기 위해 확률 분포를 사용하는 모델학습 목적: 모델 파라미터를 찾아서 데이터의 가능도(likelihoo.. Meta-Learning Lec10 요약 📘 Lec10-Advanced-Meta-Learning-Large-scale-meta-optimization 요약📢 1. 강의 개요주제: 대규모 메타 최적화(Large-Scale Meta-Optimization)에 관한 고급 메타러닝 주제학습 목표:기존 메타러닝 접근법이 규모로 인해 실패하는 시나리오 이해하기대규모 메타 최적화를 위한 기술 이해하기📚 2. 메타러닝 방법의 확장성💡 "메타러닝 방법이 확장 가능한가?"라는 질문에서 시작하는 중요한 주제두 유형의 사전 확률 비교수작업 설계 사전 확률(Hand-designed priors) vs 데이터 기반 사전 확률(Data-driven priors)데이터 기반 접근방식이 일반적으로 더 확장성이 있다고 추정됨메타러닝 발전 과정: 머신 비전 분야에서 모델.. Meta-Learning Lec9 요약 📘 Lec9: Advanced Meta-Learning – Task Construction한양대학교 인공지능학과 AAI0032 메타러닝📌 1. 강의 개요주제: 메타러닝에서의 task construction (태스크 구성) 심화핵심 질문:메타러닝에서 태스크를 어떻게 설계할까?supervised / unsupervised setting에서 어떤 차이가 있는가?memorization 문제를 어떻게 방지할 수 있을까?🗂️ 2. 주요 내용✅ Meta-learning Terminology 복습Black-box meta-learning: 모델이 내재적으로 빠르게 적응하도록 설계Optimization-based meta-learning: MAML, Reptile 같은 최적화 기반 접근Non-parametric m.. SAM 논문 소개 Segment Anything Model (SAM)Meta AI Research의 혁신적인 세그멘테이션 모델Notion : https://gugaluv.notion.site/SAM-1e31fcd04676800f863cc6007841d792?pvs=4 목차SAM 소개 및 개요SAM의 특징모델 구조프롬프트 엔지니어링SA-1B 데이터셋활용 사례한계점결론 및 향후 방향1. SAM 소개 및 개요Segment Anything Model이란?Meta AI Research에서 개발한 프롬프트 기반 이미지 세그멘테이션 모델2023년 4월 발표새로운 태스크: Promptable Segmentation다양한 형태의 프롬프트를 통해 이미지 내 객체 분할 가능강력한 Zero-shot 성능SAM의 목표범용적인 세그멘테이션 모델 .. CPU(NumPy) and GPU(CuPy and PyTorch) 성능 비교 개요CPU(NumPy) and GPU(CuPy and PyTorch) 비교 테스트 내용행렬 곱셈 성능 비교:NumPy(CPU), CuPy(GPU), PyTorch(GPU) 구현을 비교다양한 행렬 크기 [128, 256, 512, 1024, 2048] 에 대해 테스트각 구현의 실행 시간과 CPU 대비 속도 향상을 측정실행 시간 시각화신경망 학습 성능 비교:간단한 이진 분류 신경망을 구현CPU와 GPU 기반 학습 시간을 비교다양한 히든 레이어 크기(64, 128, 256)에 대해 테스트각 설정에서의 학습 시간과 GPU 가속 효과를 측정구현 및 테스트 환경 : Colab PRO (GPU : Tesla T4)# GPU 사용 가능 여부 확인import torchprint(f"PyTorch version: {tor.. RNN 의 Parameter Sharing Parameter Sharing in RNN1. Generalize to sequence lengths not seen during training의미:RNN은 고정된 길이의 입력 시퀀스에만 작동하지 않습니다. 훈련 시 보지 못했던 다른 길이의 시퀀스에도 일반화가 가능합니다.RNN은 동일한 파라미터를 시퀀스의 모든 단계에서 재사용(공유)하므로, 시퀀스 길이가 달라져도 동일한 연산 과정을 반복합니다.어떻게 가능한가?RNN에서는 하나의 셀(Neuron) 이 시간 단계마다 반복적으로 활성화됩니다.입력 시퀀스의 길이에 상관없이 동일한 가중치(파라미터)가 각 시간 단계에서 재사용되므로, 시퀀스 길이에 구애받지 않고 작동할 수 있습니다.예시:훈련: 길이가 10인 시퀀스로 훈련.테스트: 길이가 20인 시퀀스에도 적용.. PCA 와 FDA 실습 및 분석 개요AI 프로그래밍 수업 시간에 수행한 PCA 와 FDA 실습 및 분석 내용을 기록으로 남긴다. 문제다음에 대해 주성분 분석(PCA) 및 피셔 판별 분석(FDA)을 수행합니다.데이터 파일의 MNIST 데이터 집합(클래스 '1', '5', '6'이 있는 MNIST 데이터 집합)에 대해 PCA 와 FDA 을 수행합니다, import numpy as npimport matplotlib.pyplot as plt%matplotlib inlinefrom sklearn.decomposition import PCAfrom sklearn.discriminant_analysis import LinearDiscriminantAnalysis as LDAfrom sklearn.neighbors import KNeighborsC.. 이전 1 2 3 다음 목록 더보기