본문 바로가기

AI

(31)
Transformer 를 사용한 seq2seq 모델 실습 개요케창딥 11장에 나오는 Transformer Encoder 코드 학습 내용을 정리 합니다.https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb 도서의 코드 저장소. Contribute to gilbutITbook/080315 development by creating an account on GitHub." data-og-host="github.com" data-og-source-url="https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb" da..
Transformer Decoder 구현 및 학습 개요케창딥 11장에 나오는 Transformer Encoder 코드 학습 내용을 정리 합니다.https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb 도서의 코드 저장소. Contribute to gilbutITbook/080315 development by creating an account on GitHub." data-og-host="github.com" data-og-source-url="https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb" da..
Transformer Encoder 구현 및 학습 개요케창딥 11장에 나오는 Transformer Encoder 코드 학습 내용을 정리 합니다.https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb 도서의 코드 저장소. Contribute to gilbutITbook/080315 development by creating an account on GitHub." data-og-host="github.com" data-og-source-url="https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb" da..
Residual Network 구현 및 학습 Residual Network (ResNet) 개요와 핵심 내용 정리Residual Network(ResNet)는 딥러닝 모델에서 신경망을 깊게 쌓을 때 발생하는 문제를 해결하기 위해 2015년 He et al.이 제안한 네트워크입니다. ResNet은 특히 딥러닝 모델의 깊이 증가에 따른 성능 저하 문제와 그래디언트 소실 문제를 해결하는 데 중요한 기여를 했습니다. 이 글에서는 ResNet의 기본 개념과 논문에서 강조된 중요한 내용들을 정리해 보겠습니다.1. ResNet의 주요 문제 해결 접근딥러닝 모델의 깊이 문제: 딥러닝에서는 일반적으로 모델의 깊이를 늘리면 더 높은 수준의 표현 학습이 가능해지지만, 지나치게 깊은 모델은 학습이 어려워지고 성능이 오히려 저하될 수 있습니다. 이러한 문제의 주요 원인 ..
KerasTuner 와 Tensorboard 로 HyperParameter 시각화하기 KerasTuner 사용하기https://keras.io/api/keras_tuner/ Keras documentation: KerasTuner APIKerasTuner API The Hyperparameters class is used to specify a set of hyperparameters and their values, to be used in the model building function. The Tuner subclasses corresponding to different tuning algorithms are called directly by the user to start thekeras.io KerasTuner 설치!pip install keras-tuner -qimport ke..
DenseNet 구현 및 학습 DenseNet(Dense Convolutional Network)은 2017년 Gao Huang 등이 발표한 딥러닝 모델로, 레이어 간의 밀집 연결(Dense Connectivity) 을 통해 네트워크의 효율성을 극대화한 구조입니다. DenseNet은 기존의 합성곱 신경망(CNN)에서 레이어 간 정보 흐름을 크게 개선하여, 파라미터 효율성과 성능 모두에서 우수한 결과를 보입니다.DenseNet의 주요 특징 및 구조Dense Connectivity (밀집 연결성)특징맵 재사용: DenseNet에서는 각 레이어가 이전 모든 레이어의 출력(특징맵)을 입력으로 받습니다. 즉, 레이어 l 의 입력은 이전 레이어들 0,1,2,...,l−1의 출력이 모두 연결된 형태입니다.수학적으로, l 번째 레이어의 입력은 다음..
RNN 의 Parameter Sharing Parameter Sharing in RNN1. Generalize to sequence lengths not seen during training의미:RNN은 고정된 길이의 입력 시퀀스에만 작동하지 않습니다. 훈련 시 보지 못했던 다른 길이의 시퀀스에도 일반화가 가능합니다.RNN은 동일한 파라미터를 시퀀스의 모든 단계에서 재사용(공유)하므로, 시퀀스 길이가 달라져도 동일한 연산 과정을 반복합니다.어떻게 가능한가?RNN에서는 하나의 셀(Neuron) 이 시간 단계마다 반복적으로 활성화됩니다.입력 시퀀스의 길이에 상관없이 동일한 가중치(파라미터)가 각 시간 단계에서 재사용되므로, 시퀀스 길이에 구애받지 않고 작동할 수 있습니다.예시:훈련: 길이가 10인 시퀀스로 훈련.테스트: 길이가 20인 시퀀스에도 적용..
PCA 와 FDA 실습 및 분석 개요AI 프로그래밍 수업 시간에 수행한 PCA 와 FDA 실습 및 분석 내용을 기록으로 남긴다. 문제다음에 대해 주성분 분석(PCA) 및 피셔 판별 분석(FDA)을 수행합니다.데이터 파일의 MNIST 데이터 집합(클래스 '1', '5', '6'이 있는 MNIST 데이터 집합)에 대해 PCA 와 FDA 을 수행합니다, import numpy as npimport matplotlib.pyplot as plt%matplotlib inlinefrom sklearn.decomposition import PCAfrom sklearn.discriminant_analysis import LinearDiscriminantAnalysis as LDAfrom sklearn.neighbors import KNeighborsC..