본문 바로가기

딥러닝

(12)
Transformer 를 사용한 seq2seq 모델 실습 개요케창딥 11장에 나오는 Transformer Encoder 코드 학습 내용을 정리 합니다.https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb 도서의 코드 저장소. Contribute to gilbutITbook/080315 development by creating an account on GitHub." data-og-host="github.com" data-og-source-url="https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb" da..
Transformer Decoder 구현 및 학습 개요케창딥 11장에 나오는 Transformer Encoder 코드 학습 내용을 정리 합니다.https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb 도서의 코드 저장소. Contribute to gilbutITbook/080315 development by creating an account on GitHub." data-og-host="github.com" data-og-source-url="https://github.com/gilbutITbook/080315/blob/main/chapter11_part04_sequence-to-sequence-learning.ipynb" da..
Residual Network 구현 및 학습 Residual Network (ResNet) 개요와 핵심 내용 정리Residual Network(ResNet)는 딥러닝 모델에서 신경망을 깊게 쌓을 때 발생하는 문제를 해결하기 위해 2015년 He et al.이 제안한 네트워크입니다. ResNet은 특히 딥러닝 모델의 깊이 증가에 따른 성능 저하 문제와 그래디언트 소실 문제를 해결하는 데 중요한 기여를 했습니다. 이 글에서는 ResNet의 기본 개념과 논문에서 강조된 중요한 내용들을 정리해 보겠습니다.1. ResNet의 주요 문제 해결 접근딥러닝 모델의 깊이 문제: 딥러닝에서는 일반적으로 모델의 깊이를 늘리면 더 높은 수준의 표현 학습이 가능해지지만, 지나치게 깊은 모델은 학습이 어려워지고 성능이 오히려 저하될 수 있습니다. 이러한 문제의 주요 원인 ..
KerasTuner 와 Tensorboard 로 HyperParameter 시각화하기 KerasTuner 사용하기https://keras.io/api/keras_tuner/ Keras documentation: KerasTuner APIKerasTuner API The Hyperparameters class is used to specify a set of hyperparameters and their values, to be used in the model building function. The Tuner subclasses corresponding to different tuning algorithms are called directly by the user to start thekeras.io KerasTuner 설치!pip install keras-tuner -qimport ke..
DenseNet 구현 및 학습 DenseNet(Dense Convolutional Network)은 2017년 Gao Huang 등이 발표한 딥러닝 모델로, 레이어 간의 밀집 연결(Dense Connectivity) 을 통해 네트워크의 효율성을 극대화한 구조입니다. DenseNet은 기존의 합성곱 신경망(CNN)에서 레이어 간 정보 흐름을 크게 개선하여, 파라미터 효율성과 성능 모두에서 우수한 결과를 보입니다.DenseNet의 주요 특징 및 구조Dense Connectivity (밀집 연결성)특징맵 재사용: DenseNet에서는 각 레이어가 이전 모든 레이어의 출력(특징맵)을 입력으로 받습니다. 즉, 레이어 l 의 입력은 이전 레이어들 0,1,2,...,l−1의 출력이 모두 연결된 형태입니다.수학적으로, l 번째 레이어의 입력은 다음..
TensorFlow 함수형 API 로 VGGNet 논문 구현 VGGNet (2014)16~19개의 깊은 층을 쌓아 네트워크의 깊이와 성능 간의 관계를 조사3x3 Convolution Layer 를 여러 개 쌓는 단순하고 일관된 구조를 사용K. Simonyan and A. Zisserman, "Very Deep Convolutional Networks for Large-Scale Image Recognition," in International Conference on Learning Representations (ICLR), 2015.주요 특징단순한 구조:VGGNet의 구조는 매우 단순합니다. 3x3 크기의 작은 필터를 사용하는 합성곱 층(convolutional layer)과 최대 풀링 층(max pooling layer)을 깊게 쌓아 올린 형태로 설계되었습니다..
TensorFlow 함수형 API 로 AlexNet 논문 구현 AlexNet (2012)딥러닝이 주목받는 계기가 된 모델로, 5개의 Convolutional Layer와 3개의 Fully Connected Layer로 구성ReLU 활성화 함수와 Dropout을 도입하여 학습 성능 향상.A. Krizhevsky, I. Sutskever and G. E. Hinton, "ImageNet Classification with Deep Convolutional Neural Networks," in Advances in Neural Information Processing Systems (NIPS), 2012.AlexNet은 2012년 ImageNet 대회에서 우승하며 딥러닝의 가능성을 널리 알린 모델입니다.구성: 5개의 Convolutional Layer와 3개의 Fully..
TensorFlow 사용자 정의 metric 만들기 개요케창딥 7장 내용 중 사용자 정의 metric 만들기에 대한 실습과 디버깅 과정을 기록합니다. 사용자 정의 metric 만들기개념함수형 정의 방법과 클래스 정의 방법 2가지가 있습니다.클래스 정의 방법은 tf.keras.metrics.Metric 클래스를 상속받아 사용자 정의 metric 을 정의할 수 있습니다.이 방식은 상태(state)를 저장하고, update_state, result, reset_states 메서드를 구현하여 유연하게 동작 합니다.  코드 예제 import tensorflow as tf# 사용자 정의 메트릭 클래스class CustomMetric(tf.keras.metrics.Metric): def __init__(self, name="custom_metric", **kwa..