논문을 계속 읽어야지 읽어야지 생각하다가.. 용기를 내어서 한번 읽어본 내용을 코드로 구현해 보겠습니다.VGGNet Review논문 리뷰한 내용은 아래 링크에 달아놓겠습니다! [Paper Review] VGGnet Review논문을 계속 읽어야지 읽어야지 생각하다가.. 용기를 내어서 한번 읽어본 내용을 정리해보겠습니다. VGGNet Paper (2014)VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION.논문 사이트 링크는 아래daehyun-bigbread.tistory.comVGGNet Architecture 그러면 한번 VGGNet을 코드로 한번 구현을 하보겠습니다. - D열의 모델(VGG16)을 구현해보았습니다.image input..
논문을 계속 읽어야지 읽어야지 생각하다가.. 용기를 내어서 한번 읽어본 내용을 정리해보겠습니다. VGGNet Paper (2014)VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION.논문 사이트 링크는 아래에 남겨놓겠습니다. 그러면 한번 차근차근 리뷰해 보겠습니다. Very Deep Convolutional Networks for Large-Scale Image RecognitionIn this work we investigate the effect of the convolutional network depth on its accuracy in the large-scale image recognition setting. Our main ..
⚠️ 본 내용은 PyTorch Korea의 공식 문서에 기반하여 공부한 내용을 적은것이니 양해바랍니다! PyTorch에서 일반적인 체크포인트(checkpoint) 저장하기 & 불러오기추론(inference) 또는 학습(training)의 재개를 위해 체크포인트(checkpoint) 모델을 저장하고 불러오는 것은 마지막으로 중단했던 부분을 선택하는데 도움을 줄 수 있습니다. 체크포인트를 저장할 때는tutorials.pytorch.krPyTorch에서 Inference & Training을 다시 하기 위해서 Checkpoint Model을 저장 & 불러오는것을 한번 해보겠습니다.IntroPyTorch에서 여러 Checkpoint들을 저장하기 위해선 사전(Dictionary)에 Checkpoint들을 구성한후..
머신러닝 모델의 학습과 평가 과정에서 중요한 요소들에 대해 다루겠습니다.훈련 데이터와 테스트 데이터의 분할모델의 성능을 정확히 평가하고 일반화 능력을 확인하기 위해 데이터셋을 훈련 데이터와 테스트 데이터로 분할합니다.훈련 데이터는 모델을 학습시키는 데 사용되며, 테스트 데이터는 학습되지 않은 데이터에서 모델의 성능을 평가하는 데 사용됩니다.일반적인 비율:Train(훈련 데이터) : Test(테스트 데이터) = 70:30Train(훈련 데이터) : Test(테스트 데이터) = 80:20데이터 분할 방법Train(훈련 데이터) & Test(테스트 데이터)를 어떠한 비율로 나누는지 알았습니다. 그러면 어떠한 방법으로 분리할까요?임의 분할(Random Split):데이터를 무작위로 섞은 후, 지정된 비율에 따라..
이번에는 Naive Bayes (나이브 베이즈)라는 개념에 데하여 한번 알아보겠습니다.Naive Bayes (나이브 베이즈)나이브 베이즈(Naive Bayes)는 조건부 확률을 활용하여 분류를 수행하는 지도 학습 알고리즘입니다.이 알고리즘은 독립 변수들이 서로 독립적이라고 가정하여 작동합니다.이러한 가정 하에서 나이브 베이즈는 간단하지만 강력한 분류 모델을 제공합니다.Bayes' Theorem (베이즈 정리)나이브 베이즈 알고리즘은 베이즈 정리에 기반을 두고 있습니다.베이즈 정리는 조건부 확률을 사용하여 특정 사건의 사후 확률을 계산하는 수학적 원리입니다. 아래는 베이즈 정리의 수식입니다. P(A∣B)P(A|B)P(A∣B): 사건 B가 일어났을 때 사건 A가 일어날 확률 (사후 확률, Posterior ..
이번에는 Linear Regression (선형회귀)에 데하여 알아보겠습니다.Linear Regression (선형회귀)선형 회귀(Linear Regression)는 머신러닝에서 널리 사용되는 회귀 분석 기법 중 하나로,독립 변수와 종속 변수 간의 관계를 선형 방정식으로 표현합니다.이 방법은 주어진 데이터를 이용해 가장 잘 맞는 직선을 찾는 것이 목표입니다.선형 회귀는 모델이 비교적 간단하고 해석이 용이하다는 장점이 있습니다.회귀 방정식선형 회귀 모델은 다음과 같은 형태의 방정식을 사용합니다. Y = β0 +β1X + ϵ Y: 종속 변수 (예측하려는 값)X: 독립 변수 (설명 변수)β0: 절편 (Intercept)β1: 기울기 (Slope)ϵ: 오차 항 (Error Term, 모델의 예측과 실제 ..
이번에는 Supervised Learning (지도학습)에 데한 개념에 데하여 한번 알아보겠습니다.Supervised Learning (지도학습)지도학습은 머신러닝의 한 분야로, 라벨이 있는 데이터를 기반으로 학습하는 알고리즘입니다.입력 데이터와 이에 상응하는 출력 값(목표 또는 라벨)이 주어지며, 모델은 이 데이터를 통해 학습하여 새로운 입력에 대해 예측을 수행할 수 있습니다.지도학습은 크게 회귀(Regression)와 분류(Classification)로 나뉩니다.Regression (회귀)회귀는 연속적인 숫자 값을 예측하는 문제를 다룹니다.예를 들어, 주택의 면적, 방 개수, 위치 등을 기반으로 주택 가격을 예측하는 경우가 이에 해당합니다.회귀 문제에서는 예측하려는 값이 연속적인 숫자로 표현됩니다.예..
⚠️ 본 내용은 PyTorch Korea의 공식 문서에 기반하여 공부한 내용을 적은것이니 양해바랍니다! 모델 저장하고 불러오기파이토치(PyTorch) 기본 익히기|| 빠른 시작|| 텐서(Tensor)|| Dataset과 Dataloader|| 변형(Transform)|| 신경망 모델 구성하기|| Autograd|| 최적화(Optimization)|| 모델 저장하고 불러오기 이번 장에서는 저장하기나tutorials.pytorch.krModel 저장하고 불러오기이번에는 저장 or 불러오기를 통해 모델의 상태 유지(persist)및 모델의 예측을 시행하는 방법을 보겠습니다.import torchimport torchvision.models as modelsModel Weight(가중치) 저장하고 불러오기PyT..
Gradient Boosting (그레이언트 부스팅)그레이디언트 부스팅(Gradient Boosting)은 얕은 결정 트리들을 사용하여 이전 트리의 오차를 보완하는 방식으로 앙상블을 구성하는 기법입니다.사이킷런의 GradientBoostingClassifier는 기본적으로 깊이가 3인 결정 트리를 100개 사용합니다. 얕은 결정 트리를 사용하기 때문에 과대적합에 강하고, 일반적으로 높은 일반화 성능을 기대할 수 있습니다.'그레이디언트'라는 이름에서 알 수 있듯이, 이 방법은 경사 하강법을 사용하여 트리를 앙상블에 추가합니다. 분류 문제에서는 로지스틱 손실 함수를 사용하고, 회귀 문제에서는 평균 제곱 오차 함수를 사용합니다.경사 하강법의 원리처럼, 그레이디언트 부스팅은 손실 함수의 최소점을 찾기 위해 모델..
Extra Trees (엑스트라 트리)엑스트라 트리(Extra Trees)는 랜덤 포레스트와 매우 유사하게 동작하며, 기본적으로 100개의 결정 트리를 훈련합니다.이 모델은 랜덤 포레스트와 마찬가지로 대부분의 결정 트리 매개변수를 지원하고, 일부 특성을 랜덤하게 선택하여 노드를 분할하는 데 사용합니다.랜덤 포레스트와 엑스트라 트리의 주요 차이점은 부트스트랩 샘플을 사용하지 않는다는 점입니다.즉, 각 결정 트리를 만들 때 전체 훈련 세트를 사용합니다. 대신, 노드를 분할할 때 가장 좋은 분할을 찾지 않고 무작위로 분할합니다.사실, 이전에 DecisionTreeClassifier의 spliter 매개변수를 'random'으로 설정한 것이 바로 엑스트라 트리에서 사용하는 방식입니다.각 결정 트리에서 특성을 무..