이번엔 Logistic Regression (로지스틱 회귀)에 데하여 한번 알아보겠습니다.Logistic Regression (로지스틱 회귀)로지스틱 회귀(Logistic Regression)는 주로 이진 분류 문제를 해결하기 위해 사용되는 통계적 모델입니다.입력된 독립 변수들의 선형 결합을 통해 종속 변수(이진 변수)의 발생 확률을 예측합니다.로지스틱 회귀의 주요 특징 분류 알고리즘: 이진 분류 문제를 주로 해결하기 위해 사용됩니다. 다중 클래스 분류 문제에서도 확장할 수 있습니다.확률 출력: 예측 결과를 0과 1 사이의 확률 값으로 출력합니다.선형 회귀와의 차이점: 선형 회귀는 연속적인 값을 예측하지만, 로지스틱 회귀는 이진 값을 예측합니다.로지스틱 회귀의 기본 원리그러면, Logistic Regre..
이번엔는 K-NN에 데하여 한번 알아보겠습니다.K-NN 이란?K-NN(최근접 이웃 알고리즘)은 데이터 분류 및 회귀 문제에서 널리 사용되는 비모수적 기계 학습 알고리즘입니다.입력 데이터 포인트의 클래스를 예측하기 위해 그 데이터 포인트와 가장 가까운 K개의 이웃을 기반으로 결정을 내리는 알고리즘입니다.K-NN은 분류(Classification)와 회귀(Regression) 문제 모두에 사용될 수 있습니다.K-NN의 주요 특징1. 비모수적 방법K-NN은 데이터 분포에 대해 특정한 가정을 하지 않는 비모수적(non-parametric) 방법입니다. 이는 데이터의 형태나 분포에 대해 사전 지식이 없어도 사용할 수 있다는 것을 의미합니다.2. 메모리 기반모델을 학습하는 과정이 없고, 예측 시에 모든 학습 데이터..
Target을 모르는 Unsupervised Learning(비지도 학습)Target을 모로는 데이터를 종류별로 분류하려고 할때 사용하는 ML 알고리즘이 있습니다.바로 Unsuperivsed Learning (비지도 학습) 입니다. 사람이 알려주지 않아도, 데이터에 있는 무언가를 학습하는 방식이라고 생각하시면 편합니다.그러면 한번 데이터를 준비해 보겠습니다.Data 준비하기사과, 바나나, 파인애플로 구성된 흑색 사진의 과일 데이터를 준비해보겠습니다.!wget https://bit.ly/fruits_300_data -O fruits_300.npy--2023-07-16 14:21:20-- https://bit.ly/fruits_300_dataResolving bit.ly (bit.ly)... 67.199...
이번에는 Supervised Learning (지도학습)에 데하여 한번 알아보겠습니다. Supervised Learning (지도학습) 이란?지도학습은 Machine Learning(기계학습)의 한 분야로, 입력 데이터와 그에 대응하는 정답(레이블)을 함께 제공받아 학습하는 방법입니다. 이 과정을 통해 알고리즘은 새로운 입력 데이터에 대해 정확한 출력을 예측할 수 있는 모델을 만듭니다. 주요한 특징들에 데하여 더 살펴보면 1. 레이블이 있는 데이터 사용 각 데이터 포인트에는 입력값과 그에 대응하는 정답이 함께 제공됩니다.예를 들어, 이미지 분류 작업에서는 이미지(입력)와 그 이미지가 나타내는 객체의 이름(출력)이 쌍을 이룹니다.사진과 그 사진의 태그(예: "강아지", "고양이")가 쌍으로 주어지면, 모델..
논문을 계속 읽어야지 읽어야지 생각하다가.. 용기를 내어서 한번 읽어본 내용을 코드로 구현해 보겠습니다.VGGNet Review논문 리뷰한 내용은 아래 링크에 달아놓겠습니다! [Paper Review] VGGnet Review논문을 계속 읽어야지 읽어야지 생각하다가.. 용기를 내어서 한번 읽어본 내용을 정리해보겠습니다. VGGNet Paper (2014)VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION.논문 사이트 링크는 아래daehyun-bigbread.tistory.comVGGNet Architecture 그러면 한번 VGGNet을 코드로 한번 구현을 하보겠습니다. - D열의 모델(VGG16)을 구현해보았습니다.image input..
논문을 계속 읽어야지 읽어야지 생각하다가.. 용기를 내어서 한번 읽어본 내용을 정리해보겠습니다. VGGNet Paper (2014)VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION.논문 사이트 링크는 아래에 남겨놓겠습니다. 그러면 한번 차근차근 리뷰해 보겠습니다. Very Deep Convolutional Networks for Large-Scale Image RecognitionIn this work we investigate the effect of the convolutional network depth on its accuracy in the large-scale image recognition setting. Our main ..
⚠️ 본 내용은 PyTorch Korea의 공식 문서에 기반하여 공부한 내용을 적은것이니 양해바랍니다! PyTorch에서 일반적인 체크포인트(checkpoint) 저장하기 & 불러오기추론(inference) 또는 학습(training)의 재개를 위해 체크포인트(checkpoint) 모델을 저장하고 불러오는 것은 마지막으로 중단했던 부분을 선택하는데 도움을 줄 수 있습니다. 체크포인트를 저장할 때는tutorials.pytorch.krPyTorch에서 Inference & Training을 다시 하기 위해서 Checkpoint Model을 저장 & 불러오는것을 한번 해보겠습니다.IntroPyTorch에서 여러 Checkpoint들을 저장하기 위해선 사전(Dictionary)에 Checkpoint들을 구성한후..
머신러닝 모델의 학습과 평가 과정에서 중요한 요소들에 대해 다루겠습니다.훈련 데이터와 테스트 데이터의 분할모델의 성능을 정확히 평가하고 일반화 능력을 확인하기 위해 데이터셋을 훈련 데이터와 테스트 데이터로 분할합니다.훈련 데이터는 모델을 학습시키는 데 사용되며, 테스트 데이터는 학습되지 않은 데이터에서 모델의 성능을 평가하는 데 사용됩니다.일반적인 비율:Train(훈련 데이터) : Test(테스트 데이터) = 70:30Train(훈련 데이터) : Test(테스트 데이터) = 80:20데이터 분할 방법Train(훈련 데이터) & Test(테스트 데이터)를 어떠한 비율로 나누는지 알았습니다. 그러면 어떠한 방법으로 분리할까요?임의 분할(Random Split):데이터를 무작위로 섞은 후, 지정된 비율에 따라..
이번에는 Naive Bayes (나이브 베이즈)라는 개념에 데하여 한번 알아보겠습니다.Naive Bayes (나이브 베이즈)나이브 베이즈(Naive Bayes)는 조건부 확률을 활용하여 분류를 수행하는 지도 학습 알고리즘입니다.이 알고리즘은 독립 변수들이 서로 독립적이라고 가정하여 작동합니다.이러한 가정 하에서 나이브 베이즈는 간단하지만 강력한 분류 모델을 제공합니다.Bayes' Theorem (베이즈 정리)나이브 베이즈 알고리즘은 베이즈 정리에 기반을 두고 있습니다.베이즈 정리는 조건부 확률을 사용하여 특정 사건의 사후 확률을 계산하는 수학적 원리입니다. 아래는 베이즈 정리의 수식입니다. P(A∣B)P(A|B)P(A∣B): 사건 B가 일어났을 때 사건 A가 일어날 확률 (사후 확률, Posterior ..
이번에는 Linear Regression (선형회귀)에 데하여 알아보겠습니다.Linear Regression (선형회귀)선형 회귀(Linear Regression)는 머신러닝에서 널리 사용되는 회귀 분석 기법 중 하나로,독립 변수와 종속 변수 간의 관계를 선형 방정식으로 표현합니다.이 방법은 주어진 데이터를 이용해 가장 잘 맞는 직선을 찾는 것이 목표입니다.선형 회귀는 모델이 비교적 간단하고 해석이 용이하다는 장점이 있습니다.회귀 방정식선형 회귀 모델은 다음과 같은 형태의 방정식을 사용합니다. Y = β0 +β1X + ϵ Y: 종속 변수 (예측하려는 값)X: 독립 변수 (설명 변수)β0: 절편 (Intercept)β1: 기울기 (Slope)ϵ: 오차 항 (Error Term, 모델의 예측과 실제 ..