πŸ“‡ Machine Learning

πŸ“‡ Machine Learning

[ML] Naive Bayes (λ‚˜μ΄λΈŒ 베이즈)

μ΄λ²ˆμ—λŠ” Naive Bayes (λ‚˜μ΄λΈŒ 베이즈)λΌλŠ” κ°œλ…μ— λ°ν•˜μ—¬ ν•œλ²ˆ μ•Œμ•„λ³΄κ² μŠ΅λ‹ˆλ‹€.Naive Bayes (λ‚˜μ΄λΈŒ 베이즈)λ‚˜μ΄λΈŒ 베이즈(Naive Bayes)λŠ” 쑰건뢀 ν™•λ₯ μ„ ν™œμš©ν•˜μ—¬ λΆ„λ₯˜λ₯Ό μˆ˜ν–‰ν•˜λŠ” 지도 ν•™μŠ΅ μ•Œκ³ λ¦¬μ¦˜μž…λ‹ˆλ‹€.이 μ•Œκ³ λ¦¬μ¦˜μ€ 독립 λ³€μˆ˜λ“€μ΄ μ„œλ‘œ 독립적이라고 κ°€μ •ν•˜μ—¬ μž‘λ™ν•©λ‹ˆλ‹€.μ΄λŸ¬ν•œ κ°€μ • ν•˜μ—μ„œ λ‚˜μ΄λΈŒ λ² μ΄μ¦ˆλŠ” κ°„λ‹¨ν•˜μ§€λ§Œ κ°•λ ₯ν•œ λΆ„λ₯˜ λͺ¨λΈμ„ μ œκ³΅ν•©λ‹ˆλ‹€.Bayes' Theorem (베이즈 정리)λ‚˜μ΄λΈŒ 베이즈 μ•Œκ³ λ¦¬μ¦˜μ€ 베이즈 정리에 κΈ°λ°˜μ„ 두고 μžˆμŠ΅λ‹ˆλ‹€.베이즈 μ •λ¦¬λŠ” 쑰건뢀 ν™•λ₯ μ„ μ‚¬μš©ν•˜μ—¬ νŠΉμ • μ‚¬κ±΄μ˜ 사후 ν™•λ₯ μ„ κ³„μ‚°ν•˜λŠ” μˆ˜ν•™μ  μ›λ¦¬μž…λ‹ˆλ‹€. μ•„λž˜λŠ” 베이즈 μ •λ¦¬μ˜ μˆ˜μ‹μž…λ‹ˆλ‹€. P(A∣B)P(A|B)P(A∣B): 사건 Bκ°€ 일어났을 λ•Œ 사건 Aκ°€ 일어날 ν™•λ₯  (사후 ν™•λ₯ , Posterior ..

πŸ“‡ Machine Learning

[ML] Linear Regression (μ„ ν˜•νšŒκ·€)

μ΄λ²ˆμ—λŠ” Linear Regression (μ„ ν˜•νšŒκ·€)에 λ°ν•˜μ—¬ μ•Œμ•„λ³΄κ² μŠ΅λ‹ˆλ‹€.Linear Regression (μ„ ν˜•νšŒκ·€)μ„ ν˜• νšŒκ·€(Linear Regression)λŠ” λ¨Έμ‹ λŸ¬λ‹μ—μ„œ 널리 μ‚¬μš©λ˜λŠ” νšŒκ·€ 뢄석 기법 쀑 ν•˜λ‚˜λ‘œ,독립 λ³€μˆ˜μ™€ 쒅속 λ³€μˆ˜ κ°„μ˜ 관계λ₯Ό μ„ ν˜• λ°©μ •μ‹μœΌλ‘œ ν‘œν˜„ν•©λ‹ˆλ‹€.이 방법은 주어진 데이터λ₯Ό μ΄μš©ν•΄ κ°€μž₯ 잘 λ§žλŠ” 직선을 μ°ΎλŠ” 것이 λͺ©ν‘œμž…λ‹ˆλ‹€.μ„ ν˜• νšŒκ·€λŠ” λͺ¨λΈμ΄ 비ꡐ적 κ°„λ‹¨ν•˜κ³  해석이 μš©μ΄ν•˜λ‹€λŠ” μž₯점이 μžˆμŠ΅λ‹ˆλ‹€.νšŒκ·€ λ°©μ •μ‹μ„ ν˜• νšŒκ·€ λͺ¨λΈμ€ λ‹€μŒκ³Ό 같은 ν˜•νƒœμ˜ 방정식을 μ‚¬μš©ν•©λ‹ˆλ‹€. Y = β0 ​ +β1​X + Ο΅ Y: 쒅속 λ³€μˆ˜ (μ˜ˆμΈ‘ν•˜λ €λŠ” κ°’)X: 독립 λ³€μˆ˜ (μ„€λͺ… λ³€μˆ˜)β0: 절편 (Intercept)β1​: 기울기 (Slope)Ο΅: μ˜€μ°¨ ν•­ (Error Term, λͺ¨λΈμ˜ 예츑과 μ‹€μ œ ..

πŸ“‡ Machine Learning

[ML] Supervised Learning (μ§€λ„ν•™μŠ΅)

μ΄λ²ˆμ—λŠ” Supervised Learning (μ§€λ„ν•™μŠ΅)에 λ°ν•œ κ°œλ…μ— λ°ν•˜μ—¬ ν•œλ²ˆ μ•Œμ•„λ³΄κ² μŠ΅λ‹ˆλ‹€.Supervised Learning (μ§€λ„ν•™μŠ΅)μ§€λ„ν•™μŠ΅μ€ λ¨Έμ‹ λŸ¬λ‹μ˜ ν•œ λΆ„μ•Όλ‘œ, 라벨이 μžˆλŠ” 데이터λ₯Ό 기반으둜 ν•™μŠ΅ν•˜λŠ” μ•Œκ³ λ¦¬μ¦˜μž…λ‹ˆλ‹€.μž…λ ₯ 데이터와 이에 μƒμ‘ν•˜λŠ” 좜λ ₯ κ°’(λͺ©ν‘œ λ˜λŠ” 라벨)이 주어지며, λͺ¨λΈμ€ 이 데이터λ₯Ό 톡해 ν•™μŠ΅ν•˜μ—¬ μƒˆλ‘œμš΄ μž…λ ₯에 λŒ€ν•΄ μ˜ˆμΈ‘μ„ μˆ˜ν–‰ν•  수 μžˆμŠ΅λ‹ˆλ‹€.μ§€λ„ν•™μŠ΅μ€ 크게 νšŒκ·€(Regression)와 λΆ„λ₯˜(Classification)둜 λ‚˜λ‰©λ‹ˆλ‹€.Regression (νšŒκ·€)νšŒκ·€λŠ” 연속적인 숫자 값을 μ˜ˆμΈ‘ν•˜λŠ” 문제λ₯Ό λ‹€λ£Ήλ‹ˆλ‹€.예λ₯Ό λ“€μ–΄, μ£Όνƒμ˜ 면적, λ°© 개수, μœ„μΉ˜ 등을 기반으둜 주택 가격을 μ˜ˆμΈ‘ν•˜λŠ” κ²½μš°κ°€ 이에 ν•΄λ‹Ήν•©λ‹ˆλ‹€.νšŒκ·€ λ¬Έμ œμ—μ„œλŠ” μ˜ˆμΈ‘ν•˜λ €λŠ” 값이 연속적인 숫자둜 ν‘œν˜„λ©λ‹ˆλ‹€.예..

πŸ“‡ Machine Learning

[ML] Machine Learning (λ¨Έμ‹ λŸ¬λ‹) Intro

μ΄λ²ˆκΈ€λΆ€ν„°λŠ” Machine Learning (λ¨Έμ‹ λŸ¬λ‹)에 λ°ν•˜μ—¬ ν•œλ²ˆ μ•Œμ•„λ³΄λ„λ‘ ν•˜κ² μŠ΅λ‹ˆλ‹€.Machine Learning μ†Œκ°œMachine Learning (κΈ°κ³„ν•™μŠ΅)은 λ¬΄μ—‡μΌκΉŒμš”? λ¨Έμ‹ λŸ¬λ‹μ€ 인곡지λŠ₯의 ν•œ λΆ„μ•Όλ‘œ, λ°μ΄ν„°μ—μ„œ νŒ¨ν„΄μ„ ν•™μŠ΅ν•˜κ³  μ˜ˆμΈ‘ν•˜κ±°λ‚˜ μ˜μ‚¬ 결정을 λ‚΄λ¦¬λŠ” μ•Œκ³ λ¦¬μ¦˜μ„ μ‚¬μš©ν•©λ‹ˆλ‹€.μ‚¬λžŒμ˜ κ°œμž… 없이도 슀슀둜 μ„±λŠ₯을 κ°œμ„ ν•  수 μžˆλŠ” λŠ₯λ ₯을 가진 μ‹œμŠ€ν…œμž…λ‹ˆλ‹€.λ˜ν•œ μ£Όμš” νŠΉμ§•μ€ 데이터λ₯Ό 톡해 ν•™μŠ΅ν•˜λ©΄μ„œ μ§€μ†μ μœΌλ‘œ μ„±λŠ₯을 ν–₯μƒμ‹œν‚€λŠ” λͺ¨λΈμž…λ‹ˆλ‹€.그러면 ν•œλ²ˆ μ˜ˆμ‹œλ₯Ό λ“€μ–΄μ„œ λ¨Έμ‹ λŸ¬λ‹μ΄ μ—†λ‹€λ©΄ μ–΄λ–»κ²Œ λ κΉŒμš”?λ¨Έμ‹ λŸ¬λ‹μ΄ μ—†λ‹€λ©΄? (μŠ€νŒΈλ©”μΌ μ˜ˆμ‹œ)전톡적 μ ‘κ·Ό: 슀팸으둜 μ˜μ‹¬λ˜λŠ” 단어에 λŒ€ν•œ λΈ”λž™λ¦¬μŠ€νŠΈλ₯Ό κ΅¬μΆ•ν•˜κ³ , μƒˆλ‘œμš΄ 단어가 μžˆμ„ λ•Œλ§ˆλ‹€ μΆ”κ°€ν•©λ‹ˆλ‹€.이 κ³Όμ •μ—λŠ” 슀팸으둜 μ˜μ‹¬λ˜λŠ” 단어λ₯Ό μ •ν•˜κΈ° μœ„ν•΄ μ „λ¬Έκ°€κ°€ ..

Bigbread1129
'πŸ“‡ Machine Learning' μΉ΄ν…Œκ³ λ¦¬μ˜ κΈ€ λͺ©λ‘ (3 Page)