머신러닝 공부했던 것 요약
머신러닝 - 기계가 학습한다
(1) 지도학습: 문제데이터 + 답데이터 학습시키는 방법
지도학습
학습에서 나온 선형함수를 잘 구해보자(찾아보자)
어떤 선형함수가 학습을 잘 한것인가? 어떤 선형함수가 좋은 선형모델인가? 예측값과 실제 값의 차(오차)를 비교해서 확인, 오차가 낮은 선형이 좋은 모델이다. ((예측 - 실제) ** 2).mean() : MSE(평균제곱오차) MEAN SQUARED 여러 가설의 선형함수를 만들어낸다. y = ax + b a(기울기), b(절편) => y = wx + b w(가중치, weight) 경사하강법 MSE - W
일반화, 과대적합(과적합), 과소적합 일반화: 어떤 데이터가 들어와도 모델의 성능이 일반적으로 잘 나오는 것.(머신러닝 궁극적인 목표) 과대적합: Train, Test에서 Train데이터에 너무 맞춰서 학습하다보니. train에는 성능이 월등히 좋지만, test 성능은 현저히 떨어지는 상태 과소적합: train 데이터가 학습이 제대로 이루어지지 않았고, test에서도 성능이 떨어지는 상태
딥러닝
병렬적 다층 구조를 통해 학습하도록 하는 기술
감각기(입력층) ⇒ 중간층 ⇒ 출력층(반응기; 예측 판단 가능)
많은 뉴런의 결과를 종합하여 판단을 한다.
선형모델들이 의견이 종합적으로 판단되어 학습하고 예측한
딥러닝의 일반적인 구조는 입력층, 중간층, 출력층임
안에 뉴런하나들을 선형모델로 쓰더라(전부다 그런건 아닐듯?)