본문 바로가기
환급 챌린지!

[패스트캠퍼스 수강 후기] 머신러닝 인강 100% 환급 챌린지 17회차 미션

by 빅데이터1020 2020. 11. 4.
SMALL

안녕하세요.

패스트 캠퍼스 수강후기 - 머신러닝과 데이터 분석 A-Z 17회차 미션 시작합니다!

머신러닝 인강 후기 17회차는 회귀계수 축소법에 대해 공부합니다.

 

진도가 갑자기 회귀분석으로 건너뛴 이유는..!

바로 제가 내일 회귀분석 시험이기 때문입니다

ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ

 

" 회귀계수 축소법 "

1) 회귀계수를 축소하는 이유

 

분석용 데이터의 이상적인 조건은 4가지가 있습니다.

1. 독립변수 X 사이에 상관성이 적어야 이상적입니다.

2. 독립변수 X와 종속변수 Y의 상관성은 커야 합니다.

3. 모든 데이터가 1번과 2번의 성질을 만족하는 것이 아니고, 소수의 독립변수 집합이 두 성질을 만족시킵니다.

4. 결측치와 노이즈가 없는 깨끗한 데이터가 많아야 합니다.

 

위의 4가지 조건을 만족시키기 위해서 변수선택을 합니다.

독립변수 X간에는 상관성이 적고, X와 종속변수 Y간에는 상관성이 큰 독립변수만을 추출해서 이상적인 조건을 만족시키는 분석용 데이터를 만드는 것입니다.

 

예를 들어 사람의 키를 예측하기 위해 신체측정정보를 모두 모았지만, 다리길이와 팔길이는 사람의 키를 예측하는데 있어서 중복되기 때문에 둘 중에 한 측정정보만 선택하는 것과 같습니다.

2) 좋은 변수는?

좋은 변수란 Y의 변동성을 잘 설명하면서 X끼리는 상관관계가 없는 변수입니다.

 

3) 회귀계수 축소

영향력이 없는 입력변수의 계수를 0에 가깝게 가져간다면, 모형에 포함되는 입력변수의 수를 줄일 수 있습니다.

입력변수의 수를 줄이면 세 가지 장점이 있습니다.

 

1. 잡음을 제거해 모형의 정확도를 개선합니다.

여기서 '잡음'은 독립변수 X 중에서 종속변수 Y와 관련없는 변수를 말합니다.

 

2. 모형의 연산속도가 빨라집니다.

 

3. 다중공선성의 문제를 완화시켜 모형의 해석능력을 높입니다.

 

4) 회귀계수 축소법의 종류

계수축소법은 다중선형회귀와 유사합니다.

다중선형회귀에서는 잔차를 최소화했다면, 계수축소법에서는 잔차와 회귀계수를 최소화합니다.

계수 축소법에서는 다중선형회귀의 SSE를 최소화하는 회귀계수추정식에 회귀계수를 축소하는 항을 추가합니다.

크게 세 종류가 있습니다. (Ridge 회귀, LASSO 회귀, Elastic-Net 회귀)

 

머신러닝 인강 최강자를 만나고 싶으면!? https://bit.ly/3lZfGmn

LIST