'regression' 태그의 글 목록
어제보다 나은 사람이 되기

걱정보단 실행을, 그러나 계획적으로

Box World 자세히보기
반응형

regression 7

[ 핸즈온 머신러닝 2판 ] SVM이란?

인내는 어떤 실력보다 강하다 - 벤 호건 (프로 골퍼) - 시작하며 SVM은 Classification, Regression 등 다양한 곳에서 활용됩니다. 특히 복잡한 데이터셋을 학습하기에 용이하다는 점도 SVM의 인기를 높이는 데 한 몫 하였습니다. 5.1 선형 SVM 분류 위 데이터셋은 서로 다른 종류의 붓꽃들을 모아놓은 데이터셋입니다. 이 둘을 직선 하나만 그어서 같은 클래스의 데이터들만 모여있도록 구역을 나눌 수 있을까요? 당연히 가능합니다. 우리는 이것을 선형적으로 구분이 가능하다고 합니다. 그러나 왼쪽 그래프의 빨간색이나 자주색 선이 두 클래스를 잘 구분하는 듯 하지만 경계가 너무 데이터에 가깝기 때문에 좋은 성능을 보일거라곤 장담하지 못합니다. 결론은 오른쪽처럼 두 클래스를 나눌 때 최대한 ..

[ 핸즈온 머신러닝 2판 ] 로지스틱 회귀(Logistic Regression)이란?

"당신은 뭔가 더 대단한 것을 해낼 수 있다." - 칼로스 M.구티에레즈미국 상무장관 - 4.6 로지스틱 회귀(Logistic Regression) 본래 회귀(Regression)은 값을 예측할 때 쓰이지만, Logistic Regression은 데이터가 어떤 클래스에 속하는지 분류하는데 사용됩니다. 다시 말해서 Logistic Regression은 어떤 데이터가 특정 클래스일 확률을 결과값으로 도출하기 때문에 회귀에 속하는 것입니다. 예를 들어 어떤 이메일이 스팸인지 아닌지를 분류할 때, 데이터를 Logistic Regression을 이용하여 추정할 때 결과값이 0.6이 나오면 해당 데이터가 스팸일 확률이 60%라는 것이고 이 경우 해당 메일을 스팸으로 분류하는 식입니다. 4.6.1 확률 추정 Logi..

[ 핸즈온 머신러닝 2판 ] Linear Regression 속 Regularization이란?

"이끌거나, 따르거나, 비켜서라." - Ted Turner (CNN 설립자) - 4.5 선형 모델(Linear Model)에서의 규제(Regularization) Regularization은 모델이 Overfit되었을 때, 이를 감소시키는 대표적인 방법입니다. 다항 회귀(Polynomial Regression)에서는 단순히 차수를 감소시키는 것으로 Regularization이 가능합니다. 선형 회귀(Linear Regression)에서는 모델의 가중치를 제한하여 Regulariztion이 이뤄집니다. 여기에서 세 가지 방법이 있는데 이제부터 하나하나 살펴 보겠습니다. 4.5.1 릿지 회귀(Ridge Regularization) Linear Regression에 Regularization 항이 추가된 것이..

[ 핸즈 온 머신러닝 2판 ] Polynomial Regression과 Learning Curve란?

"먼저 행동으로 옮기고 나서 말하라" - 스티븐 스필버그 - 4.3 Polynomial Regression(다항 회귀) Polynomial Regression은 비선형(non-linear) 데이터를 학습하는데 선형 모델을 사용할 수 있게 해줍니다. 다시 말해서 모델이란 것은 데이터를 대표하는 것인데 어떻게 선형 모델이 비선형 데이터를 대표할 수 있게 되는 것일까요? 우선 간단한 이차방정식으로 데이터를 생성해보겠습니다. m = 100 X = 6 * np.random.rand(m, 1) - 3 // rand : 0~1의 균일분포 표준 정규분포 난수를 생성 y = 0.5 * X**2 + X + 2 + np.random.randn(m, 1) // randn : 가우시안 표준정규분포 난수를 생성 선형 모델은 분명..

[ Tensorflow 2 / sklearn ] Linear Regression과 Gradient Descent Algorithm의 종류

이기는 것이 중요한 것은 아니지만, 이기기를 원하는 것은 중요하다 - 에릭 슈미트(Google 전 Ceo) - 이번 포스팅에서는 머신러닝의 가장 간단한 모델 중 하나인 회귀(Regression)에 속하는 선형 회귀(Linear Regression)에 대해 알아보고, 이를 최적화하는 훈련 방식인 경사 하강 알고리즘과 Normal Equation에 대해 공부해보겠습니다. 보통 우리가 Regression에서 모델을 훈련시킨다고 하면 경사 하강 알고리즘(Gradient Descent algorithm)을 사용합니다. 좀 더 세부적으로는 Batch GD, Mini-Batch GD, SGD가 있는데, 이는 잠시 후에 다시 다뤄보겠습니다. 또 다른 훈련 방식에는 Normal Equation가 있습니다. 이 또한 Li..

[ 핸즈 온 머신러닝 2판 ] pandas, sklearn을 통한 모델 학습과 튜닝은 어떻게 하는 것일까? (3)

이전 2개의 포스팅에 결쳐 우리는 지금까지 문제를 정의하고 데이터를 읽어들여 탐색하였습니다. 그리고 데이터를 training set과 test set으로 나누고 학습을 위한 머신러닝 알고리즘에 주입할 데이터를 자동으로 전처리하고 정제하는 파이프라인까지 만들어 보았습니다. 이번 포스팅에서는 머신러닝 모델을 선택하고 훈련시켜 세부적으로 튜닝하는 법까지 다뤄보겠습니다. box-world.tistory.com/42 [ 핸즈 온 머신러닝 2판 ] pandas, sklearn을 통한 데이터 전처리는 어떻게 하는걸까? (1) 발견에는 항상 뜻밖의 재미가 있다 - 제프 베조스(Amazon CEO) - Chapter 2 이번 포스팅을 시작으로 3번에 걸쳐 하나의 머신러닝 프로젝트가 어떻게 구성되고 진행되는지 알아보겠습니..

[머신러닝 순한맛] SVM(Support Vector Machine)이란? - 4) Preview

시작하며 우리는 그동안 3개의 포스팅에 걸쳐 SVM에 대한 전반적인 공부를 마쳤습니다. 오늘은 이것들을 preview하고, Gaussian Kernal 이외에 mercer theorem을 만족하는 나머지 3가지 Kernel에 대해서도 알아보겠습니다. 이번 포스팅은 이전에 SVM에 대해 다룬 3개의 포스팅을 보시고 공부하시면 더욱 효과적입니다. https://box-world.tistory.com/25 [머신러닝 순한맛] SVM(Support Vector Machine)이란? - 1) Introduction 시작하며 오늘은 또 하나의 Classification 알고리즘인 Support Vector Machine(Large Margin Classification)에 대해 알아보겠습니다. 이번 포스팅은 아래 ..

반응형