Box World
어제보다 나은 사람이 되기

걱정보단 실행을, 그러나 계획적으로

Box World 자세히보기
반응형

전체 글 71

[머신러닝 순한맛] SVM(Support Vector Machine)이란? - 1) Introduction

시작하며 오늘은 또 하나의 Classification 알고리즘인 Support Vector Machine(Large Margin Classification)에 대해 알아보겠습니다. 이번 포스팅은 아래 포스팅을 읽어보시고 공부하시면 훨씬 효과적입니다. https://box-world.tistory.com/13 [머신러닝] Logistic Regression 이해하기 1 시작하며 우리는 그동안 Supervised Learning 에서 회귀(Regression) 를 중점적으로 다뤘습니다. 이때 회귀 란 결과값을 예측하는 것이었습니다. 이제부터는 마찬가지로 Supervised Learning 중 하나인 분류(Class.. box-world.tistory.com https://box-world.tistory.co..

[머신러닝] 머신러닝 시스템 디자인 하기 : Precision, Recall, F score

시작하며 머신러닝 시스템을 디자인하면서 적용해볼 수 있는 방법들은 다양하게 존재합니다. 이번 포스팅에서는 여러 방법들 중에 하나의 최선의 방법을 골라 적용할지 판단하는 체계적인 방식을 배워보도록 하겠습니다. 우리는 이제부터 스팸 메일을 분류하는 시스템을 만들고자 합니다. 우리가 생각할 수 있는 첫번째 방법은 이메일의 feature를 x, 이메일이 스팸 여부를 y로 놓겠습니다(스팸 = 1, 정상 = 0) 이메일의 feature는 스팸인지 아닌지 판별할 수 있는 100개의 단어를 선택하여 각 단어가 이메일 속에 들어있는지 비교하여 들어있으면 1, 그렇지 않으면 0으로 처리할 것입니다. 따라서 이메일의 feature x는 단어 포함 여부를 나타내는 100차원의 vector가 될 것입니다. 처음엔 100개의 단..

[머신러닝] 머신러닝 학습 시 고려해야 하는 것 : High Bias vs High Variance, Learning Curve

시작하며 보통 학습한 모델이 우리가 바라는대로 작동하지 않는다면, 대부분 High Bias 나 High Variance 문제에 해당합니다. 이번 포스팅에서는 어떻게 적절한 가설함수의 Degree(차수)를 구하고, Learning Curve란 무엇인지 공부해보겠습니다. 이번 포스팅은 아래 포스팅들을 먼저 공부하시고 보시면 더욱 효과적입니다. OverFitting / Regularzation https://box-world.tistory.com/16 Test / CV data https://box-world.tistory.com/23 [머신러닝] 모델의 과적합(Overfitting)을 피하기 위한 방법 시작하며 우리는 지금까지 Linear Regression 그리고 Logistic Regression 두가지..

[머신러닝] 머신러닝 학습 시 고려해야할 것 : Test data와 Cv data란?

시작하며 우리가 데이터를 모델에 학습시킬 때, 모델이 학습한 결과와 실제값이 달라 accuracy(정확도) 가 떨어지는 상황에서 무엇을 할 수 있을까요? 더 많은 데이터를 넣어본다? 데이터의 표본이 많아지면 학습을 더 많이 하니까 정확해질거라 생각하지만 시간만 오래 걸리고 생각보다 도움이 되지 않습니다. feature를 줄여보자? OverFitting을 방지하기 위해 feature를 줄여보는 시도를 해볼 수 있습니다. 반대로 feature를 더 늘려보자? 학습 시 dataset의 feature가 부족하여 정확한 결과가 나오지 않을 수도 있습니다. 가설함수를 복잡하게 해보자? 가설함수가 너무 단순해서 정확도가 떨어졌을거란 생각에 복잡하게 바꿔볼 수도 있습니다. Regularzation 시 람다값을 조정해보..

[머신러닝] 딥러닝의 시작 Neural Network 정복하기 2

시작하며 저번 포스팅 'Back Propagation' 이라는 Neural Network의 큰 고비를 넘기신걸 축하드립니다. 오늘은 지금까지 배운 Neural Network 개념을 토대로 어떻게 Network를 설계해야 하는가에 대해 공부해보겠습니다. Neural Network에 대한 개념이 부족하신 분은 아래 포스팅부터 봐주시면 되겠습니다. [쉬운 머신러닝] 딥러닝의 시작 Neural Network 정복하기 1 https://box-world.tistory.com/17 Neural Network의 구성 Neural Network의 구성요소는 크게 Input Layer, Output Layer, Hidden Layer로 나뉩니다. Input units Input Layer를 구성할 때 Unit의 갯수는 ..

[머신러닝] Back Propagation(역전파) 정복하기

시작하며 오늘은 머신러닝에서 가장 큰 고비 중 하나인 ' Back Propagation(역전파) 알고리즘' 에 대해 공부해보겠습니다. 알고리즘을 이해하기 어려울 수도 있고, 복잡한 수식이 나와 거부감이 드실 수도 있습니다. 하지만 정말 중요한 개념이니 조급해하지 마시고 최소 3번은 정독하며 완전히 이해하시고 다음 개념들을 공부하시길 바랍니다. 이번 포스팅은 아래 포스팅을 먼저 공부하시고 보시면 훨씬 효과적입니다. https://box-world.tistory.com/17?category=397062 [머신러닝] 딥러닝의 시작 Neural Network 정복하기 1 시작하며 우리는 저번 포스팅에서 Overfitting을 다루며 배웠던 'non-linear classification' 에서, feature가..

[머신러닝] Neural Network를 이용한 XNOR 연산 그리고 Multi Classification

시작하며 저번 포스팅에서 Neural Network를 공부했습니다. 이번 시간에는 이러한 Neural Network를 AND, OR, NOT 연산, XNOR 연산 그리고 Multi Classification에 적용하면서 어떻게 차수가 높은 복잡한(non-linear) 가설함수를 처리하는지 공부해보겠습니다. 이번 포스팅은 Neural Network에 대한 이전 포스팅을 보시고 공부하시면 훨씬 효과적입니다. Neural Network https://box-world.tistory.com/17 [머신러닝] 딥러닝의 시작 Neural Network 정복하기 1 시작하며 우리는 저번 포스팅에서 Overfitting을 다루며 배웠던 'non-linear classification' 에서, feature가 두개일 때..

[머신러닝] 딥러닝의 시작 Neural Network 정복하기 1

시작하며 우리는 저번 포스팅에서 Overfitting을 다루며 배웠던 'non-linear classification' 에서, feature가 두개일 때 위와 같이 Decision Boundary를 표현해보았습니다.. Overfitting https://box-world.tistory.com/16?category=397062 [머신러닝] 모델의 과적합(Overfitting)을 피하기 위한 방법 시작하며 우리는 지금까지 Linear Regression 그리고 Logistic Regression 두가지에 중점을 두어 Supervised Learning을 공부하였습니다. 이번 포스팅에서는 모델 학습 과정에서 발생할 수 있는 'Overfitting' 이.. box-world.tistory.com 이번 포스팅은 ..

[머신러닝] 모델의 과적합(Overfitting)을 피하기 위한 방법

시작하며 우리는 지금까지 Linear Regression 그리고 Logistic Regression 두가지에 중점을 두어 Supervised Learning을 공부하였습니다. 이번 포스팅에서는 모델 학습 과정에서 발생할 수 있는 'Overfitting' 이라는 것을 공부하고 이를 어떻게 해결해야하는지 알아보겠습니다. Overfitting 학습이 반복되면서 학습의 정확도(accuracy) 가 올라갑니다. 이상적인 학습이란 데이터가 계속 들어와 학습이 반복되면 될수록 accuracy가 높아지는 것입니다. 하지만 이 과정에서 학습 모델이 주어진 데이터에 너무 과하게 맞춰져서(overfit) 조금이라도 다른 데이터만 들어와도 다른 결과로 예측하여 결과적으로 정확도가 낮아지는 현상을 'Overfitting' 이라..

[머신러닝] 여러 개로 분류하기(Multi Classification)

시작하며 우리가 저번 포스팅에서 배운 Logistic Regression 은 결과값이 0 혹은 1 두가지의 클래스(종류)로만 나오는 Binary Classification 이었습니다. 하지만 우리는 Email 폴더를 구분할 때 직장, 가족, 친구, 취미 등으로 분류할 수도 있고, 날씨만 하더라도 밝음, 흐림, 비, 눈 등 두가지 이상으로 분류할 수 있는 것들이 많습니다. 이렇게 분류에 따른 결과값이 2가지 이상의 클래스로 나올 수 있는 것을 'Multi-Classification' 이라고 합니다. 이제부터 이를 어떻게 하는지 알아보겠습니다. 이번 포스팅은 Logistic Regression을 이해하고 보시면 훨씬 효과적입니다. [머신러닝] Logistic Regression 이해하기 1 h..

반응형