'AI/Coursera ( Machine Learning )' 카테고리의 글 목록 (2 Page)
어제보다 나은 사람이 되기

걱정보단 실행을, 그러나 계획적으로

Box World 자세히보기
반응형

AI/Coursera ( Machine Learning ) 36

[머신러닝 순한맛] 비지도 학습(Unsupervised Learning)이란? : K-means algorithm

시작하며 저번 포스팅에서는 비지도학습(Unsupervised Learning)의 기초 개념을 다뤄보았습니다. 이번 포스팅에서는 Unsupervised Learning의 원리를 알아보고 이것의 대표적인 알고리즘인 'K-means algorithm'에 대해 다뤄보겠습니다. 이번 포스팅은 아래 포스팅을 보시고 공부하시면 더욱 효과적입니다. box-world.tistory.com/29 비지도 학습(Unsupervised Learning)이란? : Clustering 시작하며 우리가 그동안 이전 포스팅에서 배웠던 Linear Regression, Logistic Regression, Neural Network, SVM은 모두 지도학습(Supervised Learning) 즉 레이블(Label)이 있는 데이터에 대..

[머신러닝 순한맛] 비지도 학습(Unsupervised Learning)이란? : Clustering

시작하며 우리가 그동안 이전 포스팅에서 배웠던 Linear Regression, Logistic Regression, Neural Network, SVM은 모두 지도학습(Supervised Learning) 즉 레이블(Label)이 있는 데이터에 대한 학습이었습니다. 이번 포스팅부터는 비지도학습(Unsupervised Learning)에 대해 알아보겠습니다. Unsupervised Learning Unsupervised Learning이란 결과가 주어지지 않은 데이터(Unlabeled Data)에 대해 학습하는 것을 의미합니다. 이 학습의 핵심은 군집화(Clustering)입니다. 다음 예시를 통해 구체적으로 설명드리겠습니다. 우리가 그동안 배웠던 Supervised Learning은 위와 같이 x 혹은..

[머신러닝 순한맛] SVM(Support Vector Machine)이란? - 4) Preview

시작하며 우리는 그동안 3개의 포스팅에 걸쳐 SVM에 대한 전반적인 공부를 마쳤습니다. 오늘은 이것들을 preview하고, Gaussian Kernal 이외에 mercer theorem을 만족하는 나머지 3가지 Kernel에 대해서도 알아보겠습니다. 이번 포스팅은 이전에 SVM에 대해 다룬 3개의 포스팅을 보시고 공부하시면 더욱 효과적입니다. https://box-world.tistory.com/25 [머신러닝 순한맛] SVM(Support Vector Machine)이란? - 1) Introduction 시작하며 오늘은 또 하나의 Classification 알고리즘인 Support Vector Machine(Large Margin Classification)에 대해 알아보겠습니다. 이번 포스팅은 아래 ..

[머신러닝 순한맛] SVM(Supprot Vector Machine)이란? - 3) Kernal

시작하며 저번 포스팅에서는 SVM의 Margin에 대해 다루며, 선형으로 분리되는 데이터의 Decision Boundary를 어떻게 지정할 것인가에 대해 다뤄보았습니다. 하지만 이 세상의 대부분의 데이터는 대부분 선형으로 분류되지 않습니다. 결국 우리가 주목해야할 부분은 선형 분류가 아니라 비선형 분류라는 점입니다. 이번 포스팅에서는 비선형으로 분류되는 데이터의 Decision Boundary를 지정하기 위해 이용되는 SVM의 Kernal에 대해 알아보겠습니다. 이번 포스팅은 아래 포스팅을 공부하시고 보시면 더욱 효과적입니다. https://box-world.tistory.com/25 https://box-world.tistory.com/26 SVM Preview 우선은 Kernal이라는 개념이 어떻게 ..

[머신러닝 순한맛] SVM(Support Vector Machine)이란? - 2) Margin

시작하며 저번 포스팅에서는 SVM이 무엇인지 전반적으로 알아보는 시간을 가졌습니다. 그때 SVM이라는 것은 결국 Decision Boundary가 자신과 분류하는 데이터들 사이의 Margin이 클수록 안정적이고 균형적임을 강조했었습니다. 이번 포스팅에서는 SVM에서 핵심 키워드라고 할 수 있는 Margin에 대해 수학적으로 접근해보고, Margin을 키울려면 어떠한 조건이 필요한지 알아보겠습니다. 이번 포스팅은 아래 포스팅을 보고 공부하시면 더욱 효과적입니다. https://box-world.tistory.com/25 [머신러닝 순한맛] SVM(Support Vector Machine)이란? - 1) Introduction 시작하며 오늘은 또 하나의 Classification 알고리즘인 Support V..

[머신러닝 순한맛] SVM(Support Vector Machine)이란? - 1) Introduction

시작하며 오늘은 또 하나의 Classification 알고리즘인 Support Vector Machine(Large Margin Classification)에 대해 알아보겠습니다. 이번 포스팅은 아래 포스팅을 읽어보시고 공부하시면 훨씬 효과적입니다. https://box-world.tistory.com/13 [머신러닝] Logistic Regression 이해하기 1 시작하며 우리는 그동안 Supervised Learning 에서 회귀(Regression) 를 중점적으로 다뤘습니다. 이때 회귀 란 결과값을 예측하는 것이었습니다. 이제부터는 마찬가지로 Supervised Learning 중 하나인 분류(Class.. box-world.tistory.com https://box-world.tistory.co..

[머신러닝] 머신러닝 시스템 디자인 하기 : Precision, Recall, F score

시작하며 머신러닝 시스템을 디자인하면서 적용해볼 수 있는 방법들은 다양하게 존재합니다. 이번 포스팅에서는 여러 방법들 중에 하나의 최선의 방법을 골라 적용할지 판단하는 체계적인 방식을 배워보도록 하겠습니다. 우리는 이제부터 스팸 메일을 분류하는 시스템을 만들고자 합니다. 우리가 생각할 수 있는 첫번째 방법은 이메일의 feature를 x, 이메일이 스팸 여부를 y로 놓겠습니다(스팸 = 1, 정상 = 0) 이메일의 feature는 스팸인지 아닌지 판별할 수 있는 100개의 단어를 선택하여 각 단어가 이메일 속에 들어있는지 비교하여 들어있으면 1, 그렇지 않으면 0으로 처리할 것입니다. 따라서 이메일의 feature x는 단어 포함 여부를 나타내는 100차원의 vector가 될 것입니다. 처음엔 100개의 단..

[머신러닝] 머신러닝 학습 시 고려해야 하는 것 : High Bias vs High Variance, Learning Curve

시작하며 보통 학습한 모델이 우리가 바라는대로 작동하지 않는다면, 대부분 High Bias 나 High Variance 문제에 해당합니다. 이번 포스팅에서는 어떻게 적절한 가설함수의 Degree(차수)를 구하고, Learning Curve란 무엇인지 공부해보겠습니다. 이번 포스팅은 아래 포스팅들을 먼저 공부하시고 보시면 더욱 효과적입니다. OverFitting / Regularzation https://box-world.tistory.com/16 Test / CV data https://box-world.tistory.com/23 [머신러닝] 모델의 과적합(Overfitting)을 피하기 위한 방법 시작하며 우리는 지금까지 Linear Regression 그리고 Logistic Regression 두가지..

[머신러닝] 머신러닝 학습 시 고려해야할 것 : Test data와 Cv data란?

시작하며 우리가 데이터를 모델에 학습시킬 때, 모델이 학습한 결과와 실제값이 달라 accuracy(정확도) 가 떨어지는 상황에서 무엇을 할 수 있을까요? 더 많은 데이터를 넣어본다? 데이터의 표본이 많아지면 학습을 더 많이 하니까 정확해질거라 생각하지만 시간만 오래 걸리고 생각보다 도움이 되지 않습니다. feature를 줄여보자? OverFitting을 방지하기 위해 feature를 줄여보는 시도를 해볼 수 있습니다. 반대로 feature를 더 늘려보자? 학습 시 dataset의 feature가 부족하여 정확한 결과가 나오지 않을 수도 있습니다. 가설함수를 복잡하게 해보자? 가설함수가 너무 단순해서 정확도가 떨어졌을거란 생각에 복잡하게 바꿔볼 수도 있습니다. Regularzation 시 람다값을 조정해보..

[머신러닝] 딥러닝의 시작 Neural Network 정복하기 2

시작하며 저번 포스팅 'Back Propagation' 이라는 Neural Network의 큰 고비를 넘기신걸 축하드립니다. 오늘은 지금까지 배운 Neural Network 개념을 토대로 어떻게 Network를 설계해야 하는가에 대해 공부해보겠습니다. Neural Network에 대한 개념이 부족하신 분은 아래 포스팅부터 봐주시면 되겠습니다. [쉬운 머신러닝] 딥러닝의 시작 Neural Network 정복하기 1 https://box-world.tistory.com/17 Neural Network의 구성 Neural Network의 구성요소는 크게 Input Layer, Output Layer, Hidden Layer로 나뉩니다. Input units Input Layer를 구성할 때 Unit의 갯수는 ..

반응형