Skip to content

Aiden-Kwak/2021_AI_STUDY

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

coursera-machine-learning-Andrew-Ng-

coursera machine learning(Andrew Ng)
https://www.coursera.org/learn/machine-learning#syllabus

1 week


Machine learning algorithm: Supervised learning, Unsupervised learning
-Supervised learning: 작업을 수행할 수 있는 방법을 컴퓨터에게 가르치는 것이 핵심
-Unsupervised learing: 컴퓨터가 스스로 학습하도록 유도

What is Supervised learning?


Supervised learning은 우리가 알고리즘에 데이터셋을 주는데 각 데이터에 '정답'이 포함되어 있는것이다.
알고리즘의 역할은 그 '정답'을 더 많이 만들어 내는것. 이것은 regression problem(회귀문제)이라고도함.
회귀문제: 연속된 값을 가진 결과를 예측하려 하는것

Breast Cancer (malignant, benign) -> Classification : Discrete valued output (0 or 1)
Tumor size에 따른 양성, 악성 판별문제.

Tumor size, age에 따른 양성, 악성 판별문제.



이렇게 1,2개 특성이 아니라 무한대의 특성을 다루려면 어떻게해야하는가?
-> Support Vector Machine Algorithm


Supervised Learning


In supervised learning, we are given a data set and already know what our correct output should look like,
having the idea that there is a relationship between the input and the output.

Supervised learning problems are categorized into "regression" and "classification" problems. In a regression
problem, we are trying to predict results within a continuous output, meaning that we are trying to map input
variables to some continuous function. In a classification problem, we are instead trying to predict results
in a discrete output. In other words, we are trying to map input variables into discrete categories.



What is Unsupervised learning?


데이터 레이블이 주어지지않는다. 이것으로 뭘할지 또 각 데이터가 무엇인지 알 수 없다.
1. clustering algorithm

스스로 그룹화하는 것?

  1. Cocktail party problem
    여러 잡음이 존재하고 다양한 오디오를 각각 분리한다.
    [W,s,v]=svd((repmat(sum(x.*x,1),size(x,1),1).*x)*x');
    *수업에서 Octave programming environment를 사용할 것임.
    svd함수는 특이값분해(singular value decomposition)의 약자_octave내장함수임

Unsupervised Learning


Unsupervised learning allows us to approach problems with little or no idea what our results should look like.
We can derive structure from data where we don't necessarily know the effect of the variables.

We can derive this structure by clustering the data based on relationships among the variables in the data.

With unsupervised learning there is no feedback based on the prediction results.

Example:

Clustering: Take a collection of 1,000,000 different genes, and find a way to automatically group these genes
into groups that are somehow similar or related by different variables, such as lifespan, location, roles,
and so on.

Non-clustering: The "Cocktail Party Algorithm", allows you to find structure in a chaotic environment.
(i.e. identifying individual voices and music from a mesh of sounds at a cocktail party).



Supervised learning Model Representation



Function h is called htpothesis.

Cost function


goal

min

MSE같은 손실함수는 정담에 대한 오류를 숫자로 나타내는 것으로 오답이 가까울 수록 큰 값이 나오고 반대로 정답에 가까울수록 작은 값이 나온다.

Gradient decent


gd


초기화는 일반적으로 theta1과 theta2를 모두 0으로 한다. 그리고 기울기하강법을 통해 thata1,2를 조금씩 바꾸면서 J값을 조금이라도 줄이는 것을 목표로한다.

gd2


alpha는 훈련비율(learning rate)로 얼마나 많은 값이 변하는가에 대한 변수이다.
gradient decent 수식의 이해

gd3

식에서 alpha를 감소시킬 이유가 없는 이유가 무엇인가? : local min값에 가까워질수록 기울기(미분계수)는 0에 가까워지고(작아지고) 따라서
이동거리는 alpha를 fix했더라도 알아서 자연스럽게 감소한다.

Cost function & Gradient decent


기울기 하강을 이용해서 cost function을 최소화시켜보자

cofunc,gd

cogd


batch gradient decent? 전체 데이터셋에 대해 에러를 구하고 기울기를 한번만 계산하는 방식인거같음.

2nd week


하나 이상의 변수나 feature를 다루기 위한 강력한 선형회귀를 다룬다

multifeat

아래와 같은 식으로도 표현가능하다.

multifea2


Gradient Descent for multuple variables

multi3


Feature Scaling
여러개의 feature가 있고 그 단위와 크기가 비슷하다면 다른 feature더라도 gradient descent는 더 빠르게 수렴할 수 있다.

scaling

왼쪽 그림에서는 범위의 차이가 크기 때문에 J를 그렸을때 굉장히 뾰족한 등고선이 나오며 이는 경사하강법을 적용했을때 구불구불한 조정때문에 오랜시간이 걸리게된다.
오른쪽 그림에서와 같이 feature scaling은 범위를 비슷하게 맞춰줌으로써 J의 등고선이 거의 완전한 원을 그리도록 하고 경사하강법이 더 빨리 수렴하도록한다.
every feature는 -1에서 1 즈음에 근사하게한다. 0~3 ok. -2~0.5 ok. -100~100은 not ok. -0.0001~0.0001 not ok
Mean normalization

mn

ui는 average of all the value for features(i)이고 si는 (max-min) 또는 standard deviation이다.

mn2


1. Debugging
2. How to choose learning rate 'alpha'

debug

alpha가 너무 크면 위에처럼 된다. 직접 반복횟수당 J(cost func)을 그려봐서 경사하강이 제대로 되는지를 체크할 수 있다.
제대로라면 매 반복마다 J는 감소하게 된다.
Polynomial Regression
hypothesis function은 straight 할 필요없다. quadratic, cubic or square root function이어도 된다.

Normal equation


:Method to solve for theata analytically

theta

Octave: pinv(X'*X)*X'*y

theta1

gdnm

n의 값. 즉 feature의 개수가 너무클때는 (1000정도는 괜찮은데 10000부터는 힘들다) normal equation의 경우 inverse를 계산해야하기때문에
시간이 매우 오래걸린다. 그럴경우엔 경사하강법이 더 적합한 방법이다. logistic regression 같은거 배울때 보면 노말이퀘이션은 쓰기힘들것. 주로 gradient descent 사용한다.

X'는 X의 transpose임.
X'X의 역행렬이 없으면 어떻게 되는가? octave에선 pinv(pseudo-inverse) 쓰면 그런경우에도 theta를 잘 구해준다.
X'X의 역행렬이 없게되는 경우는 무엇인가?(non-invertible)
쓸데없는 feature를 가지고 있는 경우이다. x1=size in feet^2이고 x2=size in m^2이면 x1=(3.28)^2*x2로 둘이 연관되어버린다.

다음은 너무 많은 feature를 가지고 있는 경우이다. (e.g. m<=n). 해결을 위해선 feature를 좀 지우거나 regularization을 이용한다.


Vectorization


벡터화된 표현이 훨씬 간단하다.

Classification


ex) spam 분류기, 종양 양/음성 분류.
0-> negative Class, 1-> Positive Class

Binary-classification 문제이다. h=(theta)'x를 그리고 이걸로 예측.
선형회귀는 합리적인가? 위의 문제만 보면 그렇게 보인다.

x축 range를 늘려 뒤쪽에 데이터를 추가했더니 hypothesis는 새롭게 그려진다. 1,0을 나누는 지점도 새롭게 만들어진다. 결국 선형회귀를 이용해 더 안좋은 결과를 얻게 된것이다. 선형회귀를 분류문제에 적용하는건 좋은생각이 아니다!
logistic Regression을 이용하자! : 0 <= h <= 1

Hypothesis Representation


원래 선형회귀에선 hypothesis=(theta)'x를 썼음. logistic회귀를 위해 g(theta)'x를 사용.
g=1/(1+exp(-z))로 이를 sigmoid function 혹은 Logistic function이라 함.


Decision Boundary



Non-linear Boundary

바운더리를 이런식으로 줄수도 있을것임. 이를 응용해 다양한 형태의 바운더리 만들 수 있을 것

Cost Function


어떻게 parameter(theta)를 찾을 것인가?
linear regression에서 했듯이 똑같은 cost function을 logistic function에서 쓰는 건 좋지 않은 선택이다. 왜냐면 convex하지 않은 output을 낼것이기 때문이다. convex하지 않으면 local optima가 많이 생겨서 도달점이 global optima라고 장담할 수 없다.
logistic regression에서 사용할 cost function은 다음과 같다.


y=1 일때와 y=0일때의 그래프다.
y=1일때 h가 1로 간다면 cost function은 0에 수렴할 것이고, h가 0으로 간다면 cost function은 infinite하게 갈것이다.
y=0일때 h가 0으로가면 J=0, 1로가면 infinite.

Simplified Cost function and Gradient Descent


어떻게 cost function을 간단하게 쓸것인가, 경사하강법을 이용해 로지스틱 회귀의 매개변수(theta)를 피팅하는 방법
앞서 아래의 y=0일때와 1일때로 구분된 식을 이야기했었는데 이걸 하나의 식으로 합칠 수가 있다.

왜그런지는 y에 0,1넣어보면 납득이간다.
식을 완전히 쓰면 다음과 같다.

경사하강법의 적용은 다음과 같다. linear regression과 같은 식인걸 볼수 있는데 그렇다 해도 hypothesis를 sigmoid로 바꿨기때문에
다른식이다.


Advanced Optimization


-Gradient descent
-Conjugate gradient
-BFGS
-L-BFGS
어떤 이점들이 있을까?
learning rate alpha를 수동적으로 고를필요가 없고, 보통 경사하강법보다 빠르다. 단점은 더 복잡하다는 것.

'''m
function [jVal, gradient] = costFunction(theta)
   jVal = [...code to compute J(theta)...];
   gradient = [...code to compute derivative of J(theta)...];
end
'''

'''
options = optimset('GradObj', 'on', 'MaxIter', 100);
initialTheta = zeros(2,1);
   [optTheta, functionVal, exitFlag] = fminunc(@costFunction, initialTheta, options);
'''


Multiclass Classification: One-vs-all


class가 여러개인 경우는 어떻게 분류하는가? 학습알고리즘을 어떻게 적용할까?
One-vs-all (one-vs-rest) 를 이용한다.

이걸 세가지의 binary-classification 문제로 바꿀것이다.


...........

4 weeks


Neural Networks: Non-linear Hypothesis

n이 엄청 큰데 로지스틱 연산을 한다고 생각해보자. 엄청 비효율 적임. (ex. 컴퓨터 비전)
신경망의 배경: 뇌를 모방한 알고리즘이다. 80~90년대 널리 사용되었지만 계산비용이 큰만큼 어느순간 인기가 줄었는데 컴퓨터의 성능이 좋아지기 시작하면서 다시 주목 받게됨.
신경망을 표현할 때 가설이나 모델을 어떻게 표현할 것인가?

neuron

실제 뉴런의 dendrite, axon에 대입해 볼 수 있을 것이다. x0는 항상 1을 나타내기에 생략하기도 한다.

hiddenlayer

input layer, output layer 사이의 레이어들은 hidden layer라고 한다.
unit들의 계산은 아래와 같이 이루어진다

neural network

g=sigmoid activation function

About

coursera machine learning(Andrew Ng)

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published