Machine Learning

[머신러닝] Artificial Neural Network(인공신경망, ANN) / 다중퍼셉트론, MLP

Scarlett_C 2021. 11. 15. 15:22
728x90

* ANN의 등장 배경

1. 생물학적 신경망에서 아이디어를 얻었다. (퍼셉트론 등장)

https://commons.wikimedia.org/wiki/File:Perceptron_moj.png

<퍼셉트론(Perceptron)> : 생물학적 뉴런을 공학적으로 변형한 그림

- 입력층(input)과 출력층(output)을 가지고 있다.

- 입력값에 가중치를 곱한 후 바이어스(b)를 더한 후 활성함수의 입력값으로 대입하여 출력값은 0또는 1이 된다.

- 선형이중분류기(Linear Binary Classifier)이다.

(퍼셉트론의 활성함수)

- 계단함수이다.(0보다 크면 1, 작으면 0을 출력)

https://www.intmath.com/laplace-transformation/1a-unit-step-functions-definition.php

 

**퍼셉트론의 한계 

- 단순한 선형분류기에 불과하며 XOR 문제는 해결 할 수 없다.(선형분리만 가능하기 때문)

 

728x90

2. 퍼셉트론의 아이디어를 연구하여 다중퍼셉트론 개념 등장

 

<다중 퍼셉트론(Multi-Layer Percetron, MLP)> = 인공신경망(ANN)

- 퍼셉트론을 여러층 쌓아 올린 형태

- 선형 분리가 불가능한 문제도 해결 가능하게 됨

- 입력층(input), 출력층(output), 은닉층(Hidden Layer)으로 구성되어 있음

- 은닉층은 입,출력 과정에서 보이지 않지만 숨겨진 특성을 학습하는 역할을 한다.

- 다중 퍼셉트론의 노드는 퍼셉트론으로 이루어져 있고, output의 값을 다시 input하여 연산이 진행됨

- 분류기가 비선형적인 특징을 학습할 수 있도록 만드는 것이 목적

 

 

(다중퍼셉트론의 활성함수)

- 시그모이드(Sigmoid), 쌍곡 탄젠트(Tangent Hyperbolic(Tahn)) 혹은 ReLU를 사용

시그모이드(Sigmoid)
쌍곡탄젠트(Tanh)
ReLU

- 기존에는 시그모이드 함수를 주로 썼었는데 현재는 ReLU 함수를 주로 사용한다.

- Sigmoid & Tanh 함수같은 경우에는, 어느 범위에서 벗어나면 미분값이 0이 되기 때문에 학습이 어렵게 되지만,

  ReLU 함수는 0보다 값이 커지게 되면 선형적으로 값이 커지므로 미분값을 구할 수 있다.

 

3. 다중퍼셉트론의 은닉층을 깊게 여러번 쌓아 올린 형태 등장(깊은 인공 신경망, Deep Neural Networks, DNN)

- 이 구조가 현재 지칭하는 딥러닝이라고 부르는 기법이다.

 

728x90