퍼셉트론

퍼셉트론인공 뉴런 이다

가장 간단한 가능한 신경망

신경망인공 지능 의 구성 요소입니다 .

프랭크 로젠블랫

Frank Rosenblatt (1928 – 1971)는 인공 지능 분야에서 유명한 미국 심리학자입니다.

1957년그는 정말 큰 일을 시작했습니다.

과학자들은 뇌 세포( 뉴런 )가 전기 신호를 통해 감각으로부터 입력을 받는다는 것을 발견했습니다.

그런 다음 뉴런은 다시 전기 신호를 사용하여 정보를 저장하고 이전 입력을 기반으로 결정을 내립니다.

Frank는 인공 뉴런 이 학습하고 결정을 내리는 능력으로 두뇌 원리를 시뮬레이션할 수 있다는 아이디어를 가지고 있었습니다.

이러한 생각에서 그는 퍼셉트론 을 "발명"했습니다 .

퍼셉트론은 1957년 코넬 항공 연구소의 IBM 704 컴퓨터에서 테스트되었습니다.


퍼셉트론

원래 Perceptron 은 여러 이진 입력을 받아 하나 의 이진 출력(0 또는 1)을 생성하도록 설계되었습니다.

아이디어는 서로 다른 가중치 를 사용하여 각 입력 의 중요성을 나타내는 것이었고 값의 합은 또는 거짓 (0 또는 1) 과 같은 결정을 내리기 전에 임계 값 보다 커야 합니다 .

퍼셉트론


퍼셉트론 예제

(뇌에 있는) 퍼셉트론을 상상해 보십시오.

퍼셉트론은 콘서트에 가야 하는지 여부를 결정하려고 합니다.

Is the artist good? Is the weather good?

What weights should these facts have?

CriteriaInputWeight
Artists is Goodx1 = 0 or 1w1 = 0.7
Weather is Goodx2 = 0 or 1w2 = 0.6
Friend Will Comex3 = 0 or 1w3 = 0.5
Food is Servedx4 = 0 or 1w4 = 0.3
Alcohol is Servedx5 = 0 or 1w5 = 0.4

The Perceptron Algorithm

Frank Rosenblatt suggested this algorithm:

  1. Set a threshold value
  2. Multiply all inputs with its weights
  3. Sum all the results
  4. Activate the output

1. Set a threshold value:

  • Threshold = 1.5

2. Multiply all inputs with its weights:

  • x1 * w1 = 1 * 0.7 = 0.7
  • x2 * w2 = 0 * 0.6 = 0
  • x3 * w3 = 1 * 0.5 = 0.5
  • x4 * w4 = 0 * 0.3 = 0
  • x5 * w5 = 1 * 0.4 = 0.4

3. Sum all the results:

  • 0.7 + 0 + 0.5 + 0 + 0.4 = 1.6 (The Weighted Sum)

4. Activate the Output:

  • Return true if the sum > 1.5 ("Yes I will go to the Concert")

If the treshold value is 1.5 for you, it might be different for someone else.

Example

const treshold = 1.5;
const inputs = [1, 0, 1, 0, 1];
const weights = [0.7, 0.6, 0.5, 0.3, 0.4];

let sum = 0;
for (let i = 0; i < inputs.length; i++) {
  sum += inputs[i] * weights[i];
}

const activate = (sum > 1.5);


Perceptron Terminology

  • Perceptron Inputs
  • Node values
  • Node Weights
  • Activation Function

Perceptron Inputs

Perceptron inputs are called nodes.

The nodes have both a value and a weight.


Node Values

In the example above the node values are: 1, 0, 1, 0, 1


Node Weights

Weights shows the strength of each node.

In the example above the node weights are: 0.7, 0.6, 0.5, 0.3, 0.4


The Activation Function

The activation functions maps the result (the weighted sum) into a required value like 0 or 1.

The binary output (0 or 1) can be interpreted as (no or yes) or (false or true).

In the example above, the activation function is simple: (sum > 1.5)

In Neuroscience, there is a debate if single-neuron encoding or distributed encoding is most relevant for understanding how the brain functions.

It is obvious that a decision like the one above, is not made by one neuron alone.

At least there must be other neurons deciding if the artist is good, if the weather is good...

Neural Networks

The Perceptron defines the first step into Neural Networks.

The perceptron is a Single-Layer Neural Network.

The Neural Network is a Multi-Layer Perceptron.