반응형
Neurons
Cortical columns
Neural Networks 종류:
- Feedforward NN
- Convolutional NN
- Recurrent NN
- LSTM, GRU
Activation Functions
- Linear
- backpropagation 불가
- Binary step function
- on/off 둘 중 하나
- multiple classification 불가
- 미분 불가
- sigmoid
- logistic
- TanH(선호하는 경우 많음)
- ReLU(Rectified Linear Unit)
- leaky ReLU
- PReLU(parametric ReLU)
- ELU(Exponential ReLU)
- Swish
- Maxout
- softmax
softmax
multiple classification은 softmax를 output layer에 사용한다
RNN, TanH 조합 좋음
swish 는 deep deep deep networks에 좋음
반응형
'1차완료 > ML' 카테고리의 다른 글
Modern Natural Language Processing (0) | 2024.01.18 |
---|---|
CNN, RNN (0) | 2024.01.18 |
SageMaker Ground Truth (0) | 2024.01.18 |
Feature Engineering (0) | 2024.01.18 |
EMR Elastic MapReduce (0) | 2024.01.18 |