본문 바로가기

반응형

1차완료

(76)
ML/AI Services Amazon Comprehend Amazon Translate Amazon Transcribe Amazon Polly Rekognition Amazon Forecast Amazon Lex Amazon Personalize Amazon Textract AWS DeepRacer DeepLens AWS Panorama AWS DeepComposer Amazon Fraud Detector Amazon CodeGuru Amazon Kendra Amazon Augmented AI (A2I)
Amazon SageMaker 머신 러닝 일련의 과정을 처리할 수 있게 해줌 input, output 둘 다 s3에 가능 built-in algorithms Linear Learner Linear regression numeric prediction, classification prediction 둘 다 가능 file, pipe 둘다 가능 RecordIO의 경우 float32 만 가능 CSV의 경우 첫번째 칼럼이 레이블로 간주 데이터 전처리에 이용됨(입력 데이터가 shuffled 되어야 함) 트레이닝에 이용됨 validation에 이용됨 - 가장 최적의 모델이 선택됨 중요 hyperparameters: multiclass weights, learning rate, batch size, L1/L2 single CPU, GPU면 충분, ..
Ensemble Learning Random Forest - decision tree 여러개 Bagging - 랜덤 샘플링 여러개, 병렬로 학습 가능 Boosting - 가중치를 매겨서 학습, 이전 모델의 결과를 이어받아 순차적으로 학습 XGBoost가 최근인편 boosting 이 더 정확도가 높은 반면 bagging이 overfitting 방지에 좋다
measuring models Recall: true positives / true positives + false negatives - 'true positive rate' Precision: true positives / true positives + false positives - 'correct positives' Specificity = TN / (TN+FP) - 'true negative rate' F1 score = 2TP / (2TP + FP + FN) RMSE (Root mean square error) - accuracy measurement ROC curve (Receiver Operating Characteristic Curve) - 좌상향으로 더 굽어질수록 좋은 모델 AUC (Area Under the ROC ..
Neural Network Regularization 정규화 목적: overfitting 방지 너무 많은 layer/neuron 이 있을 경우: dropout early stopping gradient checking L1, L2 L1: weight 의 합, feature selection, sparse output L2: weight 제곱의 합, all features, dense output L1보다 L2가 computationally efficient 하지만 L1이 sparsity로 극복 할 수도 L1이 오히려 feature selection 해서 dimensionality를 줄일 수 있
Tuning Neural Networks learning rate (hyperparameter 중 하나) batch 가 너무 작으면 local minima에 stuck하지 않게 됨 큰 batch는 하나로 converge되지 않아서 올바른 해결책이 되지 않을 수 있음 learning rate가 크면 최적의 답을 건너 뛸 수 있음 learning rate가 작으면 training time 이 증가하게 됨
Modern Natural Language Processing Transformer BERT (Bi-directional Encoder) GPT (Generative Pre-trained Transformer) Hugging Face Hugging Face 와 같이 pre-trained model 쓸 때: 그대로 쓴다 learning rate 낮춰서 이어서 training 한다 layer fmf cnrkgksek 가지고 있는 데이터가 충분할 경우 처음부터 다시 트레이닝한다
CNN, RNN CNN 사용 예: 이미지 안에 어떤 게 있는지 기계 번역 문장 분류 감정 분석 CNN: visual cortex 기반 고성능 필요 LeNet-5, AlexNet, GoogLeNet, ResNet RNN 사용 예: 과거 데이터 기반 미래 예측 때 시간 흐름이 있는 데이터 생성 시 LSTM cell (Long Short-Term Memory Cell) GRU cell (Gated Recurrent Unit) - LSTM보다 심플하지만 비슷
Deep Learning 101 Neurons Cortical columns Neural Networks 종류: Feedforward NN Convolutional NN Recurrent NN LSTM, GRU Activation Functions Linear backpropagation 불가 Binary step function on/off 둘 중 하나 multiple classification 불가 미분 불가 sigmoid logistic TanH(선호하는 경우 많음) ReLU(Rectified Linear Unit) leaky ReLU PReLU(parametric ReLU) ELU(Exponential ReLU) Swish Maxout softmax softmax multiple classification은 softmax를 ou..
SageMaker Ground Truth 데이터 label을 매길 때 사람이 다 일일이 하지 않고 몇개 하면 학습된 모델이 불확실한 값들만 따로 물어보는 방식 Rekognition : AWS image recognition Comprehend : AWS 텍스트 분석

반응형