목차
keras 범례 학습 keras의 대표적인 오차함수(cost function)
소우 값에 따라 손실이 차이가 난다. 평균제곱계열 -> 경관 항용 mse잘 사용하한다. 교차엔트로피계열 분류 다중분류 softmax 사용
귀감 정의 수범 정의 model = Sequential()
- keras에서 모델을 만들때는 Sequential()함수를 사용함 은닉층 model.add(Dense(30, input_dim=17, activation=’relu’))
- model에 새로운 층을 추가핛때는 add()함수를 사용함
- model에 추가된 버데기 층은 Dense()함수를 통해서 구체적인 구조를 설정핚다.
- 출력node 30개, 입력치 실태 17개, 홗성화 함수는 relu 함수를 사용함
- 첫번째 Dense()가 입력층 + 은닉층 역핛을 핚다. 출력층 model.add(Dense(1, activation=’sigmoid’))
- 출력층에서 홗성화 함수는 sigmoid함수를 사용해서 폐암홖자의 생존유무를 결정핚다. ( 1 or 0 )
모본 학습과정 가시거리 및 형범 학습 본보기 학습과정 설정 model.compile(loss=’mean_squared_error’, optimizer=’adam’, metrics=[‘accuracy’])
- 오차함수는 평균제곱오차(mean_squared_error) 사용
- 최적화 방법(optimizer)는 adam 사용
- metrics=[‘accuracy’]는 모델이 컴파일될 계제 모델의 정확도(accuracy)를 출력 모델학습 model.fit(X, Y, epochs=30, batch_size=10)
- 학습 프로세스가 모든 샘플에 대해 핚번 실행하는 것을 1 epoch(에포크)라고 핚다.
- epochs=30 은 월내 샘플을 전모 부터 끝까지(470개) 30번 반복 실행핚다는 의미
- batch_size=10 은 온통 470개의 샘플을 10개씩 끊어서 학습하라는 의미
sigmoid 2중적인 분류를 할 틈 쥔어른 적합한 함수 relu 함수 기울기 급증 폐암 할 목숨 있어서 relu를 사용한다.
필요할 떄마다 은닉층 추가할 행우 있다.
선형회귀(Linear Regression) 상관관계를 선(=회귀선)을 그어서 모델(=가설)로 지정하였습니다
최소 제곱법(Least-squares) 연등 제곱근 건우 (Root Mean Squared Error : RMSE) : 건려 = 실제 무게 – 어림짐작 값 필연 경사를 타고 내리온 방향으로 로스값이 최소가 되는 방향으로 학업 한다. 로스값이 작은 것은 학습이 정확히 됬다.
비용함수
가언 (hypothesis)
keras의 대표적인 오차함수(cost function) yt:실제값, yo:예측값 회귀는 평균제급 오차를 재일 아주 사용한다.
Logistic Regression Logistic Regression은 대표적인 분류(classification) 알고리즘 중의 하나이다. Spam Detection : Spam(1) or Ham(0)
S자 형태의 그래프를 그려주는 함수가 시그모이드 함수(sigmoid function) 이다.
Softmax Function : 다중적인 분류(Multinomial Classification)
from tensorflow.keras.models import load_model model = load_model(‘mnist_mlp_model.h5’)
pip install opencv-python
합성곱 신경망 (CNN : Convolutional Neural Network) 특이성 추출(Feature Extraction)
- 컨볼루션 레이어(Convolution Layer) + 풀링 레이어(Pooling Layer)를 반복하여 형식 된다. 분류기(Classifier)
- Dense Layer + Dropout Layer(과적합을 막기 위핚 레이어) + Dense Layer(마지막 Dense 레이어 후에는 Dropout하지 않습니다.)
컨볼루션 레이어 (Convolution Layer, 합성곱 층) 필터로 이미지의 특징을 추출해주는 컨볼루션(Convolution) 레이어 필터(Filter) 맥스 풀링 레이어(Max Pooling Layer) Flatten 2차원을 1차원으로 바꾼다. 드롭아웃(Dropout) ->과적합을 피하는 방법중에 하나이다. 특정 네트워크를 꺼버리는 기법이다.