이전 내용인 분류 모델에 이어서 이번에는 인공신경망에 대해 알아보자
지도학습의 분류모델에 대한 자세한 내용은 아래 링크 참고!
인공신경망 VS 머신러닝 VS 딥러닝 관계
인공신경망
사람의 신경망을 모방
HIDEEN LAYER가 많을때 딥러닝이라고 함
회귀/분류 패턴파악 모두 가능함
초기 형태 : 퍼셉트론
딥러닝 종류
1. CNN: 이미지처리 특화, 필터를 학습
2. RNN: 순차적인 데이터처리에 특화, 자연어 처리(번역기, 챗봇)
3. LSTM: RNN의 장기의존성 문제를 해결하기 위해 등장
4. Autoencoder(오토인코더) - 비지도학습: 인코더-디토더 구조, 이상감지에 활용
딥러닝 활성화 함수
1. 시그모이드: 0~1 범위 / 양끝 그래프에서 기울기 소실 문제 발생
2. RELU: 시그모이드의 기울기 소실문제 해결을 위해 등장 / 입력값이 0이하면 0, 0보다 크면 그대로 x값
3. 소프트맥스: 3개 이상 "다중분류"시 사용 / 클래스에 속할 확률이 output
4. tanh: y값이 -1~1 / RNN에서 주료 사용
문제1 인공신경망에 대한 설명으로 틀린것은?
보기
1. Hidden layer 많이 사용할수록 모델이 복합해지고 과소적합될 위험이 있다
2. 역전파 알고리즘은 예측값과 실제값의 차이인 에러의 역전파를 통해 가중치를 조절한다.
3. 신경망 모형은 복잡한 비선형 관계에도 적용할 수 있으며 노이즈에 민감하게 반응하지 않는다
4. 은닉층의 수가 증가하면 앞쪽에 있는 은닉층의 가중치가 제대로 학습되지 않는 것을 기울기 소실문제라고 한다
1. Hidden layer 많이 사용할수록 모델이 복합해지고 과소적합될 위험이 있다 -> 과소적합이 아닌 과대 적합
2. 역전파 알고리즘은 예측값과 실제값의 차이인 에러의 역전파를 통해 가중치를 조절한다.
역전파 알고리즘은 목적함수를 최적화하기 위해 사용
3. 신경망 모형은 복잡한 비선형 관계에도 적용할 수 있으며 노이즈에 민감하게 반응하지 않는다
<->의사결정나무는 노이즈에 민감함
4. 은닉층의 수가 증가하면 앞쪽에 있는 은닉층의 가중치가 제대로 학습되지 않는 것을 기울기 소실문제라고 한다
- 정답 : 1번
문제2 인공신경망에서 초매개변수는 무엇인가?
보기
1. 가중치(weight)
2. hidden layer 수
3. 마진
4. 편향
초매개변수 즉 하이퍼파라미터란? 분서가가 정하는 변수
1. 학습률
2. hidden layer 수
3. 뉴런의 수
4. 배치의 크기
5. 규제강도
- 정답 2번
문제3 인공신경망의 활성화함수에 대한 설명으로 틀린것은?
보기
1. tanh함수는 시그모이드 함수와 유사한 모양이지만 출력값은 -1~1 사이의 값 갖음
2. relu함수는 0이상이면 0, 0이하이면 입력값을 그대로 출력값이 된다
3. softmax함수는 종속변수가 다범주인경우에 각 범주에 속할 확률을 제공해주며 각 범주에 속할 확률을 모두 더하면 1이 된다
4. leak relu 함수는 relu함수에서 뉴런이 죽는 현상을 개선하기 위해 만들어졌으며 입력값이 0이하 일 때 입력값 대비 매우 작은 값만 출력해 뉴련이 죽는 현상을 방지한다
- 정답 2번
이외에도 CNN을 문제를 활용한 문제풀이도 출제되는데
MAX POOLING과 AVERAGE POOLING의 문제들 두가지로 모두 출제되었으니 FEATURE MAP문제 풀이 방식 알고가기