일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 파이썬 경사하강법
- C# 프로젝트
- 대학원 월급
- 백준
- 파이썬
- python
- 통계학
- API
- 의료 ai 대학원 월급
- 디자인 패턴
- 자바
- 자바 영화 api
- 자바 프로젝트
- 대학원 급여
- 로스트아크
- 딥러닝 실험 깃 버전관리
- 인공지능 깃 버전관리
- 디자인패턴
- pandas
- 경사하강법
- DCP
- 딥러닝
- 정규화
- 머신러닝
- 코딩테스트
- 인공지능
- MLP
- 활성화 함수
- 영화 api
- Dehaze
Archives
- Today
- Total
대학원 일기
[딥러닝과 신경망] 최적화(옵티마이저) 본문
옵티마이저
-
손실함수를 기반으로 모델이 어떻게 업데이트되어야 하는지 결정
-
케라스에서 여러 옵티마이저를 제공하고, 사용자가 특정 종류의 확률적 경사 하강법 지정 가능
-
keras.optimizer.SGD() : 기본적인 확률적 경사 하강법
-
keras.optimizer.Adam() : 자주 사용되는 옵티마이저
-
-
보통 옵티마이저의 튜닝을 위해 따로 객체를 생성하여 컴파일시에 포함
-
경사하강법
-
미분과 기울기로 동작하며, 스칼라를 벡터로 미분
-
변화가 있는 지점에서는 미분값이 존재하고, 변화가 없는 지점은 미분값이 0이 되며, 미분값이 클수록 변화량이 큼
-
경사하강법의 과정은 한 스텝마다의 미분값에 따라 이동하는 방향을 결정, f(x)의 값이 변하지 않을때까지 반복
-
기울기가 0이지만 극값이 되지 않는 안장점(saddle point)가 존재
-
경사하강법은 안장점에서 벗어나지 못하는 문제가 있음
-
-
학습률
-
모델을 학습하기 위해서는 적절한 학습률을 지정해야 최저점에 잘 도달할 수 있음
-
학습률이 너무 크면 발산하고, 너무 작으면 학습이 오래 걸리거나 최저점에 도달하지 못하는 문제가 있음
-
'Computer vision > 딥러닝 공부' 카테고리의 다른 글
[딥러닝 신경망] 손실 함수(Loss function) (3) | 2023.10.17 |
---|---|
[딥러닝과 신경망] 활성화 함수(Activation function) (0) | 2023.10.17 |
[딥러닝과 신경망] 학습 알고리즘 (1) | 2023.10.17 |
[딥러닝 신경망] 퍼셉트론과 신경망 (1) | 2023.10.16 |
Comments