일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 디자인 패턴
- 코딩테스트
- pandas
- 경사하강법
- 머신러닝
- 대학원 급여
- 백준
- C# 프로젝트
- DCP
- 딥러닝
- 파이썬 경사하강법
- 자바
- 정규화
- 자바 영화 api
- 통계학
- 딥러닝 실험 깃 버전관리
- 의료 ai 대학원 월급
- 인공지능 깃 버전관리
- python
- 대학원 월급
- 영화 api
- 파이썬
- MLP
- 활성화 함수
- 자바 프로젝트
- API
- 로스트아크
- 디자인패턴
- 인공지능
- Dehaze
Archives
- Today
- Total
목록SGD 미니배치연산 (1)
대학원 일기

경사하강법(Gradient descent)경사하강법 기반의 선형회귀 알고리즘선형회귀 계수 구하기 선형회귀의 목적식은 $\left\| y-X\beta\right\|_{2}$이다. 이는 주어진 데이터에 대한 정답에 해당하는 $y$, 학습 데이터 $X$행렬에 가중치 $\beta$를 곱하여 두 벡터 값의 차이의 $L_{2} norm$을 최소화하는 가중치를 찾는 것이다.$\beta$ 값을 최소화하기 위해서는 경사하강법 알고리즘을 적용하여 주어진 목적식을 $\beta$로 미분하고, 주어진 $\beta$에서 미분값을 빼주게 되면 최소값을 구할 수 있다.목적식을 최소화하는 $\beta$를 구하는 경사하강법 알고리즘은 다음과 같다.- 경사하강법 알고리즘은 loop를 통해 최적화하는 것이므로 적절한 학습률(learnin..
AI/인공지능 기초
2022. 1. 29. 09:17