to be a developer

  • 홈
  • 태그
  • 방명록

AdaGrad 1

매개변수 갱신

매개변수 갱신 신경망 학습의 목적은 매개변수의 최적값을 찾는 문제(손실함수의 값을 가능한 한 낮추는 매개변수를 찾는 것)이다. 이러한 문제를 푸는 것을 최적화(optimization)이라 한다. 확률적 경사 하강법(SGD: Stochastic Gradient descent)- SGD는 단순하고 구현도 쉽지만, 문제에 따라서 비효율적일 때가 있다. - 비등방성(anisotropy)함수(방향에 따라 기울기가 달라지는 함수)에서는 탐색 경로가 비효율적이다. 코드class SGD: def __init__(self, lr=0.01): self.lr = lr def update(self, params, grads): for key in params.keys(): ..

AI/밑바닥부터 시작하는 딥러닝 2024.07.13
이전
1
다음
더보기
프로필사진

to be a developer

  • 분류 전체보기 (18)
    • CS (2)
      • 자료구조 (1)
    • 코딩 테스트 (8)
    • AI (8)
      • 밑바닥부터 시작하는 딥러닝 (8)

Tag

풀링계층, deeplearningfromscartch, 합성곱계층, 우박수열 정적분, 매개변수갱신, 너비우선탐색1, 파이썬, 프로그래머스, 가중치의초깃값, Python, deeplearningfromscratch, 하이퍼파라미터최적화, scratchfrom, 24444번, cnn, 밑바닥부터시작하는딥러닝, 백준24444, cnn시각화, cnn구현, 백준,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/12   »
일 월 화 수 목 금 토
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바