Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 프로그래머스
- 코딩테스트
- 선그래프
- 가상환경
- 자료구조
- pandas
- 정보처리기사 c언어
- 알고리즘 스터디
- 노마드코딩
- 알고리즘스터디
- MySQL
- programmers
- 파이썬
- queue
- type hint
- String Method
- 알고리즘
- NumPy
- 백준
- javascript
- openCV
- python
- Selenium
- aws jupyter notebook
- Join
- Stack
- 데이터시각화
- Matplotlib
- dataframe
- Algorithm
Archives
- Today
- Total
목록elu (1)
조금씩 꾸준히 완성을 향해
[DeepLearning] 활성화 함수(Activation Function) +코드 구현 (Sigmoid, ReLU, LeakyReLu, Elu, tanh, Softmax 등)
활성화 함수(Activation Function) 입력 신호의 총합을 출력 신호로 변환하는 함수 활성화 함수에 따라 출력값이 결정 단층, 다층 퍼셉트론 모두 사용 대표적인 활성화 함수 Sigmoid ReLU tanh Identity Function Softmax 하나의 layer에서 다음 layer로 넘어갈 때는 항상 활성화 함수를 통과 [참고] 여러가지 활성화 함수 https://en.wikipedia.org/wiki/Activation_function Step Function(계단 함수) def step_func(x): if x > 0 : return 1 else: return 0 def step_func_for_numpy(x): y = x > 0 return y.astype(np.int) print..
AI/Deep Learning
2022. 11. 13. 19:11