Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 가상환경
- dataframe
- javascript
- openCV
- 선그래프
- programmers
- Stack
- Selenium
- NumPy
- String Method
- 알고리즘스터디
- 정보처리기사 c언어
- pandas
- 자료구조
- Algorithm
- Join
- 파이썬
- 프로그래머스
- 알고리즘 스터디
- 백준
- Matplotlib
- aws jupyter notebook
- 데이터시각화
- type hint
- 노마드코딩
- python
- MySQL
- 알고리즘
- 코딩테스트
- queue
Archives
- Today
- Total
목록ReLu (1)
조금씩 꾸준히 완성을 향해
[DeepLearning] 활성화 함수(Activation Function) +코드 구현 (Sigmoid, ReLU, LeakyReLu, Elu, tanh, Softmax 등)
활성화 함수(Activation Function) 입력 신호의 총합을 출력 신호로 변환하는 함수 활성화 함수에 따라 출력값이 결정 단층, 다층 퍼셉트론 모두 사용 대표적인 활성화 함수 Sigmoid ReLU tanh Identity Function Softmax 하나의 layer에서 다음 layer로 넘어갈 때는 항상 활성화 함수를 통과 [참고] 여러가지 활성화 함수 https://en.wikipedia.org/wiki/Activation_function Step Function(계단 함수) def step_func(x): if x > 0 : return 1 else: return 0 def step_func_for_numpy(x): y = x > 0 return y.astype(np.int) print..
AI/Deep Learning
2022. 11. 13. 19:11