Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 파이썬
- 백준
- Matplotlib
- 데이터시각화
- openCV
- MySQL
- 코딩테스트
- 알고리즘 스터디
- pandas
- aws jupyter notebook
- queue
- 가상환경
- Selenium
- NumPy
- programmers
- Stack
- Join
- dataframe
- python
- 알고리즘스터디
- 노마드코딩
- Algorithm
- 자료구조
- javascript
- 선그래프
- 정보처리기사 c언어
- 알고리즘
- 프로그래머스
- type hint
- String Method
Archives
- Today
- Total
목록step fucntion (1)
조금씩 꾸준히 완성을 향해
[DeepLearning] 활성화 함수(Activation Function) +코드 구현 (Sigmoid, ReLU, LeakyReLu, Elu, tanh, Softmax 등)
활성화 함수(Activation Function) 입력 신호의 총합을 출력 신호로 변환하는 함수 활성화 함수에 따라 출력값이 결정 단층, 다층 퍼셉트론 모두 사용 대표적인 활성화 함수 Sigmoid ReLU tanh Identity Function Softmax 하나의 layer에서 다음 layer로 넘어갈 때는 항상 활성화 함수를 통과 [참고] 여러가지 활성화 함수 https://en.wikipedia.org/wiki/Activation_function Step Function(계단 함수) def step_func(x): if x > 0 : return 1 else: return 0 def step_func_for_numpy(x): y = x > 0 return y.astype(np.int) print..
AI/Deep Learning
2022. 11. 13. 19:11