Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Stack
- NumPy
- Algorithm
- javascript
- 데이터시각화
- queue
- Join
- String Method
- Matplotlib
- python
- openCV
- 파이썬
- 노마드코딩
- MySQL
- aws jupyter notebook
- dataframe
- type hint
- 알고리즘
- 프로그래머스
- 선그래프
- programmers
- 코딩테스트
- 알고리즘스터디
- 백준
- 정보처리기사 c언어
- Selenium
- 자료구조
- 가상환경
- pandas
- 알고리즘 스터디
Archives
- Today
- Total
목록DeepLearning (1)
조금씩 꾸준히 완성을 향해
[DeepLearning] 활성화 함수(Activation Function) +코드 구현 (Sigmoid, ReLU, LeakyReLu, Elu, tanh, Softmax 등)
활성화 함수(Activation Function) 입력 신호의 총합을 출력 신호로 변환하는 함수 활성화 함수에 따라 출력값이 결정 단층, 다층 퍼셉트론 모두 사용 대표적인 활성화 함수 Sigmoid ReLU tanh Identity Function Softmax 하나의 layer에서 다음 layer로 넘어갈 때는 항상 활성화 함수를 통과 [참고] 여러가지 활성화 함수 https://en.wikipedia.org/wiki/Activation_function Step Function(계단 함수) def step_func(x): if x > 0 : return 1 else: return 0 def step_func_for_numpy(x): y = x > 0 return y.astype(np.int) print..
AI/Deep Learning
2022. 11. 13. 19:11