공부공간/Deep Learning (6) 썸네일형 리스트형 [activation function] 활성화 함수를 쓰는 이유 활성함수를 쓰는 것은 목적에 따라 sigmoid를 사용할 수도 있고 reLu를 사용할 수도 있다.(물론 tanh, gelu, ... 많다) 그렇다면 활성함수를 쓰는데 있어서 어떤 목적들이 있을까? 1) 어찌되었건 y_hat 값을 0~1사이의 값으로 반환해야 하는 경우. (binary classification 문제) 0~1 사이의 값으로 반환하기 위해서는 여러 layer를 거쳐서 마지막에 sigmoid 함수를 사용하면 된다. 2) 비선형성을 위해 활성함수를 사용한다. 비선형성은 왜 필요할까? 만약 w,b를 구하는 과정이 비선형이 아니고 모두 선형의 수식들만 거친다면 무슨 일이 일어날까? 아무리 몇백개의 layer를 거쳐도 y=wTx + b의 꼴이 나올것이다. 즉, 어떻게 해도 복잡한 구조의 식을 가지지 .. [딥러닝 강의정리] logistic regression 보호되어 있는 글입니다. [딥러닝 강의 정리] linear classification 보호되어 있는 글입니다. [딥러닝 강의 정리] Linear-regression 전체 개요 한눈에 보기 선형회귀 - 개념 가로축 : input, 세로축 : output 파란점 : 주어진 data. 회귀란 주어진 discrete한 데이터들을 한눈에 이해하기 쉽게 그래프로 근사하고자 하는 방법이다. 그런데 어떤 직선으로 회귀시켜야 데이터를 오차없이 가장 잘 근사시키는 건지 알아보자. 선형회귀 시키면 위 그림과 같이 여러개의 직선이 나온다. 이 때 회귀식은 다음과 같다. 선형회귀 - 개념 - error, residual, cost 이 때, 가장 잘 근사한 선형식은 당연히 error가 가장 작을 것이다. residual : 선형회귀식과 data간의 차이를 말한다. 가장 왼쪽 점의 좌표를 x1,y1이라고 하자. 이 때 회귀식을 H(x) = wx + b 라고 하면, 회귀식이 x1일때 예측한 값.. [딥러닝 강의정리] 2_Machine Learning Basics 보호되어 있는 글입니다. [딥러닝 정리] 개념정리, 딥러닝의 활용 보호되어 있는 글입니다. 이전 1 다음