magicode
반응형
article thumbnail
04. 심층 신경망 네트워크 - 앤드류응(Andrew Ng)교수님 머신러닝/딥러닝 한글자막 공부하기
ML&DL/study 2021. 9. 10. 15:57

심층 신경망은 무엇인가? 우리는 로지스틱 회귀를 매우 얕은 모델(1층 신경망)이라고 하고 은닉층이 2개 이상 있는 경우 상대적으로 깊은 신경망이 있다고 한다. 이것이 심층 신경망이다. 지난 몇년동안, 기계학습 커뮤니티의 인공지능이 얕은 모델로는 할 수 없는 학습을 심층 신경망으로 가능하게 하는 함수가 있다는 것을 발견했다. 하지만 얼마나 깊은 신경망을 사용해야 하는지 미리 정확하게 예측하기는 어렵다. 심층 신경망을 바로 사용하기 보다는 보통 로지스틱회귀를 먼저 시도하고 결과값이 별로이면 두개의 은닉층을 가진 모델을 사용한다. 개발 설정 과정에서 은닉층을 또 다른 파라미터로 생각하고 다양한 값을 시도해 검증데이터에서 평가한다. 심층 신경망 표기법 4층의 신경망을 예시로 표기법을 알아본다. L : 네트워크의..

article thumbnail
03. 얕은 신경망 네트워크 - 앤드류응(Andrew Ng)교수님 머신러닝/딥러닝 한글자막 공부하기
ML&DL/study 2021. 9. 5. 00:15

신경망 여러개의 독립변수들의 경우의 수를 모두 고려하여 최종값을 도출하는 방법이다. 간단하게 설명하자면 로지스틱 회귀를 두번 반복한것이 신경망이다. 아래는 각 값에 대한 함수식을 간단하게 표시한 것으로 특성인x, 변수인 w, b를 이용해 z를 계산하고 z를 통해 손실함수에 필요한 a값을 계산, 최종적으로는 손실함수 L을 계산한다. 신경망은 아래와같이 여러 단계에 걸쳐 나타날 수 있고, 각 단계마다 위의 식을 반복하여 z값과 a값을 구하고 마지막 단계에서 손실함수 L을 계산한다. 로지스틱회귀에서는 위 식을 한번만 계산했지만 신경망에서는 여러번 계산한다. 신경망에서 도함수를 구하려면 로지스틱회귀에서 역방향 계산을 한 것 처럼 신경망에서도 역방향 계산을 통해 도함수를 구할 수 있다. 신경망 네트워크의 구성 입..

article thumbnail
입사지원 :: IT직군 구분하기 - 개발직군, 데이터분석 직군 설명
News 2021. 8. 20. 16:13

IT쪽으로 진로를 틀어야겠다고 생각한 이후 어떤 직군이 있는지 알아보았는데 생각보다 IT직군이 많아서 입사지원을 할 때 까지 직군별 차이점을 알기 힘들었다. 그나마 잘 구분할 수 있는 직군이 프론트엔드, 백엔드였는데 나는 데이터분석을 희망했고, 빅데이터쪽에서는 직군을 구분하는 기준을 명확하게 알려주는 사람이 없어서 입사지원을 하면서도 내가 원하는 직무에 잘 지원하고 있는지 의심스러웠다. IT 직군은 크게 개발, 데이터분석, 보안으로 나눌 수 있다. 현재 가장 수요가 많고 비전공자들이 가장 많이 도전하는 부분은 개발직군이다. 보안의 경우 각 학교의 정보보호학과 전공자들이나 컴공전공 중에서 정보보호, 정보처리쪽으로 공부한 사람들이 많이 가기 때문에 비전공자들이 준비해서 가는 경우는 많이 못봤다. (내 경험이..

article thumbnail
02. 경사하강법 Gradient Descent - 앤드류 응(Andrew Ng)교수님 머신러닝/딥러닝 한글자막 공부하기
ML&DL/study 2021. 8. 13. 17:41

경사하강법 앤드류응 머신러닝 한글자막 - 경사하강법 경사하강법을 통해 비용함수의 매개변수 w와 b를 훈련세트에 학습시키는 방법을 알아본다. 비용함수 J(w, b) = 손실함수들의 평균 = 손실함수들의합 / 손실함수의 갯수 손실함수 = 각 훈련샘플에 대한 참값과 예측값을 비교하는 함수 비용함수가 훈련세트를 잘 예측하는지 측정하려면 비용함수의 최솟값을 만드는 매개변수 w와 b를 찾아야 한다. 이차함수에서 최솟값을 찾는것과 같은 수학적 원리를 가진다. 따라서 비용함수는 항상 볼록한 형태의 이차함수여야 한다. 비용함수의 그래프에서 임의의 점 하나를 골라서 경사하강법을 시작한다. 시작점에서 가장 기울기가 큰 방향으로 점이 이동하면서 결국에는 기울기가 0이 되는 지점을 찾는다. 점이 이동할 때 마다 w와b의 값이 ..

article thumbnail
01. Intro - 앤드류 응(Andrew Ng)교수님 머신러닝/딥러닝 한글자막 공부하기
ML&DL/study 2021. 8. 9. 14:05

머신러닝, 딥러닝의 대가 앤드류 응 교수님의 강의는 총 3곳에서 들을 수 있다. 일단 앤드류 응 교수님은 홍콩계 미국인이라 한국어 강의는 없고 자막이 있는것도 찾기 힘들다. 유튜브는 가장 접근성이 좋다는 장점이 있다. 코세라는 7일간 무료로 강의를 들을 수 있고, 모든 강의를 수료하면 수료증을 받을 수 있다. 네이버 에드위드 부스트코스에 있는 강의는 코세라 강의와 동일하면서도 자막이 있고 네이버 아이디가 있다면 무료로 강의를 들을 수 있다. 그래서 나는 네이버 아이디로 부스트 코스에 있는 강의를 듣기로 했다. 1. 유튜브 - https://youtube.com/playlist?list=PLLssT5z_DsK-h9vYZkQkYNWcItqhlRJLN Machine Learning — Andrew Ng, St..

article thumbnail
파이썬 머신러닝 05. 회귀
ML&DL/study 2021. 8. 4. 13:31

회귀 알고리즘을 하나하나 자세히 공부하기 보기보다는 큰 틀에서 어떤 종류의 알고리즘이 있고, 어떤 특징이 있는지 대략적으로 공부하고자 작성했다. 회귀 알고리즘? 여러 개의 독립변수과 한 개의 종속변수 간의 상관관계를 모델링하는 기법 독립변수 : 영향을 미치는 요소 종속변수 : 영향을 받는 요소 독립변수 개수 회귀계수의 결합 1개 : 단일 회귀 회귀계수가 선형 : 선형회귀 여러개 : 다중 회귀 회귀계수가 비선형 : 비선형회귀 회귀 알고리즘의 종류 - 선형회귀 : 실제 값과 예측 값의 차이를 최소화하는 직선형 회귀선을 최적화하는 방식 일반 선형회귀 릿지(L2 규제) 라쏘(L1 규제, 피쳐 선택 기능) 엘라스틱넷(릿지+라쏘) - 로지스틱 회귀 - 회귀 트리 단순 선형 회귀 하나의 특징(독립변수)을 가지고 라벨..

article thumbnail
파이썬 머신러닝 04-4. 분류 알고리즘 (앙상블 부스팅)
ML&DL/study 2021. 8. 3. 09:00

이전 포스팅과 연결됩니다 2021.07.30 - [머신러닝] - 파이썬 머신러닝 04-3. 분류 알고리즘 (결정트리, 앙상블 보팅, 배깅) 파이썬 머신러닝 04-3. 분류 알고리즘 (결정트리, 앙상블 보팅, 배깅) 데이터 분석에서 분류 알고리즘은 True/False로 결과를 나타내거나 카테고리로 나누는 경우 사용할 수 있다. 이미 알고있는 데이터의 레이블값을 통해 새로운 데이터가 어떤것으로 분류되는지 예 magicode.tistory.com 부스팅(boosting) 부스팅은 여러개의 알고리즘을 순차적으로 학습, 예측하면서 잘못 예측한 데이터에 가중치를 부여해 오류를 개선해 나가면서 학습하는 방식이다. 대표적으로는 에이다부스트와 그래디언트부스트가 있다. 에이다부스트(Ada Boost)는 데이터들을 일단 분..

article thumbnail
파이썬 머신러닝 04-3. 분류 알고리즘 (결정트리, 앙상블 보팅, 배깅)
ML&DL/study 2021. 7. 30. 17:43

데이터 분석에서 분류 알고리즘은 True/False로 결과를 나타내거나 카테고리로 나누는 경우 사용할 수 있다. 이미 알고있는 데이터의 레이블값을 통해 새로운 데이터가 어떤것으로 분류되는지 예측하는것이라고 할 수 있다. 분류 알고리즘 종류 나이브 베이즈 로지스틱 회귀 결정 트리 최소 근접 알고리즘(kNN) 서포트 벡터 머신(SVM) 신경망 앙상블 이 포스팅에서는 결정트리, 앙상블에 대해서만 다루려고 한다. 결정트리 가장 직관적인 알고리즘으로 가장 효율적인 규칙을 찾아 분류하는 알고리즘이다. 결정트리는 루트노드, 규칙노드, 리프노드로 이루어져 있고, 가능한 적은 규칙노드로 높은 예측 정확도를 가지는 것이 목표다. 아래는 예시를 들어봤다. 루트노드에 사과, 초콜릿, 바구니, 손수건이라는 데이터가 있고 이 데..

article thumbnail
파이썬 머신러닝 04-2. 언더피팅, 오버피팅과 해결방안
ML&DL/study 2021. 7. 26. 16:27

머신러닝을 공부하면서 많이 만날 수 있는 문제 중 하나가 오버피팅이다. 오버피팅은 학습데이터를 지나치게 많이 학습시켜 학습데이터에는 딱 맞지만 테스트 데이터에는 맞지 않는 경우를 말한다. 반대로 언더피팅은 학습데이터의 양이 너무 적어 충분한 학습을 하지 못해 테스트 데이터로 예측하지 못하는 경우를 말한다. 위 그래프를 보면 파란 점들이 데이터고 노란 선이 예측값이다. 첫번째 그래프의 경우 언더피팅되어 데이터에 따른 예측값이 적절하지 않다. 두번째 그래프의 경우 적절하게 학습되어 데이터에 따른 예측값이 대체적으로 잘 맞는다. 세번째 그래프는 오버피팅되어 데이터에 너무 치중되어있어 예측값이 데이터에 따라 급격하게 변동한다. 머신러닝은 학습을 시키는 것이기 때문에 대부분 언더피팅보다는 학습을 너무 많이 시켜서..

article thumbnail
파이썬 머신러닝 04-1. Mac에 Graghviz 설치하기
ML&DL/study 2021. 7. 20. 09:00

파이썬 머신러닝 완벽가이드 책을 보면서 공부하다보면 맥 사용자에게 불편한 점이 몇가지 있다. 그 중 하나는 graghviz설치 방법이 윈도우만 나와있고 MacOS버전의 설치방법이 자세히 나와있지 않다는 점이다. 검색해보면 pip install graphviz, conda install graphviz 해보라고 하는데 안되더라.... 그래서 찾아낸 제대로 설치하는 방법! 1. homebrew 설치 맥의 경우 연동이 안되는 패키지들이 있어서 이 패키지들을 연동시켜줄 다른 통로가 필요하다. 그래서 graphviz사이트에 들어가보면 sudo, homebrew를 통해서 설치하라고 나온다. 나는 homebrew를 이용해보겠다. https://brew.sh/index_ko Homebrew The Missing Pac..

반응형