본문 바로가기

전체 글

(95)
Chapter07-1 인공신경망 (https://bit.ly/hg-07-1) Chapter 07. 딥러닝을 시작합니다.¶ 학습목표 딥러닝의 핵심 알고리즘인 인공 신경망을 배운다. 대표적인 인공 신경망 라이브러리인 텐서플로와 케라스를 소개한다. 인공 신경망 모델의 훈련을 돕는 도구를 익힌다. 07-1 인공 신경망¶ 핵심키워드 인공 신경망 텐서플로 밀집층 원-핫 인코딩 딥러닝과 인공 신경망 알고리즘을 이해하고 텐서플로를 사용해 간단한 인공 신경망 모델을 만들어 본다. 패션 MNIST¶판매할 패션 상품의 데이터는 아직 없지만, 마침 한빝 마켓에서 판매할 상품과 똑같은 데이터를 구할 수 있다. 이를 대신해 사용해보겠다.7장과 8장에서는 패션 MNIST 데이터셋을 사용하겠다. 이 데이터셋은 10종류의 패션 아이템으로 구성되어 있다. MNIST가..
Chapter 06. 비지도 학습(주성분 분석) (https://bit.ly/hg-6-1) (https://bit.ly/hg-6-2) (https://bit.ly/hg-6-3) Chapter06. 비지도 학습 ( 비슷한 과일끼리 모으자!)¶ 학습목표 타깃이 없는 데이터를 사용하는 비지도 학습과 대표적인 알고리즘을 소개한다. 대표적인 군집 알고리즘인 k-평균과 DBSCAN을 배운다. 대표적인 차원 축소 알고리즘인 주성분 분석(PCA)을 배운다. 06-3 주성분 분석¶ 핵심키워드 차원 축소 주성분 분석 설명된 분산 차원 축소에 대해 이해하고 대표적인 차원 축소 알고리즘 중 하나인 PCA(주성분 분석) 모델을 만들어 보자. 차원과 차원 축소¶지금까지 우리는 데이터가 가진 속성을 특성이라 불렀다. 과일 사진의 경우 10,000개의 픽셀이 있기 때문에 10,0..
Chapter06. 비지도 학습 (군집알고리즘, k-평균) (https://bit.ly/hg-6-1) (https://bit.ly/hg-6-2) (https://bit.ly/hg-6-3) Chapter06. 비지도 학습 ( 비슷한 과일끼리 모으자!)¶ 학습목표 타깃이 없는 데이터를 사용하는 비지도 학습과 대표적인 알고리즘을 소개한다. 대표적인 군집 알고리즘인 k-평균과 DBSCAN을 배운다. 대표적인 차원 축소 알고리즘인 주성분 분석(PCA)을 배운다. 06-1 군집 알고리즘¶ 핵심키워드 비지도 학습 히스토그램 군집 흑백 사진을 분류하기 위해 여러가지 아이디어를 내면서 비디도 학습과 군집 알고리즘에 대해 이해한다. 문제 상황¶고객이 과일 사진을 보내면 그중 가장 많이 요청하는 과일을 판매 품목으로 선정하려 한다. 또 1위로 선정된 과일 사진을 보낸 고객 중 몇 ..
Chapter05.트리의 앙상블 (https://bit.ly/hg-5-1) (https://bit.ly/hg-5-2) (https://bit.ly/hg-5-3) Chapter05. 트리 알고리즘 (화이트 와인을 찾아라!)¶ 학습목표 성능이 좋고 이해하기 쉬운 트리 알고리즘에 대해 배운다. 알고리즘의 성능을 최대화하기 위한 하이퍼파라미터 튜닝을 실습한다. 여러 트리를 합쳐 일반화 성능을 높일 수 있는 앙상블 모델을 배운다. 05-1 결정트리¶ 핵심키워드 결정 트리 불순도 정보 이득 가지치기 특성 중요도 결정 트리 알고리즘을 사용해 새로운 분류 문제를 다루어 봅니다. 결정 트리가 머신러닝 문제를 어떻게 해결하는지 이해한다. 문제 (화이트 와인을 찾아라!)¶ 캔에 인쇄된 알코올 도수,당도,PH 값으로 와인 종류를 구별할 수 있는 방법이 있을..
Chapter04. 다양한 분류 알고리즘 (https://bit.ly/hg-04-1) (https://bit.ly/hg-04-2) Chapter04 다양한 분류¶알고리즘 (럭키백의 확률을 계산하라!) 학습목표 로지스틱 회귀, 확률적 경사 하강법과 같은 분류 알고리즘을 배운다. 이진 분류와 다중 분류의 차이를 이해하고 클래스별 확률을 예측한다. 04-1 로지스틱 회귀¶ 핵심키워드 로지스틱 회귀 다중 분류 시그모이드 함수 소프트맥스 함수 로지스틱 회귀 알고리즘을 배우고 이진 분류 문제에서 클래스 확률를 예측한다. 럭키백의 확률¶럭키백은 구성품을 모른 채 먼저 구매하고, 배송받은 다음에야 비로소 구성품을 알 수 있는 상품이다. 책의 예제를 보자. 럭키백에 들어갈 수 있는 생선은 7개라고 알려 주었다. 이 이벤트를 잘 마치려면 럭키백에 들어간 생선의 ..
Chapter03.회귀 알고리즘과 모델 규제 (https://bit.ly/hg-03-1) (https://bit.ly/hg-03-2) (https://bit.ly/hg-03-3) K-최근접 이웃 회귀¶ 핵심키워드 회귀 k-최근접 이웃 회귀 결정계수 과대적합과 과소적합 지도 학습의 한 종류인 회귀 문제를 이해하고 k-최근접 이웃 알고리즘을 사용해 농어의 무게를 예측하는 회귀 문제를 풀어 보자. k-최근접 이웃 회귀¶지도 학습 알고리즘은 크게 분류와 회귀(regression)으로 나뉜다. 분류는 2장에서 다루었다. 말 그대로 샘플을 몇 개의 클래스 중 하나로 분류하는 문제이다. 회귀는 클래스 중 하나로 분류하는 것이 아니라 임의의 어떤 숫자를 예측하는 문제이다. 예를 들면 내년도 경제 성장률을 예측하거나 배달이 도착할 시간을 예측하는 것이 회귀 문제이..
Chapter 8. 자연어 처리 시작하기 Github: PinkWink 8장 자연어 처리 시작하기¶ 한글 자연어 처리기초 워드 클라우드 육아휴직 관련 법안에 대한 분석 Naive Bayes Classifier의 이해 - 영문 Naive Bayes Classifier의 이해 - 한글 문장의 유사도 측정하기 여자친구 선물 고르기 8-2 한글 자연어 처리 기초¶ In [9]: from konlpy.tag import Kkma kkma = Kkma() 먼저 꼬꼬마 모듈을 사용할 수 있게 한다. In [10]: kkma.sentences('한국어 분석을 시작합니다 재미있어요~~') Out[10]: ['한국어 분석을 시작합니다', '재미있어요~~'] 그리고 문장(sentences)분석을 한다. ~~시작합니다 재미..
kaggle_Bike Sharing Demand[입문용] 캐글 따라하기 (kaggle_Bike Sharing Demand)¶Reference: 깃헙:corazzon/KaggleStruggle 이번 블로그는 캐글에서 돌아다니는 bike sharing demand의 대해 날씨, 휴일, 평일, 계절 등등에 따라 변하는 bike sharing demand의 대한 데이터를 가지고 재구성 및 시각화를 해보려 한다. 앞으로 진행할 프로젝트의 최종 목표는 학습 데이터로 모델을 학습시킨 후 공공자전거의 수요량을 예측하는 것이다. 즉, 테스트 데이터 정보(features, 종속변수)를 바탕으로 제출용 데이터의 'count'(target, 독립변수)를 예측하는 것이다. 지도학습중에 분류와 회귀중 회귀와 관련 된 문제 => 자전거 대여량을 예측하는 문제이기 때문에 캐글의 타이타닉 ..