Processing math: 100%
[혼자 공부하는 머신러닝+딥러닝] 8-2. 합성곱 신경망을 사용한 이미지 분류
·
ML & DL/머신러닝 기초
Intro.8-1장에서 합성곱 신경망의 주요 개념들을 살펴봤다.필터 크기, 패딩, 스트라이드, 풀링 등 설정할 게 많았는데, 이걸 일일이 직접 계산할 필요는 없다.복잡한 계산은 Keras API가 다 해주기 때문에, 우리는 직관적으로 층의 구조만 설계하면 된다.이번엔 Fasion MNIST 데이터를 적용해서 합성곱 신경망을 실습해보자!(과연 7장의 심층신경망보다 성능이 더 좋을지 지켜봅시다!)  1. 데이터 준비7장에서 했던 것과 동일하게 데이터 불러옴 + 데이터 살펴보기이전과 유사하게 255로 나눠서 전처리하고, 훈련/검증세트 분리⭐단, reshape 할 때 1차원으로 펼치지 않음 + 깊이(채널) 차원 추가  2. 합성곱 신경망(CNN) 만들기keras의 Sequential()클래스에다가 `ad..
[혼자 공부하는 머신러닝+딥러닝] 8-1. 합성곱 신경망의 구성요소
·
ML & DL/머신러닝 기초
Intro.심층신경망으로 '패션 아이템 분류' task의 성능을 89%(정확도)까지 늘렸다.그런데 뭔가 아쉬운 이사님 왈...🗣️ "도장을 찍듯이 이미지 특징을 팍팍 잡을 수 없나?"오, 이거다! 이 아이디어를 딥러닝에 써보자!1. 합성곱 연산1차원 관점"7장에서도 이미지를 1차원으로 펼쳐서 썼으니까, 편의상 1차원 관점으로 먼저 설명해보겠습니다"7장에서 사용한 밀집(Dense)층에는 뉴런(=summation)마다 입력 크기만큼의 가중치가 있었음ex) 크기가 10인 (펼쳐진) 입력이 들어가서, 1개의 출력(=은닉층의 h1)이 나옴. 은닉층 뉴런이 3개라면 이런 출력이 3개가 나옴.즉, 입력 데이터 전체에 가중치가 적용됨 (ex. 3,1,0, ... 5 까지 10개의 입력에 각각 하나씩 w가 붙음) 그런..