목록 Categories (93)
Deep Learning study
class torch.nn.Sequential(*args)[source] 편하게 순차적으로 실행하도록 담는 container라고 생각하면 될 것 같다. 내가 했던것을 예를들면 x = self.conv1(x) x = self.dropout(x) x = self.pool(F.relu(x)) x = self.conv2(x) ... 뭐 이런식으로 썼다. 하지만 위의 함수를 쓰면 model = nn.Sequential( nn.Conv2d(....), nn.ReLU(), nn.Conv2d(20,64,5), nn.RELU() ) 이므로 forward() 에서 x = self.model(x) 만 써주면 된다. 깔끔하고 편리한 함수인것 같다. 이걸 왜 지금 알았을까 원문보러가기
class torch.nn.Upsample(size=None, scale_factor=None, mode='nearest')[source] input은 minibatch * channels * depth * height * width 이다, 하지만 2D에서는 4D Tensor만 있으면 된다. Size와 scale_factor는 같이 사용하면 의미가 명확하지 않기 때문에, 같이사용하지 않는다. size(tuple, optional) : output사이즈를 직접 설정해 준다. (Depth, Height, Width) scale_factor(int, optional) : Depth, Height, Width에 입력받은 정수 만큼 곱해준다. (1,1,2,2) 가 인풋으로 들어오면 (1,1,4,4)가 된다. mo..
class torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True) Conv2d의 parameters는 차례대로 in_channels, out_channels, kernel_size, stride, padding, diction , groups, bias 가 있다. 필수 요소로는 in_channels, out_channels,kernel_size 가있다. in_channels(int) : input image의 channel수 이다. rgb이미지라면 3이 되겠다. out_channels(int) : convolution에 의해서 생성된 channel의 수 이다. ke..
며칠간 재미있는 대화 데이터를 가지고 대화모델을 만들어 보았다. source.txt 거울 보면 본인이 잘생겼다는 생각이 드나요? 너만 자꾸 생각나 생일 축하해! 너무 더워서 숨이 턱턱 막혀 주말에 뭐하지? 짜증나 ... target.txt 당연하죠. 전 거울을 볼 때마다 스스로 잘생겼다는 생각을 해요 나도 그래. 내 머릿속은 항상 너로 가득 차 있어. 생일 축하해줘서 고마워 많이 더우신가 봐요. 서핑? 이번 주말에는 날씨가 좋대~ 뭐가 짜증 나시는지 들어드릴게요. 얘기해보세요 ... 대충 이런대화모델! 전체적인 코드는 pytorch tutorial을 보고 만들었다 12345678910111213141516from __future__ import unicode_literals, print_function,..
12345678910111213141516171819202122232425262728293031323334353637383940414243444546474849505152535455565758596061626364656667686970717273747576777879808182838485868788899091929394959697989910010110210310410510610710810911011111211311411511611711811912012112212312412512612712812913013113213313413513613713813914014114214314414514614714814915015115215315415515615715815916016116216316416516616716816..
계속 검색하다가 transfer learning이 연관되어 나오는것 같아서 찾아보았다.그중 Resnet이 보이길래 그냥 resnet을 써 보았다. 12345678910111213141516171819202122232425262728293031323334353637net = models.resnet50(pretrained = True)num_ftrs = net.fc.in_featuresnet.fc = nn.Linear(num_ftrs,2)net.cuda() import torch.optim as optim criterion = nn.CrossEntropyLoss()optimizer = optim.SGD(net.parameters(), lr = 0.004) for epoch in range(45): runn..
pytorch를 써야해서 .. 연습하려고 뭔가 해보려고 하다가 kaggle에 cat dog 데이터셋을 다운받아서 학습시켜보았다! 123456789101112131415161718import numpy as npimport matplotlib.pyplot as pltimport osimport torchimport torchvisionimport torchvision.transforms as transformsfrom torch.autograd import Variableimport torch.nn as nnimport torch.nn.functional as Ffrom __future__ import print_functionimport argparseimport csvimport os.pathimpor..
1. supervised learning 지도 학습 (Supervised Learning)은 훈련 데이터(Training Data)로부터 하나의 함수를 유추해내기 위한 기계 학습(Machine Learning)의 한 방법이다.( https://ko.wikipedia.org/wiki/지도_학습) 지도학습이라는 말과 같이, 데이터에대한 레이블(Label)을 달아주어 함께 학습시키는 것이다. 즉 각 값에대한 원하는 목표치를 표시해 학습시키는 것이다. 회귀(regression)와 분류(classification)에 대해 알아보자 Andrew Ag 교수님의 강의 ppt를 가져왔다. 이 예시는 집의 평수에 따른 가격을 나타낸 것이다. 데이터를 보면 집평수에대한 그집의 가격(Label)이 나타나 있으므로 지도학습에 ..