목록전체 글 (8)
nevertheless
일반 Convolution 연산량입력 texture map 크기 = $H \times W$입력 채널 수 = $C_{in}$출력 채널 수 = $C_{out}$커널 크기 = $K \times K$$\therefore$ 총 연산량 = $H \times W \times C_{in} \times C_{out} \times K \times K$VGGNet모든 레이어가 표준 Conv.커널 크기 = $3 \times 3$총 연산량 = $H \times W \times C_{in} \times C_{out} \times 3 \times 3$ResNetBottleneck -> 채널을 줄였다가 다시 늘리는 구조.1x1 Conv : $H \times W \times C_{in} \times C_{mid} \times 1 \t..
MobileNetV2 논문을 읽은 뒤 CIFAR-10 분류 실험을 위해 모델을 직접 구현하고 학습해보았다.논문 정리: https://orchidbyw1.tistory.com/6모델 설정코드 베이스: kuangliu/pytorch-cifar 참고데이터셋: CIFAR-10모델: MobileNetV2Inverted Residual Block 사용Depthwise Separable Convolution 적용width multiplier=1.2MobileNetV2는 기존 CNN과 달리, inverted residual 구조를 사용하여 채널을 확장한 뒤 다시 축소하는 방식을 사용한다.초기 convolution 역시 CIFAR-10 입력 크기(32×32)에 맞게 ImageNet용 구조처럼 stride=2가 아닌, 3..
ResNet 논문을 읽은 뒤 CIFAR-10 분류 실험을 위해 ResNet56을 직접 구현하고 학습해보았다.논문 정리: https://orchidbyw1.tistory.com/5모델 설정코드 베이스: kuangliu/pytorch-cifar 참고데이터셋: CIFAR-10모델: ResNet56BasicBlock 기반block 수: [9, 9, 9]초기 채널 수: 16초기 convolution: 3×3, stride=1ResNet56은 CIFAR용 ResNet 구조를 기준으로 하며, 3개의 stage에 각각 9개의 BasicBlock을 쌓는 방식이다.초기 convolution도 ImageNet용 ResNet처럼 7×7이 아니라, CIFAR-10 입력 크기(32×32)에 맞게 3×3 conv를 사용했다.학습 ..
논문 링크: https://arxiv.org/pdf/1409.1556.pdf 짧게 요약하자면- 매우 작은 3x3 Covolution 필터를 반복적으로 사용하는 구조- 깊게 쌓은 네트워크를 통해 feature를 추출 (16~19 layers)- 구조가 단순하여 이해하기 쉬움 (계속 쌓는 구조)- 하지만 파라미터 수가 많고 연산량이 큼ABSTRACT- 연구 목표CNN의 depth(깊이)가 accuracy에 미치는 영향 분석- 방법작은 3×3 conv를 여러 개 쌓아 depth 증가- 결과깊은 네트워크가 더 높은 성능INTRODUCTION성능 향상에 중요한 요소:작은 receptive field작은 stridedepth 증가 (핵심)연구 방향: 모든 layer에 3×3 conv를 사용하면서 depth를 증가시..
논문 링크: https://openaccess.thecvf.com/content_cvpr_2018/html/Sandler_MobileNetV2_Inverted_Residuals_CVPR_2018_paper.html 짧게 요약하자면- MobileNetV2는 모바일 환경을 위한 경량 CNN으로,- inverted residual과 linear bottleneck을 통해- 연산량과 메모리를 줄이면서도 정확도를 유지/개선한 모델이다. 왜 MobileNetV2가 필요한가- 기존 CNN(ResNet, VGG 등)은 성능은 좋지만 무거움- 모바일/임베디드 환경에서는 연산량, 메모리, latency가 중요함- MobileNetV1이 이미 가벼운 구조를 제안했지만, 정확도와 표현력 면에서 한계가 있었다- 그래서 Mobi..
논문 링크: https://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/He_Deep_Residual_Learning_CVPR_2016_paper.pdfIntroduction왜 ResNet이 등장했는가?VGG를 통해서, 네트워크는 깊을수록 성능이 좋아진다는 것을 알게 되었다.그래서 layer를 점점 더 쌓았으나, depth가 깊어질수록 문제가 발생하였음. Degradataion Problem네트워크가 깊어질수록- test error만 증가하는 것이 아니라,- training error도 증가하는 문제!이건 overfitting의 문제가 아님. training error도 같이 높아졌으므로 *** 이론적으로는 말이 안 됨!얕은 모델이 있고, 거기에..
리눅스 커널을 컴파일하려면 최소 40GB가 필요하다.그래서 처음 용량보다 확장해야 하는 일이 생겨서 그 과정에 대해 기록하려고 한다. #1. 가상머신 자체 용량 늘리기* 가상머신은 꺼져 있는 상태여야 한다.내 기기에서 실행한다. 1. (없으면) qemu 설치brew install qemu 2. 용량 확장~/Library/Containers/com.utmapp.UTM/Data/Documents 로 이동한다. 용량을 늘리고 싶은 가상머신으로 이동한다.이동하면 Data 폴더가 나오고, 거기로 이동하면 .qcow2 확장자를 가진 파일이 나온다. 용량을 늘리기 위해 다음 명령어를 입력한다.qemu-img resize (파일 이름) (변경할 용량)qemu-img resize ~/Library/Containers/c..
HTTPSHTTPS란 HyperText Transfer Protocol Secure의 약자로, 웹 통신 프로토콜인 HTTP의 보안 버전.HTTP는 단순 텍스트를 주고 받기 때문에, 서버와 클라이언트 사이에서 자원을 주고 받을 때 누군가 데이터를 가로챌 수 있다. 이 문제점을 HTTPS 프로토콜리 해결한다.공개키 암호화 방식을 사용하여 암호화한다.SSL & TLSSSL(Secure Sockets Layer)과 TLS(Transport Payer Security)은 네트워크 통신에서 보안을 제공하기 위해 사용되는 암호화 프로토콜.HTTPS 통신 흐름CA(Certificate Authority)는 공개키 저장소로, CA 기업의 공개키는 브라우저가 이미 알고 있음!기업은 서버의 공개키/개인키 생성CA에 인증서 ..
