본문 바로가기
반응형

분류 전체보기50

SK브로드밴드 TV(에코노미)+인터넷(500M) 가입 지난주 KT인터넷+TV 약정이 끝나서, 핸드폰 결합할인을 위해서, SK브로드밴드로 바꾸게 되었습니다! 아래의 사이트에서 보고 가입했습니다. https://m.cafe.naver.com/ca-fe/inter4860 인터넷현금지원 : 네이버 카페 안녕하세요 인터넷가입센터입니다 cafe.naver.com 상담도 매우 친절하게 해주시고, 빠르게 처리를 해주셔서 너무 좋았습니다. 인터넷, 티비를 바꾸려고 고민하고 계신다면 한번 접속하셔서 상담받아보셔도 좋을 것 같습니다. 2022. 11. 29.
[Paper review] Eyeriss: An Energy-Efficient ReconfigurableAccelerator for Deep 해당 paper에 대해서 공부한 내용을 정리해보려고 합니다. Ⅰ. Problem & Purpose ⅰ. Problem - CNN Model은 Throughput과 Energy 관점에서 문제점이 존재 - 많은 데이터를 요구하는데, 이를 위해서 on-chip과 off-chip 사이 data 이동이 상당히 많음 - Off-chip memory에서 data(filter, input, partial sum)값을 읽어서, MAC 연산 후 다시 Memory write + 많은 에너지 소모를 발생 시킴 (※ 핵심은 data의 이동을 최소화 시킨다면, 에너지 소모를 줄일 수 있다는 것입니다. ) - Paper에서는 Alexnet 경우에는 724M MAC 연산과 2896M DRAM 접근이 필요하다고 합니다. + 많은 연산.. 2022. 11. 27.
구룡포 하모니과메기[재구매의사충만/내돈내산/푸짐/맛집] 안녕하세요. 과메기 인터넷 맛집을 알게 되어, 공유하고자 글을 쓰게 되었네요! 지난주, 갑자기 과메기가 먹고 싶어서 찾아보던 중, 인터넷에서 유명한 과메기 집이 몇몇 집이 있더라고요! 저는 그중에서도 "구룡포 하모니과메기" 빕에서 주문을 해서 먹었습니다! "구룡과 과메기 야채세트"를 주문하였습니다! 마침 과메기가 도착한 날이 제가 김장한 날이어서, 보쌈까지 차려서 같이 먹었습니다!! 아래 사진에 과메기가 적어 보이시나요? 저 양은 1/3 아니면 1/4 양만 담은 것입니다! 전체 엄청 양이 많겠지요? 실제로 양이 매우 푸짐했습니다. 그리고 정말 비린내가 하~~~~ 나도 나지 않아, 너무너무 맛있게 먹었습니다!!! (살 빼야 하는데 큰일이네요....ㅜ__ㅜ) 진짜 과메기가 드시고 싶으시다? 그러면 "구룡포 .. 2022. 11. 25.
이천 하이닉스 황장군[백짬뽕/맛집/푸짐] 오랜만에 지인과 식사할 기회가 있어서, 지인 회사 주변 중식당에서 식사를 하였습니다. 여기는 각 테이블마다 메뉴를 주문하고 결제도 자리에서 할 수 있는 구조여서 너무 좋았습니다. 저는 빨간 짬뽕보다 백짬뽕이 당겨서, 백짬뽕을 주문하였습니다! 짬뽕에 올라가 있는 해산물 비주얼 보이시나요? 정말 해산물이 푸짐하게 들어가 있을 뿐만 아니라 맛도 정말 일품이었습니다. 이천 하이닉스 근처에 방문하실 기회가 있으시다면, 한번 드셔 보는 것을 추천드립니다! 2022. 11. 25.
CNN - Image2col / reshape 제가 공부를 하고 있는 책에서는 두 개의 함수를 통해서, 연산을 수행하고 있습니다. 하지만 이 책에서만 그렇게 하는 것이 아니라 인터넷에서 정보를 찾아보니 대부분의 딥러닝 프레임워크에서도 해당 개념을 도입해서 연산을 수행하고 있었습니다. 그래서 해당 내용을 공부하게 되었습니다. Ⅰ. CNN 계산 - 실제 Input feature map 3차원(C, H, W)데이터를 그대로 계산 바로 연산하지 않습니다. + 실제 연산은 3차원 입력 데이터를 필터링(=가중치 계산)하기 좋게 전개하여 연산을 수행합니다. → “im2col”을 이용 - fliter의 경우에도 1열로 전개하여 연산을 수행합니다. + "T"의 의미는 행렬의 Transpose입니다. Ⅱ. im2col - 해당 함수의 동작을 코드로 이해하는 것도 좋지.. 2022. 11. 23.
CNN 연산량 줄이는 scheme 이전 포스팅에서 CNN을 다루었는데, 직감적으로 아시겠지만 영상이 커지거나 필터의 수가 무수히 많거나 Layer가 매우 깊다면 연산량은 매우매우 많아지게 됩니다. 그래서 연산량을 조금이라도 줄이기 위해서 사용하는 scheme에 대해서 알아보겠습니다. Ⅰ. Depthwise Separable Convolution - 연산량을 줄이기 위한 convolution기법 중 하나로 Depthwise Convolution과 Pointwise Convolution을 혼합하여 사용합니다. (※ mobilenet 에서 처음 제안되었습니다.) - 논문에 나온 그림을 보시겠습니다. + Standard convolution cal. > 총 대략적인 연산량 H * W * K * K * M * N + Depthwise convol.. 2022. 11. 23.
CNN(Convolution Neural Network ) 이제 영상처리 뿐만 아니라 다른 분야에서도 막대한 영향을 끼친 CNN에 대해서 정리해보고자 합니다. Ⅰ. CNN(Convolution Neural Network) - CNN(Convolution Neural Network)는 이미지 인식 분야에서 많이 활용되고 있습니다. - 이전 포스팅과 달리, 합성곱 계층(Convolution layer)와 풀링 게층(Pooling layer)가 존재합니다. + 입력된 영상의 정보가 소실되지 않고 전달되는 것이 특징이며, 이는 매우 중요한 특징이니 반드시 기억하세요! - 이전에 Fully Connected Layer의 문제점은 입력된 영상의 정보가 무시된다는 것입니다. + 이미지의 정보를 무시하고, 모든 입력 데이터를 동등한 뉴런(=같은 차원의 뉴런)으로 취급합니다. .. 2022. 11. 23.
Batch normalization Ⅰ. Batch 단위 학습의 문제점 - SGD의 경우, Batch 단위로 학습을 진행하게 됩니다. 이때 발생하는 문제가 ‘internal covariant shift’이며, 이를 해결하기 위한 방법이 "Batch normalization" 입니다. + internal covariant shift : learning 과정에서 layer 별로 입력의 데이터 분포가 달라지는 현상을 말합니다. - Batch 단위로 학습을 하게 되면 Batch 단위 간에 데이터 분포의 차이가 발생하는데, 학습 과정에서 각 배치 단위 별로 데이터가 다양한 분포를 가지더라도 각 배치별로 평균과 분산을 이용해 정규화하는 것입니다. + 분포를 zero mean gaussian 형태로 만듭니다. - 아래의 그림을 보시면 바로 이해가 되실.. 2022. 11. 23.
반응형