들어가며 본 글은 국민대학교 임베디드 소프트웨어 동아리 KOBOT의 과제를 위해 개인적인 기록용으로 유노코딩의 CSS 레이아웃 - flex & grid 1~8강 내용을 정리한 포스트입니다. 내용 CSS 레이아웃 레이아웃(layout)이란 구성 요소를 공간에 효과적으로 배열하는 일 또는 그 기술을 의미한다. CSS 레이아웃은 웹 요소를 올바른 장소에 배치하는 기술이다. CSS 레이아웃 기술은 형제 요소들을 가지런히 정렬할 수 있게 해주며 요소가 컨테이너 내부에서 어떤 위치에 놓이게 될지 결정할 수 있다. 대표적인 CSS 레이아웃 기술로 다음 것들을 들 수 있다. 일반적인 문서 흐름 display 속성 플렉스박스 그리드 레이아웃 float 속성 position 속성 기타 등등 플렉스박스(flexbox) 플렉..
들어가며 본 글은 국민대학교 임베디드 소프트웨어 동아리 KOBOT의 과제를 위해 개인적인 기록용으로 유노코딩의 입문자를 위한 자바스크립트 기초의 내용을 정리한 포스트입니다. 내용 JavaScript 자바스크립트는 프로그래밍 언어로 서버 개발, 애플리케이션 개발 등 다양한 목적을 위해 사용할 수 있는 언어이지만 주된 활용 분야는 인터넷을 통해 서비스되는 웹사이트를 개발하는 웹 개발이다. 웹 사이트를 개발 할 때는 HTML, CSS, JS를 한 묶음으로 많이 다루는데, 각 부분의 쓰임을 다시 정리하자면 다음과 같다. HTML : 웹 콘텐츠를 정의한다. CSS : 웹 콘텐츠를 스타일링한다. JavaScript : 웹 사이트의 동작이나 상호작용을 정의한다. 콘텐츠에 JS를 더하는 방법으로는 크게 두 가지 방법이..
들어가며 본 글은 논문 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks를 리뷰한 글입니다. 내용 기존의 한계 ConvNet을 스케일 업 할 때 보통 depth, width, image resolution을 스케일링하는 데, 이에 대한 제대로 된 이해가 없다. 스케일 업 할 때도 위 세 요소 중 하나만 스케일링한다. 2, 3가지도 임의로 스케일 할 수 있으나 수동으로 튜닝해야 하며 정확도와 효율성 또한 최적이 아니다. AlexNet이후로 지속해서 모델의 크기가 커졌으나 하드웨어 메모리의 한계로 더 높은 정확도를 위해선 더 나은 효율성이 필요하다. 최근 MobileNet, SqueezNet, ShuffleNet이나 NAS(ne..
들어가며 본 글은 논문 You Only Look Once: Unified, Real-Time Object Detection을 리뷰한 글입니다. 내용 기존 탐지 시스템 기존 시스템은 분류기(classifier)가 detection을 수행하도록 용도를 변경하였다. 이를 위해 추론 과정에서 다음 과정을 수행한다. 객체에 대한 분류를 진행한다. 다양한 위치(location)과 스케일(scale)에서 평가를 진행한다. DPM의 경우 분류기가 전체 이미지에서 균일한 간격의 위치에서 실행되는 sliding window 접근 방식을 이용한다. R-CNN의 경우RPM(region proposal method)로 이미지에서 박스의 잠재적 위치를 생성한 후 제안된 박스에 분류기를 실행한다. 각자 분류 후 박스를 정제하고 중..
들어가며 본 글은 논문 EfficientNetV2: Smaller Models and Faster Training을 리뷰한 글입니다. 내용 기존 문제 GPT3와 같이 모델과 학습 데이터가 커질수록 few shot learning에 효과적이나 수 주의 학습 시간과 수천 개의 GPU가 필요하여 개선과 재학습을 어렵게 한다. 기존 EfficientNet의 문제 큰 이미지 사이즈에서의 학습이 느리다. Depthwise convolution은 초기 레이어에서 느리다. 모든 단계에서 동일하게 scaling up 하는 것은 최선이 아니다. 키 아이디어 Fused-MBConv 연산자를 적용한다. 이미지 크기를 증가시키며 점점 강한 규제를 적용한다. Training-aware NAS로 최적의 하이퍼파라미터를 탐지한다. ..
들어가며 본 글은 Sequence to Sequence Learning with Neural Networks를 리뷰한 글입니다. 내용 논문의 키 아이디어 LSTM으로 입력 시퀀스를 얽어 거대한 고정 차원 벡터 표현을 얻는다. 그 벡터로부터 출력 시퀀스를 뽑아내기 위해 또 다른 LSTM을 사용한다. 기존 DNN의 문제점 고정된 차원 벡터로 인코딩할 수 있는 문제에만 적용할 수 있다. 입력과 출력이 미리 정해지고 고정 돼야 한다. 여러 중요한 시퀀스 문제는 사전에 그 길이를 알 수 없다. Model Recurrent Neural Network 시퀀스에 대한 순전파 신경망의 자연스러운 일반화이다. (보통의 경우 이걸 쓴다는 느낌으로 이해했음) 입력을 \((x_{1},...,x_{T})\), 출력을 \((y_{..