들어가며 본 게시물은 오일석 교수님의 기계학습 강의 1~2장을 보고 정리한 글입니다. 인공지능의 패러다임 기존 지식기반 방식은 광원, 그림자 등과 같은 변화에 취약했다. 따라서 데이터 중심의 접근방식인 기계학습으로 전환되었다. 기계학습 기계학습의 예측엔 예측값이 실수인 회귀(regression), 부류값인 분류(classification)가 있다. 기계학습은 가장 정확하게 예측할 수 있는 최적의 매개변수를 찾는 작업이다. 처음에는 실생활에서의 데이터의 피쳐는 매우 많기 때문에 복잡하여 최적값을 모르기에 점점 성능을 개선하여 최적에 도달한다. 기계학습의 궁극적인 목표는 훈련집합에 없는 새로운 샘플(테스트 집합)에 대한 오류를 최소화하는 것이며 이에 대한 높은 성능을 일반화(generalization) 능력..
들어가며 본 글은 국민대학교 임베디드 소프트웨어 동아리 KOBOT의 과제를 위해 개인적인 기록용으로 유노코딩의 CSS 레이아웃 - flex & grid 1~8강 내용을 정리한 포스트입니다. 내용 CSS 레이아웃 레이아웃(layout)이란 구성 요소를 공간에 효과적으로 배열하는 일 또는 그 기술을 의미한다. CSS 레이아웃은 웹 요소를 올바른 장소에 배치하는 기술이다. CSS 레이아웃 기술은 형제 요소들을 가지런히 정렬할 수 있게 해주며 요소가 컨테이너 내부에서 어떤 위치에 놓이게 될지 결정할 수 있다. 대표적인 CSS 레이아웃 기술로 다음 것들을 들 수 있다. 일반적인 문서 흐름 display 속성 플렉스박스 그리드 레이아웃 float 속성 position 속성 기타 등등 플렉스박스(flexbox) 플렉..
들어가며 본 글은 국민대학교 임베디드 소프트웨어 동아리 KOBOT의 과제를 위해 개인적인 기록용으로 유노코딩의 입문자를 위한 자바스크립트 기초의 내용을 정리한 포스트입니다. 내용 JavaScript 자바스크립트는 프로그래밍 언어로 서버 개발, 애플리케이션 개발 등 다양한 목적을 위해 사용할 수 있는 언어이지만 주된 활용 분야는 인터넷을 통해 서비스되는 웹사이트를 개발하는 웹 개발이다. 웹 사이트를 개발 할 때는 HTML, CSS, JS를 한 묶음으로 많이 다루는데, 각 부분의 쓰임을 다시 정리하자면 다음과 같다. HTML : 웹 콘텐츠를 정의한다. CSS : 웹 콘텐츠를 스타일링한다. JavaScript : 웹 사이트의 동작이나 상호작용을 정의한다. 콘텐츠에 JS를 더하는 방법으로는 크게 두 가지 방법이..
들어가며 본 글은 논문 EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks를 리뷰한 글입니다. 내용 기존의 한계 ConvNet을 스케일 업 할 때 보통 depth, width, image resolution을 스케일링하는 데, 이에 대한 제대로 된 이해가 없다. 스케일 업 할 때도 위 세 요소 중 하나만 스케일링한다. 2, 3가지도 임의로 스케일 할 수 있으나 수동으로 튜닝해야 하며 정확도와 효율성 또한 최적이 아니다. AlexNet이후로 지속해서 모델의 크기가 커졌으나 하드웨어 메모리의 한계로 더 높은 정확도를 위해선 더 나은 효율성이 필요하다. 최근 MobileNet, SqueezNet, ShuffleNet이나 NAS(ne..
들어가며 본 글은 논문 You Only Look Once: Unified, Real-Time Object Detection을 리뷰한 글입니다. 내용 기존 탐지 시스템 기존 시스템은 분류기(classifier)가 detection을 수행하도록 용도를 변경하였다. 이를 위해 추론 과정에서 다음 과정을 수행한다. 객체에 대한 분류를 진행한다. 다양한 위치(location)과 스케일(scale)에서 평가를 진행한다. DPM의 경우 분류기가 전체 이미지에서 균일한 간격의 위치에서 실행되는 sliding window 접근 방식을 이용한다. R-CNN의 경우RPM(region proposal method)로 이미지에서 박스의 잠재적 위치를 생성한 후 제안된 박스에 분류기를 실행한다. 각자 분류 후 박스를 정제하고 중..
들어가며 본 글은 논문 EfficientNetV2: Smaller Models and Faster Training을 리뷰한 글입니다. 내용 기존 문제 GPT3와 같이 모델과 학습 데이터가 커질수록 few shot learning에 효과적이나 수 주의 학습 시간과 수천 개의 GPU가 필요하여 개선과 재학습을 어렵게 한다. 기존 EfficientNet의 문제 큰 이미지 사이즈에서의 학습이 느리다. Depthwise convolution은 초기 레이어에서 느리다. 모든 단계에서 동일하게 scaling up 하는 것은 최선이 아니다. 키 아이디어 Fused-MBConv 연산자를 적용한다. 이미지 크기를 증가시키며 점점 강한 규제를 적용한다. Training-aware NAS로 최적의 하이퍼파라미터를 탐지한다. ..