목록전체 글 (137)
now is better than never
Region Proposal 사진에서 물체가 있을 법한 위치를 찾는 작업 물체 위치를 찾기 위해 다양한 형태의 윈도우(window)를 슬라이딩해서 물체가 존재하는지 확인 Selective Search 인접한 영역끼리 유사성을 측정해서 큰 영역으로 차례대로 통합해 나가는 과정 IoU (Intersection over Union) 바운딩한 사물이 특정 사물이 맞다는 평가지표 = 사물이 없는 바운딩은 제거하고 사물이 있는 바운딩만 남기기 위한 평가지표 두 바운딩 박스가 겹치는 비율 NMS (Non Maximum Suppression) 여러 개의 바운딩 박스가 겹쳐있는 경우 하나로 합치는 방법 R-CNN (Region with CNN features) 실습 코드 파인애플과 사과 사진 수집 라벨링 라벨링 이미지 ..

2. 최적화 (Optimization) Gradient Descent First-order iterative optimization algorithm for finding a local minimum of a differentiable function. 구하고자 하는 값으로 편미분을 반복적으로 수행 Important Concepts in Optimization Generalization Under-fitting vs. over-fitting Cross validation Bias-variance tradeoff Bootstrapping Bagging and boosting 1) Generalization How well the learned model will behave on unseen data. t..

2) 뉴럴 네트워크 & MLP (Multi-Layer Perception) - Neural Networks Neural networks are function approximators that stack affine transformations followed by nonlinear transformations. 행렬으로 연산해서 내가 정의한 값으로 근사하는 모델, 비선형 연산이 반복적으로 일어나는 모델 이미지 (tensor) -> 라벨 (vector) = 함수를 모방 - Linear Neural Networks w, b 를 구하기 위해 back propagation loss 를 최소화하는 w, b 의 방향을 미분으로 찾음 stepsize 가 너무 크면 발산, 작으면 학습이 안 됨 One way of i..

https://www.boostcourse.org/ai111/ 딥러닝 기초 다지기 부스트코스 무료 강의 www.boostcourse.org 1. 딥러닝 기초 1) 딥러닝 기본 용어 - Key Components of Deep Learning The Data that the model can learn from The Model how to transform the data 이미지 -> 라벨 The Loss function that quantifies the badness of the model The Algorithm to adjust the parameters to minimize the loss - Data Data depend on the type of the problem to solve. 데이터..

LeNet 신경망 1998년 손글씨를 인식한 최초의 CNN 신경망 배치정규화, Dropout 나오기 전 이미지 -> conv -> maxpooling -> conv ->maxpooling -> fully connected1 -> fully connected2 -> output VGG 신경망 2014 년 영국 옥스퍼드 대학교 이미지넷 대회에서 준우승한 신경망 conv 2 -> pooling 1 -> conv 2 -> pooling 1 -> conv 3 -> pooling 1 -> conv 3 -> pooling 1 -> conv 3 -> pooling 1 -> fc 3 전이 학습 1000 개의 이미지를 학습한 # 1. 패키지 임포트 import tensorflow as tf from tensorflow.k..

6. 하이퍼 파라미터 튜닝과 앙상블 1) 하이퍼 파라미터 튜닝 - 하이퍼 파라미터 A hyperparameter is a parameter whose value is used to control the learning process. By contrast, the values of other parameters (typically node weights) are learned 학습 과정에서 조절하는 파라미터 값 모델이 학습하기 전에 사람이 설정해줘야 하는 파라미터 - 파라미터 학습 과정에서 배워나가는 값 - 하이퍼 파라미터 튜닝 Choosing a set of optimal hyperparameters for a learning algorithm 하이퍼 파라미터를 최적화하는 과정 - 하이퍼 파라미터 튜닝..