분류 전체보기 (108) 썸네일형 리스트형 CV(4) CNN 기초 - pooling 01. Pooling Pooling : 연산량을 크게 늘리지 않고 down sampling 할 때 사용한다. 종류Max Pooling : 큰값만 뽑아냄 이미지의 도드라지는 특징만 남기는 효과가 있음 Average Pooling : 평균값을 뽑아냄일반적인 양상을 보여주며 노이즈를 줄여주는 효과를 기대할 수 있다. Sum Pooling : 그 영역의 값을 다 더해서 뽑아냄pooling은 겹치는 부분이 생기지 않고 parameter를 사용하지 않고 정보를 압축할 수 있어서 연산량이 효율적이다.feature map으로 표현된 정보를 축약하는 역할을 한다. 적절하게 중요한 값만 뽑아낼수 있다. 비선형성을 강화하고, feature map의 크기를 줄여서 연산 성능을 향상시킬 수 있다. ➞ 비선형성을 강화하면 뭐가 .. CV(3) CNN 기초 - 3 Channel Convolution/Hyper-Parameter 01. Channel이 3개일 때, 1-Layer의 Convolution 연산3 채널 convolution 연산 각 채널의 kernel이 존재 ( 즉, 3X3 kernel 존재 )3개의 kernel이 하나의 filter를 구성한다.각각 채널의 image에 kernel을 over-riding한 후 convolution연산을 해준다.여기에 각 채널의 겹치는 부분을 더해준 다음 bias를 더해준다이 연산을 feature Map의 끝까지 해준다 이렇게 하면 하나의 feature map이 나온다.Filter 하나로 Feature Map 하나를 만들었다. Filter갯수 == Feature Map의 개수 Filter의 갯수가 많아지면 Feature Extractor의 갯수가 많아지게되고 여러개의 feature.. CV(1) 이미지 데이터 다루기 기초와 MLP 1. 이미지 데이터 이해하기 1. 인간의 이미지 인식 vs 컴퓨터의 이미지 인식이미지 데이터 안의 정보는 하나의 픽셀 그 자체가 아닌 주변의 여러개의 픽셀과의 관계를 통해서 드러납니다. 관계 : 같다/ 다르다 를 가지고 픽셀이 의미를 가짐 유사성을 비교함으로써 우리는 정보를 얻을 수 있다. 이미지, 영상 이미지는 크게 두가지로 나눔 1. single object- 고양이로 분류하는 classification, 고양이가 이미지의 어디에 있는지 localization함 - bounding box로 위치를 지정해줌 2. multiple objects- bounding box로 물체를 구분한 후, 각 물체를 classifiaction함 ➞ localization과 classification을 동시에 하는 것을 .. 모델 저장과 Callback 01. MNIST 모델 예제 - 딥러닝을 처음 배우는 사람들이 만나게 되는 데이터셋 중 하나인 손으로 쓴 숫자들로 이루어진 이미지 데이터셋 1.데이터 로드 및 전처리 - 02. 모델 저장과 로드 - 모델을 학습시키고 저장을 안한다면 다시 처음 부터 학습을 시켜야함 - 어느정도 학습이 되었다면 추후에 모델을 사용하기 위해 저장할 필요가 있음 - 모델을 저장할때는 save()함수를 사용 - 모델을 다시 불러오는데에는 load_model()함수를 사용 - 모델을 저장하고 로드하는 것에서 중요한 점은 모델 생성시에 Sequencial API or Runctional API를 사용한 경우에는 모델의 저장및 로드가 가능 but Subclasing API방식은 사용할 수 없음 - Subclassing API 방식은 .. 파이썬 정렬 알고리즘 Sort Algorithms 데이터를 특정한 조건에 따라 일정한 순서가 되도록 다시 배열하는 일을 말합니다. 정렬알고리즘은 시간 복잡도에 따라 성능이 평가되고 성능이 좋을 수록 구현이 어려워집니다. 대표적인 정렬알고리즘입니다. simple sort Bubble sort (버블 정렬) Selection sort (선택 정렬) Insertion sort (삽입 정렬) complex sort Merge sort (병합 정렬) Quick sort (퀵 정렬) 정렬알고리즘의 time complexity를 비교해면 다음과 같습니다. time complexity는 n개의 입력에대해 알고리즘이 문제를 해결하는데 얼만큼의 시간이 걸리는지를 나타내는 것입니다. simple sort가 complex sort보다 time complexity가 높은것을 .. K-means 클러스터링 (군집화) : 명확한 분류 기준이 없는 상황에서 비슷한 데이터들 끼리 묶어 주는 분류 알고리즘 K-means : k개의 클러스터 개수가 주어져있을 때, 주어진 데이터들을 k개의 클러스터로 묶는 중심기반 알고리즘 임의로 지정한 k개의 중심점이 새로운 label역할을 한다. 중심점 간의 cost를 최소화 하는 방향으로 계속 update를 해주면서 그룹화를 수행한다. k-means알고리즘 작동순서 초기점 K를 설정한다. K : 중심점 묶일 그룹의 수와 같다. 중심점(centroid)간의 평균 거리가 많이 차이나지 않는 k를 선택해야한다. 적절한 k를 선택하기 위해 elbow curve를 사용한다. cluster를 부여한다 K개의 중심점과 개별 데이터간의 거리를 측정한다 가장 가까운 중심점으로 clu.. 클러스터링 K-means 피타고라스 정리를 응용하여 계산한 좌표축 사이의 두 점 사이의 직선거리를 유클리드 거리(Euclidian distance) 또는 L2 Distance라고 부릅 전체적인 K-mean 알고리즘의 순서는 다음과 같이 구성됩니다. K-mean 알고리즘의 순서 원하는 클러스터의 수(K)를 결정합니다. 무작위로 클러스터의 수와 같은 K개의 중심점(centroid)을 선정합니다. 이들은 각각의 클러스터를 대표합니다. 나머지 점들과 모든 중심점 간의 유클리드 거리를 계산한 후, 가장 가까운 거리를 가지는 중심점의 클러스터에 속하도록 합니다. 각 K개의 클러스터의 중심점을 재조정합니다. 특정 클러스터에 속하는 모든 점들의 평균값이 해당 클러스터 다음 iteration의 중심점이 됩니다.(이 중심점은 실제로.. 정보이론 / 엔트로피 정보량 : 정보를 표현하는데 필요한 bit 수 식 I (x) = -logP(x) 정보량 단위 : 주로, bit(비트)로 표현 - log 의 밑이 2 이면, 단위는 bit (비트, 실제적으로 많이 쓰이는 단위) - log 의 밑이 e 이면, 단위는 nat (natural unit) - log 의 밑이 10 이면, 단위는 hartley 더보기 로그의 밑이 2인 경우: 정보량은 비트(bit) 단위로 표현됩니다. 이 경우, 정보의 양은 이진(binary) 형태로 나타고, 정보의 "이진 단위"를 나타내게 됩니다. 주로 컴퓨터와 통신 분야에서 다룰 때 사용됩니다. 더보기 로그의 밑이 자연 로그 (ln)인 경우: 정보량은 나티(nat) 단위로 표현됩니다. 나티는 자연로그의 밑인 'e'를 사용하는 단위로, 정보량을 자.. 이전 1 ··· 9 10 11 12 13 14 다음