Publivate (215) 썸네일형 리스트형 01. 운영체제 - 도입 운영체제: 컴퓨터 시스템의 자원을 효율적으로 관리(프로세서, 기억장치, 입출력 장치) CPU를 어떻게 할당?얼마만큼 할당? 메모리 공간을 어떻게 할당? --- 1.정의: 운영체제는 하드웨어 바로 위에 설치되는 소프트웨어 가. 좁은 의미: 커널(메모리에 항상 상주하는 부분)나. 널은 의미: 커널을 포함한 주변 시스템을 다루는 유틸리티를 포함 2. 목적가. 하드웨어(컴퓨터 시스템의 자원)를 효율적으로 관리(하드웨어 자원과 소프트웨어 자원) 나. 컴퓨터 시스템을 편리하게 사용하게 해주는 것 3. 분류가. 동시 작업 가능1) 단일 작업(single tasking) 2) 다중 작업(multi tasking): 현대의 대부분 OS 나. 사용자의 수 (계정을 만들어서 동시 접속 가능 여부) 1) 단일 사용자(sing.. [모두를 위한 딥러닝] 7일차 stride: filter가 움직이는 크기pad: 바깥의 빈공간(보통 1을 줘서(filter가 3*3) 가장자리 부분도 filter가 갈 수 있게 해줌) pooling = sampling 비슷한 것 한 layer을 뽑아서 사이즈를 작게 만드는 것 [모두를 위한 딥러닝] 6일차 forward는 W,b 값을 미리 정해서 대입 backpropagation 은 편미분을 해서 뒤에서 부터 앞의 값을 알아냄 sigmoid 함수 (S 모양) 을 사용하면 정확도가 0.5 에서 멈춘다. 그 이유는 layer가 많아질수록 input쪽에 가까운 것은 영향력이 적어진다. (Vanishing gradient) 0~1 의 값임으로 0.001 같은 값들이 반복해서 곱해지기 때문에 그래서 이것을 보완하기 위해 ReLu 라는 것을 사용한다. ReLu는 0이하는 0, 0이상은 linear한 것이다. 그리고 마지막에는 sigmoid를 사용한다. 왜냐하면 결과를 0~1 값으로 표현하기 위해서 이다. maxout eLu tanh 등 다른 함수도 있다. 초기값 잘 설정하는 법 모두 0은 안 된다. forward b.. [모두를 위한 딥러닝] 5일차 Learning rate 알파값Learning rate를 잘 정해야 한다. 너무 크면 한 번에 너무 많이 움직여서 포물선에서 왔다갔다하거나 바깥으로 나갈 수 있다. (overshooting)너무 작으면 시간이 너무 오래 걸려서 중간에 멈출 수도 있다. 특별한 답은 없다. 보통 처음에 0.01 로 지정하고 반복해서 찾아야한다. X 데이터를 preprocessing 을 잘 설정 해야하는 이유. X 데이터의 값이 차이가 크면 원 모양(등고선)이 아니라 한 쪽으로 치우쳐져서 (한 쪽의 등고선이 너무 좁아짐) 알파값이 잘 정해져도 안 발산이 일어날 수 있다. x'j = (xj - uj)/o'(시그마) overfitting 학습 데이터에 너무 최적이다보면 실제 데이터에는 안 맞을 수도 있다. 해결법은 trainin.. [모두를 위한 딥러닝] 4일차 cost function이 1/(1+e^-W^TX) 일 경우 linear 하지 않으므로 중간에 다른 값에서 멈출 수 있어서 사용할 수 없다. 그래서 cost function 을 바꿔야한다. cost(W) = 1/m(시그마 c(H(x),y) c(H(x),y) = -log(H(x)) : y = 1 -log(1-H(x)) : y = 0 e 함수를 역함수인 로그로 바꿈 cost 함수는 예측 값과 실제 값이 같으면 작아지고 틀리면 커지는 것 y=1H(x) = 1 -> cost(1) = 0 H(x) = 0 -> cost = 무한 잘못 y=0H(x) = 0, cost = 0 H(x) = 1, cost = 무한 잘못 C(H(x),y) = -log(H(x)) - (1-y)log(1-H(x)) //if문을 없애서 표현 y.. [모두를 위한 딥러닝] 3일차 Hypothesis H(x)= Wx + b W와 b를 학습Cost function cost(W,b) = 1/m(시그마(H(xi)-yi)^2)Gradient descent algorithm multi-variables H(x1,x2,x3) = w1x1 + w2x2 + w3x3cost(W,b) = 1/m(시그마(H(x1i,x2i,x3i)-yi)^2) 너무 복잡해져서 해결법은 Matrix 이용 (x1 x2 x3) ( w1 ) = (x1w1 + x2w2 + x3w3) w2w3 H(X) = XW [모두를 위한 딥러닝] 2일차 supervised 데이터를 가지고 학습 regression 범위를 사용 Cost function(Loss function): 가설과 실제 데이터가 얼마나 차이나는 지 (H(x) - y)^2 -> 제곱을 함으로써 차이를 양수로 나타내고 차이가 크면 차이가 더 커진다. 각 점마다 따로 구해서 평균을 구하면 cost cost = 1/m (시그마(H(xi) -yi)^2) minmize cost(W, b) 하게 하는 W, b를 구해야한다. Gradient descent algorithm: 주어진 코스트를 최소화하는 데 이용 어느 점에서든지 시작을 한 뒤, W를 조금씩 바꾸면서 경사도를 계산한다. cost = 1/2m (시그마(H(xi) -yi)^2) W := W - a d/dW cost(W) 알파 라운드 -> .. [디지털 영상처리 설계] 내용 정리 Achromatic (Monochromatic) light: no color, only intensity - grey levelChromatic light: color attributeRadiance (W watt): 광원에서 나오는 에너지의 양Luminance (lm, Lumens): 센서같은 관측하는 것이 광원에서 받은 에너지의 양을 측정한 것Brightness (no unit): 주관적인 밝기 line(stripes) sensorhigh resolution여러 물질의 표면 검사 영상은 object에서 반사된 빛을 광학센서를 통해 ccd 센서로 x-y 격자에 표현 spatial sampling 이미지의 밝기 f(x,y) 는 i(x,y) 빛의 세기 r(x,y) 물체의 반사 의 곱 1pixel = 1by.. 이전 1 ··· 13 14 15 16 17 18 19 ··· 27 다음