본 정보는 다음 디카 동호회 카페에서 참조하였습니다.
출처 - http://cafe421.daum.net/_c21_/bbs_search_read?grpid=11Kuk&fldid=3sqM&datanum=22&contentval=&
위그림은 디카에 CCD , C-MOS 센서 그림입니다.
칼라의 기본색은 R(Red) G(Green) B(Blue) 로 센서에서 색을 구별하기위해 센서 앞에 RGB 원색필터를 사용합니다.
그래서 위그림을 보면 하나하나의 셀이 RGB조합으로 되어있습니다.
자세히 보면 R,B 보다 G가 2배나 더 많이 있죠
R--25% G--50% B--25% 비율입니다.
이러한 배열을 Bayer pattern이라고 합니다.
그런데 왜 G 데이터가 R, B보다 2배가 많은것인지??
해답은 하나의 셀에서 filter 밖에 얹을 수 없기 때문에 입니다.
그래서 하나의 pixel 에서 얻을 수 있는 data 는 R 또는 G 또는 B 중에 한 가지 입니다.
그런데 컬러 영상을 얻기 위해서는 한 픽셀에 해당하는 R,G,B 세가지 데이터가 모두 필요한데 픽셀 하나의 자체적인 데이터는 R,G,B 세가지 중 한가지 밖에 가지지 못하기 때문에 인접 픽셀 데이터를 조해서 만들어 냅니다.
이를 color interpolation이라고 하는데 위그림 패턴을 자세히 보면 RGB 가 모두 조합되게 되어있습니다.
세 종류의 data 를 골고루분산하는 방법을 찾다 보면 결국 Bayer pattern 과 같이 한 종류(G) 가 다른 종류의 pixel 보다 2 배 많아지게됩니다.
그렇다면 어떤 종류의 pixel 에게 두 배 더 많은 영역을 할당할 것인가 하는 문제가 생기는데 사람눈의 망막에는 색을 구분하는 원추세포와 명암만을 구분하는 간상세포가 있습니다.
원추세포는 약 1000만개 정도이고 간상세포는 약 1억개 정도가 있습니다.
그래서 사람의 눈은 색깔정보 보다는 밝기정보에 더 민감합니다.
색깔이 조금 다른 것은 구별을 잘 못하지만 밝기가 조금 변하면 금방 알아차립니다.
우리 눈이 인식하는 밝기정보는 R, G, B 중에 G 값의 영향을 가장 크게 받습니다.
식으로 하면 Y = 0.6 G + 0.3 R + 0.1 B 입니다.
따라서 우리눈이 잘 보는 G pixel 에 두배의 영역을 할당해서 센서를 제조합니다.
댓글 없음:
댓글 쓰기