Local feature 기반의 물체인식을 위한 방법(SIFT, SURF 등)에 관한 내용입니다.
--
구성
1. 잡담
2. 물체인식
3. 3일에 만드는 고속물체인식시스템
--
1. 잡담
컴퓨터 비전 분야에서 물체인식을 위한 대부분의 알고리즘들은
실험환경에 따라 그 결과가 확연히 달라집니다.
물론 비교적 일반적인 환경에서도 좋은 결과(인식률, 성능 등)을 보여주는 방법들이
많이 제안되고 있지만, 아직까지도 한계는 분명히 존재합니다.
즉, 이 분야의 문제들은 안타깝게도 대부분 케이스 바이 케이스의 문제라는 것이다.
어찌보면 그렇기 때문에 우리에게는 일거리가 많아져
먹고 살거리가 많아진다는 얘기로 받아 들일 수도 있겠지만.
* "먹고 살거리"라는 단어를 보니 갑자기 떠오르는 이야기
기본적인 비전시스템의 구성은 다음과 같이 생각할 수 있습니다.
1. 영상의 입력 --> 2. 영상정보의 처리 --> 3. 어플리케이션(User interface)
(* input, system, output으로 간단하게 생각하면 접근이 쉬워진다는 개인적인 판단하에)
카메라로 영상을 입력 받기까지만(1. 영상의 입력 단계)해도 엄청난 노이즈를 발생시키는 팩터(factor)들이 무자비하게 많지만, 제대로 영상이 입력되었다 해도 영상내의 정보(2. 영상정보의 처리 단계) 또한 만만치 않을테니. 그리고 처리된 정보를 활용해서 필요한 목적을 위한 무엇인가를 만들어 내는 단계(3. 어플리케이션)까지.
하나의 시스템을 만든다는 것이 그리 간단하지 않음을 또 한번 절실히 느낍니다.
위의 단계 이외에도 상용화를 위해서 해야 할 일들은
최적화부터 시작해서 엄청나게 많을테니까요.
아무래도 제가 공부하고 있는 것의 주요 초점사항은 2. 영상정보의 처리가 되어 왔지만 앞으로는 3. 어플리케이션(SmartPal)과 함께 열심히 무한 삽질을 해나가려 합니다.
산 넘어 산입니다만 그래도 한 걸음씩 걸어가야 합니다.
--
제일 위에서 언급하였듯이 비전 시스템은 어떤 환경에서는 100%에 가까운 정확도를 가지지만 또 다른 환경에서는 전혀 인식이 불가할 수도 있습니다.
이미 SIFT, SURF 등 수도 없이 많은 방법들이 제안되어 왔고 좋은 결과들을 보여주고 있으며 단점들이 보완된 여러가지 방법들, 그리고 다른 접근방법들도 매년 여러 학회, 저널들을 통해서 쏟아져 나오고 있습니다.
적어도 그들의 실험환경에서는.
지금 제 연구의 시발점에도 카메라를 이용해서 물체 인식을 하는 단계가 필요합니다.
아무리 좋은 알고리즘이라도 본인이 구성할 실험환경에 적절한가는 직접 해보지 않는 이상 알 수가 없습니다.
물론 똑같은 방법을 그대로 답습하고 싶은 생각은 없습니다만.
어찌되었던 그게 무엇이고 어떻게 생겨먹은 친구인지
우리 실험환경에서는 왜 좋은지, 안 좋은지에 대한 이전 연구들의 분석은 반드시 필요합니다.
그래야 새로운 것들을 만들 수 있습니다.
이미 30년 이상 머리 좋다는 사람들이 잔뜩 연구해 둔 이 분야에서 내가 새로운 무엇인가를
만들어 낸다는 것은 너무(?) 어려운 일일지라도 모른다는 생각이 압도적입니다.
하지만 기존 연구들의 리뷰와 함께 그것이 무엇인지 가장 기본적인 것 부터 알아둘 필요는 분명히 있습니다.
창조는 모방으로부터. 그리고 모든일은 철저하게 기초부터. 조금 느리게 가더라도.
사실은 제가 아는 것이 너무 부족하기 때문이기도 합니다.
* 기초의 중요성
또한 그런 과정없이 맨땅에 헤딩을 해서 10년이 걸려 새로운 것을 만들었을 때,
이미 오래전에 다 만들어져 있는 내용들이라면 얼마나 허무할까 하는 생각도 듭니다.
--
2. 물체인식
쓸데없는 얘기들이 너무 길어져 버렸습니다.
각설하고.
Bag of Features에 대한 정보를 얻으라고 센세가 알려주신 웹사이트를 뒤적거리다가
물체인식에 대한 구현의 내용들이 있어서 함께 정리해 나가고자 합니다.
제목은 「3日で作る高速特定物体認識システム」인데,
굳이 우리말로 번역하자면
「3일만에 만들어보는 특정물체의 고속인식 시스템 정도」가 아닐까 싶네요.
일본의 정보처리학회(情報処理学会)의 학회지 "정보처리(情報処理)"의 2008년 9월호(Vol.49, No.9)에 실린 특집기사의 내용을 위 블로그의 주인장이 친절하게 설명해 두었습니다.
http://d.hatena.ne.jp/aidiary/20091018/1255862734
aidiary 주인장의 이야기처럼 3일만에 가능할런지는 모르겠지만. 하.
코딩은 OpenCV를 이용하고 있습니다.
일본에는 이런 자료들이 많은 것 같습니다.
다양한 종류의 책에서부터 블로그까지 많은 정보들을
모국어(일본어)로 친절한 설명과 실험방법까지 상세히 기록하고 있는 자료들이 많습니다.
저의 허접한 번역과 이 기록들이 한국어를 모국어로 하는 누군가 단 한사람에게라도
작은 도움이라도 된다면 저는 너무나 기쁠 것 같습니다.
안타깝게도 위 논문의 pdf파일은 학회의 회원이 아닌경우에는 무료로 다운로드는 불가합니다.
그리고 함께 참고하면 도움이 된다는 2009년 인공지능학회(人工知能学会)에 실린 「セマンティックギャップを超えて―画像・映像の内容理解に向けてー(시맨틱 갭을 넘어서 - 영상, 화상에 대한 이해를 위해서)」또한 무료로 다운로드가 불가하다네요.
■ 물체인식(物体認識、Object Recognition)
물체인식은 입력되는 영상내에 무엇이 있는가를 인식하는 처리과정으로서 특정물체인식(特定物体認識)과 일반물체인식(一般物体認識)으로 나누어집니다.
특정물체인식은 어떤 특정물체와 동일한 물체가
영상내에 존재하는지를 찾는 identification의 처리이며,
일반물체인식은 영상내의 자동차, 사람, 책상, 의자, 침대 등과 같은
일반적인 물체의 카테고리를 찾아내는 classification의 처리입니다.
특정물체인식은 컴퓨터의 성능의 발달로 상용화(휴대폰의 얼굴인식기능) 되어가고 있는 단계입니다.
그에 반해 일반물체인식은 아직 어려운 부분들이 많이 남아 있어서 최근의 연구는 이 부분에서 조금은 더 활발하게 진행되고 있다고 합니다.
일반 물체의 어려운 부분 중 하나인
시맨틱 갭(セマンティックギャップ、semantic gap)입니다.
예를들면,
같은 자동차라고 하는 카테고리에서도 여러가지 형태, 색, 종류를 가지기 때문에
자동차에 대한 본질적인(의미론적)인 내용을 알지 못하는 컴퓨터(로봇)는
자동차의 여러가지 형태, 색 등이 바뀌어 버릴 경우에는 인식을 하는데 어려움이 있습니다.
이와 같은 인공지능의 어려움은 기계(컴퓨터, 로봇)가 의미(음성에서도 영상에서도)를
이해할 수 없다는 것에서 부터 시작됩니다.
최근에는 웹상에서 태그를 부착해서 대량의 화상 데이터와 머신러닝을 이용해
스스로 학습할 수 있는 시스템을 만드는 연구들이 진행되고 있습니다.
이제, 원래 하고자 했던 3일에 만드는 고속물체인식시스템을 살펴 보겠습니다.
--
3. 3일에 만드는 고속물체인식시스템 (3日で作る高速特定物体認識システム)
■ 물체인식시스템의 구성
전체적인 시스템 구성은 아래의 그림과 같습니다.
출처: http://www.m.cs.osakafu-u.ac.jp/IPSJ_3days/
특정물체인식은 인식하고 싶은 물체들의 특징을 추출하여
물체모델 데이터베이스에 미리 등록해 둡니다.
인식을 위해서는 새롭게 입력되는 영상속에서 물체의 특징을 추출해서,
사전에 등록해둔 물체모델 데이터베이스에 있는 각 물체의 특징과의 유사도를 계산합니다.
그 중에서 유사도가 가장 높게 나타나는 물체를 인식의 결과로 출력합니다.
이를 위해서 위의 논문은 아래와 같은 순서로 진행됩니다.
여기에서는 특정물체인식만을 다루고 있는 것 같습니다.
(1) 저속 특정물체인식시스템의 구축 (低速特定物体認識システムの構築) - 1일차
Local feature descriptor의 대표적인 방법인 SIFT(Scale Invariant Feature Transform)를 이용하여 물체의 국소특징을 추출하고, 물체데이터베이스모델과의 대응을 위해서 가장 단순한 선형 최근접점 탐색으로 제일 가까운 점(유사도가 가장 가까운 점)을 찾습니다.
단순 선형탐색은 데이터베이스내의 모든 물체들과의 비교를 해야하기 때문에
계산량이 너무 많아서 (저속) 실용적이지 않지만
우선 동작하는 시스템을 만드는 것이 목표입니다.
(2) 근사 최근접점탐색을 이용한 고속화 (近似最近傍探索を用いた拘束化) - 2일차
선형탐색은 계산 속도가 너무 늦기 때문에 물체모델데이터베이스의 국소 특징량을 KD-tree또는 Locality Sensitive Hashing(LSH)를 이용하여 색인(index)을 만들어 최근접 탐색을 고속화 합니다.
(3) 유저 인터페이스의 구축 (ユーザインタフェースの構築) - 3일차
물체모델 데이터베이스의 작성과 인식 결과의 표시 등을 위한 인터페이스를 구축합니다.
■ 국소특징량(局所特徴量、local feature)
* Local feature를 우리말로는 어떻게 표현해야 할까요.
국부특징(?), 국소특징(?) 하. 어색합니다.
위에서도 국소 특징으로 사용했으니 일본 용어를 따라 국소 특징이라 부르기로 합니다.
특정물체인식 시스템에서는 데이터베이스에 등록된 물체만 인식이 가능합니다.
그럼 전혀 다른 영상이어도 인식이 가능할까요?
영상에서 추출한 다수의 국소특징들을 이용하기 때문에,
물체의 포즈, 크기가 다소 변하거나 일부(말그대로 조그마한 일부)가 가려져도 제대로 인식이 가능하다고 하네요. 뭐 저도 그렇게 보고 배웠습니다만.
직접 해보면 어느정도인지 왜 그런지는 더 정확히 알 수 있겠지요.
영상의 국소 특징에 의한 물체의 모델화는 이 분야를 크게 발전시킨 것 같습니다.
(ブレークスルー = break through)
아래 영상은 SIFT의 예제입니다.
(a) Original image
(b) Test image
영상 (a)는 원래의 레나 누님(?)의 영상입니다.
그리고 (b)는 회전, 크기, 가림현상 등의 테스트를 위해 (a)의 영상을
사이즈를 80% 축소(scale), 시계방향으로 90˚회전 (rotation),
명도 낮춤(illumination), 주위 배경을 은폐(occlusion)시킨 테스트 영상입니다.
각각의 노란색점이 키포인트 (interest point, 특징점을 부르는 법은 여러가지)로
각 키포인트가 각각 128차원의 SIFT 특징들을 가집니다.
위 영상의 경우 대략 1,000개 정도의 키포인트를 얻을 수 있습니다.
두 영상을 보면 알 수 있듯이 영상은 다소 바뀌었지만
키포인트의 위치는 거의 유사하고 SIFT특징량의 값도 가까운 것을 알 수 있습니다.
(이 부분은 저의 부족한 내공으로는 사실 설명만큼 잘 와닿지는 않는 부분입니다만.)
뭐 그래서 SIFT를 영상의 크기(scale), 조명(illumination), 평행이동, 회전(rotation), 은폐(occlusion)에 대해서 강인하다고 하는 이유라고 하네요.
즉, (a)영상의 국소특징을 데이터베이스에 등록해두면,
다소 변화된 (b)영상이 입력으로 들어 올 경우에 유사한 키포인트값들을 가지기 때문에
인식이 가능하다는 것입니다.
유사화상시스템만들기(Global Feature)에서는 컬러 히스토그램(color histogram)을 특징으로 사용하는데 Global Feature로 영상 전체로 부터 1개의 특징을 얻습니다.
반면에, 국소 특징은 영상 전체가 아니라
영상의 국소로부터 다수 (위의 경우 약 1,000개)의 특징을 얻습니다.
* Global feature 부분은 local feature를 마친 후에 정리 하겠습니다
--
아무래도 직접 구현 해보는 것이 가장 빠른 길인 것 같습니다.
무언가 잡히는 듯 하면서도 붕 떠서 정리가 잘 안됩니다.
자, 그럼 다음은 1일차 내용인
물체인식에 관한 이야기 - (2) SIFT특징 추출하기를 공부해 봅시다.
아, 3일에 만드는 고속물체인식시스템의 진행은 다음과 같습니다.
물체 인식에 관한 이야기 - 목록
물체인식에 관한 이야기 - (1) 시작하기
물체인식에 관한 이야기 - (2) SIFT특징 추출
물체인식에 관한 이야기 - (3) SURF 특징추출하기
물체인식에 관한 이야기 - (4) 특징점의 매칭
물체인식에 관한 이야기 - (5) 물체 모델의 데이터 베이스 작성
물체인식에 관한 이야기 - (6) 선형탐색을 이용한 특정 물체 인식
물체인식에 관한 이야기 - (7) 최근접탐색의 고속화
--
* 본 자료의 내용은 aidiary의 내용을 바탕으로 하고 있습니다.
* 일본어가 가능하신 분은 직접 aistudy 블로그에 엑세스하셔서 보는 것이
저의 허접한 번역과 부족한 코멘트 보다는 훨씬 이해도 쉽고 유익하리라 판단됩니다.
--
References
3日で作る高速特定物体認識システム http://www.m.cs.osakafu-u.ac.jp/IPSJ_3days/
aidiary http://d.hatena.ne.jp/aidiary/20091018/1255862734
SIFT http://www.cs.ubc.ca/~lowe/keypoints/
SURF http://www.vision.ee.ethz.ch/~surf/
--
20100723
물론 똑같은 방법을 그대로 답습하고 싶은 생각은 없습니다만.
어찌되었던 그게 무엇이고 어떻게 생겨먹은 친구인지
우리 실험환경에서는 왜 좋은지, 안 좋은지에 대한 이전 연구들의 분석은 반드시 필요합니다.
그래야 새로운 것들을 만들 수 있습니다.
이미 30년 이상 머리 좋다는 사람들이 잔뜩 연구해 둔 이 분야에서 내가 새로운 무엇인가를
만들어 낸다는 것은 너무(?) 어려운 일일지라도 모른다는 생각이 압도적입니다.
하지만 기존 연구들의 리뷰와 함께 그것이 무엇인지 가장 기본적인 것 부터 알아둘 필요는 분명히 있습니다.
창조는 모방으로부터. 그리고 모든일은 철저하게 기초부터. 조금 느리게 가더라도.
사실은 제가 아는 것이 너무 부족하기 때문이기도 합니다.
* 기초의 중요성
또한 그런 과정없이 맨땅에 헤딩을 해서 10년이 걸려 새로운 것을 만들었을 때,
이미 오래전에 다 만들어져 있는 내용들이라면 얼마나 허무할까 하는 생각도 듭니다.
--
2. 물체인식
쓸데없는 얘기들이 너무 길어져 버렸습니다.
각설하고.
Bag of Features에 대한 정보를 얻으라고 센세가 알려주신 웹사이트를 뒤적거리다가
물체인식에 대한 구현의 내용들이 있어서 함께 정리해 나가고자 합니다.
제목은 「3日で作る高速特定物体認識システム」인데,
굳이 우리말로 번역하자면
「3일만에 만들어보는 특정물체의 고속인식 시스템 정도」가 아닐까 싶네요.
일본의 정보처리학회(情報処理学会)의 학회지 "정보처리(情報処理)"의 2008년 9월호(Vol.49, No.9)에 실린 특집기사의 내용을 위 블로그의 주인장이 친절하게 설명해 두었습니다.
http://d.hatena.ne.jp/aidiary/20091018/1255862734
aidiary 주인장의 이야기처럼 3일만에 가능할런지는 모르겠지만. 하.
코딩은 OpenCV를 이용하고 있습니다.
일본에는 이런 자료들이 많은 것 같습니다.
다양한 종류의 책에서부터 블로그까지 많은 정보들을
모국어(일본어)로 친절한 설명과 실험방법까지 상세히 기록하고 있는 자료들이 많습니다.
저의 허접한 번역과 이 기록들이 한국어를 모국어로 하는 누군가 단 한사람에게라도
작은 도움이라도 된다면 저는 너무나 기쁠 것 같습니다.
안타깝게도 위 논문의 pdf파일은 학회의 회원이 아닌경우에는 무료로 다운로드는 불가합니다.
그리고 함께 참고하면 도움이 된다는 2009년 인공지능학회(人工知能学会)에 실린 「セマンティックギャップを超えて―画像・映像の内容理解に向けてー(시맨틱 갭을 넘어서 - 영상, 화상에 대한 이해를 위해서)」또한 무료로 다운로드가 불가하다네요.
■ 물체인식(物体認識、Object Recognition)
물체인식은 입력되는 영상내에 무엇이 있는가를 인식하는 처리과정으로서 특정물체인식(特定物体認識)과 일반물체인식(一般物体認識)으로 나누어집니다.
특정물체인식은 어떤 특정물체와 동일한 물체가
영상내에 존재하는지를 찾는 identification의 처리이며,
일반물체인식은 영상내의 자동차, 사람, 책상, 의자, 침대 등과 같은
일반적인 물체의 카테고리를 찾아내는 classification의 처리입니다.
특정물체인식은 컴퓨터의 성능의 발달로 상용화(휴대폰의 얼굴인식기능) 되어가고 있는 단계입니다.
그에 반해 일반물체인식은 아직 어려운 부분들이 많이 남아 있어서 최근의 연구는 이 부분에서 조금은 더 활발하게 진행되고 있다고 합니다.
일반 물체의 어려운 부분 중 하나인
시맨틱 갭(セマンティックギャップ、semantic gap)입니다.
예를들면,
같은 자동차라고 하는 카테고리에서도 여러가지 형태, 색, 종류를 가지기 때문에
자동차에 대한 본질적인(의미론적)인 내용을 알지 못하는 컴퓨터(로봇)는
자동차의 여러가지 형태, 색 등이 바뀌어 버릴 경우에는 인식을 하는데 어려움이 있습니다.
이와 같은 인공지능의 어려움은 기계(컴퓨터, 로봇)가 의미(음성에서도 영상에서도)를
이해할 수 없다는 것에서 부터 시작됩니다.
최근에는 웹상에서 태그를 부착해서 대량의 화상 데이터와 머신러닝을 이용해
스스로 학습할 수 있는 시스템을 만드는 연구들이 진행되고 있습니다.
이제, 원래 하고자 했던 3일에 만드는 고속물체인식시스템을 살펴 보겠습니다.
--
3. 3일에 만드는 고속물체인식시스템 (3日で作る高速特定物体認識システム)
■ 물체인식시스템의 구성
전체적인 시스템 구성은 아래의 그림과 같습니다.
특정물체인식은 인식하고 싶은 물체들의 특징을 추출하여
물체모델 데이터베이스에 미리 등록해 둡니다.
인식을 위해서는 새롭게 입력되는 영상속에서 물체의 특징을 추출해서,
사전에 등록해둔 물체모델 데이터베이스에 있는 각 물체의 특징과의 유사도를 계산합니다.
그 중에서 유사도가 가장 높게 나타나는 물체를 인식의 결과로 출력합니다.
이를 위해서 위의 논문은 아래와 같은 순서로 진행됩니다.
여기에서는 특정물체인식만을 다루고 있는 것 같습니다.
(1) 저속 특정물체인식시스템의 구축 (低速特定物体認識システムの構築) - 1일차
Local feature descriptor의 대표적인 방법인 SIFT(Scale Invariant Feature Transform)를 이용하여 물체의 국소특징을 추출하고, 물체데이터베이스모델과의 대응을 위해서 가장 단순한 선형 최근접점 탐색으로 제일 가까운 점(유사도가 가장 가까운 점)을 찾습니다.
단순 선형탐색은 데이터베이스내의 모든 물체들과의 비교를 해야하기 때문에
계산량이 너무 많아서 (저속) 실용적이지 않지만
우선 동작하는 시스템을 만드는 것이 목표입니다.
(2) 근사 최근접점탐색을 이용한 고속화 (近似最近傍探索を用いた拘束化) - 2일차
선형탐색은 계산 속도가 너무 늦기 때문에 물체모델데이터베이스의 국소 특징량을 KD-tree또는 Locality Sensitive Hashing(LSH)를 이용하여 색인(index)을 만들어 최근접 탐색을 고속화 합니다.
(3) 유저 인터페이스의 구축 (ユーザインタフェースの構築) - 3일차
물체모델 데이터베이스의 작성과 인식 결과의 표시 등을 위한 인터페이스를 구축합니다.
■ 국소특징량(局所特徴量、local feature)
* Local feature를 우리말로는 어떻게 표현해야 할까요.
국부특징(?), 국소특징(?) 하. 어색합니다.
위에서도 국소 특징으로 사용했으니 일본 용어를 따라 국소 특징이라 부르기로 합니다.
특정물체인식 시스템에서는 데이터베이스에 등록된 물체만 인식이 가능합니다.
그럼 전혀 다른 영상이어도 인식이 가능할까요?
영상에서 추출한 다수의 국소특징들을 이용하기 때문에,
물체의 포즈, 크기가 다소 변하거나 일부(말그대로 조그마한 일부)가 가려져도 제대로 인식이 가능하다고 하네요. 뭐 저도 그렇게 보고 배웠습니다만.
직접 해보면 어느정도인지 왜 그런지는 더 정확히 알 수 있겠지요.
영상의 국소 특징에 의한 물체의 모델화는 이 분야를 크게 발전시킨 것 같습니다.
(ブレークスルー = break through)
아래 영상은 SIFT의 예제입니다.
(b) Test image
영상 (a)는 원래의 레나 누님(?)의 영상입니다.
그리고 (b)는 회전, 크기, 가림현상 등의 테스트를 위해 (a)의 영상을
사이즈를 80% 축소(scale), 시계방향으로 90˚회전 (rotation),
명도 낮춤(illumination), 주위 배경을 은폐(occlusion)시킨 테스트 영상입니다.
각각의 노란색점이 키포인트 (interest point, 특징점을 부르는 법은 여러가지)로
각 키포인트가 각각 128차원의 SIFT 특징들을 가집니다.
위 영상의 경우 대략 1,000개 정도의 키포인트를 얻을 수 있습니다.
두 영상을 보면 알 수 있듯이 영상은 다소 바뀌었지만
키포인트의 위치는 거의 유사하고 SIFT특징량의 값도 가까운 것을 알 수 있습니다.
(이 부분은 저의 부족한 내공으로는 사실 설명만큼 잘 와닿지는 않는 부분입니다만.)
뭐 그래서 SIFT를 영상의 크기(scale), 조명(illumination), 평행이동, 회전(rotation), 은폐(occlusion)에 대해서 강인하다고 하는 이유라고 하네요.
즉, (a)영상의 국소특징을 데이터베이스에 등록해두면,
다소 변화된 (b)영상이 입력으로 들어 올 경우에 유사한 키포인트값들을 가지기 때문에
인식이 가능하다는 것입니다.
유사화상시스템만들기(Global Feature)에서는 컬러 히스토그램(color histogram)을 특징으로 사용하는데 Global Feature로 영상 전체로 부터 1개의 특징을 얻습니다.
반면에, 국소 특징은 영상 전체가 아니라
영상의 국소로부터 다수 (위의 경우 약 1,000개)의 특징을 얻습니다.
* Global feature 부분은 local feature를 마친 후에 정리 하겠습니다
--
아무래도 직접 구현 해보는 것이 가장 빠른 길인 것 같습니다.
무언가 잡히는 듯 하면서도 붕 떠서 정리가 잘 안됩니다.
자, 그럼 다음은 1일차 내용인
물체인식에 관한 이야기 - (2) SIFT특징 추출하기를 공부해 봅시다.
아, 3일에 만드는 고속물체인식시스템의 진행은 다음과 같습니다.
물체 인식에 관한 이야기 - 목록
물체인식에 관한 이야기 - (1) 시작하기
물체인식에 관한 이야기 - (2) SIFT특징 추출
물체인식에 관한 이야기 - (3) SURF 특징추출하기
물체인식에 관한 이야기 - (4) 특징점의 매칭
물체인식에 관한 이야기 - (5) 물체 모델의 데이터 베이스 작성
물체인식에 관한 이야기 - (6) 선형탐색을 이용한 특정 물체 인식
물체인식에 관한 이야기 - (7) 최근접탐색의 고속화
--
* 본 자료의 내용은 aidiary의 내용을 바탕으로 하고 있습니다.
* 일본어가 가능하신 분은 직접 aistudy 블로그에 엑세스하셔서 보는 것이
저의 허접한 번역과 부족한 코멘트 보다는 훨씬 이해도 쉽고 유익하리라 판단됩니다.
--
References
3日で作る高速特定物体認識システム http://www.m.cs.osakafu-u.ac.jp/IPSJ_3days/
aidiary http://d.hatena.ne.jp/aidiary/20091018/1255862734
SIFT http://www.cs.ubc.ca/~lowe/keypoints/
SURF http://www.vision.ee.ethz.ch/~surf/
--
20100723