fast rcnn 예제

개체 감지를 위해 학습된 모델의 가중치를 사용할 수 있습니다. 더 빠른 RCNN은 경계 상자 좌표를 예측하지만 마스크 RCNN은 픽셀 별 예측에 사용됩니다. 그래서, 그것은 완전히 당신이 해결 하려는 문제의 종류에 따라 달라 집니다. 내 의견으로는, 이러한 알고리즘의 두 가지가 좋은 손에 문제의 유형에 따라 사용할 수 있습니다. 네트워크를 교육 할 때 빠른 R-CNN의 일반적인 데이터 흐름은 하드 부정적인 예가 쉽게 잘못 분류되어 아래에 기록됩니다. 학습 루프 중에 이러한 거짓 양성 샘플을 명시적으로 찾아 분류기를 개선하기 위해 학습 데이터에 포함시킬 수 있습니다. 빠른 R-CNN 손실 함수도 몇 가지 조작으로 동일한 방식으로 구현됩니다. 마지막으로 감지된 개체가 있는 이미지가 “results_imgs” 폴더에 저장됩니다. 다음은 더 빠른 R-CNN을 구현한 후 얻은 예측의 몇 가지 예입니다. 우리는 다른 클래스와 해당 경계 상자가 있습니다. 이제 이러한 이미지에 대한 모델을 학습해 보겠습니다. keras_frcnn 라이브러리를 사용하여 모델을 학습하고 테스트 이미지에 대한 예측을 얻을 것입니다.

Fast RCNN은 SPP-net 및 RCNN의 아이디어를 사용하여 SPP-net의 주요 문제를 해결합니다. 공간 풀링을 통해 그라데이션을 전파하기 위해 풀링 영역이 겹치기 때문에 셀에서 그라데이션이 펌핑될 수 있다는 점을 제외하고는 최대 풀링 그라데이션 계산과 매우 유사한 간단한 역전파 계산을 사용합니다. 여러 리전을 첫 번째 기사에서 보았던 R-CNN 제품군(R-CNN, 빠른 R-CNN 및 빠른 R-CNN)의 다양한 알고리즘을 신속하게 요약해 보겠습니다. 이렇게 하면 이전에 는 볼 수 없었던 이미지(새 데이터)에 있는 경계 상자를 예측할 때 나중에 구현 부분에 대한 토대를 마련하는 데 도움이 됩니다. 다음 모델을 현재 디렉토리에 다운로드하고 python3 demo.py 실행하여 단일 이미지 추론을 얻으려면 데이터 집합 $Dataset$–네트워크 $Network$–params $MODEL_FILE$ -이미지 $YOUR_IMAGE$를 실행합니다. 예를 들어 python3 demo.py –dataset voc –network vgg16 –params vgg16_voc0712.params –image myimage.jpg, GPU를 사용 하 여 GPU를 사용 하 여 gpu0를 추가 하 고 CPU를 사용 하도록 설정 하지 않습니다. 네트워크마다 구성이 다릅니다. 데이터 집합마다 개체 클래스 이름이 다릅니다.