به منظور کاهش میزان تشخیص های false positive، معمولا نیاز به اضافه کردن نمونه های negative بیشتری داریم چیزی که این میان اهمیت داره که نمونه negative تصادفی به مدل اضافه نکنیم .هر چقدر این نمونه های negative کم و با معنی باشن تاثیر بهتری بر روی مدل داره
ابتدا با همین دیتاستی که دارید مدل را با نمونه های مثبت و منفی فعلی آموزش بدید سپس میزان قطعیت کلاسیفایر را کم کنید که کلاسیفایر false postive به شما بده یعنی پنجره هایی از پس زمینه به اشتباه به شما بجای آبجکت بده سپس همه این موارد را جمع کنید و به اندازه نمونه های مثبت آنها را تغییر اندازه بدید سپس این نمونه ها را به دیتاست اضافه کنید و دوباره عملیات آموزش را انجام بدید می بینید که دقت کلاسیفایر شما بالاتر رفته.