Talaan ng mga Nilalaman:

Paano Makikita ang Mga Sakit sa Halaman Gamit ang Pag-aaral ng Makina: 6 Mga Hakbang
Paano Makikita ang Mga Sakit sa Halaman Gamit ang Pag-aaral ng Makina: 6 Mga Hakbang

Video: Paano Makikita ang Mga Sakit sa Halaman Gamit ang Pag-aaral ng Makina: 6 Mga Hakbang

Video: Paano Makikita ang Mga Sakit sa Halaman Gamit ang Pag-aaral ng Makina: 6 Mga Hakbang
Video: Paano Mababasa Ang Isip Ng Isang Tao? (14 PSYCHOLOGICAL TIPS) 2024, Hulyo
Anonim
Paano Makikita ang Mga Sakit sa Halaman Gamit ang Pag-aaral ng Makina
Paano Makikita ang Mga Sakit sa Halaman Gamit ang Pag-aaral ng Makina

Ang proseso ng pagtuklas at pagkilala sa mga halaman na may sakit ay palaging isang manu-manong at nakakapagod na proseso na nangangailangan ng mga tao na biswal na siyasatin ang katawan ng halaman na maaaring madalas na humantong sa isang hindi tamang pagsusuri. Hinulaan din na habang ang mga pandaigdigang pattern ng panahon ay nagsisimulang mag-iba dahil sa pagbabago ng klima, ang mga sakit sa pananim ay malamang na maging mas matindi at laganap. Samakatuwid, mahalagang bumuo ng mga system na mabilis at madaling masuri ang mga pananim at kilalanin ang isang partikular na sakit upang malimitahan ang karagdagang pinsala sa ani.

Sa Instructable na ito, susuriin namin ang isang konsepto ng pag-aaral ng makina na kilala bilang "Transfer Learning" upang mauri ang mga imahe ng mga may sakit na halaman ng bigas. Ang parehong pamamaraan ay maaaring repurposed para sa anumang iba pang mga problema sa pag-uuri ng imahe.

Hakbang 1: Mga uri ng Mga Sakit sa Palay

Mga Uri ng Sakit sa Palayan
Mga Uri ng Sakit sa Palayan

Ang palay ay isa sa pinakatanyag na mga sangkap na hilaw na pagkain na kinatamnan nang una sa buong Asya, Africa at South America ngunit madaling kapitan ng iba't ibang mga peste at sakit. Ang mga katangiang pisikal tulad ng pag-decolorization ng mga dahon ay maaaring magamit upang makilala ang maraming mga sakit na maaaring makaapekto sa ani ng palay. Halimbawa, sa kaso ng Brown-Spot, isang sakit na fungal na nakakaapekto sa proteksiyon na takip ng mga dahon, ang mga dahon ay natatakpan ng maraming maliliit na mga hugis-itlog na mga brown spot na may mga kulay-abo na sentro samantalang, sa kaso ng Leaf-Blast, ang mga dahon ay natatakpan na may mas malaking kayumanggi sugat. Katulad nito, ang mga dahon na apektado ng peste ng Rice Hispa ay maaaring makilala ng mga mahahabang marka ng trail na bubuo sa ibabaw ng dahon.

Hakbang 2: Paano Nakakita ng Mga Sakit ang Naunang Pamamaraan?

Paano Nakakita ng Mga Sakit ang Naunang Pamamaraan?
Paano Nakakita ng Mga Sakit ang Naunang Pamamaraan?

Ang mga naunang pamamaraan para sa awtomatikong pag-uuri ng mga imahe ng halaman na may sakit tulad ng mga classifier na batay sa panuntunan tulad ng ginamit sa [1], umaasa sa isang nakapirming hanay ng mga patakaran upang mai-segment ang dahon sa mga apektadong at hindi apektadong rehiyon. Ang ilan sa mga patakaran upang kunin ang mga tampok ay nagsasama ng pagmamasid sa pagbabago ng ibig sabihin at karaniwang paglihis sa pagitan ng kulay ng mga apektadong at hindi apektadong rehiyon. Ang mga panuntunan upang makuha ang mga tampok sa hugis ay nagsasangkot ng isa-isang paglalagay ng maraming mga primitive na hugis sa tuktok ng apektadong rehiyon at pagkilala sa hugis na sumasakop sa maximum na lugar ng apektadong rehiyon. Kapag ang mga tampok ay nakuha mula sa mga imahe, isang hanay ng mga nakapirming panuntunan ay ginagamit upang mauri ang mga imahe depende sa sakit na maaaring makaapekto sa halaman. Ang pangunahing sagabal ng naturang isang classifier ay mangangailangan ito ng maraming nakapirming mga patakaran para sa bawat sakit na kung saan ay maaaring gawin itong madaling kapitan sa maingay na data. Ipinapakita ng mga imahe sa itaas kung paano maaaring magamit ang isang puno ng desisyon na nakabatay sa panuntunan upang ma-segment ang imahe sa dalawang rehiyon.

1. Santanu Phadikar et al., "Pag-uuri ng mga sakit sa bigas gamit ang pagpili ng tampok at mga diskarte sa pagbuo ng panuntunan," Computers and Electronics in Agriculture, vol. 90, Ene 2013.

Hakbang 3: Paglipat ng Pag-aaral

Paglipat ng Pag-aaral
Paglipat ng Pag-aaral

Ang pamamaraan ng pag-uuri ng imahe na inilarawan sa Mga Instructionable na ito ay gumagamit ng pangunahing istraktura ng isang CNN na binubuo ng maraming mga convolutional layer, isang pooling layer, at isang pangwakas na ganap na konektadong layer. Ang mga convolutional layer ay kumikilos bilang isang hanay ng mga filter na kumukuha ng mga tampok na mataas na antas ng imahe. Ang Max-pooling ay isa sa mga karaniwang pamamaraan na ginagamit sa mga layer ng pooling upang mabawasan ang laki ng spatial ng mga nakuha na tampok sa gayon bawasan ang kinakailangang kapangyarihan sa pagkalkula upang makalkula ang mga timbang para sa bawat layer. Sa wakas, ang nakuha na data ay naipasa sa pamamagitan ng isang ganap na konektado layer kasama ang isang pagpapaandar ng softmax activation na tumutukoy sa klase ng imahe.

Ngunit ang pagsasanay ng mga pasadyang CNN mula sa simula ay maaaring hindi makagawa ng nais na mga resulta at maaaring magkaroon ng isang napakahabang oras ng pagsasanay.

Upang malaman ang mga tampok ng mga imahe ng pagsasanay, gumagamit kami ng isang pamamaraan na tinatawag na Transfer Learning kung saan ang mga ‘tuktok’ na layer ng isang paunang sinanay na modelo ay aalisin at papalitan ng mga layer na maaaring malaman ang mga tampok na tiyak sa dataset ng pagsasanay. Ang pagkatuto ng paglilipat ay binabawasan ang oras ng pagsasanay kung ihinahambing sa mga modelo na gumagamit nang sapalarang pinasimulang bigat. Gumagamit ang aming pamamaraan ng anim na magkakaibang mga pre-train na modelo na katulad, AlexNet, GoogLeNet, ResNet-50, Inception-v3, ShuffleNet at MobileNet-v2.

Ipinapakita ng imahe ang arkitekturang GoogLeNet kung saan ginagamit ang asul para sa mga convolutional layer, pula para sa mga layer ng pooling, dilaw para sa mga softmax layer at berde para sa mga concat layer. Maaari kang matuto nang higit pa tungkol sa panloob na pagtatrabaho ng isang CNN dito.

Ang dataset ng sakit sa bigas ay binubuo ng mga imahe ng mga dahon ng parehong malusog at may sakit na mga halaman ng bigas. Ang mga imahe ay maaaring ikinategorya sa apat na magkakaibang klase tulad ng Brown-Spot, Rice Hispa, Leaf-Blast at Healthy. Ang dataset ay binubuo ng 2092 iba't ibang mga imahe sa bawat klase na naglalaman ng 523 mga imahe. Ang bawat imahe ay binubuo ng isang solong malusog o may sakit na dahon na inilagay laban sa isang puting background.

Hinahati namin ang set ng imahe sa pagsasanay, pagpapatunay at pagsubok ng mga hanay ng imahe. Upang maiwasan ang labis na pag-fit, dinaragdagan namin ang mga imahe ng pagsasanay sa pamamagitan ng pag-scale at pag-flip ng mga imahe ng pagsasanay upang madagdagan ang kabuuang bilang ng mga sample ng pagsasanay.

Ang code at mga dependency ay bukas-mapagkukunan at maaaring matagpuan dito: GitHub Code

Para sa iba't ibang mga application sa pag-uuri ng imahe, maaari lamang naming baguhin ang dataset ng pagsasanay sa imahe.

Hakbang 4: Pagsasanay sa Modelo

Pagsasanay sa Modelo
Pagsasanay sa Modelo
Pagsasanay sa Modelo
Pagsasanay sa Modelo
Pagsasanay sa Modelo
Pagsasanay sa Modelo

Nakasalalay sa laki ng memorya na kinakailangan ng bawat modelo, ang mga pre-train na modelo ay ikinategorya sa mas malaki at mas maliit na mga modelo. Ang mas maliit na mga modelo ay kumakain ng mas mababa sa 15MB at samakatuwid ay mas angkop para sa mga mobile application.

Sa gitna ng mas malalaking mga modelo, ang Inception-v3 ay may pinakamahabang oras ng pagsasanay na humigit-kumulang na 140 minuto samantalang ang AlexNet ay may pinakamaikling oras ng pagsasanay na humigit-kumulang na 18 minuto. Sa gitna ng mas maliliit na mga modelo na naka-orient sa mobile, ang MobileNet-v2 ay may pinakamahabang oras ng pagsasanay na humigit-kumulang na 73 minuto habang ang ShuffleNet ay may pinakamaikling oras ng pagsasanay na humigit-kumulang na 38 minuto.

Hakbang 5: Pagsubok sa Model

Pagsubok sa Model
Pagsubok sa Model
Pagsubok sa Model
Pagsubok sa Model
Pagsubok sa Model
Pagsubok sa Model

Sa gitna ng mas malalaking mga modelo, ang Inception-v3 ay may pinakamataas na kawastuhan sa pagsubok na humigit-kumulang na 72.1% samantalang ang AlexNet ay may pinakamababang kawastuhan sa pagsubok na humigit-kumulang na 48.5%. Sa gitna ng mga mas maliliit na modelo ng mobile-oriented na MobileNet-v2 ay may pinakamataas na kawastuhan sa pagsubok na 62.5% samantalang ang ShuffleNet ay may pinakamababang kawastuhan sa pagsubok na 58.1%.

Ang MobileNet-v2 ay mahusay na gumanap nang mahusay kapag pinag-uuri ang mga imahe ng Brown-Spot, Leaf-Blast at Healthy dahon habang gumagawa ng maraming maling pag-uuri para sa Rice Hispa na may katumpakan na 46.15% lamang.

Ang Inception-v3 ay nagpakita ng mga katulad na resulta ng pag-uuri bilang MobileNet-v2.

Hakbang 6: Mga Karagdagang Pagsubok

Karagdagang Mga Pagsubok
Karagdagang Mga Pagsubok
Karagdagang Mga Pagsubok
Karagdagang Mga Pagsubok

Ipinapakita ng imahe sa itaas kung paano nagkakamali ang klasipikasyon ng modelo ng MobileNet-v2 ng isang imahe ng isang dahon ng damo laban sa isang puting background bilang Rice Hispa.

Sinubukan din namin ang kawastuhan ng MobileNet-v2 sa mga na-crop na imahe ng Rice Hispa kung saan ang puting background ay na-minimize na ang dahon ay sumasakop sa isang maximum na lugar sa loob ng imahe. Para sa mga na-crop na larawan ng Rice Hispa, napagmasdan namin ang isang kawastuhan na humigit-kumulang na 80.81% ibig sabihin, Para sa mga na-crop na larawan ng Rice Hispa, napansin namin ang isang makabuluhang pagtaas sa kawastuhan ng pag-uuri sa mga hindi na-cut na mga sample ng pagsubok. Samakatuwid, iminungkahi namin na ang pagpapatupad ng tunay na mundo ng pagtuklas ng sakit sa bigas gamit ang mga convolutional neural network ay dapat na mag-crop ng mga imahe ng pagsubok upang alisin ang ingay sa background upang mapabuti ang kawastuhan.

Inirerekumendang: