[صفحه اصلی ]   [Archive] [ English ]  
:: صفحه اصلي :: درباره نشريه :: آخرين شماره :: تمام شماره‌ها :: جستجو :: ثبت نام :: ارسال مقاله :: تماس با ما ::
بخش‌های اصلی
صفحه اصلی::
اطلاعات نشریه::
آرشیو مجله و مقالات::
برای نویسندگان::
داوران::
ثبت نام و اشتراک::
تماس با ما::
تسهیلات پایگاه::
بایگانی مقالات زیر چاپ::
آمار نشریه::
::
جستجو در پایگاه

جستجوی پیشرفته
..
دریافت اطلاعات پایگاه
نشانی پست الکترونیک خود را برای دریافت اطلاعات و اخبار پایگاه، در کادر زیر وارد کنید.
..
آمار سایت
مقالات منتشر شده: 308
نرخ پذیرش: 62.8
نرخ رد: 37.2
میانگین داوری: 209 روز
میانگین انتشار: 344 روز
..
:: دوره 11، شماره 1 - ( 3-1402 ) ::
جلد 11 شماره 1 صفحات 123-105 برگشت به فهرست نسخه ها
ارزیابی عملکرد سه مدل یادگیری عمیق در استخراج عوارض ساختمانی از تصاویر هوایی و ماهواره‌ای
نیما احمدیان* ، امین صداقت ، نازیلا محمدی
دانشگاه تبریز
چکیده:   (1368 مشاهده)
ساختمان‌ها به‌عنوان یکی از مهم‌ترین عوارض دست‌ساز بشر، کاربردهای فراوانی در زمینه‌های مختلف داشته و ارزیابی و شناسایی آن‌ها با استفاده از تصاویر هوایی و ماهواره‌ای امری ضروری است. روش‌های مبتنی بر یادگیری عمیق، اخیراً به طور گسترده‌ای برای استخراج عوارض ساختمانی از تصاویر هوایی و ماهواره‌ای به‌صورت خودکار استفاده شده‌اند. شناخت خصوصیات روش‌های مختلف در مقایسه با یکدیگر و برای انواع مختلف از تصاویر با شرایط هندسی و روشنایی متفاوت ضروری است. بدین منظور، در این تحقیق عملکرد سه مدل یادگیری عمیق مطرح شامل Mask-RCNN (Mask Region-based Convolutional Neural NetworkU-Net وMA-FCN (Multi-scale Aggregation Fully Convolutional Network) در استخراج عوارض ساختمانی از سه مجموعه داده تصاویر ماهواره‌ای و هوایی با استفاده از معیارهای IOU  (Intersection Over :union:)و F1-score بررسی شده است. علاوه بر این در این تحقیق اثر استفاده از مدل رقومی سطح در فرآیند استخراج ساختمان توسط این الگوریتم‌ها نیز بررسی شده است. به طور کلی نتایج حاصل از این تحقیق نشان می‌دهد که علاوه بر نوع مدل، تعداد و کیفیت نمونه‌های آموزشی و استفاده از مدل رقومی سطح نیز در نتایج تأثیرگذار است. همچنین استفاده از مدل رقومی سطح در کنار تصاویر سه‌باندی روش مناسبی برای بهبود عملکرد مدل‌های یادگیری عمیق در استخراج عوارض ساختمانی است. مدل رقومی سطح نتایج حاصل از استخراج ساختمان‌ها را در مدل‌های U-Net و MA-FCN به‌ترتیب % 46/7 و % 7/5 در تصاویر ماهواره‌ای و % 61/3 و % 34/3 در تصاویر هوایی در معیار  IOU بهبود داده است. مدل‌های U-Net و MA-FCN به‌دلیل ترکیب ویژگی‌های قسمت رمزگذار با ویژگی‌های قسمت رمزگشا، در مرز ساختمان‌ها دقیق‌تر هستند. مدل Mask-RCNN به‌دلیل دارا بودن ساختار ResNet در معماری خود به مسئله فرابرازش مقاوم‌تر است.

 
واژه‌های کلیدی: یادگیری عمیق، ساختمان، مدل رقومی سطح، تصاویر ماهواره‌ای، U-Net
متن کامل [PDF 1345 kb]   (320 دریافت)    
نوع مطالعه: پژوهشي | موضوع مقاله: سنجش از دور
دریافت: 1402/2/11 | پذیرش: 1402/3/24 | انتشار الکترونیک پیش از انتشار نهایی: 1402/3/31 | انتشار: 1402/4/18
فهرست منابع
1. [1] Z. Li, Q. Xin, Y. Sun, and M. Cao, "A Deep Learning-Based Framework for Automated Extraction of Building Footprint Polygons from Very High-Resolution Aerial Imagery," Remote Sensing, vol. 13, no. 18, p. 3630, 2021. [DOI:10.3390/rs13183630]
2. [2] D. Yu, S. Ji, J. Liu, and S. Wei, "Automatic 3D building reconstruction from multi-view aerial images with deep learning," ISPRS Journal of Photogrammetry and Remote Sensing, vol. 171, pp. 155-170, 2021. [DOI:10.1016/j.isprsjprs.2020.11.011]
3. [3] S. Ji, S. Wei, and M. Lu, "Fully Convolutional Networks for Multisource Building Extraction From an Open Aerial and Satellite Imagery Data Set," IEEE Transactions on Geoscience and Remote Sensing, vol. 57, no. 1, pp. 574-586, 2019 [DOI:10.1109/TGRS.2018.2858817]
4. [4] K. Rastogi, P. Bodani, and S. A. Sharma, "Automatic building footprint extraction from very high-resolution imagery using deep learning techniques," Geocarto International, vol. 37, no. 5, pp. 1501-1513, 2022/03/04 2022 [DOI:10.1080/10106049.2020.1778100]
5. [5] S. Ji, S. Wei, and M. Lu, "A scale robust convolutional neural network for automatic building extraction from aerial and satellite imagery," International Journal of Remote Sensing, vol. 40, no. 9, pp. 3308-3322, 2019/05/03 2019 [DOI:10.1080/01431161.2018.1528024]
6. [6] J. Yuan, "Learning Building Extraction in Aerial Scenes with Convolutional Networks," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 40, no. 11, pp. 2793-2798, 2018 [DOI:10.1109/TPAMI.2017.2750680]
7. [7] A. Huertas and R. Nevatia, "Detecting buildings in aerial images," Computer vision, graphics, and image processing, vol. 41, no. 2, pp. 131-152, 1988. [DOI:10.1016/0734-189X(88)90016-3]
8. [8] N. L. Gavankar and S. K. Ghosh, "Automatic building footprint extraction from high-resolution satellite image using mathematical morphology," European Journal of Remote Sensing, vol. 51, no. 1, pp. 182-193, 2018. [DOI:10.1080/22797254.2017.1416676]
9. [9] X. Huang, L. Zhang, and T. Zhu, "Building Change Detection From Multitemporal High-Resolution Remotely Sensed Images Based on a Morphological Building Index," IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, vol. 7, no. 1, pp. 105-115, 2014 [DOI:10.1109/JSTARS.2013.2252423]
10. [10] S. Wei, S. Ji, and M. Lu, "Toward Automatic Building Footprint Delineation From Aerial Images Using CNN and Regularization," IEEE Transactions on Geoscience and Remote Sensing, vol. 58, no. 3, pp. 2178-2189, 2020 [DOI:10.1109/TGRS.2019.2954461]
11. [11] S. Du, F. Zhang, and X. Zhang, "Semantic classification of urban buildings combining VHR image and GIS data: An improved random forest approach," ISPRS Journal of Photogrammetry and Remote Sensing, vol. 105, pp. 107-119, 2015/07/01/ 2015 [DOI:10.1016/j.isprsjprs.2015.03.011]
12. [12] D. Marmanis, M. Datcu, T. Esch, and U. Stilla, "Deep Learning Earth Observation Classification Using ImageNet Pretrained Networks," IEEE Geoscience and Remote Sensing Letters, vol. 13, no. 1, pp. 105-109, 2016 [DOI:10.1109/LGRS.2015.2499239]
13. [13] W. Feng, H. Sui, L. Hua, C. Xu, G. Ma, and W. Huang, "Building extraction from VHR remote sensing imagery by combining an improved deep convolutional encoder-decoder architecture and historical land use vector map," International Journal of Remote Sensing, vol. 41, no. 17, pp. 6595-6617, 2020/09/01 2020 [DOI:10.1080/01431161.2020.1742944]
14. [14] J. Ma, L. Wu, X. Tang, F. Liu, X. Zhang, and L. Jiao, "Building Extraction of Aerial Images by a Global and Multi-Scale Encoder-Decoder Network," Remote Sensing, vol. 12, no. 15, p. 2350, 2020 [DOI:10.3390/rs12152350]
15. [15] Z. Shao, P. Tang, Z. Wang, N. Saleem, S. Yam, and C. Sommai, "BRRNet: A Fully Convolutional Neural Network for Automatic Building Extraction From High-Resolution Remote Sensing Images," Remote Sensing, vol. 12, no. 6, p. 1050, 2020 [DOI:10.3390/rs12061050]
16. [16] D. Marmanis, J. D. Wegner, S. Galliani, K. Schindler, M. Datcu, and U. Stilla, "Semantic segmentation of aerial images with an ensemble of CNSS," ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 2016, vol. 3, pp. 473-480, 2016. [DOI:10.5194/isprs-annals-III-3-473-2016]
17. [17] X. Liu, M. Chi, Y. Zhang, and Y. Qin, "Classifying High Resolution Remote Sensing Images by Fine-Tuned VGG Deep Networks," in IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium, 22-27 July 2018 2018, pp. 7137-7140 [DOI:10.1109/IGARSS.2018.8518078]
18. [18] J. Long, E. Shelhamer, and T. Darrell, "Fully convolutional networks for semantic segmentation," in 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 7-12 June 2015 2015, pp. 3431-3440 [DOI:10.1109/CVPR.2015.7298965]
19. [19] W. Zhao and S. Du, "Learning multiscale and deep representations for classifying remotely sensed imagery," ISPRS Journal of Photogrammetry and Remote Sensing, vol. 113, pp. 155-165, 2016/03/01/ 2016 [DOI:10.1016/j.isprsjprs.2016.01.004]
20. [20] A. Milosavljević, "Automated Processing of Remote Sensing Imagery Using Deep Semantic Segmentation: A Building Footprint Extraction Case," ISPRS International Journal of Geo-Information, vol. 9, no. 8, p. 486, 2020 [DOI:10.3390/ijgi9080486]
21. [21] V. Badrinarayanan, A. Kendall, and R. Cipolla, "SegNet: A Deep Convolutional Encoder-Decoder Architecture for Image Segmentation," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 39, no. 12, pp. 2481-2495, 2017 [DOI:10.1109/TPAMI.2016.2644615]
22. [22] O. Ronneberger, P. Fischer, and T. Brox, "U-Net: Convolutional Networks for Biomedical Image Segmentation," in Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015, Cham, N. Navab, J. Hornegger, W. M. Wells, and A. F. Frangi, Eds., 2015// 2015: Springer International Publishing, pp. 234-241. [DOI:10.1007/978-3-319-24574-4_28]
23. [23] N. Audebert, B. L. Saux, and S. Lefèvre, "Semantic segmentation of earth observation data using multimodal and multi-scale deep networks," in Asian conference on computer vision, 2016: Springer, pp. 180-196. [DOI:10.1007/978-3-319-54181-5_12]
24. [24] Y. Xu, L. Wu, Z. Xie, and Z. Chen, "Building Extraction in Very High Resolution Remote Sensing Imagery Using Deep Learning and Guided Filters," Remote Sensing, vol. 10, no. 1, p. 144, 2018 [DOI:10.3390/rs10010144]
25. [25] H. Hosseinpour, F. Samadzadegan, and F. D. Javan, "CMGFNet: A deep cross-modal gated fusion network for building extraction from very high-resolution remote sensing images," ISPRS Journal of Photogrammetry and Remote Sensing, vol. 184, pp. 96-115, 2022/02/01/ 2022 [DOI:10.1016/j.isprsjprs.2021.12.007]
26. [26] C. Szegedy et al., "Going deeper with convolutions," in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015, pp. 1-9. [DOI:10.1109/CVPR.2015.7298594]
27. [27] K. Simonyan and A. Zisserman, "Very deep convolutional networks for large-scale image recognition," arXiv preprint arXiv:1409.1556, 2014.
28. [28] L. Luo, P. Li, and X. Yan, "Deep Learning-Based Building Extraction from Remote Sensing Images: A Comprehensive Review," Energies, vol. 14, no. 23, p. 7982, 2021 [DOI:10.3390/en14237982]
29. [29] K. He, G. Gkioxari, P. Dollár, and R. Girshick, "Mask r-cnn," in Proceedings of the IEEE international conference on computer vision, 2017, pp. 2961-2969. [DOI:10.1109/ICCV.2017.322]
30. [30] R. Girshick, "Fast r-cnn," in Proceedings of the IEEE international conference on computer vision, 2015, pp. 1440-1448. [DOI:10.1109/ICCV.2015.169]
31. [31] K. Zhao, J. Kang, J. Jung, and G. Sohn, "Building extraction from satellite images using mask R-CNN with building boundary regularization," in Proceedings of the IEEE conference on computer vision and pattern recognition workshops, 2018, pp. 247-251. [DOI:10.1109/CVPRW.2018.00045]
32. [32] A. Géron, Hands-on machine learning with Scikit-Learn, Keras, and TensorFlow. " O'Reilly Media, Inc.", 2022.
33. [33] Bertrand Le Saux, Naoto Yokoya, Ronny Hänsch, Myron Brown, October 31, 2019, "Data Fusion Contest 2019 (DFC2019)", IEEE Dataport
34. [34] A. Abdollahi, B. Pradhan, S. Gite, and A. Alamri, "Building Footprint Extraction from High Resolution Aerial Images Using Generative Adversarial Network (GAN) Architecture," IEEE Access, vol. 8, pp. 209517-209527, 2020 [DOI:10.1109/ACCESS.2020.3038225]
35. [35] Van Etten, A., Lindenbaum, D., & Bacastow, T.M. (2018). SpaceNet: A Remote Sensing Dataset and Challenge Series. ArXiv, abs/1807.01232.
ارسال پیام به نویسنده مسئول



XML   English Abstract   Print


Download citation:
BibTeX | RIS | EndNote | Medlars | ProCite | Reference Manager | RefWorks
Send citation to:

Ahmadian N, Sedaghat A, Mohammadi N. Performance evaluation of three deep learning models in building footprint extraction from aerial and satellite images. jgit 2023; 11 (1) :105-123
URL: http://jgit.kntu.ac.ir/article-1-912-fa.html

احمدیان نیما، صداقت امین، محمدی نازیلا. ارزیابی عملکرد سه مدل یادگیری عمیق در استخراج عوارض ساختمانی از تصاویر هوایی و ماهواره‌ای. مهندسی فناوری اطلاعات مکانی. 1402; 11 (1) :105-123

URL: http://jgit.kntu.ac.ir/article-1-912-fa.html



بازنشر اطلاعات
Creative Commons License این مقاله تحت شرایط Creative Commons Attribution-NonCommercial 4.0 International License قابل بازنشر است.
دوره 11، شماره 1 - ( 3-1402 ) برگشت به فهرست نسخه ها
نشریه علمی-پژوهشی مهندسی فناوری اطلاعات مکانی Engineering Journal of Geospatial Information Technology
Persian site map - English site map - Created in 0.05 seconds with 38 queries by YEKTAWEB 4645