[صفحه اصلی ]   [Archive] [ English ]  
:: صفحه اصلي :: درباره نشريه :: آخرين شماره :: تمام شماره‌ها :: جستجو :: ثبت نام :: ارسال مقاله :: تماس با ما ::
بخش‌های اصلی
صفحه اصلی::
اطلاعات نشریه::
آرشیو مجله و مقالات::
برای نویسندگان::
داوران::
ثبت نام و اشتراک::
تماس با ما::
تسهیلات پایگاه::
بایگانی مقالات زیر چاپ::
آمار نشریه::
::
جستجو در پایگاه

جستجوی پیشرفته
..
دریافت اطلاعات پایگاه
نشانی پست الکترونیک خود را برای دریافت اطلاعات و اخبار پایگاه، در کادر زیر وارد کنید.
..
آمار سایت
مقالات منتشر شده: 308
نرخ پذیرش: 62.7
نرخ رد: 37.3
میانگین داوری: 209 روز
میانگین انتشار: 344 روز
..
:: دوره 9، شماره 3 - ( 9-1400 ) ::
جلد 9 شماره 3 صفحات 133-109 برگشت به فهرست نسخه ها
ارزیابی و مقایسه عملکرد شبکه های عصبی عمیق FCN و RDRCNN به‌منظور شناسایی و استخراج عارضه راه شهری با استفاده از تصاویر سنتینل-2 با قدرت تفکیک مکانی متوسط
هدایت شیخ قادری* ، پرویز ضیائیان فیروزآبادی ، منوچهر کلارستاقی
دانشگاه خوارزمی
چکیده:   (1691 مشاهده)
استخراج عارضه­ راه با استفاده از تصاویر سنجش ­ازدور طی سال­های گذشته به‌عنوان یکی از موضوعات جذاب، موردتوجه محققین بوده است. اخیراً پیشرفت و توسعه­ی شبکه ­های عصبی عمیق (DNN) در بخش تقسیم­بندی معنایی به یکی از روش­های مهم استخراج راه تبدیل‌شده است. در این میان اکثریت تحقیقات انجام‌شده درزمینه‌ی استخراج عارضه­ی راه با بهره­گیری از DNN در مناطق شهری و غیرشهری با استفاده از تصاویر با قدرت تفکیک مکانی بالا انجام‌گرفته است. در این تحقیق برای اولین بار جهت استخراج عارضه­ی راه با استفاده DNN، از تصاویر با وضوح مکانی متوسط سنجنده­ سنتینل 2 بهره گرفته شد، به این صورت که از تصویر شهر تهران به‌عنوان داده­ی تست و از 7 شهر دیگر (مشهد، اصفهان، شیراز، تبریز، کرمانشاه، ارومیه و بغداد) به‌عنوان داده­های آموزش و اعتبارسنجی، استفاده گردید. در این میان، پس از آماده‌سازی و برچسب­ زنی همه­­ی پیکسل­های مربوط به عارضه­ی راه، تصاویر به قطعات 256 در 256 پیکسل تبدیل و پس از جداسازی قطعات نامناسب، برای داده­های تست، آموزش و اعتبارسنجی به ترتیب 135، 1500 و 100 قطعه تصویر به دست آمد. درنهایت برای آموزش و استخراج عارضه­ی راه، از شبکه­ها­ی عصبی کانولوشن باقیمانده عمیق پالایش­شده (RDRCNN) و U-Net که مبتنی بر شبکه­های کاملاً کانولوشن (FCN) است، استفاده شد. نتایج حاصله حاکی از آن است که هر دو مدل RDRCNN و FCN در مقایسه با داده­های واقعیت زمینی شبکه راه شهری تهران را از تصاویر سنتینل 2 به‌خوبی شناسایی و استخراج کرده­اند. در این میان مدل FCN هم ازنظر بصری و هم ازنظر متریک­های ارزیابی صحت نسبت به مدل RDRCNN عملکرد بهتری داشته، به‌طوری‌که برای مدل FCN، معیارهای کامل­بودن 82.92%، صحت 77.67%، امتیازF1 %80.20 و دقت کلی96.30% و برای RDRCNN معیارهای کامل­بودن 80.43%، صحت 71.37، امتیازF1 %77.74 و دقت کلی 95.71% به دست آمد. به‌طورکلی یافته­های این پژوهش پتانسیل استفاده از روش­های DNN برای استخراج عارضه­ی راه شهری با بهره­گیری از تصاویر باقدرت تفکیک مکانی متوسط سنتینل 2 را نشان ­می­دهد.
واژه‌های کلیدی: شبکه‌های عصبی عمیق، استخراج راه، FCN، RDRCNN، سنتینل2
متن کامل [PDF 2114 kb]   (454 دریافت)    
نوع مطالعه: پژوهشي | موضوع مقاله: سنجش از دور
دریافت: 1400/5/7 | پذیرش: 1400/9/22 | انتشار: 1400/9/30
فهرست منابع
1. [1] R. C. Estoque, & Y. Murayama, "Monitoring surface urban heat island formation in a tropical mountain city using Landsat data (1987-2015)". ISPRS Journal of Photogrammetry and Remote Sensing, 133, pp 18-29, 2017. [DOI:10.1016/j.isprsjprs.2017.09.008]
2. [2] A. A. Matkan, M. Hajeb, & S. Sadeghian, "Road extraction from lidar data using support vector machine classification". Photogrammetric Engineering & Remote Sensing, 80(5), pp. 409-422, 2014. [DOI:10.14358/PERS.80.5.409]
3. [3] J. B. Mena, "State of the art on automatic road extraction for GIS update: a novel classificationP. Pattern recognition letters, 24(16), pp. 3037-3058, 2003. [DOI:10.1016/S0167-8655(03)00164-8]
4. [4] Q. Zhang, Q. Kong, C. Zhang, S. You, H. Wei, R. Sun, & L.Li, "A new road extraction method using Sentinel-1 SAR images based on the deep fully convolutional neural network". European Journal of Remote Sensing, 52(1), pp. 572-582, 2019. [DOI:10.1080/22797254.2019.1694447]
5. [5] P. Isola, J. Y. Zhu, T. Zhou, & A. A. Efros, "Image-to-image translation with conditional adversarial networks". In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1125-1134, 2017. [DOI:10.1109/CVPR.2017.632]
6. [6] M. M. U. Rathore, A. Paul, A. Ahmad, B. W. Chen, B. Huang, & W. Ji, "Real-time big data analytical architecture for remote sensing application". IEEE journal of selected topics in applied earth observations and remote sensing, 8(10), pp. 4610-4621, 2015. [DOI:10.1109/JSTARS.2015.2424683]
7. [7] M. Chi, A. Plaza, J. A. Benediktsson, Z. Sun, J. Shen, & Y. Zhu, "Big data for remote sensing: Challenges and opportunities". Proceedings of the IEEE, 104(11), pp. 2207-2219, 2016. [DOI:10.1109/JPROC.2016.2598228]
8. [8] Y. LeCun, Y. Bengio, & G. Hinton, "Deep learning", nature, 521(7553), pp. 436-444, 2015. [DOI:10.1038/nature14539]
9. [9] R. Lian, W. Wang, N. Mustafa, & L. Huang, "Road extraction methods in high-resolution remote sensing images: A comprehensive review". IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 13, pp. 5489-5507, 2020. [DOI:10.1109/JSTARS.2020.3023549]
10. [10] J. Lu, J. Hu &, J. Zhou, "Deep metric learning for visual understanding: An overview of recent advances". IEEE Signal Processing Magazine, 34(6), pp. 76-84, 2017. [DOI:10.1109/MSP.2017.2732900]
11. [11] K. Fu, J. Peng, Q. He, & H. Zhang, "Single image 3D object reconstruction based on deep learning: A review". Multimedia Tools and Applications, 80(1), pp. 463-498, 2021. [DOI:10.1007/s11042-020-09722-8]
12. [12] W. Xia, Y. Z. Zhang, J. Liu, L. Luo, & K. Yang, "Road extraction from high resolution image with deep convolution network-A case study of GF-2 image". In Multidisciplinary Digital Publishing Institute Proceedings, Vol. 2, No. 7, p. 325, 2018. [DOI:10.3390/ecrs-2-05138]
13. [13] L. Gao. W. Song. J. Dai. & Y. Chen, "Road extraction from high-resolution remote sensing imagery using refined deep residual convolutional neural network". Remote Sensing, 11(5), p. 552, 2019. [DOI:10.3390/rs11050552]
14. [14] Y. Li, B. Peng, L. He, K. Fan, Z. Li, & L. Tong, "Road extraction from unmanned aerial vehicle remote sensing images based on improved neural networks". Sensors, 19(19), p. 4115, 2019. [DOI:10.3390/s19194115]
15. [15] J. Xin, X. Zhang, Z. Zhang, & W. Fang, "Road extraction of high-resolution remote sensing images derived from DenseUNet". Remote Sensing, 11(21), p. 2499, 2019. [DOI:10.3390/rs11212499]
16. [16] Y. Xu, Z. Xie, Y. Feng, & Z. Chen, "Road extraction from high-resolution remote sensing imagery using deep learning". Remote Sensing, 10(9), p. 1461, 2018. [DOI:10.3390/rs10091461]
17. [17] H. He, D. Yang, S. Wang, S. Wang, & Y. Li, "Road extraction by using atrous spatial pyramid pooling integrated encoder-decoder network and structural similarity loss". Remote Sensing, 11(9), p. 1015, 2019. [DOI:10.3390/rs11091015]
18. [18] X. Zhang, X. Han, C. Li, X. Tang, H. Zhou, & L. Jiao, "Aerial image road extraction based on an improved generative adversarial network". Remote Sensing, 11(8), p. 930, 2019. [DOI:10.3390/rs11080930]
19. [19] J. Senthilnath, N. Varia, A. Dokania, G. Anand, & J. A. Benediktsson, "Deep TEC: Deep transfer learning with ensemble classifier for road extraction from UAV imagery". Remote Sensing, 12(2), p. 245, 2020. [DOI:10.3390/rs12020245]
20. [20] A. Abdollahi, B. Pradhan, N. Shukla, S. Chakraborty, & A. Alamri, "Deep learning approaches applied to remote sensing datasets for road extraction: A state-of-the-art review". Remote Sensing, 12(9), p. 1444, 2020. [DOI:10.3390/rs12091444]
21. [21] Y. Ren, Y. Yu, & H. Guan, "DA-CapsUNet: A Dual-Attention Capsule U-Net for Road Extraction from Remote Sensing Imagery". Remote Sensing, 12(18), p. 2866, 2020. [DOI:10.3390/rs12182866]
22. [22] S. Wang, H. Yang, Q. Wu, Z. Zheng, Y. Wu, & J. Li, "An improved method for road extraction from high-resolution remote-sensing images that enhances boundary information". Sensors, 20(7), p. 2064, 2020. [DOI:10.3390/s20072064]
23. [23] X. Gao, X. Sun, Y. Zhang, M. Yan, G. Xu, H. Sun, ... & K. Fu, "An end-to-end neural network for road extraction from remote sensing imagery by multiple feature pyramid network". IEEE Access, 6, pp. 39401-39414, 2018. [DOI:10.1109/ACCESS.2018.2856088]
24. [24] Z. Hong, D. Ming, K. Zhou, Y. Guo, & T. Lu, "Road extraction from a high spatial resolution remote sensing image based on richer convolutional features". IEEE Access, 6, pp. 46988-47000, 2018. [DOI:10.1109/ACCESS.2018.2867210]
25. [25] A. Abdollahi, B. Pradhan, & A. Alamri, "VNet: An End-to-End Fully Convolutional Neural Network for Road Extraction From High-Resolution Remote Sensing Data". IEEE Access, 8, pp. 179424-179436, 2020. [DOI:10.1109/ACCESS.2020.3026658]
26. [26] S. Wu, C. Du, H. Chen, Y. Xu, N. Guo, & N. Jing, "Road extraction from very high resolution images using weakly labeled OpenStreetMap centerline". ISPRS International Journal of Geo-Information, 8(11), p. 478, 2019. [DOI:10.3390/ijgi8110478]
27. [27] T. Sun, Z. Chen, W. Yang, & Y. Wang, "Stacked u-nets with multi-output for road extraction". In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 202-206, 2018. [DOI:10.1109/CVPRW.2018.00033]
28. [28] Z. Zhang, Q. Liu, & Y. Wang, "Road extraction by deep residual u-net". IEEE Geoscience and Remote Sensing Letters, 15(5), pp. 749-753, 2018. [DOI:10.1109/LGRS.2018.2802944]
29. [29] Y. Wei, Z. Wang, & M. Xu, "Road structure refined CNN for road extraction in aerial image". IEEE Geoscience and Remote Sensing Letters, 14(5), pp. 709-713, 2017. [DOI:10.1109/LGRS.2017.2672734]
30. [30] A. Wulamu., Z. Shi., D. Zhang., & Z. He. (2019). "Multiscale road extraction in remote sensing images". Computational intelligence and neuroscience, 2019. [DOI:10.1155/2019/2373798]
31. [31] B. Shan, & Y. Fang, "A cross entropy based deep neural network model for road extraction from satellite images". Entropy, 22(5), p. 535, 2020. [DOI:10.3390/e22050535]
32. [32] R. Lian, W. Wang, N. Mustafa, & L. Huang, "Road extraction methods in high-resolution remote sensing images: A comprehensive review". IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 13, pp. 5489-5507, 2020. [DOI:10.1109/JSTARS.2020.3023549]
33. [33] C. Tao, J. Qi, Y. Li, H. Wang, & H. Li, "Spatial information inference net: Road extraction using road-specific contextual information". ISPRS Journal of Photogrammetry and Remote Sensing, 158, pp. 155-166, 2019. [DOI:10.1016/j.isprsjprs.2019.10.001]
34. [34] L. Zhou, C. Zhang, & M. Wu, "D-linknet: Linknet with pretrained encoder and dilated convolution for high resolution satellite imagery road extraction". In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 182-186, 2018. [DOI:10.1109/CVPRW.2018.00034]
35. [35] A. Buslaev, S. Seferbekov, V. Iglovikov, & A. Shvets, "Fully convolutional network for automatic road extraction from satellite imagery". In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 207-210, 2018. [DOI:10.1109/CVPRW.2018.00035]
36. [36] K. He, X. Zhang, S. Ren, & J. Sun, "Deep residual learning for image recognition". In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770-778, 2016. [DOI:10.1109/CVPR.2016.90]
37. [37] O. Ronneberger, P. Fischer, & T. Brox, "U-net: Convolutional networks for biomedical image segmentation". In International Conference on Medical image computing and computer-assisted intervention, pp. 234-241, 2015. [DOI:10.1007/978-3-319-24574-4_28]
38. [38] L. C. Chen, G. Papandreou, I. Kokkinos, K. Murphy, & A. L. Yuille, "Deeplab: Semantic image segmentation with deep convolutional nets, atrous convolution", and fully connected crfs". IEEE transactions on pattern analysis and machine intelligence, 40(4), pp. 834-848, 2017. [DOI:10.1109/TPAMI.2017.2699184]
39. [39] S. Ioffe, & C. Szegedy, "Batch normalization: Accelerating deep network training by reducing internal covariate shift". In International conference on machine learning, pp. 448-456, 2015.
40. [40] F. Yu, & V. Koltun, "Multi-scale context aggregation by dilated convolutions". arXiv preprint arXiv:1511.07122, 2015.
41. [41] P. Krähenbühl, & V. Koltun, "Efficient inference in fully connected crfs with gaussian edge potentials". Advances in neural information processing systems, 24, pp. 109-117, 2011.
42. [42] R. Hamaguchi, A. Fujita, K. Nemot, T. Imaizumi, & S. Hikosaka, "Effective use of dilated convolutions for segmenting small object instances in remote sensing imagery". In 2018 IEEE winter conference on applications of computer vision (WACV), pp. 1442-1450, 2018. [DOI:10.1109/WACV.2018.00162]
43. [43] Z. Xu, R. Wang, H. Zhang, N. Li, & L. Zhang, "Building extraction from high-resolution SAR imagery based on deep neural networks". Remote Sensing Letters, 8(9), pp. 888-896, 2017. [DOI:10.1080/2150704X.2017.1335906]
44. [44] D. Yoo, S. Park, J. Y. Lee, & So I. Kweon, "Multi-scale pyramid pooling for deep convolutional representation". In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops, pp. 71-80, 2015. [DOI:10.1109/CVPRW.2015.7301274]
45. [45] S. Xie, & Tu, Z, "Holistically-nested edge detection". In Proceedings of the IEEE international conference on computer vision, pp. 1395-1403, 2015. [DOI:10.1109/ICCV.2015.164]
46. [46] M. Abadi, P. Barham, J. Chen, Z. Chen, A. Davis, J. Dean, ... & X. Zheng, "Tensorflow: A system for large-scale machine learning". In 12th {USENIX} symposium on operating systems design and implementation ({OSDI} 16), pp. 265-283, 2016.
47. [47] D. P. Kingma, & J. Ba, "Adam: A method for stochastic optimization". arXiv preprint arXiv:1412.6980, 2014.
48. [48] H. G. Akçay, & S. Aksoy, "Automatic detection of geospatial objects using multiple hierarchical segmentations". IEEE Transactions on Geoscience and Remote Sensing, 46(7), pp. 2097-2111, 2008. [DOI:10.1109/TGRS.2008.916644]
49. [49] Y. Li, X. Sun, H. Wang, H. Sun, & X. Li, "Automatic target detection in high-resolution remote sensing images using a contour-based spatial model". IEEE Geoscience and Remote Sensing Letters, 9(5), pp. 886-890, 2012. [DOI:10.1109/LGRS.2012.2183337]
50. [50] S.A. Kianejad Tejnaki, "Automatic Road Detection in Urban Areas Using LIDAR and Multi-Spectral Imagery Based on Object-Oriented Method". Ph.D. Thesis. K. N. Toosi University of Technology, 2019.
ارسال پیام به نویسنده مسئول



XML   English Abstract   Print


Download citation:
BibTeX | RIS | EndNote | Medlars | ProCite | Reference Manager | RefWorks
Send citation to:

Sheikhghaderi H, Zeaieanfirouzabadi P, Kelarestaghi M. Evaluation and comparison performance of deep neural networks FCN and RDRCNN in order to identify and extract urban road using images of Sentinel-2 with medium spatial resolution. jgit 2021; 9 (3) :109-133
URL: http://jgit.kntu.ac.ir/article-1-840-fa.html

شیخ قادری هدایت، ضیائیان فیروزآبادی پرویز، کلارستاقی منوچهر. ارزیابی و مقایسه عملکرد شبکه های عصبی عمیق FCN و RDRCNN به‌منظور شناسایی و استخراج عارضه راه شهری با استفاده از تصاویر سنتینل-2 با قدرت تفکیک مکانی متوسط. مهندسی فناوری اطلاعات مکانی. 1400; 9 (3) :109-133

URL: http://jgit.kntu.ac.ir/article-1-840-fa.html



بازنشر اطلاعات
Creative Commons License این مقاله تحت شرایط Creative Commons Attribution-NonCommercial 4.0 International License قابل بازنشر است.
دوره 9، شماره 3 - ( 9-1400 ) برگشت به فهرست نسخه ها
نشریه علمی-پژوهشی مهندسی فناوری اطلاعات مکانی Engineering Journal of Geospatial Information Technology
Persian site map - English site map - Created in 0.05 seconds with 38 queries by YEKTAWEB 4645