基于多时相遥感影像的作物种植信息提取

为了快速、准确地在遥感影像上对作物种植信息进行提取,该研究运用多时相的TM/ETM+遥感影像数据和13幅时间序列的MODISEVI遥感影像数据,采取基于生态分类法的监督分类与决策树分类相结合的人机交互解译方法,建立决策树识别模型,对黑龙港地区的主要作物进行遥感解译,总体分类精度达到了91.3%,与单纯对TM影像进行监督分类相比,棉花、玉米、小麦、蔬菜4类作物的相对误差的绝对值分别降低了1.3%、20.5%、2.0%、13.8%。结果表明该方法的分类精度高,能较好的反映作物的分布状况,可为该地区主要作物种植结构调整提供科学依据,还可为其他区域尺度作物分布信息的提取提供参考。...

Full description

Saved in:
Bibliographic Details
Published in农业工程学报 Vol. 28; no. 2; pp. 134 - 141
Main Author 张健康 程彦培 张发旺 岳德鹏 郭晓晓 董华 王计平 唐宏才
Format Journal Article
LanguageChinese
Published 北京林业大学省部共建森林资源培育与保护教育部重点实验室,北京100083%中国地质科学院水文地质环境地质研究所,石家庄,050061%北京林业大学省部共建森林资源培育与保护教育部重点实验室,北京,100083%中国林业科学研究院森林生态环境与保护研究所,北京,100091 2012
中国地质科学院水文地质环境地质研究所,石家庄050061
Subjects
Online AccessGet full text
ISSN1002-6819
DOI10.3969/j.issn.1002-6819.2012.02.024

Cover

More Information
Summary:为了快速、准确地在遥感影像上对作物种植信息进行提取,该研究运用多时相的TM/ETM+遥感影像数据和13幅时间序列的MODISEVI遥感影像数据,采取基于生态分类法的监督分类与决策树分类相结合的人机交互解译方法,建立决策树识别模型,对黑龙港地区的主要作物进行遥感解译,总体分类精度达到了91.3%,与单纯对TM影像进行监督分类相比,棉花、玉米、小麦、蔬菜4类作物的相对误差的绝对值分别降低了1.3%、20.5%、2.0%、13.8%。结果表明该方法的分类精度高,能较好的反映作物的分布状况,可为该地区主要作物种植结构调整提供科学依据,还可为其他区域尺度作物分布信息的提取提供参考。
Bibliography:11-2047/S
Zhang Jiankang,Cheng Yanpei,Zhang Fawang,Yue Depeng,Guo Xiaoxiao,Dong Hua,Wang Jiping,Tang Hongcai(1.Institute of Hydrogeology and Environmental Geology,Chinese Academy of Geological Sciences,Shijiazhuang 050061,China;2.Key Laboratory for Silviculture and Conservation of Ministry of Education,Beijing Forestry University,Beijing 100083,China;3.Research Institute of Forest Ecology,Environment and Protection,the Chinese Academy of Forestry,Beijing 100091,China)
remote sensing; image analysis; information technology; MODIS; EVI; decision tree classification; information extraction
The multi-temporal remote sensing data were used to extract crops planting information quickly and accurately from TM/ETM+ remote sensing images and thirteen MODIS time series remote sensing images,together with the supervised classification and decision tree classification system to interpret major crops in the Heilonggang area.Overall,classification accuracy was up to 91.3%.Compared with one simple supervised classification of
ISSN:1002-6819
DOI:10.3969/j.issn.1002-6819.2012.02.024