在进行遥感影像处理之前一般都会进行影像融合处理,但是为什么要进行这步处理呢? 这是因为同一份遥感数据里相对来说全色影像分辨率要高,但它无法显示地物色彩,美观度不够,而多光谱影像可以给不同波段赋予RGB颜色来得到彩色影像,但它分辨率低,不符合大家对分辨率的需求。为了获得一张高分辨率的彩色影像,我们便将高分辨率的全色影像和可赋颜色的多光谱影像进行融合。 为什么同一份影像为什么全色影像分辨率比多光谱影像要高呢? 全色影像:传感器获取整个全色波段(0.5微米到0.75微米左右的单波段)的黑白影像。因为只获取单波段,在图上显示是灰度图片。全色遥感影象一般空间分辨率高,但无法显示地物色彩。 多光谱影像:传感器对地物辐射中多个单波段的摄取得到的包含多个波段的光谱信息的影像,对各个不同的波段分别赋予RGB颜色将得到彩色影象。 所以简单来说,全色影像接收的波段波长范围长于多光谱的,所以它的光谱分辨率较低,进而它的空间分辨率更高。也可以这么理解,全色影像保留了空间分辨率,而多光谱影像保留了光谱信息。 从更深的原因层面来说的话呢,还有另一种解释角度——传感器的分光方式: 传感器是需要获得一定光能才能响应的,对于多光谱影像来说,传感器接收到光信号前会有一个分光的过程,将入射的白光分解成所需的RGB光谱段和近红外光束,然后传感器(一般是一组传感器)才分别接受这些光束,而对于全色影像来说,传感器摄取的是单波段,所以不存在分光过程。光的入射能量是一定的,分光后能量降低了,所以对应的分辨率也降低了。 简单总结一下,全色影像比多光谱影像分辨率高的原因可以从两个角度来解释: 一是光谱分辨率和空间分辨率彼此制约,全色影像的光谱分辨率低,所以空间分辨率高; 二为对于多光谱影像来说,光束经过分光 ,带给传感器的能量减少了,所以空间分辨率低。 一份影像中,全色影像保留着空间分辨率,多光谱影像保留光谱信息,各司其职,后期的遥感处理将两者融合在一起,便得到了一份既有高空间分辨率又保留着光谱分辨率的影像!因此遥感影像进行后期处理是很有必要!