date
Sep 21, 2024
icon
password
Pin
Pin
Hide-in-Web
Hide-in-Web
网址
type
Post
slug
note-8
tags
专业选修课
笔记
category
学习分享
bottom
bottom
Hide-in-Config
Hide-in-Config
comment
Show
status
Published
summary
南理工,大三
🎉欢迎大家来到我的博客!!🎉
这门课程是我在大三上学期选的一门课程,选修这门课主要是因为对于数字图像处理这个方面还是比较感兴趣的,因为之前在学习机器学习的时候,经常会碰到处理图像的问题,因此我觉得有必要对图像这方面的知识有所了解(学的其实不是特别好)。
建议大家使用电脑来查看笔记内容,会有最好的显示效果。
绪论(第一章)
💡 Key Words
这里的关键词只是帮助大家看完右侧的笔记后回忆内容,不是跳转链接!!
- 远程遥感技术 ↔ 地球表面侦测
- 史蒂芬-波兹曼定律
- 维恩位移定律
- EMR 与大气散射
- EMR 与地球表面的反射
- EMR 大气吸收
- 表面粗糙度
- 不同的传感器系统
- 摄影
- 单向扫描(多光谱)
- 双向扫描(多光谱)
- 沿轨推帚式扫描
- 立体成像
- 分辨率
- 空间分辨率
- 频谱分辨率
- 辐射分辨率
- 时间分辨率
- 图像处理(时间↔结果)
- 像素、数字编号(DN)
- 单色图像
- 三色理论(RGB → 三原色?)
- RGB 立方体
- 真彩色合成 假彩色合成 伪彩色显示
🔗 Relevant Information
📝 Class Notes
什么是远程遥感技术
Remote sesing is about taking pictures of the groud or surface.
远程遥感技术的应用

远程遥感技术默认指的就是地球表面的侦测。
EMR 的介绍
EMR 指的是电磁波,Electromagnetic Radiation 。
电磁辐射或 EMR 是电场和磁场之间在空间传播的能量波,它的波长和频率之间会满足这个这个公式 (1.1)。波长越长的波,它的频率就越低。

我们人眼可见的光的波长是在 0.38-0.75 μm 间,这意味着遥感技术观测的物体波长就在这个范围内以及略略超出这个范围,如下图所示:

任何物体都会产生电磁波,
电磁辐射可以用波浪理论来描述,但事实上,根据量子物理学的粒子理论,电磁辐射是由许多被称为光子(或量子)的离散物质单位组成的。每个光子蕴含的能量符合下面的公式:

我们可以将上面的公式与前面的波长公式结合起来,这样光子的能量就和波长直接相关了。

波长越长的波,光子所蕴含的能量就低,电磁波的辐射能量就比较低。不同频段下电磁波和它的能量关系如下图所示:

史蒂芬·波斯曼定律:

所有温度高于绝对零度(0° K 或 -273º C)的物质都会发射电磁辐射。物体辐射能量的多少是物体表面温度的函数,正如斯蒂芬-玻尔兹曼定律所表示的那样。
M: 从材料表面辐射的总能量通量密度。
维恩位移定律(考点):

不同温度下黑体辐射的光谱分布和辐射峰值。纵坐标为光谱辐射输出

现在,我们尝试将辐射能量的物体的温度与其电磁辐射峰值波长(黑体辐射达到最大值的波长)联系起来。这就是维恩位移定律。
维恩位移定律的公式如上图所示,它意味着一个黑体辐射的最大光谱波长是常数 A 比上黑体温度值。
黑体只是意味着不反射,但是它实际上还是会发射辐射。太阳实际上就是一个黑体。下图就是常见的黑体对应的温度:

上图中可见光的范围就是图中的灰色矩形部分。
根据上图中黑体的温度,我们就可以计算出对应黑体的最大辐射波长,如太阳的就是 0.483 μm。
EMR 与 大气层的 interaction(散射):
什么是散射?
散射是指当光、声波或其他波遇到障碍物或介质时,被偏转或分散到不同方向的现象。在物理学中,散射常指光波通过某种介质(如气体、液体或固体)时与介质中的粒子相互作用,导致波的传播方向发生变化。
大气散射(Atmospheric scattering)是指大气中的粒子对辐射进行不可预测的扩散。
当辐射与大气分子和其他微小颗粒发生相互作用时,就会产生瑞利散射,这些微小颗粒的直径远远小于相互作用辐射的波长。大气中的瑞利散射效应与波长的 4 次方成反比。因此,影响主要发生在短波长上。
当大气中的颗粒直径基本上等于所感应到的电磁辐射波长时,就会出现米氏散射。水蒸气和灰尘是造成米氏散射的主要原因,这种散射往往会影响较长的波长。例如,云的白色是由水滴和冰晶对光进行的米氏散射造成的,散射了所有波长的可见光,也就是说颗粒的大小大于 0.75 μm,因此呈现白色。
非选择性性散射是由比电磁辐射波长大得多的粒子造成的,这种效应只是非选择性地阻挡所有波长比粒子尺寸短得多的电磁辐射。在这种情况下,波与粒子的相互作用会导致能量的转移,改变波的频率或能量。
为什么天空是呈蓝色的呢?
天空呈现蓝色主要是由于一种被称为“瑞利散射”(Rayleigh Scattering)的现象。当太阳光进入地球大气层时,它包含了不同波长的光,其中包括红、橙、黄、绿、蓝、靛、紫等色彩。短波长的光,如蓝光和紫光,比长波长的光(如红光)更容易被大气中的小分子(如氧气和氮气)散射。
虽然紫光的波长比蓝光更短,理论上应该散射得更多,但因为人类的眼睛对蓝光更敏感,而且太阳光中紫光的强度相对较低,所以我们看到的天空主要呈现蓝色。
因此,白天时,我们看到的天空是蓝色的,是由于蓝光被空气中的分子散射到各个方向,而被我们的眼睛捕捉到的结果。
大气吸收:
太阳辐射和大气吸收区。纵坐标为 光谱辐照度。
大气吸收导致大气成分有效损失电磁辐射能量。这通常包括吸收特定波长的电磁辐射。
- 在这方面,最有效的太阳辐射吸收体是水蒸气、二氧化碳和臭氧。
- 在太阳辐射主要被吸收的光谱范围内,大气对传感器系统是不透明的,因此这些光谱范围不能用于遥感。
- 在吸收很少的光谱范围内,大气对传感器基本是透明的。这些光谱范围适用于遥感,称为大气窗口。

上图表示的是太阳辐射和大气吸收带的关系。图中有 3 条曲线,从上到下分别是:
- 黑体辐射曲线:代表温度为 5900K(约等于太阳表面温度)时,理想黑体发出的辐射强度。
- 大气层外太阳辐照曲线:代表在没有大气吸收的情况下,太阳辐射到达地球的理论值。
- 海平面太阳辐照曲线:代表太阳光在通过地球大气层后,实际到达地面的辐照度。
通过比较大气层外太阳辐照曲线与海平面太阳辐照曲线的差值,可以得知哪些波长下的电磁波最容易被吸收,哪些更容易到达地球表面。通过图像可知,臭氧 (O₃)、水蒸气 (H₂O)、二氧化碳 (CO₂) 和氧气 (O₂) 吸收的辐射最多。图中箭头指向的是有比较大的衰减的部分,即浅灰色阴影纵宽比较大的部分。
不同物质在不同波长上吸收太阳辐射。例如:
- 臭氧 (O₃) 在 0.2-0.35 μm 范围内吸收紫外线。
- 水蒸气 (H₂O) 和二氧化碳 (CO₂) 在 1.4 μm 及之后的红外波段吸收太阳辐射。
地球表面的 EMR 反射:

发射到地球表面的能量会通过反射、吸收和传输多种方式消散。
根据史蒂芬-波尔兹曼定律,被吸收和传输的太阳电磁辐射能量会使地球温度升高,并最终从地球释放出来。
表面粗糙度:
与电磁辐射相互作用的反射表面一般有两种类型:镜面反射(光滑)和漫反射(粗糙)。 这些术语的定义是几何上的,而不是物理上的。在物理意义上,一个表面可能看起来很光滑,即看起来和感觉上都很光滑,但在光波长的数量级上,整个表面可能会出现许多不规则的地方。照射到漫射表面上的辐射往往会向多个方向反射(散射)。 雷利准则(Rayleigh criterion)用于确定表面在辐射作用下的粗糙度。如果以下条件成立,则表面光滑,否则表面粗糙:

光谱特性的关键参数:


可见近红外光谱范围内松林、草地、红沙坑和淤泥水的典型光谱特征.
光谱反射率(Spectral reflectance)是材料对特定波长电磁辐射的反射率。

反照率或总辐射反射率(Albedo)是所有光谱范围内反射光谱辐射的积分,按辐照度加权。

示例:

遥感图像数据的获取方式
获取图像数据的平台:
- 地面:用于收集实地地面实况数据的便携式光谱仪;
- 机载:目标定向调查;
- 空间:区域信息和定期监测。
三种进行地球表面侦测的卫星:
- 地球同步轨道(Geostationary Orbit):
- 高度约为36000公里,与地球自转同步。卫星固定在地球的某一个区域上方,提供连续的观测。
- 这种轨道常用于气象卫星(如GOES卫星)和通信卫星。
- 在遥感中的意义:尽管空间分辨率较低,但它可以对特定区域进行实时监控,非常适合气象观测。
- 近圆极地太阳同步轨道(Sun-Synchronous Orbit):
- 高度约为400-900公里,覆盖大部分地球表面(除极地地区外),并且具有固定的局部时间成像特性。
- 这种轨道上的卫星能够定期访问同一地点,比如Landsat卫星每16天会复访同一地点。
- 在遥感中的意义:该轨道有利于获取高空间分辨率的影像,并在全球范围内进行定期成像,适合长期监测环境变化和土地利用。
- 上升和下降轨道(Ascending and Descending Passes):
- 卫星的轨道倾角约为98°,在上升段和下降段通过地球南北极之间的部分。下降轨道通常在有阳光的一侧,适合传感器记录反射的太阳能。
- 在遥感中的意义:下降轨道用于收集高质量的太阳照射数据,确保影像的照度充足和稳定。这有助于获取精确的光学遥感数据。
多光谱和全色光学传感器系统:


Broad Band Multi-Spectral and Panchromatic Optical Sensor System(宽带多光谱和全色光学传感器系统)
多光谱和全色光学传感器:这些传感器能够捕获从可见光到红外光谱的广泛范围的电磁波。通过这些传感器,遥感卫星可以获取不同波段的数据,用于环境监测、土地覆盖分析等。
传感器的种类:包括大幅面数字相机、视频相机、多光谱扫描仪(MSS)、专题制图仪(TM)、增强型专题制图仪(ETM+)、高分辨率可见光(HRV)等。
成像机制:摄影、单向扫描、双向扫描、推帚扫描、视频扫描等。
成像几何学:包括垂直(nadir)和离轴成像(off-nadir),可用于立体成像和缩短重访周期。
下面介绍这些传感器的特点:
Cameras and Aerial Photography(相机与航空摄影)
照相机和航空摄影。
相机的光学系统:这部分展示了相机的光学系统,包括镜头、焦距和成像区域。相机成像是遥感中最传统的一种方式,依赖于光学成像设备。

- 真彩色图像显示了我们肉眼可以看到的颜色,用于显示自然的地物信息。
- 伪彩色图像利用多光谱波段,将不可见的光谱(如红外光)映射为可见颜色,帮助分析植物健康、土壤湿度等特征。上图展示的伪彩色图像使植被区域显示为红色,便于识别。
什么是伪彩色图像(false color image)?
False Color Image(伪彩色图像)是一种通过重映射图像中的波段数据,将人眼无法看到的光谱(如红外光)可视化为可见光的一种图像表现形式。具体来说,伪彩色图像通常会使用不常见的颜色组合来突出显示图像中的某些特定特征,以便更好地进行分析或识别。
在遥感中,卫星或传感器能够捕获到人类肉眼无法看到的电磁波(例如红外波段、紫外波段等)。为了帮助分析这些数据,伪彩色图像将这些不可见波段映射为可见光的颜色(红、绿、蓝),从而可以通过视觉上的差异来分析地物特征。
伪彩色图像的关键点:
- 多光谱数据的可视化:
- 遥感卫星通常捕获多光谱影像,其中包含可见光(红、绿、蓝)和不可见光(如近红外、中红外等)。伪彩色图像可以通过不同波段的组合来显示不同的地物信息。
- 颜色映射:
- 在伪彩色图像中,波段通常按如下方式分配颜色:
- 红外波段 -> 红色
- 红色波段 -> 绿色
- 绿色波段 -> 蓝色
- 通过这种映射,植被、土壤、水体等地物可以更明显地区分出来。例如,健康的植被在红外波段反射较强,因此在伪彩色图像中显示为红色。
- 应用场景:
- 植被监测:在伪彩色图像中,健康植被通常显示为鲜艳的红色,这帮助分析农田、森林等区域的植被健康状况。
- 水资源监测:水体在红外波段反射较少,通常显示为黑色或深蓝色,帮助识别河流、湖泊等水体。
- 城市热岛效应分析:热红外波段可以用于分析城市中的温度分布情况。
在Landsat卫星的影像处理中,常见的波段组合是:
- 伪彩色(False Color Composite):使用近红外(NIR)、红色和绿色波段分别表示为红、绿、蓝,这样健康的植被会呈现为红色,水体为深蓝色,裸露的土地呈现为浅色。
Multi-Spectral Scanner(多光谱扫描仪)
工作原理:多光谱扫描仪通过旋转镜和棱镜将进入的光分解为不同的波段,并使用 CCD 传感器捕获每个波段的光线。这样,扫描仪可以同时采集多个波段的信息,从而生成多光谱图像。

什么是 CCDs(CCD 阵列)?
CCD 阵列(Charge-Coupled Device,电荷耦合器件阵列)是一种光电传感器,用于将光信号转换为电信号。它由多个光敏单元组成,这些单元排列成二维矩阵,可以同时捕捉大量像素。每个单元在接收到光子后生成与光强度成比例的电荷,通过电荷耦合的方式,电荷信号被逐行传输和读取,最终转化为数字图像。
CCD 阵列常用于遥感卫星、数码相机等设备中,其优点是灵敏度高、噪声低,能够在弱光环境下捕捉细节。
仪器的工作过程:
- 旋转镜(Rotation Mirror):仪器通过旋转镜面扫描地表。旋转镜会左右摆动,沿着横向扫描整个成像区域。每次镜面旋转时,仪器捕捉到一个小范围内的地表信息,这个范围被称为“瞬时视场(IFOV)”。
- 光学系统(Optics):光从旋转镜反射后通过光学系统,该系统负责聚焦和校正光束,确保地表反射的光线准确进入下一步处理阶段。
- 棱镜(Prism):光学系统后的棱镜会将来自地表的光线按不同波长分解为多个光谱波段(可见光、近红外等)。
- CCD 阵列:棱镜分解的光谱波段进入不同的 CCD 阵列,每个 CCD 阵列专门检测某个波段的电磁辐射(例如红光、蓝光、近红外等)。这些 CCD 阵列将检测到的光信号转换为电信号。
扫描方式:
- 单向扫描(one-way scan):Landsat MSS 传感器使用单向扫描,表示扫描完成后镜头回到初始位置,然后开始下一次扫描。
- 双向扫描(two-way scan):Landsat TM 和 ETM+ 传感器使用双向扫描,意味着扫描在一个方向结束后,反向继续扫描下一个范围,这样可以提高扫描效率。
Across-Track Mechanical Scanner(横向机械扫描仪):即图中“Landsat MSS”采用的单向扫描(one-way scan)模式。扫描仪通过横向摆动扫描地表区域,每次扫描一个条带。早期的Landsat MSS采用的是这种方式。
- MSS 采用的是单向扫描的方式进行侦测的,采用这种扫描仪是因为它在早期技术中结构相对简单,便于实现。其缺点在于扫描速度较慢,图像的获取时间较长。
- 随着技术的发展,卫星能够通过软件来进行修正扫描结果,因此在 TM 和 ETM+ 系列的卫星就开始使用双向扫描的方式了。
Multi-Spectral Scanner(沿轨推帚式扫描仪)

最初是由法国发明的,美国将其应用于卫星 Landset 8 和 Landset 9 中。


Along-Track Push Broom Scanner(沿轨推帚扫描仪):与横向机械扫描不同,推帚式扫描仪同时采集整个图像条带,而不是通过旋转镜逐步扫描。CCD线阵列传感器一次性捕获整个条带的图像,从而提高了图像获取效率。
应用:这种扫描方式用于更先进的遥感卫星,如SPOT的HRV(高分辨率可见光)、Terra-1的ASTER、Landsat 8的OLI(Operational Land Imager)
Hyperspectral Sensor System(高光谱传感器系统):

- 说明:高光谱传感器系统能够在多个(几十到上百个)光谱波段上采集数据,每个波段都代表不同的电磁波长。典型的高光谱传感器可以捕捉几百个波段,比如图中提到的 AVIRIS(224个波段)、CASI(288个波段)等。这些波段覆盖了从可见光到红外的广泛波长范围,能为科学家提供丰富的地表信息。
- 工作原理:图示显示了高光谱传感器的工作流程。传感器通过光学系统将地面区域成像,光谱分散设备(如光栅或棱镜)将不同波长的光分离,最后由二维 CCD 阵列进行记录。每个像素捕获不同波长的光信息,这样可以生成每个地物的“光谱指纹”,便于精细分析。
- 应用:高光谱成像广泛应用于农业、矿产勘测、环境监测等领域,能够识别地表物质的化学成分与特征。
Stereo Imaging(立体成像):

- 说明:立体成像是通过从不同视角拍摄同一目标来生成数字高程模型(DEM),主要用于地形测量和3D地表重建。图中展示的是 ASTER(先进星载热辐射与反射辐射计)的立体成像过程。
- 工作原理:该传感器同时从两个不同的角度(前视和后视)获取地表的影像,前视和后视影像分别称为 nadir(垂直向下)和 aft(向后看)。通过分析不同角度下的影像差异,计算地表的高度变化,从而生成数字高程模型。
- 应用:立体成像广泛用于测绘和制图,尤其是在山区和复杂地形区域。它能够为地质研究、城市规划和水文分析等领域提供三维地形数据。
各种分辨率的概念
空间分辨率(Spatial resolution): 
图像中可辨别的细节取决于传感器的空间分辨率,即可检测到的最小特征的大小。被动传感器的空间分辨率主要取决于其瞬时视场(IFOV),而瞬时视场是由光学传感器系统的空间采样密度决定的。如图所示,IFOV(即时视场,Instant Field of View) 是探测器(即 CCD)能看到的角锥体 A,它将特定时刻 C 距离内 B 区域的电磁辐射记录为一个图像像素,显然,B=IFOV×C。地面上的 B 区域称为分辨率单元,主要决定图像的空间分辨率。

频谱分辨率(Spectral Resolution):
是指传感器在不同波长上区分电磁波的能力。具体来说,它描述的是传感器能够将电磁波谱分成多少个波段,并测量每个波段的特定信息。每个波段对应的波长范围称为频谱间隔(spectral interval),即传感器在该波段上能够探测到的电磁辐射的波长范围。

频谱分辨率在遥感、光谱分析等领域非常重要,因为不同物质在不同波长下的反射或吸收特性各不相同。高频谱分辨率意味着传感器能够在更多、更窄的波段上精确测量电磁辐射,从而更好地识别和区分物质的不同特性。
辐射分辨率:

传感器对电磁能量大小的灵敏度决定了辐射分辨率,成像系统的辐射分辨率描述了其区分传感器接收到的能级中非常微小的差异并定量表征为比特的能力。
时间分辨率:
一般来说,时间分辨率就是重拍周期。
遥感系统以同一视角对同一区域进行第二次成像的绝对时间分辨率等于重访周期。 有些卫星系统能够将其传感器指向同一地面区域,在重访周期内,不同卫星经过的时间间隔从一天到多天不等。传感器的实际时间分辨率取决于多种因素,包括卫星/传感器能力、扫描带重叠度和纬度。
上述四种分辨率的说明:
图像分辨率最终取决于传感器的分辨率。
对于给定的传感器系统,在其光学分辨率限制范围内,空间分辨率取决于使能信号从仪器的电子背景噪声(即暗电流)中区分出来的最小电磁辐射能量水平。电磁辐射的最小能量与光谱范围内的辐射强度、IFOV(即时视场)和停留时间的乘积成正比。
- 空间分辨率较低,光谱/辐射分辨率较高。
- 较低的光谱分辨率,较高的空间/辐射分辨率。
- 停留时间更长,空间/光谱/辐射分辨率更高。
- 传感器灵敏度更高,辐射分辨率更高。
图像处理
图像处理无法从原始图像数据中增加任何信息。老师说,过去几十年直到现在,仍然有论文会犯这种错误,认为图像处理可以增加图像信息。
如何理解上面这句话?
这句话的意思是:图像处理过程并不能从原始图像数据中“创造”或“增加”新信息,图像处理只能在现有数据的基础上进行处理、优化、或提取已有的信息。例如,调整图像的亮度、对比度,或应用一些增强算法,但这些操作都不会增加原本不存在的信息。
即便经过 AI 处理后,这句话仍然成立。AI 图像处理技术,例如超分辨率、去噪或修复算法,虽然看起来似乎“增强”了图像的细节,但它只是根据已有信息进行推测或生成更多符合该信息的数据,而这些推测或生成的信息并不代表真实的新信息,实际效果依然受限于原始数据的质量和内容。
因此,AI 图像处理虽然能改善视觉效果,但并不能真正“增加”从未在原始图像中存在过的真实信息。

这个简单的示意图旨在说明,图像处理的结果并不一定与所花费的时间/精力成正比。恰恰相反,使用简单的技术可能只需花费很少的时间就能获得最有用的结果,而使用复杂的技术则可能需要花费大量的时间才能获得少量的结果。
什么是数字图像及其显示?

数字图像是由行和列组成的二维(2D)数字阵列或光栅数据集。它也可以有三维层(如图像带)。
数字图像的每个单元称为像素(pixel),代表像素亮度的数字称为数字编号(DN)。
数字图像的显示:
物体的颜色是光源对电磁辐射选择性吸收和反射的结果。人眼的感知能力仅限于 0.38-0.75 μm 的光谱范围(可见光范围),这只是整个太阳光谱范围中很小的一部分。
遥感技术可以将比人类视觉能力更广的光谱信息记录为数字图像,这些数字图像可以通过计算机显示器等电子显示设备显示为黑白图像或彩色图像。就数字图像显示而言,色调或颜色是数字图像中作为 DNs 记录的图像信息的可见表现形式,但不一定代表这些 DNs 的物理意义。
单色显示:
任何图像,无论是全色图像还是多光谱图像的光谱带,都可以通过单色显示屏显示为黑白图像。 显示的方法是将 DN 转换为一系列能级的电子信号,产生不同的灰度级(亮度),形成黑白图像显示。 大多数图像处理系统支持 8 位(256 灰度级)显示图形。它以黑白显示 0 至 255 的 DN。这一显示范围足以满足人类的视觉能力。 遥感图像的 DN 范围可能比 8 位宽得多,如 Ikonos 和 QuickBird 图像的 DN 范围为 11 位。在这种情况下,图像仍然可以通过某些方式在 8 位显示系统中可视化,例如将 DN 范围压缩为 8 位,或在整个 DN 范围的几个 8 位间隔场景中显示图像。
三色理论与 RGB 彩色显示:
CIE 1931 色彩空间色度图 
三色理论:人类视网膜有3种类型的视锥细胞。每种锥体的响应都是入射光波长的函数,分别在440nm(蓝色)、545nm(绿色)和680nm(红色)处达到峰值。换句话说,每种类型的锥体主要对三原色之一敏感:蓝色、绿色或红色(因此红、绿、蓝是三原色)。一个人感知到的颜色取决于这三种锥体中每一种被刺激的比例,因此可以表示为三元组(r、g、b),即使可见光是400-700nm连续光谱中的电磁辐射。数字图像彩色显示完全基于三刺激颜色理论。
彩色监视器,就像彩色电视一样,由三支几何上对齐的电子枪组成:红色、绿色和蓝色。这些电子枪能够以精确的几何方式对齐,从而同时发射相应颜色的光线,组合成我们看到的各种颜色。通过调节这三种颜色的强度,显示器可以再现出丰富的色彩,从而形成完整的图像。这种原理是基于加色法,即通过不同颜色的光混合来产生其他颜色。在红色枪中,图像的像素根据其 DN 值以不同强度的红色(即深红色、浅红色等)显示。绿色和蓝色的枪也是如此。因此,如果多光谱图像的三个波段同时以红、绿、蓝显示,则生成彩色图像显示,其中像素的颜色由其在红、绿和蓝波段(r、g、b)的DN决定。这种彩色显示系统被称为加色RGB彩色复合系统。在这个系统中,不同的颜色是由红色、绿色和蓝色成分的叠加组合产生的。红、绿、蓝被称为三原色。
人类对颜色的感知是由视网膜上的三种锥状体完成的,其灵敏度峰值与三种原色相匹配:红色(680 纳米)、绿色(545 纳米)和蓝色(440 纳米)。

非三原色光(C)会刺激每组光的不同部分,从而形成对这种颜色的感知。因此,三原色光的混合可以产生任何颜色。
这就是 RGB 添色法 的原理。

C = rR+gG+bB ;
等量三原色(r=g=b)的混合物是白色或灰色。
等量的任意两种原色会产生互补色:黄色、青色和品红色。这三种互补色也可以用作原色来产生各种颜色,如彩色印刷中的颜色。
RGB 立方体:

将 RGB 显示器立方体的各分量视为三维色彩空间的正交轴;显示器各分量的最大 DN 值定义了 RGB 色彩立方体。在这个系统中,任何一个图像像素都由一个从原点到色彩立方体内某处的矢量来表示。大多数标准的 RGB 显示系统可以显示 8 位/像素/通道,多达 24 位(约 1680 万)的不同颜色。从色彩立方体的原点到对角凸角的直线被称为灰线,因为位于这条直线上的像素矢量在红、绿、蓝三色中的分量相等(即 r=g=b)。
真彩色合成和假彩色合成:
虽然颜色是可见光谱范围 380-750nm 的光,但在数字图像的彩色显示中,它们被用作信息可视化的工具。因此,在数字图像显示中,每个光谱带或光谱层的主色调可以根据应用的要求任意分配,而不一定是该光谱带的光谱范围所对应的颜色。如果我们用 RGB 显示红、绿、蓝三个光谱范围的图像带,那么就会生成一个真彩色的复合图像。否则,如果显示的红、绿、蓝三色图像带与这三种原色的光谱范围不匹配,则会生成假色合成图像。一个典型的例子就是所谓的标准假色合成图像,其中近红外波段显示为红色,红色波段显示为绿色,绿色波段显示为蓝色。 颜色作为信息可视化的工具,假色合成是 RGB 颜色显示的一般情况,而真色合成只是它的一个特例。
考点:假色合成的时候并不一定要采用标准假色合成的方式,即近红外段 → 红色;也可以采用 ”绿色 → 蓝色,蓝色 → 红色,红色 → 绿色“ 这样类似的方式。
伪彩色图像显示:
人眼能识别的颜色远远多于灰度级。因此,可以非常有效地利用色彩来增强单色图像中微小的灰度差异。将单色图像显示为彩色图像的技术称为伪彩色显示。
伪彩色图像是通过为每个灰度级分配一种独特的颜色而生成的。这可以通过交互式色彩编辑或基于特定逻辑的自动转换来实现。 伪彩色显示的优点也是它的缺点。当数字图像在黑白显示屏上根据其 DN 值以灰度显示时,不同 DN 值之间的定量顺序关系就会有效地显示出来。而在伪彩色显示屏中,由于不同灰度级所分配的颜色不是定量和顺序的,因此会丢失这 一重要信息。事实上,伪彩显示屏的图像是符号图像而不是数字图像,它不再是数字图像。我们可以将灰度黑白显示视为伪彩色显示的一种特例,在这种显示中,使用的是基于 DN 级的顺序灰度,而不是色彩方案。

考点:伪彩色图像(pseudo color display)是一般使用的情形,而灰度图像(grey display)显示是特殊的情况下使用的。
问题测验 1
问题

我的回答:
- 数字图像就是一个用行和列表示的二维数组,每个元素都是一个像素,数组中的每个元素可以通过 DN 值(数字编号)来表示强度大小;
- 数字图像易于存储,数据不易丢失,而且图像易于后期处理,灵活度高;
- Tristmulus 色彩理论?忘了😳。RGB 添色法依据的就是 R G B 三原色的特性,由于我们人眼对于 RGB 三原色是最敏感的,所有的可见光都是通过 RGB 三种颜色加权形成的,如品红色是 255r + 0g + 255b 组合而成的,这就是 RGB 添色法。
- 应该是用 CIE 色彩空间色度图 来表示,懒得画了。
- RGB 立方体的图在我心里,不画了。一个颜色在 RGB 立方体中可以通过直角坐标系中的矢量来表示,坐标为 (R, G, B),只要 R G B 的值确定,那么颜色就确定了。灰度线就是 RGB 立方体由原点到 (255, 255, 255) 的直线,也就是立方体的对角线。
- 假彩色合成就是将红外波段的波谱或是其他颜色的波谱映射为 R G B 来显示的一种方式;准则就是将多频段光谱带的主色调映射为 RGB,然后通过 RGB 组合来进行显示? 答案是可以的,不一定非要使用标准假色合成方法。
- 伪彩色显示就是将单色图像通过彩色图像来进行显示,它可以将单色图像中的 DN 值映射为彩色图像中的 R G B 值;伪彩色图像显示可以让微小的灰度差异放大,让我们更全面的了解图像的信息,但是它的优点也是它的缺点,这会是它失去原来单色图像各个像素间的 DN 值的定量顺序关系。
gpt 的回答:
1. 什么是数字图像?它是如何构成的?
数字图像是以二维数字数组形式表示的图像,其基本元素是像素。每个像素具有特定的灰度值或颜色值,表示图像在该位置的亮度或颜色信息。数字图像通过对模拟图像进行采样和量化得到,采样将连续的空间信息离散化,量化将连续的灰度或颜色值离散化。
2. 数字图像相较于传统硬拷贝图像的主要优点是什么?
数字图像相较于传统硬拷贝图像,具有以下主要优点:
- 易于存储和传输:数字图像可以方便地存储在计算机或其他数字设备中,并通过网络快速传输。
- 可编辑性强:数字图像可以使用各种软件进行编辑、处理和分析,满足不同需求。
- 复制质量高:数字图像的复制不会导致质量下降,保持原始图像的清晰度和细节。
- 集成性好:数字图像可以与其他数字媒体(如音频、视频)集成,应用于多媒体领域。
3. 描述三刺激值颜色理论和 RGB 加色法的原理。
三刺激值颜色理论:该理论认为,人眼对颜色的感知可以通过三种基本颜色的混合来实现,即红(Red)、绿(Green)和蓝(Blue)。任何颜色都可以通过这三种颜色按特定比例混合得到。
RGB 加色法:基于三刺激值颜色理论,RGB 加色法通过将红、绿、蓝三种光按不同强度叠加,产生各种颜色。在此模型中:
- 红 + 绿 = 黄
- 红 + 蓝 = 品红
- 绿 + 蓝 = 青
- 红 + 绿 + 蓝 = 白
RGB 加色法广泛应用于显示器、投影仪等设备的色彩显示。
4. 用图示解释原色和互补原色之间的关系。
在 RGB 颜色模型中,原色是红、绿、蓝。每对原色的组合会产生一种互补色:
- 红(R)与青(C)互为互补色
- 绿(G)与品红(M)互为互补色
- 蓝(B)与黄(Y)互为互补色
当一种颜色与其互补色混合时,会产生白色光。这种关系可以通过色轮或颜色立方体直观地表示。
5. 使用图示说明颜色立方体。如何由 RGB 组成颜色?给出颜色立方体中灰色线的定义。
颜色立方体是一个三维模型,三轴分别代表红(R)、绿(G)、蓝(B)三种颜色的强度,从 0 到 255(8 位表示)。立方体的每个点表示一种颜色,坐标值对应 RGB 的强度值。
灰色线是颜色立方体中从原点(0,0,0,黑色)到对角线顶点(255,255,255,白色)的直线。这条线上的所有点表示灰度颜色,即 R、G、B 三个分量值相等的颜色。
6. 什么是伪彩色合成?解释使用颜色作为工具来可视化多光谱图像的光谱信息的原理。我们可以使用蓝、绿、红波段的图像生成伪彩色合成吗?
伪彩色合成是将单波段的灰度图像通过特定的颜色映射,转换为彩色图像,以增强人眼对不同特征的辨识能力。在多光谱图像处理中,不同波段的图像反映地物的不同光谱特性。通过将这些波段分配给 RGB 颜色通道,可以生成伪彩色图像,突出特定地物或现象。
使用蓝、绿、红波段的图像可以生成伪彩色合成,但由于这些波段位于可见光范围,生成的图像可能与自然颜色接近。为了更有效地突出特定特征,通常选择包含近红外等不可见光波段的组合进行伪彩色合成。
7. 如何生成伪彩色显示?伪彩色显示的优点和缺点是什么?
生成伪彩色显示的步骤:
- 选择波段:根据分析目的,选择适当的单波段灰度图像。
- 分配颜色:将选定的波段分配给 RGB 颜色通道。
- 合成图像:将分配后的通道合成为彩色图像。
优点:
- 增强特征:突出特定地物或现象,便于分析。
- 提高辨识度:利用颜色差异,提高人眼对图像细节的辨识能力。
缺点:
- 颜色失真:生成的颜色与实际地物颜色不符,可能导致误解。
- 依赖经验:需要专业知识和经验来选择
📌 SUMMARIZE
2024.9.21
这节课主要是对遥感数字图像课程的引入,介绍了遥感技术是什么以及主要应用,也讲解了这门课程的一些基础概念。遥感技术简单的说就是拍照片,拍什么照片,拍的多是地球表面的照片,通过照片来分析地球的气候、地理状况、生物等等信息,这就是遥感技术。
本节课还介绍了数字图像,数字图像有两种显示形式,一种是单色的,一种是彩色的。单色的图像是通过像素 DN 值的大小来控制电子枪发出的射线的强度,进而调节图像的亮度,显示出灰度图像;而彩色图像是通过 RGB 三原色组成的,通过三支几何对齐的三支电子枪(红绿蓝)发出各自强度的射线,射线叠加在一起后就可以显示出不同颜色的图像(RGB 加色法)。灰度图像每个像素的 DN 值是通过 8 位的内存来进行存储的,而彩色图像的每个像素的 DN 值是通过 24 位的内存来进行存储的(R、G、B 各 8 位),R G B 三个分量可以通过 RGB 立方体的形式来直观的显示不同颜色的形成过程。
图像可视化和处理的基础(第二章)
💡 Key Words
这里的关键词只是帮助大家看完右侧的笔记后回忆内容,不是跳转链接!!
- 直方图及其修正
- 查找表 LUT
- 对数和指数函数 → 对比度
- 直方图均衡(对比) → HE
→ HM(高斯拉伸)
- 平衡对比增强技术 (BCET)
- 截断
- 交互式对比度增强 → 视觉观察
🔗 Relevant Information
📝 Class Notes
点操作(对比度增强——contrast enhancement)
引入
对比度增强(有时也称为辐射增强、直方图修正等)是一种最基本但非常有效的技术,用于优化图像的对比度和亮度,以实现可视化或突出特定 DN 范围内的信息。
让 X 代表数字图像, 是图像中第 i 行和第 j 列上任意一个像素的 DN。让 Y 代表通过函数 f 从 X 得出的图像, 是 对应的输出值。 那么,对比度增强可以用一般的形式表示: 。
这种处理方式通过函数 f 将单个输入图像 X 转换为单个输出图像 Y,使输出像素 的 DN 仅取决于相应输入像素 的 DN。 这种处理方式称为点操作。对比度增强是一种修改图像亮度和对比度,但不改变图像大小和纹理的点操作。
直方图修正和查找表(LUT)
让 x 代表图像 X 的 DN 级别,如所有 DN 值为 1 构成的集合为 ,所有 DN 值为 2 构成的集合为 ,每个 DN 级别的像素数 h(x) 称为图像 X 的直方图。
h(x) 也可以表示为某 DN 级别下 x 的像素数占图像 X 总像素数的百分比。
直方图可以很好地展示图像的对比度(延展程度)、亮度(高度)和数据分布(整体的数据变化趋势)。

每幅图像都有一个独一无二的直方图,但一般情况下并不是这样,因为直方图不包含任何空间信息。

点操作也称为直方图修改,因为该操作只改变图像的直方图,而不改变图像像素的空间关系。对于输入的 DN(x) 相同但位置不同的像素,函数 f 将产生相同的输出 DN(y): 。
点操作下柱方图修正的原理:


整数图像数据线性拉伸前后的直方图 

当点运算函数 的梯度(斜率)大于 1 时,它是一个拉伸函数,可以增加图像的对比度;
当点运算函数 的梯度(斜率)小于 1 但为正值时,它是一个压缩函数,可以降低图像对比度;
当点运算函数的梯度小于 0 的时候,会发生图像色彩的翻转。

对于非线性点运算函数来说,它可以根据梯度来拉伸和压缩 DN 层的不同部分,这一点在后面有关对数和指数点运算函数的讨论中会有所说明。
在整数数字图像的实际情况中, 和 都是离散函数。给定一个点运算函数 y = f(x) ,图像 X 中的 DN 值 x 将转换为输出图像 Y 中的 DN 值 y,X 中 DN 值为 x 的像素数等于 Y 中 DN 值为 y 的像素数(这意味着转换前后 和 与坐标轴围成的面积是相同的)。

虽然拉伸图像直方图(右图)中的直方图条与原始直方图(左图)中的直方图条高度相同,但由于这些直方图条的间隔更宽,因此绘制的等效连续曲线直方图更宽更平。
使用查找表 (LUT) 可以更高效地执行点操作,即修改直方图。LUT 由输入图像 X 的 DN 值和输出图像 Y 中相应的 DN 值组成,如表所示。在应用点操作函数增强图像时,首先通过对输入图像 X 的每个 DN 级 x 应用函数 y=f(x)来生成 LUT,从而在输出图像 Y 中生成相应的 DN 级 y。
LUT 可以大大提高运算的速度,比起运算上万次得到结果,通过查表得到相应的结果显然更加高效。

LCE(线性对比度增强 —— linear contrast enhancement)
LCE 是最简单也是最有效的对比度增强技术之一。在此功能中,a 控制输出图像的对比度,b 修改整体亮度。
如果输出的 DN 范围大于输入的 DN 范围,LCE 可在不扭曲图像信息的情况下提高图像对比度。在这种情况下,LCE 除了扩大 DN 级的增量和沿图像 DN 轴移动直方图位置外,什么也不做。
- 交互式线性拉伸(interactive linear stretch)
根据用户的视觉判断,交互式地改变上述公式中的 a 和 b,以优化输出图像的对比度和亮度。
- 线性比例(Linear Scale) —— 适合用于将原先只有某一段 DN 值的图像扩展为全 DN 段。
根据输入图像 X 的最大值和最小值,自动将图像的 DN 范围缩放至显示系统的全动态范围(8 位)。


- 分段线性法(PLS——Piecewise linear stretch)
使用多个不同的线性函数拉伸输入图像的不同 DN 范围。PLS 是一种非常通用的点操作函数。 它可用于模拟无法用数学函数轻松定义的非线性函数。

通过分段线性法,可以将我们想要观测的 DN 值区段(比如我们想要观察 100~200 范围的 DN 值)用函数区域性的增大,将其他的 DN 值用函数截断或是减小。这种方法的灵活度比前面两种方法高。
通过 对数函数 和 指数函数 来增强对比度
对数函数
对数函数和指数函数互为逆运算。为了增强对比度,这两个函数以相反的方式修改图像直方图。对数函数和指数函数都会改变图像直方图的形状,并扭曲原始图像中的信息。

其中,a 控制对数函数的曲率,b 是缩放因子,用于使输出的 DN 在给定值范围内,而移位 1 则是为了避免对数函数在零值处失去意义。

如上图所示,在低 DN 值范围内,函数的梯度大于 1,因此会分散低 DN 值,原先比如 会被分散为如 由于分散前后面积是相等的,因此幅度值会减小;而在高 DN 值范围内,函数的梯度小于 1,因此会压缩高 DN 值。 因此,对数对比度增强会将图像直方图的峰值向右移动,突出输入图像中暗部的细节。
也就是说,原先图像中 DN 值比较小的像素特别多,但是经过对数变换后,像素的密度朝着 DN 值较大的方向靠近,相当于把原先暗部的 DN 值调高了,暗部变亮了,因此丰富了暗部的细节。
许多图像的直方图形式类似于对数正态分布。在这种情况下,对数函数会将这种直方图修正为正态分布的形状。
指数函数

这里,a 控制指数函数的曲率,b 是缩放因子,用于使输出的 DN 在给定的值范围内,而指数移动 1 则是为了避免幂次的零值,因为无论底数是多少,它的零次幂都是 1,这样的话进行转换就没有意义了 ,如果加上 1,那么 x 在等于 0 的时候也会发生变化,受到 b 的缩放作用。

作为对数函数的倒数,指数对比度增强通过分散高 DN 值和压缩低 DN 值来向左移动图像直方图峰值,从而增强亮部的细节,但代价是抑制暗部的色调变化,如上图所示。
直方图均衡化(HE)
直方图均衡化是一种增强图像对比度的方法,通过将图像的像素灰度值重新分布,使其更加均匀地分布在整个灰度范围内。理论上,这可以提升图像细节,使暗部更加明亮,亮部更加清晰。
HE 的关键点是找到将 转换为 的函数,其中 ,N 表示像素点的总数,L 表示转换后 y 的有效值范围,在灰度图像中通常为 0~255。

是 X 的累积均方函数,对于数字图像中的离散函数:
HE 对比度增强技术背后的理念是,图像的数据呈现应均匀分布在整个数值范围内。
然而,在现实中,HE 通常会产生对比度过高的图像。这是因为自然场景更有可能遵循正态(高斯)分布,也就是灰度值集中在中间的亮度范围。通过 HE 处理,原本集中在中间的灰度值被强制拉伸到两端,这可能会导致图像的对比度过高,产生不自然的视觉效果。人眼对图像的中间亮度(中灰度区域)的变化更为敏感,而对极亮(高灰度值)和极暗(低灰度值)的变化不太敏感。这是由于人眼对灰度的感知不是线性的,而是在中间亮度区域能够分辨更多的细节变化。因此,人眼在分辨中间亮度的细微灰度变化时比分辨极高亮度和极低亮度时更加敏感。
总的来说,自然场景中的亮度通常呈现某种正态(高斯)分布,大多数像素的亮度值集中在中间灰度范围,较少的像素分布在极亮或极暗的区域。正因为这种分布符合人眼的感知习惯,当 HE 强行拉伸灰度值时,会破坏这种自然的分布,导致对比度过高和视觉上的不适感。
从理论上讲,如果 是一个连续函数,就可以实现直方图均衡化。 然而,由于 是整数数字图像的离散函数,因此 HE 只能产生一个相对平坦的直方图,在数学上等同于均衡直方图,其中直方图条之间的距离与高度成正比。

图中横向曲线为直方图均衡化功能,实心直方图为原始直方图,均衡化后的直方图以之字形线条表示。
直方图匹配 (HM) 和高斯拉伸
直方图匹配是一种点操作,通过变换输入图像,使其直方图与数学函数或另一幅图像的直方图所定义的给定形状相匹配。它对图像对比和差分特别有用,其目的是为了使两幅图像在亮度分布上具有相似性,常用于多时相图像的对比、变化检测、图像融合等任务。如果比较中的两幅图像被修改为具有相似的直方图,那么比较就会更加公平。
HM 可以通过两次应用 HE 来实现。相同尺寸的图像在固定的输出 DN 范围内总是具有相同的均衡直方图,因此 HE 可以作为连接相同尺寸但直方图不同的图像的桥梁。
假设 z=f(x) 是将 转换为均衡直方图 的 HE 函数,而 z=g(y) 是将参考直方图 转换为相同的均衡直方图 的 HE 函数,则

将 LUT 用于实现均方匹配:



输入相同 DN 的 x 将转换为具有相同 z 值的输出具有相同 DN 的 y。如表所示,x=5 时,z=3;y=0 时,z=3。因此,输入 x=5 时,LUT 将转换为输出 y=0,以此类推。最终,输出图像 Y 的直方图将与参考直方图相匹配。

高斯拉伸:
如果参考直方图 是由高斯函数定义的:

HM 变换被称为高斯拉伸,因为变换后的图像具有高斯分布的直方图。
平衡对比增强技术(BCET)
这个技术是老师当年在英国攻读博士时写的一篇论文里提出的技术 👍🏾👍🏾。
色彩偏差是造成彩色合成图像效果不佳的主要原因之一。要消除这种偏差,用于色彩合成的三个波段必须具有相等的数值范围和平均值。平衡对比度增强技术(BCET)是解决这一问题的简单方法。
抛物线 BCET 函数:
系数 a、b 和 c 可根据输入图像 X 的最小值、最大值和平均值(l、h、e)以及输出图像 Y 的给定最小值、最大值和平均值(L、H、E)得出,如下所示:

BCET 利用从输入图像导出的抛物线函数,可以将图像拉伸(或压缩)到给定的值范围和平均值,而不改变图像直方图的基本形状。因此,可将用于色彩合成的多个光谱波段(如 RGB 或其他多光谱波段)调整到相同的值范围和平均值,以实现均衡的色彩合成,生成更自然的色彩组合。

BCET 的实际表现:

对比度增强中的截断(剪切)(cut-off clipping)
在数字图像中,少数像素(通常代表噪点)可能会占据直方图高低两端的较大数值范围。在这种情况下,为了有效利用显示设备的动态范围,在对比度增强中必须设置一个适当的截止点来截取直方图的两端。

剪切通常以图像像素总数的百分比来表示。例如,在图像直方图的低端和高端分别设置 1%和 99% 作为截断限值,然后对图像进行拉伸,使输出图像中的 DN 水平 < (其中 % )处设为 0,DN 水平 > (其中 % )设为 255(对于 8 位/像素/通道显示)。
交互式对比度增强技巧
对比度增强的一般目的是优化可视化效果。通常在经过相当复杂的图像处理后,您需要应用交互式对比度增强来正确查看结果。毕竟,图像是给你看的。
视觉观察永远是对图像质量最有效的判断。对于数字图像处理来说,这听起来不够专业,但这一黄金法则却非常正确!另一方面,直方图可以定量描述图像数据的分布情况,并能有效指导你提高图像的视觉质量。如前所述,对比度增强的全部工作就是修改直方图,下面的直方图修改指南可能会对你有所帮助。
- 充分利用显示系统的动态范围。在 8 位显示时,可将输入图像的实际界限指定为 0 和 255。在这里,百分比削波对于避免直方图两端出现较大间隙非常有用。
- 调整直方图,使其峰值接近显示范围的中心。对于大多数图像来说,峰值通常可以稍微向左倾斜,以达到最佳的可视化效果,除非图像以明亮的特征为主,在这种情况下,峰值可以向右倾斜。
- 点操作函数根据函数的梯度或斜率修改图像直方图。 如果梯度=1(斜率=45°),函数不做任何操作。 如果梯度>1(斜率>45°),函数会拉伸直方图。 如果梯度<1(斜率<45°),函数将压缩直方图。因此,通常的做法是使用斜率 >45° 的函数来扩展峰值部分,而使用斜率 <45° 的函数来压缩直方图两端的尾部。
问题测验 2
问题

我的回答
- 图像处理的点操作就是将原图像中的像素点 的 DN 值通过函数 f(x) 映射为 。
- 直方图修正是将图像中每个 DN 值对应的 通过某个函数 f(x) 映射为 ,这实际上与点操作的定义是匹配的,因此点操作又被称为是直方图修正;
- ; ; ;
- 如下图所示:

- 对数函数可以让图像的重心向右移动,暗部变亮,暗部得到增强;指数函数可以让图像的重心往左移动,亮部得到增强;
- 柱方图均衡是通过将图像的输入 直接变换为 ,其中 L 是输出的有效值范围,如果是灰度图像就是 0 ~ 255,那么 A 就是所有 DN 值的平均占比,转换的函数 ;HM 是通过对两幅图像分别运用 HE 的技术,将两幅图像都放在同一个 DN 值范围内进行比较就会具有可比性;
- BCET 利用的是抛物线函数来实现的;如何实现的其实有点没理解。
- 公式推导还没理解;
- 剪切就是将图像数据中的 DN 值过大或是过小的噪点给剔除,避免他们影响图像的整体表现。
gpt 的回答
1. 什么是图像处理中的点运算,给出数学定义?
在图像处理领域,点运算是指对图像中每个像素的灰度值进行独立变换的操作。数学上,设输入图像的灰度值为 x ,输出图像的灰度值为 y ,则点运算可表示为: y = T(x)
其中, T 是定义在灰度值域上的变换函数。常见的点运算包括灰度反转、对数变换和伽马校正等。
2. 使用图示解释为什么点运算也称为直方图修改。
点运算通过对每个像素的灰度值进行变换,直接影响图像的灰度直方图分布。例如,灰度反转会将直方图左右翻转,对数变换会压缩高灰度值的频率。因此,点运算实质上是对图像直方图的修改。
3. 给定以下点运算函数,从输入直方图中导出输出直方图:
- y = 3x - 8
对于线性变换 y = 3x - 8 ,输出直方图是输入直方图的缩放和平移。对于非线性变换,如 和 ,输出直方图的形状会根据函数的非线性特性发生复杂变化。具体的输出直方图需要通过计算每个输入灰度值对应的输出灰度值,并统计其频率来获得。
4. 尝试推导线性比例函数。
线性比例函数用于调整图像的对比度和亮度。设输入灰度值为 x ,输出灰度值为 y ,则线性比例函数可表示为:
其中, a 控制对比度, b 控制亮度。通过调整 a 和 b 的值,可以实现图像的亮度和对比度调节。
5. 解释对数函数和指数函数如何在图像对比度增强中起作用?
对数变换用于压缩高灰度值的动态范围,增强低灰度值的细节。指数变换则用于扩展低灰度值的动态范围,增强高灰度值的细节。通过选择适当的对数或指数变换,可以改善图像的对比度,使细节更清晰。
6. 直方图均衡化(HE)是如何实现的?HE 如何用于实现直方图匹配?
直方图均衡化通过将图像的累积分布函数(CDF)映射为线性分布,实现灰度值的重新分配,使直方图趋于均匀分布,从而增强对比度。在直方图匹配中,首先对输入图像和目标图像分别进行直方图均衡化,然后将输入图像的均衡化结果通过目标图像的均衡化逆变换,得到与目标图像直方图匹配的输出图像。
7. BCET 使用了哪种类型的函数,如何实现平衡对比度增强?
BCET(Balanced Contrast Enhancement Technique)使用线性变换函数,通过调整图像的最小、最大和平均灰度值,实现对比度的平衡增强。具体方法是将输入图像的灰度值线性映射到预设的输出灰度范围内,确保输出图像的对比度和亮度均衡。
8. 尝试推导 BCET 函数中的系数 a 、 b 和 c 。
BCET 函数的形式为:
系数 a 、 b 和 c 的推导基于输入图像的最小灰度值 、最大灰度值 和平均灰度值 ,以及期望的输出灰度值范围。通过建立方程组,解出 a 、 b 和 c 的值,实现对比度的平衡增强。
9. 什么是裁剪,为什么它对图像显示常常是必要的?
裁剪是指将图像灰度值限制在特定范围内,超出范围的值被截断。在图像处理过程中,某些操作可能导致灰度值超出显示设备的范围,导致显示失真。通过裁剪,可以确保灰度值在有效范围内,保证图像显示的正确性。
❓ My Doubts
✔️ Question 1
My Question is:
什么是 TM 和 ETM+ ?TM band 1, TM band 2, TM band 3 这些指的是什么,总共有哪些 band?
My Answer:
TM(Thematic Mapper)和ETM+(Enhanced Thematic Mapper Plus)是美国陆地卫星系统(Landsat)上的传感器。TM是Landsat 5上的传感器,而ETM+则是Landsat 7上的改进版本。
TM的波段(band)指的是传感器能够接收的不同光谱范围,例如:TM Band 1 是蓝光,TM Band 2 是绿光,TM Band 3 是红光,TM Band 4 是近红外,TM Band 5 是中红外,TM Band 6 是热红外,TM Band 7 是短波红外。每个波段在遥感应用中有不同的用途,比如植被监测、水体分析等。
📌 SUMMARIZE
2024.9.25
这节课主要介绍了真彩色合成、假彩色合成、伪彩色图像以及点操作的知识。
真彩色合成指的就是原来的光谱带显示什么颜色就表现为什么颜色,即光谱带在红色范围的就显示为红色,绿色的显示为绿色,蓝色的为蓝色,这符合我们生活中看事物的习惯,但是会缺失红外波段的信息,因为我们人眼无法观测到;假彩色合成则是为了解决这个问题而产生的,它可以让近红外波段映射为红色,红色映射为绿色,绿色映射为蓝色,这种映射方式称为标准假彩色映射。但是需要注意,假彩色合成可以不采用标准的映射方式,具体映射规则可以自己设定。
点操作指的是将图像的每个像素点的 DN 值通过某种映射关系发生改变,对比度增强(CE)是一种最常见的点操作方法。对比度指的是一幅图像中亮部和暗部之间的差异程度,对比度越大,亮部和暗部差异就越大。优化图像的对比度是对比度增强的目标。
为了观察图像的对比度,我们引入了直方图。直方图的横轴为 x,表示的是 DN 值,直方图的纵轴是 x 对应 DN 值下的所有像素点与图像所有像素点的比值。因此直方图可以很好的观察到图像在不同 DN 值下像素的分布情况,观察图像的亮度、对比度。最简单的对比度增强的方法就是引入一个线性的中间函数 f(x),将 作为输入,经过函数 f(x) 映射为 ,使得映射前后 ,同时 。因此可以通过调整 f(x) 斜率的大小来控制输出图像的对比度,当斜率是大于 1 的时候,图像延展,对比度增大;斜率大于 0 小于 1 的时候,对比度减小;斜率小于 0 的时候,图像颜色翻转。由于映射是通过 f(x) 函数完成的,因此可以在确定好 f(x) 后引入查找表 LUT 来提高对比度运算的速度,对于线性函数而言,也许速度的提升并不明显,但当函数越来越复杂后,查找表对于速度的提升是显著的。查找表可以根据输入的 x 很快确定输出的 y,其实就是提前存储一些常用的映射值,比如 f(x) = 2x,可以存放 x=1 → y=2,这样的映射对。
如果希望图像对比度有非线性的变化,可以使用指数和对数函数。指数函数可以将直方图的重心朝左移动,增强图像暗部的表现;对数函数可以将直方图的重心朝右移动,增强图像亮部的表现。
也可以通过直方图均衡的技术(HE)来实现图像对比度的增强。 它的作用就是将原先集中在某一段 DN 值的直方图延展到整个 DN 频段(如 0~255),让所有 DN 值的占比都是相近的。理论上来说可以同时提高图像暗部和亮部的表现,但实际由于自然场景中的图像更多呈现正态分布,符合人眼习惯使得 HE 处理后的图像对比度通常过高,让人看得不舒服。
但是 HE 技术还有另外一种用途 —— HM(直方图匹配),它可以将两幅分布不同的图像都通过 HE 变换为分布均衡的图像,这样,他们的比较就会变得更加容易(因为有些图像是分布在 DN 值为 50~100 的,有些可能是 120~200 的,将他们都映射为 0~255 的是不是比较起来就容易了)。如果要将一幅图像与高斯分布进行比较,那么就可以将该图像与高斯分布的图像都映射为 0~255 的区间范围,这种变换比较方式就称为高斯拉伸。
还有一种对比度增强的技术 —— 平衡对比度增强技术(BCET),是老师研发的。这种技术可以解决彩色图像色彩偏差的问题,将多个光谱段的图像调整到合适的平均值,算法的具体细节不是太懂。
当图像的 DN 值范围主要集中在某一个 DN 区段的时候,可能会因为个别过高或是过低的 DN 值影响图像的对比度,造成图像变换的不准确,这时候就需要对图像进行截断操作,消除图像 % 的点以及 % 的点。
在增强图像的对比度的时候,具体要增强到什么程度需要通过我们的视觉观察,凭借我们的直觉感受,这种方法看似非常的不专业,但是却是一个黄金法则。图像最终处理出来是要给人看的,因此我们也要发挥身体本身的主观能动性调整图像对比度。
代数运算(第三章)
💡 Key Words
这里的关键词只是帮助大家看完右侧的笔记后回忆内容,不是跳转链接!!
- 图像代数运算的方式(像素)
- 图像加法 → 提高信噪比
- 图像减法 → 降低信噪比(权重)
- 图像乘法
- 遮蔽
- 调制
- 图像除法
- 指数 监督增强
- NDVI
- 氧化铁
- 粘土矿物
🔗 Relevant Information
📝 Class Notes
引入
对于多光谱或更一般的多层图像,代数运算,如四种基本算术运算(+、-、×、/)、对数运算、指数运算、sin 运算、tan 运算等,可应用于每个像素不同波段的 DNs,以生成新的图像。这种处理称为图像代数运算。代数运算是在每个像素的光谱带(或层)DN 之间逐个像素进行的,不涉及邻近像素。因此,它们可以被视为多图像点操作,定义如下:

显然,所有涉及代数运算的图像都应进行精确的核心套准。由于图像代数运算完全是基于像素到像素的运算,因此我们可以在下面的章节中进行概括性描述:让 同时表示第 i 个波段图像和属于 n 波段图像 X, ,的第 i 个波段图像的任意一个像素。 Y 表示输出图像和输出图像中的任何一个像素。与对比度增强不同,代数运算与位置相关,必须逐个像素进行。
图像加法
这一操作会对两幅或多幅图像进行加权求和:

图像相加的一个重要应用是降低噪声和提高信噪比(SNR)。假设 n 波段多光谱图像的每个图像波段都受到加法性噪声源的污染,噪声像素不太可能出现在不同波段的相同位置,因此波段 i 中的噪声像素 DN 将与其他 (n-1) 个波段中的非噪声 DN 进行平均。结果,噪声将被大大抑制。对于一个图像的 n 个副本,每个副本都被相同水平的随机噪声污染,那么这 n 个副本的总和图像的信噪比为:
这意味着,对于 n 个波段的多光谱图像,所有波段的总和可将信噪比提高约 倍。
图像减法(差分)
图像减法是从两幅输入图像中生成差分图像:
权重 和 对于确保均衡差分的执行非常重要。例如,如果 的亮度明显高于 的亮度,那么差分图像将以 为主,从而无法有效显示两幅图像之间的真实差异。
图像减法通常用于比较同一地区在不同时间拍摄的遥感图像,目的是识别变化(如土地利用变化、植被生长或减少等)。
将两幅同一地点的图像逐像素相减。例如,如果你有一幅图像A(时间 t1)和一幅图像B(时间 t2),你可以通过计算A - B得到一幅新图像。这个新图像中,像素值的变化可以指示出在这段时间内发生的变化。
- 如果某个像素的值为正,表示在t2时该区域的特征增强(如植被增加)。
- 如果是负值,表示特征减少(如城市扩展)。
- 零值表示该区域没有变化。
通过图像减法,可以有效地识别和分析变化,为环境监测、城市发展规划等提供重要依据。
减法是选择性光谱增强最简单、最有效的技术之一,也可用于变化检测和消除背景光照偏差。
不过,一般来说,减法操作会减少图像信息并降低图像信噪比。这很明显,因为图像减法在去除共同特征的同时,可能会保留两幅图像中的随机噪声。
为什么减法操作会降低图像信噪比
信噪比的降低有两个方面的原因: ① 信号功率降低; ② 噪声功率升高。
图像减法有时会降低信噪比的原因主要包括以下几点:
- 噪声叠加:每幅图像中通常包含随机噪声。当进行图像减法时,这些噪声也会被一并相减,可能导致有效信号被掩盖。例如,噪声在两幅图像中可能不同,相减后,噪声的影响可能会增加,导致信噪比下降。
- 差异放大:在相减过程中,原本较小的信号变化可能会被噪声放大。即使变化的信号很微小,但如果噪声水平较高,减法后的图像可能会显得变化不明显,信噪比降低。
- 图像对齐问题:如果两幅图像未能精确对齐,图像减法可能会引入额外的误差,导致有效信号的丢失和噪声的相对增大,进一步降低信噪比。
- 动态范围影响:减法操作可能导致部分像素值变为负值或接近零,这使得图像的动态范围受限,从而降低可用信息量和信噪比。
因此,在进行图像减法时,通常需要进行适当的预处理(如噪声过滤和图像配准)来提高信噪比,确保得到更可靠的变化信息。


灰度图像相减后,图像越亮的地方(正值)表示 DN 值相差越大。

图像乘法
公式表示:
这里的图像乘法是逐个像素进行的;在每个图像像素上,其波段 i 的 DN 值与波段 j 的 DN 值相乘。这与矩阵乘法有着本质区别。数字图像是一个二维数组,而不是矩阵。 乘法的应用之一是遮蔽。
例如,如果 是由 DN 值 0 和 1 组成的遮罩图像,那么图像 中与 中的 0 相对应的像素将变为 0(被遮罩掉),其他像素在乘积图像 Y 中保持不变。
乘法的另一个应用是使用一个图像对另一个图像进行调制。例如,通过使用全色图像(强度分量)对分类图像的三个颜色分量(红、绿、蓝)进行调制,可将地形特征添加回彩色编码分类图像,如下所示:
- 从彩色编码分类图像中生成红色 (R)、绿色 (G) 和蓝色 (B) 分量图像。
- 使用相关的全色图像 (I) 对 R、G 和 B 分量进行调制:R × I、G × I 和 B × I。
- 使用 R × I、G × I 和 B × I 进行色彩合成。

图像除法
图像分割是一种非常流行的技术,被称为比率(Ratio)。该操作定义如下:
在图像除法处理中,需要一定的保护措施,以避免数字除以零时出现溢出。一个常用的技巧是将分母图像的数值范围上移 1 以避免零。
比率图像 Y 是实数图像,而不是整数图像。如果 和 都是 8 位图像,Y 的最大值范围可能是 0、[1/255, 1]、(1, 255]。[1/255,1] 的取值范围可能与更宽的取值范围(1,255)包含同样多的信息! 由于数值范围 [1/255, 1] 中记录的信息可能被压缩成几个 DN 级,造成细节丢失,而线性拉伸会放大这种压缩效应,可能导致高达 50% 的信息损失。
我们可以将比值视为从直角坐标系到极坐标系的坐标变换,那么

比例图像 Y 实际上是角度 α 的切线图像。比例图像的信息由角度 α 在值范围 [0, α/2] 内均匀表示,而不是在值范围 [0,255] 内均匀表示。因此,为了实现 "公平" 的线性比例拉伸以显示比例图像,最好将 Y 转换为 α。线性缩放的方法如下:

但上述变换并不总是必要的。比率的设计通常是为了突出作为高比率 DN 的目标特征。在这种情况下,直接拉伸比率图像 Y 可以更好地增强目标特征,但代价是丢失低比率 DN 所代表的信息。从这个意义上讲,重要的是要注意到,例如,虽然比率 TM1/TM3 和 TM3/TM1 互为倒数包含相同的信息,但它们在数字图像显示的线性比例后是不同的!请记住,在设计比例时,一定要确保目标信息在比例图像中处于高值。
比率是选择性增强光谱特征的有效技术。 从不同波段对得到的比例图像通常以 RGB 系统显示,以生成比例彩色合成图。例如,TM5/TM7(蓝色)、TM4/TM3(绿色)和 TM3/TM1(红色)的彩色合成图可以突出显示蓝色的粘土矿物、绿色的植被和红色的氧化铁。许多指数,如归一化差异植被指数(NDVI),都是基于差分和比率运算开发的。

在给定的太阳辐射入射角度下,陆地表面接收到的辐射能量取决于陆地表面与入射辐射之间的角度。因此,陆地表面的太阳光照度随地形坡度和倾斜度的变化而变化,从而产生地形阴影。多光谱图像不同光谱波段的 DN 与地表接收的太阳辐射及其光谱反射率成正比。假设 DN(λ) 表示光谱波段 λ 图像中像素的数字编号,则
其中 和 是光谱带 λ 的光谱反射率和辐照度。辐照度是在与像素对应的陆地表面接收到的太阳辐射。
假设一个面向太阳的陆地表面像素接收到的辐射能量是另一个远离太阳的陆地表面像素接收到的辐射能量的 n 倍,那么这两个像素在光谱带 i 和 j 中的 DNs 如下。

地形被抑制地形通常占多光谱图像信息的 90% 以上,因此比率图像会大大降低信噪比。

图像除法和图像差分有什么区别
回答来源于 gpt。
图像减法和图像除法是遥感图像处理中常见的两种代数运算,它们在处理方式、应用场景和效果上存在显著差异。以下是二者的对比:
1. 图像减法(Image Subtraction)
图像减法是指对两幅图像的对应像素值进行逐点相减,通常用于检测两幅图像之间的变化。
特点:
- 计算公式: ,其中 A(i, j) 和 B(i, j) 分别是图像A和图像B在像素位置 (i, j) 的灰度值,结果图像 D(i, j) 表示两者的差异。
- 应用场景:常用于变化检测,例如在多时相图像之间检测变化区域,如城市扩张、自然灾害前后地貌的变化等。
- 优点:
- 突出变化:图像减法能够明显显示两幅图像之间的差异区域,适合快速定位发生变化的部分。
- 简单直观:计算过程简单,结果易于理解和解释。
- 缺点:
- 噪声敏感:图像减法对噪声非常敏感,任何微小的噪声差异都会被放大,导致误差增加,进而影响信噪比(SNR)。
- 光照变化影响大:减法无法消除光照、天气等外部因素引起的变化,这些非真实的变化可能会干扰结果。
2. 图像除法(Image Division, Ratioing)
图像除法是指对两幅图像的对应像素值进行逐点相除,通常用于消除外部因素的影响,突出特定特征。
特点:
- 计算公式: ,其中 A(i, j) 和 B(i, j) 是两幅图像在像素位置 (i, j) 的灰度值。
- 应用场景:常用于光照和地形的校正,如植被指数(NDVI)等特征提取,通过比值消除光照或地形变化引起的亮度差异。
- 优点:
- 消除光照和地形效应:比值法通过相除操作可以削弱由于光照、地形等外部因素带来的影响,从而突出图像中目标物体的相对差异。
- 增强目标物体的对比度:能够突出图像中特定目标物体的特征,尤其在多光谱图像中,用于植被、矿物等分类。
- 缺点:
- 零值问题:当除数图像中存在像素值为零的情况时,计算无法进行,可能导致异常值或计算失败。
- 信息压缩:由于输出结果通常在很小的数值范围内(例如 [0, 1] ),进行线性拉伸时可能丢失部分细节信息。
- 处理速度较慢:比减法复杂,计算时间和资源占用较大。
总结:
操作 | 图像减法 | 图像除法 |
应用 | 变化检测、差异分析 | 光照、地形效应校正,特征提取(如NDVI) |
优点 | 突出变化,简单直观 | 消除光照、地形影响,增强目标物体的对比度 |
缺点 | 对噪声和光照变化敏感,误差容易被放大 | 存在零值问题,数值压缩可能导致信息损失 |
适用场景 | 时间序列变化检测,如灾害监测,城市扩展等 | 植被指数计算,地表物质分类,环境分析 |
图像减法适合检测图像之间的变化,易于操作但对噪声敏感;而图像除法常用于消除光照和地形影响,但计算复杂且可能存在零值问题。
指数推导和监督增强
代数运算的无穷组合可以从基本算术运算和代数函数中推导出来。要设计有意义和有效的组合运算,必须了解目标的光谱特性。根据光谱研究或物理模型组成的用于增强特定目标的公式被称为指数,如 NDVI。 指数可被视为一种有监督的增强。在此,我们简要介绍几种基于 Landsat TM/ETM+ 影像数据的常用指数。 您可以根据光谱分析为特定的图像处理任务设计自己的指数。
植被指数
由于叶绿素的光谱特性,健康植被在近红外有一个高反射峰,在红色有一个吸收谷。 如果我们能看到近红外,植被就会是近红外而不是绿色。红色波段和近红外波段之间的这种显著差异被称为 "红边",它是一种独特的光谱特性,使植被与所有其他地面物体截然不同。显然,植被的这一光谱特征可以通过差分和比值运算得到有效增强。


氧化铁比率指数
氧化铁是自然环境中最常见、分布最广的矿物之一。它呈现红色或红褐色,是红色高反射率和蓝色高吸收率的结果。 地表典型的红色特征,如红色土壤,与氧化铁密切相关。我们可以利用红色和蓝色光谱带图像之间的比率来增强氧化铁。
地表典型的红色特征,如红色土壤,与氧化铁密切相关。我们可以利用红色和蓝色光谱带图像之间的比率来增强氧化铁。


TM粘土矿物比指数
粘土矿物是蚀变的有效指示物,因此对遥感矿产勘探非常有用。黏土矿物区别于未蚀变岩石的典型光谱特征是,黏土矿物在2.2 μm (TM波段7)附近光谱范围内具有强吸收,而在1.66 μm (TM波段5)附近光谱范围内具有高反射。因此,黏土矿物一般可以通过这两个SWIR波段的比值来增强。

总结
在本章中,我们学习了图像之间的简单算术运算,并讨论了它们在图像光谱增强中的主要应用。关键是要理解所有的图像代数运算都是基于点的,并且在不同图像的对应像素之间进行,而不涉及相邻像素。因此,我们可以把代数运算看作是多图像点运算。
图像代数运算的一个主要应用是对多光谱图像中预期目标的光谱特征进行选择性增强。为此,研究这些目标的谱性质是组成有效代数运算的必要条件,而不是盲目尝试。这个过程,从谱分析到组成代数公式,通常被称为监督增强。如果这样的公式不依赖于图像,并且可以广泛使用,则称为指数图像,例如 NDVI 就是众所周知的植被指数图像。
问题测验 3:
问题

问题回答
- 因为图像的算术运算是针对多图像的每个像素的运算,比如图像的乘法,虽然数字图像是一个二维数组,但它的乘法却不像是矩阵乘法,而是对应像素相乘。因此多图像的点操作也可以称为是图像的代数运算。 。
- 因为图像的噪声是随机分布的,有些像素有噪声的干扰,有些像素没有。将多幅定点图像相加并取均值相当于是将多图像的每个像素相加然后取均值,由于多幅图像在同一个像素点都产生噪声的概率比较小,因此像素点相加取均值后噪声相当于是被均分到了多幅图像中,每幅图像的信噪比就提高了。假设有 n 幅图像,那么信噪比就会提高 倍。
- 图像差分是将两幅图像的每个像素点的 DN 值都相减,可以很直观的看出两幅图像的不同,但是会降低图像信噪比; 图像除法是将两幅图像的每个像素点的 DN 值相除。上课的时候这部分没有太懂,感觉这两种方法是差不多的。 到时候看 gpt 的回答。
- 图像减法中权重可以均衡两幅图像的差分,让两幅图像的相减更加公平,如亮度更高的图像更容易影响亮度更低的图像,因此需要对他们进行权重处理。
- 因为图像的噪声是随机分布的,图像减法会将图像中相同的部分减去,而图像的噪声却很可能保留下来,因此图像减法会降低信噪比。
- 图像的乘法与其他运算的原则是一样的,是将多图像对应像素的 DN 值相乘,图像乘法通常用于图像的遮蔽和图像的色彩调制。
- 比例图像的数值范围是实数而不是整数。两幅互为比例的图像包含的信息是相同的,但他们的线性比例是不同的。
- 就是 图像分割部分 的极坐标图。
- 原理如下图所示:

gpt 回答
1. 为什么图像代数运算也称为多图像点运算?写出多图像点运算的数学定义。
图像代数运算被称为多图像点运算,因为它涉及对多幅图像中对应位置的像素进行逐点运算。这些运算包括加法、减法、乘法和除法等。数学上,设两幅图像 A(x, y) 和 B(x, y),输出图像 C(x, y) 的代数运算可表示为:
- 加法:C(x, y) = A(x, y) + B(x, y)
- 减法:C(x, y) = A(x, y) - B(x, y)
- 乘法:C(x, y) = A(x, y) × B(x, y)
- 除法:C(x, y) = A(x, y) ÷ B(x, y)
这些运算在图像处理中的应用广泛,如图像增强、变化检测等。
2. 为什么图像相加可以提高图像的信噪比(SNR)?使用一台静止的相机在相同的光照条件下拍摄同一场景的 9 张图片,然后将这 9 张图片相加生成平均图像,相较于单张图片,SNR 提高了多少倍?
图像相加可以提高信噪比(SNR),因为随机噪声在多幅图像中呈现为正负波动,叠加后趋于相互抵消,而信号部分则累积增强。当将 N 幅图像相加并取平均时,信号强度增加 N 倍,而噪声强度增加 √N 倍,因此 SNR 提高 √N 倍。对于 9 张图像,SNR 提高 √9 = 3 倍。
3. 描述图像差异(减法)和比值(除法)运算,并在变化检测、选择性增强和处理效率方面比较这两种技术。
- 图像差异(减法):对两幅图像的对应像素进行减法运算,结果图像反映两者的差异。
- 变化检测:适用于检测两幅图像间的变化,如运动目标检测。
- 选择性增强:可突出图像间的差异部分。
- 处理效率:计算简单,效率高。
- 比值(除法)运算:对两幅图像的对应像素进行除法运算,结果图像反映两者的比值。
- 变化检测:适用于检测比例变化,如植被指数计算。
- 选择性增强:可突出特定特征的相对变化。
- 处理效率:计算复杂度略高于减法,但仍在可接受范围内。
4. 在图像相减中权重的重要性是什么?建议一种图像差分的理想预处理方法。
在图像相减中,权重用于平衡两幅图像的影响,确保差分结果准确反映实际差异。理想的预处理方法包括:
- 配准:确保两幅图像在空间上精确对齐。
- 光照校正:调整图像亮度和对比度,消除光照差异。
- 噪声滤波:应用滤波器减少噪声影响。
这些预处理步骤有助于提高差分结果的准确性。
5. 为什么差分图像会降低 SNR?
差分图像会降低 SNR,因为噪声在两幅图像中可能不相关,差分运算会放大噪声成分,而信号成分可能部分抵消,导致 SNR 降低。
6. 描述图像乘法及其主要应用。
图像乘法是对两幅图像的对应像素进行乘法运算,结果图像反映两者的交互信息。主要应用包括:
- 遮罩操作:通过乘以二值掩膜图像,提取感兴趣区域。
- 图像融合:结合多源图像信息,增强特定特征。
- 频域滤波:在频域中进行乘法运算,实现滤波效果。
7. 解释比值图像值范围的特性。你认为线性缩放后,两幅互为倒数的比值图像显示相同的信息吗?请解释原因。
比值图像的值范围取决于分子和分母的像素值范围。线性缩放后,两幅互为倒数的比值图像不会显示相同的信息,因为倒数运算会改变值的分布和动态范围,导致图像特征不同。
8. 使用图示描述比值图像作为坐标变换的过程,从笛卡尔坐标系到极坐标系。
比值图像可用于将笛卡尔坐标系下的图像数据转换为极坐标系。具体过程包括:
- 计算幅度(r):r = √(x² + y²)
- 计算角度(θ):θ = arctan(y / x)
通过上述计算,将图像从笛卡尔坐标系转换为极坐标系,有助于分析图像的径向和角度特征。
9. 解释使用比值图像技术进行地形抑制的原理。
比值图像技术用于地形抑制的原理是通过计算图像波段间的比值,减少地形引起的光照变化影响,从而增强地物的相对反射特性。这样做可以有效地消除因坡度、朝向等地形因素造成的亮度差异,使得不同地形条件下的相似地物在图像中具有一致的表现。
10. 什么是 NDVI?它是如何设计的?解释 NDVI 中差分和比值运算的不同功能。
回答:
NDVI(归一化植被指数)是一种常用的植被指数,用于反映植被的密度和健康状况。其公式为:
其中,NIR 表示近红外波段的反射率,RED 表示红光波段的反射率。
- 设计原理:NDVI 利用植被在近红外波段具有较高反射率,而在红光波段反射率较低的特性,从而将植被信息与其他地物区分开。
- 差分和比值的作用:
- 差分(NIR - RED)用于突出植被的反射特性,增大植被与非植被的差异。
- 比值(NIR + RED)则用于归一化操作,减小光照和地形变化对指数值的影响,提高指数的稳定性。
11. 描述 TM 或 ETM+ 铁氧化物和粘土指数的设计和功能。
回答:
TM 和 ETM+(陆地卫星的遥感传感器)上的铁氧化物和粘土指数用于识别特定矿物的存在。
- 铁氧化物指数:通常通过特定波段组合计算,用于检测土壤和岩石中的铁氧化物含量。
- 公式示例:,利用红光和短波红外波段的反射率差异突出铁氧化物特征。
- 粘土指数:用于检测粘土矿物含量。
- 公式示例: ,通过短波红外波段反映粘土的特征。
这些指数的设计基于不同矿物在特定波段的反射特性,可以帮助地质勘查和土壤分类。
12. 尝试使用类似于 NDVI 的归一化差分方法来增强铁氧化物和粘土矿物。将结果与对应的比值指数进行比较,并解释为什么比值指数对这两种矿物更有效。
回答:
类似 NDVI 的归一化差分方法可用于铁氧化物和粘土矿物的增强。可以定义铁氧化物和粘土的归一化差分指数:
- 铁氧化物归一化差分指数:
- 粘土归一化差分指数:
归一化差分方法能减少光照影响,但在矿物检测中,比值指数(如 Band5/Band3 和 Band7/Band5)往往更有效,因为矿物反射特性在特定波段上有显著的相对差异,比值能更好地突出这种特性。而归一化差分会抑制一些强度差异,可能降低对微弱矿物特征的敏感性。因此,比值指数在矿物增强中通常更为直接有效。
📌 SUMMARIZE
2024.9.26
本节课主要讲解了数字图像中的代数运算,通过这些代数运算可以实现指数图像,即监督增强。每种图像的代数运算都有各自的特点和用途。
过滤和邻域处理(第四章)
💡 Key Words
这里的关键词只是帮助大家看完右侧的笔记后回忆内容,不是跳转链接!!
- 领域处理
- 傅里叶变换 → 滤波器
- 卷积定理 → 图像卷积
- 低通滤波器 → 平滑
- 均值滤波器→模糊
- 高斯滤波器→模糊
(边缘保护)
c. 中值滤波器
d. 自适应中值滤波器
e. 多数滤波器
- 高通滤波器 → 图像增强
- 梯度滤波器
- Prewitt 滤波器
- Sobel 滤波器
- 拉普拉斯运算滤波器(边缘锐化滤波器)
- 中心像素 DN 值对锐化的影响
🔗 Relevant Information
📝 Class Notes
引入
滤波是数字图像处理中一个非常重要的研究领域。所有的滤波算法都涉及所谓的 “邻域处理”,因为滤波是根据邻域像素之间的关系进行的,而不是像点操作那样根据单个像素进行的。数字滤波可用于增强被称为 “线状 ”的地质结构,这些结构可能代表断层、岩脉或岩穴等。它还可以增强图像纹理,用于岩性判别和排水模式分析。在土地利用研究中,滤波可以突出城市区域、道路系统等的纹理。在一般可视化方面,滤波被广泛用于锐化图像。不过,在使用滤波图像时必须谨慎,因为滤波并不能 “诚实 ”地保留原始图像中的信息。建议在使用滤波图像时,参考彩色合成图像或黑白单波段图像进行解释。
由于图像中的像素坐标与点操作无关,因此下标 ij 与处理无关,可以忽略。然而,对于滤波和邻域处理,像素坐标是最相关的,从这个意义上说,我们将图像视为一个二维(2D)函数。因此,在本章介绍滤波的基本数学概念时,我们按照惯例将图像以及图像列 x 和行 y 上的任意一个像素表示为二维函数 f(x,y)。另一方面,为了简便起见,在描述某些滤波和算法时,仍会使用的表达式。数字滤波可以通过基于空间域卷积概念的 “盒式滤波器 ”或频域傅里叶变换(FT)来实现。在遥感的实际应用中,基于卷积的盒式滤波器因其计算效率高、结果可靠而最为有用。傅里叶变换清楚地解释了滤波的物理和数学含义,对于理解卷积原理至关重要。
傅里叶变换:了解图像频率滤波
如下图所示,图像中的信息可被视为像素 DNs 的空间变化或不同频率空间信息的集合。平滑的阶调变化是低频信息,而尖锐的边界则代表高频信息。

给定图像 f(x,y),其中 x 和 y 是像素位置的空间坐标,第一个镜头执行 FT,将其前焦平面上的 f(x,y) 转换为其后焦平面上的傅里叶变换 F(u,v),即频率 u 在水平方向和 v 在垂直方向的频率功率谱。然后,第二个镜头进行 IFT 变换,将前焦平面的 F(u,v) 变换回后焦平面的图像,但 f(-x,-y) 要旋转 180°。如果在 FT 镜头的后焦平面上放置一个滤波器(遮罩)H(u,v),以遮挡 F(u,v) 中特定频率的信号(相当于操作 F(u,v)H(u,v)),则会产生滤波图像 g = f(-x,-y)*h(x,y)(旋转 180°)。

总之,基于傅里叶变换的滤波有三个步骤:
- 傅里叶变换 (FT) 将图像转换到频域;
- 通过滤波器去除或改变特定频率的数据;
- 反傅里叶变换 (IFT) 将滤波后的频谱转回空间域,生成滤波后的图像。

在 FT 频谱中,频率从频谱平面中心的零频率开始上升,向频谱平面边缘的频率越来越高。
FT 和 IFT 的数学定义:
图中的 C2D 指的是 continuous → discrete; D2D 指的是 distcrete → discrete。
假设 f(x, y) 是输入图像,F(u, v) 是 f(x, y) 的 2D 傅里叶变换,它们的 2D FT 和 IFT 是:

FT 和 IFT 的操作基本相同,但一个是从图像域到频域,另一个是从频域到图像域。
卷积运算:
傅里叶变换的一个重要性质被称为卷积定理。它指出,如果 F 和 H 是函数 f 和 h 的傅里叶变换,那么卷积的傅里叶变换 等于 F 和 H 的乘积。

这是基于傅里叶变换的滤波技术的关键概念。F 是图像 f 的空间信息的频率呈现。如果 H 是一个滤波函数,用于改变特定频率的功率或使其为零,那么第二个公式就会执行滤波,改变或去除这些频率,并生成滤波后的图像 。
图像滤波的卷积概念:


卷积核中的每个像素使用像素方格左下角点的坐标表示。
根据卷积定理,使用傅里叶变换进行图像滤波等同于图像 f(x,y) 与函数 h(x,y) 之间的卷积,函数 h(x,y) 通常称为点展函数(PSF)。
PSF 点展函数
点扩散函数(PSF,Point Spread Function)最开始是描述光学系统如何响应于一个点光源的函数。在遥感图像处理中,PSF 用于量化系统的成像质量,影响图像的清晰度和细节。它帮助理解图像模糊的来源,并在图像复原和处理时起着重要作用。
二维卷积的定义如下:

如果 PSF h(x,y) 的非零范围在一个维度上是 (-w,+w),在另一个维度上是 (-t,+t),那么:

在数字图像滤波中,w 和 t 是滤波核在水平和垂直方向上的半径。

滤波后的图像像素 g(x,y) 是由输入图像像素 f(x,y) 周围的邻域像素 f(u,v) 相加得出的,加权值为 h(x-u,y-v)。根据卷积定理,滤波器核或 PSF h(x,y) 实际上是频率滤波器 H(u,v) 的 “图像”。滤波器核 h(x,y) 中的数字是对 f(x,y) 邻域求和的权重。对于整个图像,卷积滤波是通过逐个像素移动滤波器内核,将卷积公式应用到被滤波图像的每个像素上。虽然内核大小可以是奇数也可以是偶数,但为了确保滤波过程的对称性,奇数更可取。偶数大小的内核会导致滤波后的图像出现半像素偏移。常用的滤波核大小有 3×3、5×5、7×7 等。也可根据需要使用矩形内核。
卷积是图像域或空间滤波器的理论基础,但许多空间滤波器的设计并不一定基于卷积的数学定义,而是基于邻域关系。
低通滤波器(平滑)
所谓平滑就是让图像的每个像素值与周围像素的差异不会太大。使用卷积核对图像卷积的过程实际上就是滤波的过程,因此卷积核可以相当于是滤波器。
平滑滤波器旨在去除高频信息并保留低频信息,从而以降低图像中的细节(高频部分存放了图像的细节,使得图像边缘更加锐利)为代价来减少噪声。下图显示了一个典型的低通滤波器H(u,v)和相应的 PSF H(x, y)。大多数用于平滑的卷积核滤波器都涉及核内像素的加权平均。核值越大,保留的低频信息越少。

“核值”指的是卷积核中每个像素的权重。这些权重决定了在进行卷积操作时,输入图像中对应像素对输出结果的影响。核值越大,意味着该像素在滤波时对结果的贡献越大,从而减少低频信息的保留,导致图像变得更平滑。
均值滤波器(Mean Filter):
如图所示,图像的平滑处理使图像变得更加模糊,因此后面会介绍其他的滤波器改善这个问题。
均值滤波器指的就是卷积核中所有的核值均为 1 的滤波器,之所以是均值滤波,是因为这种滤波器施加在图像上做卷积相当于是把图像中的每个像素与周围的像素值相加后取平均。

图中的 3x3 mean filter 和 9x9 mean filter 指的是 3x3 的均值滤波器和 9x9 的均值滤波器,对于3x3 mean filter ,核矩阵的所有值都是 1,总和是 9,所以前面的系数是 。9x9 的总和是 81,所以前面的系数是 。
卷积和前面的系数是用于归一化的,归一化的目的是在滤波后保持图像的亮度平衡。这样,滤波后的图像不会变得更亮或更暗,而是仅仅平滑了图像细节。
将卷积核应用于图像的过程,就相当于是对图像中的每个像素与像素周围九宫格范围内(依据卷积核而定)的像素的 DN 值加权求和后取平均,使得图像中每个像素都与周围的像素值更接近,也就是图像变得平滑了。
高斯滤波器(Gaussian Filter):

图中的 x 和 y 都是以卷积核中心为原点表示的相对坐标,但不知道为什么,我计算 的核值,结果是 0.798,上面卷积核中所有的核值的总和接近于 1.
边缘保护的低通滤波器:
图中 3x3 的卷积核的典型值是 5,选取 4 个最接近的。 


基于平均值的平滑处理可以有效地消除噪声像素,因为噪声像素与其周围像素的 DN 值往往截然不同,但这一过程会去除高频信息,从而使图像变得模糊。因此,"边缘保留平滑 "技术成为滤波的一个重要研究课题。
K Neraest Mean Filter:
这个滤波器是一个非线性滤波器,它的主要特点是对一个像素的值进行更新时,并不是简单地取卷积核窗口内所有像素值的平均,而是只选取与该像素值最接近的 K 个像素,然后计算这 K 个像素的平均值,作为新像素的值。对于 3x3 的卷积核,k 一般取 5.
这里需要注意:
K Nearest Mean Filter 在上面的描述中就已经和传统的滤波器是不一样的了,传统的滤波器是需要事先设置卷积核的大小,同时设置卷积核中核值的大小;而 K Nearest Mean Filter 只需要设置卷积核的大小,不需要填充核值,它的计算不是简单的核值与像素值相乘后加权求和,而是直接让像素值与周围像素值作差后求和平均。
滤波器的工作步骤如下:
- 选择卷积核窗口:通常是一个 3x3 或者 5x5 的窗口。比如说对于 3x3 的窗口,中心像素是当前需要更新的像素,窗口包含该像素及其周围的 8 个邻域像素。
- 计算距离:对于当前窗口内的每一个像素,计算它与中心像素的 DN 值之差。
- 选取 K 个最接近的像素:根据差值的大小,选择与中心像素差值最小的 K 个像素。这里的“最接近”指的是这些像素的值与中心像素的值最接近。
- 计算平均值:将选取的 K 个像素值求平均,并将该平均值赋给中心像素。
下图是两个使用均值滤波器的示例:

图中中心像素值 0 与 54、55、57、58 最接近,因此是这 4 个像素值与 0 求和后平均。
中值滤波器(Median filter):
上图还显示了一种替换卷积核中间值的方法,就是将卷积核中的 9 个进行排序后,取大小位于中间的像素值替换原来位于卷积核中心的像素值。
在内核窗口(例如3x3)中,将图像 X 的像素 重新分配给其相邻像素(包括其本身)的中值 DN。
自适应中值滤波器(Adaptive median filter:):
自适应中值滤波器是根据中值滤波器的基本原理设计的,方法如下:

首先,对于卷积核窗口内的图像像素值,按照上面三个取值方法取出像素值,第三个取值方法就是取出中心像素值本身。
将第一种取值方法下的五个像素值取出从小到大排序后,取出其中位数作为第一种取值方法下的像素值 M1;
第二种取值方法与第一种相同,仍然是将五个像素值取出排序后,将其中的中位数作为第二种取值方法下的像素值 M2;
第三种取值方法直接取卷积核中间的像素,取出的像素值记为 M3;
将三种取值方法得出的像素值 M1、M2、M3 按从小到大排列后,取出其中的中位数替换卷积核窗口中心像素的 DN 值。

上图显示了自适应中值滤波器的两个示例。
模式(多数)过滤器(Mode (majority) filter):
这是一个相当民主的过滤器。一个像素被重新赋值为邻近像素中数量最多的 DN 值。该滤波器基于内核中像素的计数而不是数值计算来执行平滑。因此,它适用于平滑非顺序数据(符号)的图像,如分类图像。对于3x3内核,建议多数的数量定义为 5。如果在内核窗口中没有发现多数,则窗口中的中心像素保持不变。

上图是一个简单的例子,图中有 6 个 DN=6 的像素,因此中心 DN 值 2 被替换为6。对于分类图像,该窗口中的数字是类号,其含义与类符号A、B和C没有区别。如果我们使用均值滤波器,则窗口中DN的平均值为5.3。类 5.3 在分类图像中没有意义!因为分类图像中的每个类都是离散的整数值,不会是连续的值。
高通滤波器(图像增强)
图像中的边缘和纹理是典型的高频信息。高通滤波器去除低频图像信息,从而增强边缘等高频信息。下图说明了典型的高通滤波器 H(u, v) 和相应的 PSF h(s, v)。

梯度和拉普拉斯运算的定义:
梯度和拉普拉斯运算的公式 
一阶和二阶导数的几何意义。
最常用的边缘增强滤波器基于一阶和二阶导数或梯度和拉普拉斯算子。

这两种类型的高通滤波器以不同的方式工作。梯度是像素 f(x, y) 处的一阶导数,并且作为 DN 变化率的度量,它是表征像素周围的 DN 斜率的最大幅度和方向的向量。拉普拉斯算子作为 f(x, y) 的二阶导数,是度量梯度的变化率的标量。简单地说,拉普拉斯算子描述了斜率的曲率,但不描述其大小和方向。
如下图所示,平坦的 DN 斜率具有恒定的梯度,但拉普拉斯值为零,因为平坦斜率的变化率为零。
对于曲率恒定的斜率(圆弧),梯度是一个变量,而拉普拉斯算子是一个常数。
只有对于曲率变化的斜率,梯度和拉普拉斯算子都是变量。

这就是为什么拉普拉斯算子抑制了除尖锐边缘之外的所有图像特征,其中 DN 梯度急剧变化,而梯度保留边缘以及斜率信息。
梯度滤波器:





梯度滤波器总是成对产生 x 分量(gx)和 y 分量(gy)或对角线方向的分量。

梯度的大小 和方向 可由 gx 和 gy 计算得出:


如果将 应用于数字高程模型 (DEM),则在生成梯度图的同时,还能生成地形的高宽比图。

上图中的 表示的是水平梯度滤波器的卷积核,
0, -1, 1
意味着在水平方向上,该滤波器会对相邻的像素进行加权求和。在水平方向上当前像素值 I(x,y) 的权重是 0
,左侧像素 I(x−1,y) 的权重是 1
。右侧像素 I(x+1,y) 的权重是 1
。(至于为什么是这样反人类的表示,而不是 好像是学术上的习惯?)这个操作等价于计算图像在水平方向上的差值(一阶差分),即 。
也是同理,只不过是垂直方向上的一阶差分,等价于 。
将 和 的值都表示出来后,就可以通过公式 公式来计算中心像素点的取值了。
计算出来后, 的值也可以进行计算,但是它在原来的图像中不会表现出来,只是用于我们对图像进行分析, 的存在可以帮助我们判断图像边缘的变化方向,有利于后期绘制图像的梯度图或是用于图像的边缘增强,即抑制非边缘方向的噪声,增强清晰度。

上图是经过梯度处理的图像,可以看到图像中低频成分都被消除了,只留下了原图中的边缘部分和纹理。

该图像中还介绍了 Prewitt filter 和 Sobel filter,它们的原理都是一样的,图中滤波器的卷积核中的值是核值,不是图像像素值,核值是事先就确定好了的。可以看到,Prewitt 滤波器 和 Sobel 滤波器 的卷积核都有四种形式,分别表示水平方向上的差值、“右下-左上”(135度)对角线方向的差值、垂直方向的差值以及“右上-左下”(45度)对角线(也叫反对角线)方向的差值。
通过四个方向上的差分来综合判断中心像素值的取值,中心像素的值是通过 来计算的。
拉普拉斯运算滤波器:





作为二阶导数,我们可以将拉普拉斯算子视为梯度的差。
Laplacian由两部分组成:x 方向和 y 方向的二次偏导数。


虽然操作叫做拉普拉斯运算,但其实公式却是非常的简单的,就是中间的像素值减去两侧的像素值而已,最终的 就是将前面的两个差值相加。

一般来说,我们可以将栅格图像数据的拉普拉斯滤波视为一个像素 f(x, y) 与其相邻像素 之间所有差值的求和。

上图的公式拿第一个滤波器举例就是
将拉普拉斯滤波器的中心权重增加k相当于将原始图像的k倍加回拉普拉斯滤波图像。得到的图像与原始图像相似,但具有锐化的边缘,这种滤波器称为边缘锐化滤波器。


总结
图像滤波是去除特定频率的图像信息的过程,它是通过傅里叶变换在频域中进行的信号处理,基于卷积定理,基于傅里叶变换的滤波可以在图像域中进行,它是通过核滤波器的邻域处理来实现的,具有简单和处理效率高的优点。
低通滤波器主要用于平滑图像特征和去除噪声,但通常以降低图像的空间分辨率(模糊)为代价,为了在去除随机噪声的同时使分辨率的降低最小,已经开发了各种边缘保持滤波器,例如自适应中值滤波器。
有两种不同类型的高通滤波器:梯度滤波器和拉普拉斯滤波器。
梯度给出了DN斜率的测量值,是一个向量,梯度滤波器以正交对的形式定向呈现,用于方向增强。
拉普拉斯作为二阶导数,是衡量DN斜率变化率的标量。图像边缘特征的特征是显著的DN斜率变化,因此拉普拉斯算子对于边缘增强和提取非常有效。
问题测验 4
问题



问题回答
- 4f 图像滤波器会先将图像从时域映射到频域且图像内容翻转,再将图像从频域映射回时域且图像内容翻转;以傅里叶变换为基础的图像滤波利用的是卷积定理来实现的,对图像进行卷积相当于是对图像和滤波器都进行傅里叶变换后在频域的相乘。
- 卷积定理就是图像在时域的卷积等同于图像在频域的相乘,数字图像滤波是通过卷积核与图像像素进行卷积完成的,将卷积核中的每个元素与图像像素相乘后加权求和的过程就是图像在频域中通过滤波器滤波。
- 卷积核的中心像素会从图像域中的每个像素点上移动,每次移动时都会做一次加权求和的操作。
- ;
- 数字图像中的低通滤波就是平滑图像的像素值,去除图像中的高频成分,只留下低频成分。如均值滤波器中核值都是 1 ,高斯滤波器中的核值是通过高斯函数计算出来的。
- 均值滤波器会让图像变得模糊,而边缘保护的滤波器会让图像在平滑滤波的同时保留较高的分辨率。
- 计算的结果如下:

- 多数滤波器,因为多数滤波器的原理就是分类。比如色彩图像的滤波?色彩图像的每个像素值是用字母表示的。
- 高通滤波器就是消除高频分量,保留低频分量的一种滤波器。
- 这个不想写了,在上面的笔记中有。
- 梯度滤波器处理的更多的是方向的边缘性增强,而拉普拉斯滤波器更多的是边缘的锐化。
- 可以使用 Sobel 滤波器,坡度大小就是 ,坡度方向就是 .
- 这个不知道。
- 边缘锐化的滤波器就是中心值权重很大的拉普拉斯滤波器。可以提取图像的地形图?
gpt
1. 使用图示说明 4f 光学图像滤波系统,并解释基于傅里叶变换的图像滤波原理。
4f 光学系统由两个焦距为 f 的透镜组成,物体位于第一个透镜的前焦面,像平面位于第二个透镜的后焦面。在两个透镜的中间焦平面上,物体的傅里叶变换(频谱)被形成。通过在此频谱平面上放置适当的滤波器,可以对特定的频率成分进行调制,从而实现图像的频域滤波。
2. 什么是卷积定理?它在数字图像滤波中有何重要性?
卷积定理指出,时域(空间域)中两个信号的卷积等价于其频域表示的乘积,反之亦然。在数字图像滤波中,这意味着在空间域进行卷积操作可以通过在频域进行乘积运算来实现。这对于设计和实现滤波器非常重要,因为在频域中设计滤波器通常更直观和方便。
3. 解释频域中的滤波函数 H(u,v) 与空间(图像)域中的点扩散函数 h(x,y) 的关系。
频域中的滤波函数 H(u,v) 是空间域中点扩散函数 h(x,y) 的傅里叶变换。这意味着,空间域中的卷积操作对应于频域中的乘积运算。因此,了解 H(u,v) 可以帮助我们理解滤波器在空间域中的行为,反之亦然。
4. 如果点扩散函数 h(x,y) 在一个维度的非零范围为 (-w, +w),另一个维度为 (-t, +t),写出卷积 f(x,y) * h(x,y) 的离散形式。
离散卷积的表达式为:
其中, f(x,y) 是输入图像, h(x,y) 是点扩散函数, w 和 t 分别是 h(x,y) 在 x 和 y 方向的半宽度。
5. 什么是数字图像滤波的低通滤波器?其效果是什么?给出一些低通滤波器的示例。
低通滤波器允许低频信号通过,抑制高频信号。在图像处理中,低通滤波器用于平滑图像,减少噪声和细节。常见的低通滤波器包括:
- 均值滤波器:对邻域像素取平均值。
- 高斯滤波器:使用高斯函数加权邻域像素。
- 中值滤波器:取邻域像素的中值,特别适用于去除椒盐噪声。
6. 讨论均值滤波器的主要缺点以及保边缘平滑滤波器的重要性。
均值滤波器的主要缺点是:
- 边缘模糊:在平滑噪声的同时,也会模糊图像的边缘细节。
- 细节丢失:可能导致图像中的细小特征被平滑掉。
保边缘平滑滤波器(如双边滤波器)的重要性在于:
- 边缘保留:在平滑噪声的同时,保留图像的边缘细节。
- 细节保护:减少细节丢失,保持图像的清晰度。
7. 为了平滑分类图像,哪种滤波器是适合的?为什么?用示例描述此滤波器。
对于分类图像(如土地覆盖分类图),中值滤波器是适合的选择。原因是中值滤波器在平滑图像的同时,能够有效保留边缘信息,减少分类错误。
示例:
- 输入:一幅土地覆盖分类图像,存在孤立的噪声像素。
- 处理:应用 3x3 的中值滤波器。
- 输出:噪声像素被平滑,边缘信息得以保留,分类结果更准确。
8. 什么是高通滤波?
高通滤波器允许高频信号通过,抑制低频信号。在图像处理中,高通滤波用于增强图像的边缘和细节,突出变化区域。
9. 给出梯度和拉普拉斯滤波器的数学定义,并举例说明梯度滤波器和拉普拉斯滤波器。
- 梯度滤波器:计算图像在 x 和 y 方向的导数,检测边缘。
- 数学定义:
- x 方向梯度:
- y 方向梯度:
- 示例:Sobel 算子。
- 拉普拉斯滤波器:计算图像的二阶导数,用于检测图像中的快速变化区域(如边缘)。拉普拉斯滤波器对图像的噪声比较敏感,适用于细节增强。
- 数学定义:
- 示例:常用的拉普拉斯算子模板为:
10. 使用图示解释梯度和基于拉普拉斯的高通滤波器的不同功能。
梯度滤波器主要用于检测边缘,突出图像中亮度变化剧烈的区域,通常用于边缘检测;而拉普拉斯滤波器则更关注图像中的快速变化区域,包括细节和边缘,因此可以更全面地增强图像的轮廓和细节。梯度滤波器会保留边缘方向的信息(水平或垂直),而拉普拉斯滤波器对方向不敏感。
11. 给定 DEM,如何使用梯度滤波器计算地形的坡度和方位?
- 坡度:可以通过计算 DEM 中每个像素的梯度幅值来得到坡度。梯度幅值 表示坡度的大小。
- 方位:可以通过梯度方向 得到坡度的方位角。
12. 为什么拉普拉斯滤波后的图像的直方图在零值处对称,且具有正负值的高峰?
拉普拉斯滤波器计算的是二阶导数,因此会在边缘附近产生正负变化,对称于零。边缘两侧的灰度值变化方向不同,会导致正负值分布,零处的高峰表示无变化的平坦区域。
13. 什么是边缘锐化滤波器?边缘锐化滤波器的主要应用是什么?
边缘锐化滤波器用于增强图像的边缘,使边缘更加清晰。主要应用包括图像增强、特征检测等,用于提高视觉效果或在计算机视觉中用于提取重要特征。
📌 SUMMARIZE
2024.9.26
这节课主要讲解了图像的滤波操作(领域处理),滤波操作中需要通过滤波器遮挡住特定频率的信号,这个操作需要在频域中通过图像与滤波器函数相乘完成,而频域中的相乘相当于是时域中的卷积,因此介绍了图像卷积的操作。图像卷积是通过一个卷积核(一般是奇数内核,如 3x3)在原始图像上的每个像素点加权求和,将值填入卷积核中心点所对应的图像的坐标位置实现的。
2024.10.8
本节课主要讲解了低通滤波器和高滤波器。低通滤波器主要用于图像的平滑处理,而高通滤波器用于图像的锐化和边缘增强。
低通滤波器又称为平滑滤波器,最基本的滤波器类型是均值滤波器。均值滤波器的卷积核核值都是 1,可以将图像中的中心像素与周围的像素点加权求和后取平均,减小中心像素与周围像素点的差异。但是均值滤波器有一个缺点就是会让图像变得很模糊。因此引入了边缘保护的滤波器。
边缘保护的滤波器主要有 K nearest filter、中值滤波器、自适应中值滤波器和多数滤波器,可以较好的保护图像的分辨率。
高通滤波器用于图像增强和边缘锐化,主要分为梯度滤波和拉普拉斯滤波两种,梯度滤波包含梯度滤波器、perwitt 滤波器和 Sobel 滤波器,对于方向性的边缘增强比较有利;拉普拉斯滤波主要有标准拉普拉斯滤波和边缘锐化滤波器,中心像素值越大,边缘锐化程度越高。
第五章往后的几章没有太懂,且最近比较忙,因此只是把课件翻译了一下(第 8 章内容多,没有翻译)。
RGB-IHS 转换及应用(第五章)
🔗 Relevant Information
📝 Class Notes
引入
根据三色刺激理论,一种颜色是由红、绿和蓝三种原色组成的。对于颜色感知,一种颜色可以用三个变量来定量描述。
强度(Intensity):色彩亮度(能级);
色调(Hue):色彩光谱范围;
饱和度(Saturation):色彩纯度。
对于数字图像的RGB加色显示,简单的RGB彩色立方体是最合适的模型。颜色立方体中的 RGB-IHS 颜色坐标变换类似于三维 CartesianConical 坐标变换。
颜色坐标变换


如图所示,三波段彩色合成中的任何一种颜色都是边长为 255 的彩色立方体中的一个矢量(对于 24 位 RGB 彩色显示器)。连接原点和最远顶点的主对角线称为灰线。
颜色向量 P 的强度被定义为其在灰线上的投影的长度 OD,色调被定义为围绕灰线的方位角 α,并且饱和度被定义为颜色向量 P 与灰线之间的角度 φ 。
基于颜色立方体的 RGB-IHS 颜色坐标变换:

饱和度的最后一个公式意味着,如果颜色矢量的 r、g 和 b 分量中至少有一个等于 0,而不是所有分量都等于 0,则颜色矢量达到完全饱和度。例如,颜色 P(r, g, b) =(255,0,0)是完全饱和的纯红色,而 P(r, g, b) =(0,200,150)是完全饱和的绿青色。
上面的公式挺复杂的,老师没有说推导过程,我觉得不需要记😉。
IHS-RGB转换:
给定强度 I、色调角 α 和饱和度角 φ,我们还可以基于颜色立方体中描绘的相同 3D 几何结构导出 IHS-RGB 变换:

IHS去相关延伸(IHSDS)
多光谱图像的光谱波段之间通常存在高度相关性,因此,以RGB显示的原始图像波段沿着灰线形成一个细长的簇,仅占据彩色立方体空间的很小一部分(左图),对各个图像带的对比度增强可以拉长彩色立方体中的簇相当于仅拉伸强度(中间图)。为了增加颜色立方体中数据簇的体积,数据簇应在沿着和垂直于灰线的两个方向上扩展。这相当于拉伸强度和饱和度分量(右图)。

IHSDS技术包括三个步骤:
- RGB-IHS 变换;
- 饱和度分量拉伸;
- IHS-RGB 转换。
在第二步中,色调分量也可以被拉伸。然而,当转换回 RGB 显示时,所产生的颜色可能与原始图像中的颜色不相关,这会使图像难以解读。彩色合成图像的有限色调范围主要是由颜色偏差造成的。
如果一个波段的平均亮度明显高于其他两个波段的平均亮度,彩色合成物会有明显的原色偏色,而原色的偏色是指最高亮度的波段。
我们可以使用 BECT 来消除波段间的颜色偏差,从而增加彩色合成物的色调变化。BECT 所达到的较宽色调值范围意味着更多的光谱信息是以色调变化而不是强度和饱和度来呈现的,这从根本上不同于通过拉伸色调分量而获得的宽色调范围。
在许多情况下,带有自动裁剪的简单线性拉伸或交互式分段线性拉伸也可以有效地消除颜色偏差。总之,基于 IHS 变换的优化去相关拉伸可以通过四个步骤实现:
- BCAT拉伸(或具有适当剪裁的线性拉伸);
- RGB-IHS转换;
- 饱和度分量拉伸;
- IHS-RGB转换。
基于IHS变换的饱和度拉伸和基于主成分分析的去相关拉伸的效果类似,区别在于PC去相关拉伸是基于场景统计的,而IHS去相关拉伸是基于用户对饱和度图像及其直方图的观察的,是交互式的、灵活的。

IHSDS可提高彩色合成影像的色彩饱和度,从而有效改善影像光谱信息的视觉质素,而影像的光谱特性不会出现明显的失真,因此所得影像易于理解和判读。统计上,此处理可减少波段间的相关性,如下表所示。

直接去相关拉伸技术
这项技术是由老师研发的。
该技术不需要 RGB-IHS 和 IHS-RGB 变换,直接进行饱和度拉伸,达到与 IHS 去相关拉伸相同的效果,但由于 DDS 只涉及简单的算术运算,而且可以定量控制,因此比 IHS 去相关拉伸技术更快、更灵活、更有效。
颜色向量 P 和灰线决定了 RGB 立方体的一个平面或一个切片。如果我们把这个切片取出来,如下图所示,灰线,全饱和度线和最大强度线形成一个三角形,该三角形包括具有相同色调但不同强度和饱和度的所有颜色。(消色差)线和最大饱和度(色)线,并且它可以被认为是两个向量的和:矢量 a 表示消色差的(零饱和度)分量或颜色中的白色光,以及表示与色调的纯色相关的彩色(全饱和度)分量的矢量 c。

如图所示,该操作将颜色矢量 P 从灰线移开,以形成具有增加的饱和度( )和降低的强度()的新颜色矢量 。为了将强度恢复到期望的水平,然后可以将线性拉伸应用于红色的每个图像,这将使 延长到具有与 相同的色调和饱和度但强度增加的 ()。
该操作不会影响色调,因为它只会减少颜色的消色差,而c表示的色调不变。如果我们将DDS公式改写为:

DDS的数值运算如下:

输出图像的色彩饱和度由消色差因子k控制。

同样,如 IHS 去相关拉伸中已经指出的,在应用DDS之前,用于颜色合成的三个频带必须被很好地拉伸(例如,具有适当削波的BCAT或线性拉伸)。
k 值由用户指定。它应根据原始颜色合成的饱和度设置。图像的饱和度越低,k值应越大(在0~1的范围内)和k=0.5通常在大多数情况下都是好的。下图说明了初始BCAT颜色合成和k=0.3的DDS颜色合成,k=0.5和k=0.7。与BCET彩色复合材料相比,DDS复合材料的饱和度均有所提高,但色调不失真,且饱和度随k的增加而增加。

用于数据融合的RGB-IHS转换
分辨率融合(泛锐化):
将低分辨率的彩色合成图像(例如TM图像)校正为同一场景的高分辨率图像(例如SPOT全色图像)。
- 对低分辨率彩色合成图像进行RGB-IHS变换。
- 用高分辨率图像替换强度分量。
- IHS-RGB转换。
合成的融合图像是来自低分辨率彩色合成的低分辨率光谱信息和高分辨率空间纹理的混合物。整体的表观分辨率得到改善,然而,不可避免地引入了颜色失真。如果用于颜色合成的三个MS波段的光谱范围与Pan的光谱范围非常不同,则颜色失真可能是显著的。在这种情况下,作为三个MS带的总和的强度分量不同于用于强度替换的Pan。
Brovey 变换(强度调制)

如果图像P是分辨率较高的图像,则上述公式进行图像融合以提高空间分辨率,而如果P是不同源的栅格数据集,则进行多源数据融合。Brovey变换实现了与IHS融合技术类似的结果,而无需执行RGB-IHS和IHS-RGB变换的整个过程,因此更简单和更快,但是它也引入了颜色失真。

基于平滑滤波器的强度调制
光谱守恒图像融合技术 IHS 和 Brovey 变换图像融合技术都可能导致颜色失真,如果强度替换的光谱范围(或调制)影像的光谱范围与彩色合成影像中所用的三个波段所涵盖的光谱范围不同。在不使用连续光谱波段的彩色合成影像中,这个问题是无可避免的。如果在基于光谱特征的遥感应用中,如岩性、土壤和植被等,保持原始光谱特性是非常重要的。
这些融合技术所引入的光谱失真是不可控的,也不能量化,因为用于融合的图像通常是由不同传感器系统在不同日期或不同季节拍摄的,因此不能被视为光谱增强,应该通过各种手段消除,以避免在应用中不可靠的解释。
基于平滑滤波器的强度调制(Smoothing Filter based Intensity Modulation,简称SFTM)技术(Liu,1999)是一种真正的光谱保持图像融合技术,适用于共配准的多分辨率图像。
反射光谱带 λ 的日间光学图像的 DN 值主要由两个因素决定:一是照射到地表的太阳辐射,即辐照度 E(λ);二是地表的光谱反射率 ρ(λ)。

其中, 是与 相对应的融合后的高分辨率像素,而 是 在相当于 分辨率的邻域内的局部平均值。
的光谱图像是从较高分辨率图像 引入的较高分辨率空间纹理与原始较低分辨率图像 的较低分辨率光谱反射率的乘积。因此,它与用于强度调制的高分辨率图像的光谱特性无关。
SFIM 算法的一般形式:

公式中 与 的比值消除了高分辨率图像的光谱和地形对比度,但保留了高分辨率纹理,因此,可以将光谱分辨率看作是高分辨率纹理直接调制的低分辨率图像,其结果与高分辨率图像的对比度和光谱变化无关,因此光谱分辨率对光谱特性和对比度都是可靠的原始低分辨率图像。

SFIM 的总结
- 对于图像匹配操作,必须在配准过程中通过双线性或三次插值将较低分辨率图像插值到与较高分辨率图像相同的像素大小。
- 与 IHS 和 Brovey 变换融合技术相比,S 变换的优势在于它改善了空间细节,同时对图像光谱特性和对比度具有保真度。
- 然而,与 IHS 变换和 Brovey 变换相比,S 变换对图像配准精度更敏感,配准不准确可能导致融合图像的边缘模糊。在TM和SPOT图像融合中,5×5和7×7滤波器的融合效果优于3×3滤波器,本文提出了一种改进的像素级图像配准算法,解决了这一问题。
总结
- 色彩质量可以用强度、色相和饱和度来描述。
- RGB-IHS变换和逆变换IHS-RGB可以基于用于RGB颜色立方体的坐标旋转的3D几何或矩阵运算来导出。
- RGB-IHS和IHS-RGB转换允许以极大的灵活性分别操纵颜色强度、色调和饱和度分量。
- 一个主要应用是基于饱和度拉伸的IHSDS技术,其增强图像色彩饱和度而不改变色彩的色相。
- DDS基于非彩色和彩色分量中的颜色矢量分解,DDS直接在RGB域中执行饱和度拉伸,而不涉及RGB-IHS和IHS-RGB变换。
- RGB-IHS和IHS-RGB变换的另一个应用是数据融合,以提高图像空间分辨率,并通过强度替换整合来自不同来源的光栅数据集。
- Brovy变换是一种基于强度调制的技术,尽管原理不同,但实现了类似的数据融合结果。
- 光谱增强是一种真正的光谱保留全色锐化技术,需要精确的图像配准。
问题测验五

gpt 回答
1. 使用 RGB 颜色立方体的图示解释强度、色调和饱和度的数学定义及物理含义。
在 RGB 颜色立方体中,颜色由红(R)、绿(G)、蓝(B)三原色的组合表示。IHS 模型将颜色分解为强度(I)、色调(H)和饱和度(S)三个分量:
- 强度(I):表示颜色的亮度,即 R、G、B 分量的平均值。
- 数学定义:I = (R + G + B) / 3
- 物理含义:反映图像的整体亮度水平。
- 色调(H):表示颜色的主波长,即颜色的类型。
- 数学定义:H = arctan[(√3 * (G - B)) / (2R - G - B)]
- 物理含义:决定颜色的具体种类,如红色、绿色等。
- 饱和度(S):表示颜色的纯度,即颜色的鲜艳程度。
- 数学定义:S = 1 - [3 * min(R, G, B) / (R + G + B)]
- 物理含义:反映颜色的纯度,饱和度越高,颜色越鲜艳。
图示:
- RGB 颜色立方体:
- 立方体的三个轴分别代表 R、G、B 分量,立方体内的每个点表示一种颜色。
- IHS 模型:
- 强度(I)对应立方体的对角线,从黑色(0,0,0)到白色(1,1,1)。
- 色调(H)对应立方体的水平切片,表示不同的颜色类型。
- 饱和度(S)对应从立方体中心到边缘的距离,表示颜色的纯度。
2. 根据 RGB-IHS 转换的 RGB 颜色立方体模型,强度、色调和饱和度的值范围是什么?
- 强度(I):范围为 0 至 1,0 表示黑色,1 表示白色。
- 色调(H):范围为 0° 至 360°,表示颜色的主波长。
- 饱和度(S):范围为 0 至 1,0 表示灰色(无色),1 表示纯色。
3. 为什么 RGB-IHS 是一种有用的图像处理技术?
RGB-IHS 转换在图像处理中的优势包括:
- 分离亮度和颜色信息:将亮度(强度)与颜色信息(色调和饱和度)分离,便于独立处理。
- 增强图像细节:通过调整强度分量,可以增强图像的对比度和细节。
- 色彩调整:独立调整色调和饱和度,方便进行色彩校正和增强。
4. 在图示的帮助下描述去相关拉伸(DS)的原理。
去相关拉伸(Decorrelation Stretching,DS)是一种图像增强技术,旨在减少图像波段间的相关性,增强色彩对比度。其原理包括:
- 主成分分析(PCA):将原始图像数据转换到新的坐标系,使各分量间的相关性最小化。
- 拉伸处理:对主成分进行线性拉伸,扩展其动态范围,增强图像对比度。
- 逆变换:将拉伸后的主成分转换回原始空间,得到增强后的图像。
图示:
- 原始图像空间:各波段间存在相关性,数据分布呈倾斜椭圆形。
- PCA 变换空间:各分量间无相关性,数据分布呈水平椭圆形。
- 拉伸处理:对各主成分进行拉伸,数据分布变为圆形。
- 逆变换:将数据转换回原始空间,得到增强后的图像。
5. 描述 IHS 去相关拉伸的主要步骤,并解释图像波段间的相关性如何减少及其原因。
IHS 去相关拉伸的主要步骤:
- RGB-IHS 转换:将原始 RGB 图像转换到 IHS 色彩空间。
- 主成分分析(PCA):对色调(H)和饱和度(S)分量进行 PCA,减少其相关性。
- 拉伸处理:对主成分进行线性拉伸,增强对比度。
- 逆 PCA 变换:将拉伸后的主成分转换回 H、S 分量。
- IHS-RGB 转换:将 IHS 分量转换回 RGB 色彩空间,得到增强后的图像。
通过 PCA,将相关的 H、S 分量转换为无相关的主成分,减少了波段间的相关性。拉伸处理后,逆变换回原始的色彩空间,可以得到色彩对比度增强的图像。这一过程减少了波段间的相关性,因为 PCA 变换消除了 H 和 S 分量间的线性相关性,使图像的色彩更加鲜艳。
6. 在 IHS 去相关拉伸中拉伸色调分量有什么缺点?如何在不直接拉伸色调分量的情况下扩展色调分量的值范围?
回答:
拉伸色调分量的主要缺点在于可能引入颜色失真,尤其在色调接近极值的区域,拉伸色调会导致颜色偏移,使图像看起来不自然。
在不直接拉伸色调的情况下,可以通过以下方法扩展色调分量的范围:
- 选择性拉伸饱和度:拉伸饱和度分量而非色调,使色彩更为鲜艳而不会改变颜色类型。
- 应用色相偏移:在色调范围内进行非线性拉伸,仅对中间色调区域进行适度调整,以保持自然过渡。
7. 使用图示解释 DDS 的原理。在什么意义上 DDS 和 IHS DS 是相似的以及不同的?
回答:
DDS(动态去相关拉伸)是另一种用于增强图像对比度的去相关技术,其原理类似于 DS(去相关拉伸),但更注重动态对比度的调整。
- 相似之处:
- DDS 和 IHS DS 都使用去相关技术,通过减少不同波段或分量间的相关性来增强图像色彩。
- 两者都在增强图像对比度的过程中应用了线性或非线性拉伸。
- 不同之处:
- DDS 侧重于动态调整和更复杂的色彩映射,使图像在不同亮度和色彩范围内获得最佳对比度。
- IHS DS 则侧重于色调、饱和度和强度的独立调整,主要在色彩空间转换和去相关拉伸中减少波段相关性。
图示:可以用 DDS 和 IHS DS 处理后的图像作比较,显示不同的对比度增强效果。
8. 如何通过使用 RGB-IHS 转换和 Brovey 转换,将 30 米分辨率的 TM 彩色合成与 10 米分辨率的 SPOT 全色图像结合来提高空间分辨率?
回答:
要提高 TM 彩色合成的空间分辨率,可采用 RGB-IHS 和 Brovey 转换方法结合的方式:
- RGB-IHS 转换:将 TM 彩色合成图像(30 米分辨率)转换为 IHS 空间,分离出强度(I)分量。
- 融合高分辨率图像:将 SPOT 全色图像(10 米分辨率)与 I 分量替换,增强图像细节。
- Brovey 转换:应用 Brovey 算法对 R、G、B 分量按比例调整,以匹配替换后的强度信息。
- 逆 IHS-RGB 转换:将调整后的 IHS 空间转换回 RGB 颜色空间,生成具有高空间分辨率的彩色合成图像。
9. 解释使用 RGB-IHS 转换和 Brovey 转换进行图像融合的主要问题。
回答:
使用 RGB-IHS 和 Brovey 转换进行图像融合的主要问题包括:
- 光谱失真:由于高分辨率全色图像的光谱范围与原彩色图像不同,可能引入颜色偏差。
- 分量不匹配:IHS 转换和 Brovey 转换涉及不同的转换方式,可能导致细节和颜色的失配。
- 计算复杂度:需要多次转换,计算量较大,且对不同传感器数据的适配要求较高。
10. 为什么 SFIM 能够实现光谱保真的锐化?
回答:
SFIM(比例分数锐化)通过在增强图像细节的同时保留原始光谱特性来实现光谱保真。它的原理是:
- 细节增强:使用高分辨率全色图像中的空间细节,通过比例缩放的方式融合到低分辨率彩色图像中。
- 光谱一致性:仅调整细节分量,保持原始彩色图像的色彩分布,避免光谱失真。
因此,SFIM 能够有效地提高图像的空间分辨率,同时保持其光谱保真性,是图像融合和锐化中常用的方法。
主成分分析(Pricipal Componet Analysis)(第六章)
🔗 Relevant Information
📝 Class Notes
引入
主成分分析(PCA)是一种分析相关多变量数据集的通用方法,遥感多光谱图像是这类数据集的典型代表,PCA是一种有效的光谱增强和信息处理技术,PCA基于线性代数矩阵运算和多变量统计。
PCA可以有效地将许多相关图像光谱带的大部分信息集中到较少的不相关主成分中,因此具有减小数据集大小的功能,并且能够有效地显示信息的图像RGB。
PCA 的原理
基于主成分分析作为一种坐标旋转的概念,我们可以将其扩展为坐标旋转和面向物理属性的图像坐标变换的一般概念,从而导致了在亮度、绿度和湿度等多光谱指数的推导中广泛使用的流苏帽变换( tasselled cap transformation )。
从下表可以看出,TM图像的 6 个反射光谱波段之间的相关性很高。例如,波段 5 和波段 7 之间的相关性为 0.993。这表明这两个波段之间有99.3%的信息冗余,只有0.7%的额外信息!因此,多光谱图像的信息存储效率不高。

将 m 波段多光谱图像看作是 m 维栅格数据集,在 m 维正交坐标系中形成 m 维椭球簇,如果图像波段相关,则坐标系与椭球簇的轴倾斜,椭球簇的轴形成正交坐标系,在该坐标系中,相同的图像数据由称为主成分的 N(N<=M)个独立成分表示。
换句话说,主成分是椭球数据簇的轴中的影像数据表示。主成分分析是一种坐标旋转操作,用于旋转原始影像波段的坐标系,以匹配影像数据簇的椭球轴。第一个 PC 由数据簇的最长轴表示,第二个 PC 由第二个最长轴表示,高阶主成分分析的轴可能太短而不能表示任何实质性的信息,因此,主成分分析可以有效地将 m 维椭球降维为 n(n<=m)个独立的维度,从而降低图像的维数,在较小的数据集中用较少的独立维度表示几乎相同的图像信息,而没有冗余。
总之,主成分分析是将 m 个相关维度转换为 n(n<=m)个独立(不相关)维度的线性变换。该变换是坐标旋转操作,以旋转原始图像带的坐标系,以匹配图像数据簇的椭球的轴。

设 X 表示 m 波段多光谱图像,其协方差矩阵 是图像数据的 m 维椭球簇的完全表示。

其中 是 m 波段图像 X 的任意 m 维像素向量,N 是图像的像素总数, 是图像的平均向量。
协方差矩阵的主对角线上的元素是每个图像带的方差,而主对角线外的对称元素是两个不同带之间的协方差。
协方差矩阵是一个非负定的矩阵,它沿着其主对角线对称。这样的矩阵可以通过基本的矩阵运算转换成对角矩阵。对于多维空间中的独立变量,,因此它们有一个对角协方差矩阵。在数学中,PCA简单地是找到使 m 个波段图像X的协方差矩阵 对角化的变换G,以产生n个主成分图像Y,其中对角协方差矩阵 。设 y = Gx,那么

根据矩阵运算法则,我们可以证明变换 G 是 的特征向量的 转置矩阵。

是一个对角矩阵,主对角线上的非零元素为 的特征值:
特征值 是 图像的方差,与 所含的信息量成正比。信息含量随着 PC 秩的增加而减少。

矩阵 的任一特征向量被定义为 ,它满足以下条件:

这个公式被称为 的特征多项式。因此,一旦知道了第 个特征值,那么第 个特征向量 也就确定了。
的特征值可以从其特征方程中计算出来:
特征向量矩阵 G 决定每个主成分与原始图像波段的组成方式:

其中, 是第 行和第 列上的 G 元素或第 个特征向量的第 个元素
主成分(PC)图像和 PC 颜色组成



- 的元素均为正数,因此 是所有原始图像波段的加权平均值。从这个意义上说,它类似于宽光谱范围的全色图像。它有一个非常大的特征值 4928.731( 方差),占整个六个波段信息量的 97.4%。在固定的 DN 范围内,更多的信息意味着更高的信噪比。
- 图像集中了所有六个波段的共同特征。对于地球观测卫星图像来说,这些共同信息通常是地形信息。
- 的元素(i>1)通常是正负值的混合,因此等级较高(>1)的 PC 图像是原始波段正负加权图像的线性组合。
- 秩较高的 PC 缺乏地形特征,显示出更大的光谱变化对比度。它们的特征值(PC 方差)都明显小于 。随着 PC 等级的增加,特征值迅速减小,信噪比也越来越低,这表现在高等级 PC 图像的噪点越来越多。 图像的方差为 1.012,几乎完全是噪声,几乎不含任何信息。从这个意义上讲,可以将 从数据集中剔除,从而将有效维度从原来的 6 维减少到 5 维,信息损失为 0.02%。
用于 PC 颜色构成的面向特征的 PC 选择 (FPCS):
我们可以显示和分析单张 PC 图像,也可以将三张 PC 图像显示为彩色合成图像。由于 PC 是相互独立的浓缩图像信息,因此可以将三幅 PC 图像制作成色彩更丰富(即信息量更大)的彩色合成图像。然而,PC 作为原始光谱波段的组合,其与各种地面物体对应的图像特征的原始光谱特征之间的关系并不明显。
为了解决这个问题,有人提出了一种面向特征的 PC 选择(feature oriented PC selection, FPCS)方法来进行色彩合成。该技术提供了一种简单的方法,可根据感兴趣的光谱目标(如矿物)的光谱特征选择 PC,从而在所选 PC 的色彩合成中通过所需的色彩增强这些目标的光谱信息。该技术包括检查特征向量,以确定原始波段(负或正)对每个 PC 的贡献。然后可根据主要贡献者选择特定的 PC,这些 PC 有可能显示所需的目标(光谱特征)。

去相关性拉伸
基于 PCA 的去相关性拉伸(The PCA based decorrelation stretch, PCADS)可从三个图像波段生成色彩复合图,减少波段间的相关性,从而使色彩更鲜明、饱和度更高,且色调不会失真。PCADS(用的不多) 的原理是沿 PC 轴(数据椭球簇的轴)而不是代表图像波段的原始轴拉伸多维图像数据。如下图所示,通过这种方法可以有效地增加数据簇的体积,并减少波段间的相关性:

PCADS 分三步实现:
- PCA 将原始图像波段数据转换为 PC;
- 对每个 PC 进行对比度增强(沿 PC 轴拉伸数据集群);
- 反 PCA,将增强后的 PC 转换回相关的图像波段。

PCADS 技术与 IHSDS 的结果相似,但其原理截然不同。PCADS 在统计上依赖于场景,因为整个操作从图像协方差矩阵开始。它可以一次性对所有图像波段进行操作。而 IHSDS 不依赖于统计场景,只能对三个波段进行操作。这两种技术都涉及复杂的正反坐标变换。尤其是 PCADS,需要对特征向量矩阵进行相当复杂的逆操作才能实现 PC 逆变换,因此没有得到广泛应用。直接去相关拉伸(DDS)是最有效的技术,它可以通过消色差因子 k 根据图像的饱和度进行定量控制。
总结
PCA 和差分:
虽然 PCA 基于相当复杂的协方差矩阵运算,但 PC 图像最终只是由原始图像带的线性组合构成。在 FPCS 技术中分析 PC 图像的特征向量时,我们基本上是根据图像差分来选择 PC。高阶 PC 只不过是复合差分图像,但这些图像的组成是相互独立的。PCA 可确保基于数据分布的正交(独立)PC,而差分可让用户精确定位感兴趣目标的特定光谱特征,尽管由此产生的差分图像并不正交。FPCS 结合了两者的优点,但不一定总能解决诊断光谱特征的问题。
PC1 和平均值及强度:
平均图像、IHS 的强度图像和 PC1 图像在很大程度上是共通的。这三种图像都是光谱带的求和,都能提高图像信噪比。频带平均图像是任意多个图像频带的等权求和,IHS 强度图像是用于 RGB-IHS 转换的三个频带的平均值,而 PC1 图像则是基于图像协方差矩阵的第 1 个特征向量对所有图像频带的加权求和。
PCADS 和饱和度拉伸 DS:
去相关拉伸的概念源于 PCA。然而,由于 PCA 去相关拉伸涉及复杂的 PC 逆变换矩阵运算,其效率和应用不如饱和度去相关拉伸技术广泛。虽然这两种相关性拉伸技术的原理完全不同,但它们对 RGB 颜色复合带三元组数据的影响是完全等同的:增加了数据集群的三维性。
问题测验六

gpt 回答
1. 使用图示解释主成分分析(PCA)的原理。
主成分分析(PCA)是一种统计方法,用于将高维数据降维,同时保留数据的主要特征。其基本原理是通过线性变换,将原始数据投影到新的坐标系中,使得新坐标系下的数据方差最大化。具体步骤包括:
- 数据中心化:将数据的均值移至原点。
- 计算协方差矩阵:衡量各特征之间的相关性。
- 特征值分解:求解协方差矩阵的特征值和特征向量。
- 选择主成分:根据特征值大小,选择前 k 个特征向量作为主成分。
- 数据转换:将原始数据投影到选定的主成分上,得到降维后的数据。
通过上述步骤,PCA 能够简化数据结构,突出主要特征,常用于数据压缩、降噪和可视化等领域。
2. 讨论主成分(PC)图像的数据特征及其应用。
主成分图像是通过对多波段图像进行 PCA 处理后得到的各主成分图像。这些图像具有以下特征:
- 信息集中:前几个主成分包含了原始数据的大部分信息。
- 去相关性:各主成分之间相互独立,消除了原始波段间的相关性。
- 降噪效果:后续主成分主要包含噪声信息,可用于噪声分析和去除。
应用方面,主成分图像可用于:
- 图像融合:将多源图像数据融合,增强信息表达。
- 特征提取:从高维数据中提取主要特征,简化后续处理。
- 数据压缩:减少数据维度,降低存储和传输成本。
3. 比较波段平均图像、HSI 中的亮度(强度)图像和主成分 1(PC1)的图像,讨论它们的相似性、共同优点以及它们之间的差异。
- 相似性:
- 信息集中:三者都试图将多波段信息浓缩为单一图像,突出主要特征。
- 灰度表示:通常以灰度图形式呈现,便于人眼观察。
- 共同优点:
- 简化数据:将复杂的多波段数据简化,便于分析和处理。
- 突出特征:强调主要信息,抑制次要或冗余信息。
- 差异:
- 计算方法:
- 波段平均图像:直接对各波段像素值求平均。
- HSI 亮度图像:根据人眼感知,对 RGB 三个波段加权平均。
- PC1 图像:通过 PCA 计算得到,代表数据最大方差方向的分量。
- 信息含量:
- 波段平均图像:可能包含冗余信息,无法有效去相关。
- HSI 亮度图像:强调亮度信息,但可能忽略其他重要特征。
- PC1 图像:最大程度保留主要信息,去除了相关性。
4. 主成分颜色合成的主要优点和缺点是什么?
- 优点:
- 信息整合:将多波段信息融合为彩色图像,增强可视化效果。
- 去相关性:通过 PCA 去除波段间的相关性,提高图像质量。
- 突出特征:不同主成分对应不同特征,有助于识别和分类。
- 缺点:
- 计算复杂:PCA 计算量大,处理高维数据时耗时较长。
- 信息丢失:后续主成分可能包含有用信息,但在合成时被忽略。
- 解释困难:主成分是线性组合,物理意义不直观,难以直接解释。
5. 描述面向特征的主成分选择(FPCS)方法,并讨论其在主成分颜色合成中的应用。
面向特征的主成分选择(FPCS)方法是根据特定应用需求,从主成分中选择最能突出目标特征的分量进行颜色合成。在主成分颜色合成中,FPCS 的应用包括:
- 目标导向:根据感兴趣的地物或特征,选择相关性强的主成分进行合成。
- 增强效果:通过选择适当的主成分,突出目标特征,提高识别精度。
- 灵活性强:可根据不同应用场景调整主成分选择策略,适应性强。
6. 什么是去相关拉伸(DS)?描述 PCADS 的主要步骤。
去相关拉伸(Decorrelation Stretch,DS)是一种图像增强技术,通过去除波段间的相关性,并对各波段进行拉伸
图像几何运算(第七章)
🔗 Relevant Information
📝 Class Notes
引入
几何运算包括将图像移动、旋转和扭曲到给定的形状或框架。在遥感应用中,几何运算主要用于对同一场景中由不同传感器系统或在不同时间或位置拍摄的图像进行共同配准,以及对图像进行校正以适应标准地图投影(地理编码)。当一组相邻的图像被精确地校正到一个地图投影系统(如 UTM 坐标系)时,这些图像就会自动拼接在一起。
图像几何变形
平台飞行坐标、传感器状态和成像几何形状
图像的几何形状主要由三组参数控制:
- 平台飞行坐标系(x、y、z),x 为飞行方向,z 与 x 正交,位于通过 x 轴并垂直于地球表面的平面内,y 与 x 和 z 正交;
- 传感器的三维状态由与平台飞行坐标系(x、y、z)的方向角(ω、Φ、κ)决定;
- 成像位置坐标(X、Y、Z)通常符合地球地图投影坐标系。

对于光学成像系统来说,镜头的焦距 f 是决定中心投影畸变特征的另一个重要参数。上图显示了焦距与几何失真的关系。较短焦距()的传感器与较长焦距()的传感器相比,可以在更短的距离内覆盖相同的视场,但对高大地面物体和高地形的几何畸变更为明显。

当光学系统的主视图垂直于要成像的场景平面时,可实现天底视图成像。否则,根据传感器的状态,可组成斜视成像配置;它可以是侧视、前视、后视或任何方向的斜视。天底视角图像的几何畸变是中心对称的,从图像中心向边缘递增,而斜视图像的几何畸变则从图像的近距离向远距离递增,所有地形特征都远离传感器的观察方向。

(a)对于使用扫描仪系统的卫星天底成像,通常的传感器状态是传感器主体的取向垂直于地面并且扫描方向垂直于飞行方向。
(b)当扫描方向偏向飞行方向时(即 ),图像的扫描范围会变窄。因此,可以以更窄的图像场景为代价获得更高的空间分辨率。

飞机偏航导致 ATM 图像中的图像扫描线失真。传感器状态(ω、Φ、k)参数对图像几何形状最为敏感。传感器状态的微小位移都会导致图像像素位置和比例的显著失真。现代地球观测卫星为实现非常精确的状态控制付出了巨大的技术努力,以将传感器状态失真降至最低。对于机载传感器系统来说,平台状态的稳定性往往是个问题,如上图所示.
地球自转和曲率
在空间对地观测遥感中,卫星上的传感系统将带有地形起伏的三维球形陆地表面成像到二维平面图像上。几何失真和位置不准确是不可避免的。幸运的是,几个世纪以来,大地测量工程已经发展出许多有效的地图投影模型,以实现从地球球面到地图和图像平面的优化转换。使用最广泛的地图投影系统是以 WGS84 全球基准或地方基准为基础的 UTM(Universal Transverse Mercator)。图像几何操作的主要任务之一是将图像校正到给定的地图投影系统。这一过程通常称为地理编码或地理参照。

大量对地观测卫星被配置在环形、近极、太阳同步轨道上飞行,以便在几乎相同的当地时间对地球的几乎每一部分进行成像。在这样的轨道上,卫星几乎垂直于地球自转方向飞行。对于成像扫描仪来说,图像是按照卫星在地球自转上方飞行的时间顺序逐行生成的。下图说明了地球自转对地球观测卫星上的推帚扫描仪的偏斜影响,卫星在环形、近极地、太阳同步轨道上运行。图像记录为左侧,但实际覆盖的地球表面区域为右侧。
对于跨轨道双向扫描仪(如专题成像仪)而言,畸变模式更为复杂,因为沿扫描带的每个像素都在不同时间成像,而地球表面的实际扫描速度不仅从天底到扫描带边缘会发生变化,而且在地球自转和反转时扫描带之间也会发生变化。
多项式变形模型和图像扭曲协同定位(Polynomial deformation model and image warping co-registration)
几何运算的主要任务是在输入图像和参考图像之间建立一个变形模型,然后将输入图像校正或共同注册到参考图像上,生成输出图像。 基于多项式变形模型的所谓 "橡胶板扭曲 "是遥感图像数据最重要和最常用的几何变换。
有几种类型的图像变形
- 图像到地图投影系统;
- 图像到地图;
- 图像到图像。
几何变换包括两个主要步骤:
- 建立多项式变形模型。
这通常是使用代表输入图像和参考(图像或地图)中相同地面位置的地面控制点(gcp)来完成的,以建立变形模型,然后将输入图像转换为强制拟合参考几何形状的输出图像。
- 基于形变模型的图像重采样。
这包括重新采样图像像素位置(坐标)和DNs,因为输入和转换后的输出图像之间的对应关系不是一对一的整数像素基础。
变形模型的推导
直接的想法是一种基于变形模型的输入输出映射,将输入图像的每个像素转换为输出图像。 然而,由于像素在图像中的位置必须以行和列的整数表示,而输入图像和输出图像之间的变换不一定总是在每个像素的整数位置上完全对应。为了解决这个问题,一种常用的方法是输出到输入映射。

因此,一定要注意,只能从输出图像的像素映射到输入图像,而不能从输入图像映射到输出图像。
假设变换 M 是一个输出到输入的映射,它将位置 (i,j) 的输出像素映射回位置 (k,l) 的输入图像,那么输出图像可以如上一张幻灯片所示生成。对于每个输出像素位置 (i,j),根据 M(i,j)计算出输入图像中的相应位置 (k,l),并在该位置拾取一个像素值 Pi (k,l),然后分配给输出像素 Po (i,j)。当所有像素都分配完毕后,输出图像就完成了。
让 (k,l) 表示输入图像中与输出位置 (i,j) 相对应的位置,则 k 和 l 的多项式近似的一般形式为:

如果系数和已知,多项式变换 M 的公式计算输入位置(k,l)与给定输出位置(i,j)的近似值。
对于 n 对 GCP,我们已知每个 GCP 的(k,l)和(i,j),则可以导出 Q 和 R 的最小二乘解。从 n 个 gcp 出发,根据矩阵形式的多项式变换M,我们可以建立n对多项式:


一旦从GCP中推导出系数R和Q,就可以通过变换M完全建立输入和输出图像之间的像素位置关系。给定输出图像中的位置(i,j),然后可以根据变换M计算输入图像中的对应位置(k,l)。

在输出到输入映射模型中,位置 (i,j) 的输出像素通过变换 M 映射到输入图像中的相应位置 (k,l)。重新采样是一个插值过程,目的是找到输入图像中位置 (k,l) 的 DN 值,以便将其分配给输出图像中的像素点 Po (i,j)。
双线性插值(一种更精确的方法)
是输入图像中整数位置(K,L)的输入像素。
是输出图像中整数位置(i,j)的输出像素,它对应于输入图像中小数点位置(k,l)的 和这里


总结
在简要讨论了地球观测卫星获取的遥感图像中几何形变的主要来源之后,我们介绍了基于由 GCP 导出的多项式形变模型的图像扭曲协同配准细节。这种常用方法的要点如下:
- 多项式变形模型的精度在很大程度上取决于 GCP 的质量、数量和空间分布,也取决于多项式的阶数。
- 根据输出到输入的映射程序生成共配准图像,以避免输出图像中出现像素重叠和空洞。在这种情况下,需要对像素 DN 进行重新采样,通过近邻插值或双线性插值,将输入图像非整数位置上的 DN 绘制为输出图像相应整数位置上的 DN。
问题测验

第十小题过程
第十小题:

gpt
问题 1:描述卫星飞行方向、传感器状态和成像位置之间的关系,并用图示说明。
回答:
卫星飞行方向、传感器状态和成像位置的关系影响了观测图像的几何精度。卫星的飞行方向决定了成像的覆盖区域和时间,而传感器的状态(包括倾斜角度、姿态等)会影响图像的清晰度和精度。如果传感器保持稳定,成像位置能准确记录地面信息;如果传感器有偏移或不稳定,会导致图像失真。
*图示:*可以用一幅示意图表示卫星的飞行轨迹、传感器的扫描角度和成像点的位置,以说明三者的关系。
问题 2:举例说明传感器状态的不稳定性如何产生几何误差。
回答:
传感器状态的不稳定性,例如姿态变化、振动或温度变化,会引起图像的几何畸变。例如,如果传感器在成像过程中有轻微的摆动,得到的图像可能会有拉伸、旋转或倾斜的几何误差。具体来说,地面物体在图像中的位置会偏离实际位置,影响精确测量和后续处理。
问题 3:什么样的传感器状态能使地球观测遥感中几何失真最小化?
回答:
在地球观测遥感中,保持传感器的姿态稳定、视角垂直并且飞行速度恒定的状态可以使几何失真最小化。这种稳定的状态能够减少地形起伏引起的变形,同时能保证每一帧图像的位置精确对齐,减少几何误差。
问题 4:解释焦距 f 与地形畸变的关系,并用图示说明。
回答:
焦距 f 越大,视场角越小,图像的地形畸变会减小。较长的焦距可以缩小视角范围,使得图像中的物体更接近垂直投影,从而减少因地形起伏引起的畸变。
图示: 可以画出不同焦距成像的示意图,较长的焦距图像中,地面物体的变形更小,而较短焦距时图像会有更明显的边缘失真。
问题 5:解释成像几何与地形畸变的关系,并用图示说明。
回答:
成像几何决定了地面物体在图像中的表现形式。对于斜视成像,地面物体会受到地形起伏的影响而产生不同的畸变。例如,在山地或高低不平的地形中,斜视成像会导致物体拉伸或倾斜。
*图示:*可以用一幅示意图表示在不同地形上,成像几何角度如何影响图像畸变。
问题 6:为什么去倾斜处理对于卫星上的扫描仪拍摄的图像是必要的?
回答:
去倾斜处理(de-skew processing)能矫正因卫星沿轨道移动而造成的图像倾斜。当卫星在圆形、近极地的太阳同步轨道上飞行时,扫描仪的视角不断变化,若不进行倾斜校正,图像会出现偏移和失真,影响数据精度。去倾斜处理确保图像数据的空间精度和一致性。
问题 7:什么是输出到输入的映射(可用图示帮助说明),为什么图像配准时需要图像扭曲配准?
回答:
输出到输入的映射指的是将目标图像中的像素映射到原始图像中相应的位置,以便进行对齐。图像配准时,必须确保不同图像的像素位置匹配,图像扭曲可以纠正因成像几何差异、地形影响而造成的错位,以实现精确的配准。
*图示:*可以用一个示意图展示图像从扭曲状态到配准后的映射过程。
问题 8:如何建立一个多项式形变模型的变换 M ?
回答:
多项式形变模型通过多项式方程来描述图像的几何变换过程。例如,二次或三次多项式可以用来对图像进行非线性的变形矫正。具体来说,通过控制点来拟合变换方程,计算输入与输出坐标的映射关系,以实现所需的形变校正。
问题 9:至少需要多少个 GCP(地面控制点)来建立线性、二次和三次形变模型?你能写出这些多项式吗?
回答:
为了建立线性、多项式形变模型,所需的地面控制点(GCP)数量随着多项式的阶数增加而增加。对于线性模型,至少需要 3 个 GCP;二次模型需要至少 6 个 GCP;三次模型则至少需要 10 个 GCP。
多项式示例:
线性模型:
二次模型:
三次模型:
问题 10:利用图示推导像素 DN 重采样的双线性插值。假设 , , , ,计算 。
回答:
双线性插值通过在已知像素值间进行线性加权来估计目标像素值。首先在横向方向上对 (5,4) 和 (6,4) ,以及 (5,5) 和 (6,5) 之间插值,再在纵向方向上插值即可。
相位相关图像分析系统(Phase Correlation Image Analysis System)(第八章)
🔗 Relevant Information
📝 Class Notes
第 8 章内容比较多,不进行翻译。
问题测验

gpt 回答
1. 为什么相似场景的图像之间会出现亚像素偏移?
相似场景的图像之间可能出现亚像素级别的偏移,主要原因包括:
- 相机运动:即使是微小的相机移动,也会导致图像之间的细微位移。
- 场景变化:场景中的物体可能发生轻微移动或变形。
- 成像条件差异:不同的拍摄时间、角度或光照条件会引起细微的图像差异。
这些因素共同作用,导致图像之间存在亚像素级别的偏移。
2. 相位相关的定义。
相位相关(Phase Correlation)是一种基于傅里叶变换的图像配准方法,用于检测两幅图像之间的平移量。其基本原理是利用傅里叶变换的位移特性,通过计算两幅图像的互功率谱,并对其进行逆傅里叶变换,得到一个峰值函数。该峰值的位置对应于两幅图像之间的平移量。相位相关方法对图像的旋转和尺度变化不敏感,主要用于检测平移。
3. 频域相位相关的两种主要算法是什么?它们的优点和缺点是什么?
频域相位相关的两种主要算法是:
- 经典相位相关算法:
- 优点:计算简单,适用于检测图像间的平移。
- 缺点:对噪声敏感,无法处理旋转和尺度变化。
- 改进的相位相关算法:
- 优点:通过引入加权窗口或滤波器,增强了对噪声的鲁棒性。
- 缺点:计算复杂度增加,仍难以处理大范围的旋转和尺度变化。
4. 视差图是如何从两幅相似的匹配图像生成的?
视差图通过立体匹配算法从两幅相似的图像中生成。具体步骤如下:
- 图像校正:对左右图像进行畸变校正和立体校正,使其行对齐。
- 特征匹配:在左图中选取一个像素,搜索右图中对应的匹配点。
- 视差计算:计算匹配点在左右图像中的水平位移差,即视差。
- 视差图生成:将所有像素的视差值组合,形成视差图。
视差图反映了场景中物体的深度信息,视差值越大,物体距离相机越近。
5. 如何使用视差图实现逐像素的图像配准?
使用视差图进行逐像素图像配准的步骤如下:
- 获取视差图:通过立体匹配算法,计算出左右图像之间的视差图。
- 像素重映射:根据视差值,将左图像中的每个像素映射到右图像中对应的位置。
- 图像重建:利用重映射后的像素,重建与右图像对齐的左图像,实现逐像素配准。
这种方法可以精确地对齐两幅图像,适用于深度信息提取和三维重建等应用。
6. 为什么相位相关能够实现非常窄基线的立体匹配?
相位相关方法在窄基线立体匹配中具有优势,原因如下:
- 高精度:相位相关能够检测亚像素级别的位移,适合处理微小的视差变化。
- 抗噪性:对图像噪声具有一定的鲁棒性,能在复杂环境中保持稳定性能。
- 计算效率:基于傅里叶变换,计算速度快,适合实时应用。
因此,相位相关方法在窄基线立体匹配中被广泛应用。
7. 关于视差图,以下哪个陈述是不正确的?
- a) 如果两幅用于匹配的图像组成一个立体对,视差图可以作为数字地形模型(DTM)。
- b) 如果两幅图像的场景中存在物体运动,视差图可以表示运动场。
- c) 视差图可以揭示用于匹配的两幅图像之间的亚像素光谱变化。
- d) 视差图可以通过物体的运动揭示伪装目标。
答案:c)
解释:视差图主要反映图像间的位移差异,代表深度信息或运动信息。它不直接揭示图像之间的光谱变化,尤其是亚像素级别的光谱差异。
8. 为什么相位相关能够实现不受光照变化影响的变化检测?
相位相关方法对光照变化具有鲁棒性,原因在于:
- 幅度不变性:相位相关主要利用图像的相位信息,而相位信息对光照变化不敏感。
- 忽略强度变化:光照变化主要影响图像的幅度信息,相位相关通过归
雷达遥感技术入门(第九章)
🔗 Relevant Information
📝 Class Notes
引入
成像雷达是一种典型的主动传感器系统,它发射微波辐射脉冲照射目标区域,接收回波信号生成图像,而最常用的全色和多光谱光学传感器是典型的被动传感器。
成像雷达的工作波长比电磁辐射长得多,通常为1厘米至100厘米,因此不受大气散射和吸收的影响(在任何天气下都可以正常运行)。由于云层中水滴的尺寸远小于雷达波长,雷达波束可以穿透厚厚的云层。
雷达作为一种主动传感器(这个意味着雷达可以主动发出光照以成像获取信息),可以在白天和黑夜工作。由于其全天候和全天候的工作能力,成像雷达广泛应用于光电遥感。
气象雷达可以在地面发送波来推测天气状况,因为不同天气下的波的波长是不同的。
侧视雷达(SLR)
雷达:无线电监测(detecting)和测距(ranging)
几乎所有的成像雷达系统都配置成侧视的,它被称为侧视雷达(SLR, side-looking radar)。
这是因为雷达是一个测距系统,它通过记录基于时间的回波信号的位置来形成图像。如果雷达系统被配置成观察平台的两侧,(飞机或卫星)对称的、来自相等距离的双方的返回信号将同时被接收,造成模糊(信号冲突)。

雷达波段:

雷达成像(几何视角):

给定雷达视角 θ 后,雷达图像数据与两个坐标相关:斜距和方位角。斜距是雷达天线与成像地面物体之间的距离,与该物体的双向信号延迟时间相对应。地面范围是成像点与雷达天底之间的距离,雷达天底是斜距在地面上的投影。
方位角分辨率:
方位角分辨率(Azimuth Resolution)是雷达成像中用来描述目标在方位方向(即雷达飞行路径方向)上的分辨能力的指标。它表示雷达能够区分两个相邻目标的最小间距,也就是在方位方向上可以分辨的最小距离。
真实孔径侧视雷达:
在方位方向上,按照脉冲序号序列建立图像,随着成像雷达平台的前移,雷达天线发射微波脉冲波束对航迹一侧进行逐条扫描,同时记录后向散射信号,从而在地面距离和方位上建立二维雷达图像。
实际单反相机孔径的方位角分辨率 Ra 是雷达波长 λ、斜距 S 和雷达天线长度 Dr 的函数:
这意味着为了实现高方位分辨率,雷达天线必须非常大,以产生非常窄的覆盖区(或更好的聚焦)。
合成孔径雷达(SAR): 
由于使用遥感雷达成像的时候,天线越大分辨率就会越高,而发射到太空中的雷达的孔径是有限制的,因此科学家们想出了合成孔径雷达的方法。
合成孔径雷达的原理:合成孔径雷达天线沿其飞行轨迹以较小的 Ds 长度运动,模拟出一个虚拟的长天线 Dr,通过基于合成孔径雷达载波频率 的多普勒频移 ,对重叠的足迹进行称为匹配滤波的数字信号处理程序,可实现远小于合成孔径雷达足迹宽度的高方位角分辨率 Ra。
合成孔径雷达的方位角分辨率是其天线长度的一半。这意味着,合成孔径雷达的天线直径越短,方位角分辨率就越高。

SAR 的地面距离分辨率:
这主要是根据雷达回波信号的返回时间来实现的:远距离信号比近距离信号返回晚,但是记录时间差的精度受到限制。为了实现高的地面距离分辨率,SAR发射具有几十MHz带宽的 chirp 脉冲,调制载波频率 fc(SAR的标称频率)。根据 chirp 频率的增加或减少,存在上升和下降 chirp 。对于上升 chirp 的情况,到达地面的雷达脉冲的准确频率在远地距离比在近地距离高,来自不同地距离的回波也是如此。然后,返回的信号以线性调频形式解调,并且经由匹配滤波信号处理基于从 SAR 的标称频率的线性调频频移来采样。
合成孔径雷达图像的高空间分辨率在方位角方向是通过多普勒效应实现的,在测距方向是通过 chirp 效应实现的。

极化:
极化是指电场的方向。雷达系统可以设计为发射/接收水平极化(H)或垂直极化(V)或两者的微波辐射。
- 同极化(Like-polarized):
- HH:水平发射和水平接收(Horizontal transmit and Horizontal receive),表示雷达的电磁波在水平方向发射,并在同样的水平方向接收反射回来的信号。
- VV:垂直发射和垂直接收(Vertical transmit and Vertical receive),表示雷达的电磁波在垂直方向发射,并在同样的垂直方向接收反射回来的信号。
- 交叉极化(Cross-polarized):
- HV:水平发射和垂直接收(Horizontal transmit and Vertical receive),表示雷达的电磁波在水平方向发射,但接收时转换为垂直方向。
- VH:垂直发射和水平接收(Vertical transmit and Horizontal receive),表示雷达的电磁波在垂直方向发射,但接收时转换为水平方向。
合成孔径雷达(SAR)图像特征
成像几何:

雷达视角 θ 与局部入射角 β 的关系,α = 90°- β;
当雷达波束与地面法线成反方向时,β 为正,反之为负。


几何失真:透视缩短

当局部入射角为正时,所有面向雷达照射的地形斜坡将表现出不同程度的透视缩短效应,斜坡(A到B)将呈现压缩,并且斜坡的长度将被错误地表示(A'到B')。
几何失真:Layover:

当局部入射角为负时,会出现Layover效应。在这种情况下,如图所示,雷达波束在到达底部(A)之前先到达高地物的顶部(B),斜率AB在SAR图像中被反向记录为B'A'。
几何失真:雷达阴影:

雷达阴影出现在下靶场方向,朝向远场,在垂直地物或陡坡后面。
雷达阴影区在SAR图像上会显得很暗,这是因为没有能量可以被后向散射。雷达阴影特别暗,因为大气几乎不散射微波EMR!
光学传感器与SAR的比较

角反射:
因此垂直的建筑在图像中通常会更亮

瑞利准则(平滑):
这部分介绍了图像斑点噪声的消除方法。
这种噪声是由于雷达波的相干散射效应引起的,使得图像中出现大量的斑点,影响了图像的清晰度和细节辨识。
- 多视处理(multi-look processing)是一种用于减少斑点噪声的技术,它通过对多个观测视角的数据进行平均来降低噪声,从而提高图像的质量。

- 平滑滤波去除斑点(Smooth filtering to remove speckles):
下面这张图展示了使用平滑滤波技术处理后的雷达图像。通过平滑滤波,可以有效地减少图像中的斑点噪声,使得图像更加清晰,地物特征更加明显。
这个步骤的目的是提高雷达图像的可解释性,使得用户能够更好地提取地面目标的信息。

粗糙度:

表面粗糙度越大,雷达图像越亮:在雷达成像中,如果地表相对于雷达波长来说比较粗糙,会引起更多的雷达波散射。这种散射通常是各向同性的(即在所有方向上都有反射),从而导致雷达接收到的回波信号更强,图像中的亮度也会更高。因此,粗糙表面在雷达图像中通常会显得更亮。
表面平滑时图像较暗:如果表面非常平滑(相对于雷达波长),大部分的雷达波会沿着镜面反射方向散射开去,而不是返回雷达接收器。这样接收到的回波信号较弱,图像就会显得更暗。
穿透和体积散射:

如果目标非常干燥,并且表面对雷达来说看起来很光滑,则雷达能量可能能够穿透到表面以下,无论该表面是不连续的(例如具有树叶和树枝的森林树冠)还是均匀的表面(例如土壤、沙子或冰)。对于给定的表面,较长的波长能够比较短的波长穿透得更远。
如果雷达能量能够穿透最高表面,则可能发生体积散射。体积散射是雷达能量在体积或介质内的散射,通常由体积内不同成分的多次反弹和反射组成。
应用环境
地址构造:

洪水监测:

水是呈黑色的,因为光照在水面上会发生镜面反射,仪器接收不到。
土壤水分:
微波电磁辐射对土壤的介电常数非常敏感,土壤的介电常数会随土壤中水分的含量而变化。水分的增加会增加介电常数,从而增加雷达波束的散射强度。

石油泄漏侦测:

SAR图像的一个非常重要和有效的应用是油膜检测。油膜在SAR图像中显示为暗特征,因为油膜通过增加粘性使小波浪变得平滑。在较平滑的海面上,大部分SAR信号能量将被镜面反射远离天线,导致暗特征。环境因素,例如风速,可以改变浮油附近的海面状况。在强风下,无论是否有浮油,海面都是粗糙的,因此需要低于8 - 9米/秒才能可靠地检测。另一方面,如果风速很低,海面到处都是光滑的,探测也不再有效。
例子:







绘制地下地质图:
SAR成像可以穿透相当深度的干沙和冰,影响SAR穿透深度的一个关键参数是介电常数,介电常数随着表面散射材料的湿度增加而急剧增加,从而使SAR穿透深度迅速减小到接近于零;雷达波长是另一个重要因素,波长越长,穿透深度越大。

Landsat(左上)、JERS-1(右上)和PALSAR图像(下)显示了位于北纬21°55'N、26°36'E附近的区域。PALSAR更好地揭示了场景下部的古排水通道。
总结
本章介绍了雷达遥感的基本原理及其应用。
雷达作为一种测距系统,必须配置成侧视的,因此几何畸变是不可避免的,雷达成像系统的主要几何畸变包括:透视缩短、滞留和雷达阴影。
对于真实的孔径雷达,大直径的天线能够实现高的方位分辨率,对于机载和星载成像雷达系统来说,这是不现实的,一个更好的解决方案是合成孔径雷达(SAR)系统利用多普勒频移效应,在稳定运动平台上由一个小天线组成一个虚拟大天线,从而实现高方位分辨率,地面距离高分辨率通过用低频“啁啾”调制高频雷达波束来实现方向。
所有雷达图像都存在斑点噪声,通过多视处理和滤波可以减轻斑点噪声的影响;角反射是由于垂直表面的双跳反射产生很强的回波信号而引起的;地形表面的粗糙度在很大程度上决定了其亮度,而体散射特性与雷达成像的穿透能力密切相关。
问题测验

gpt 回答
1. 为什么雷达探测被称为主动探测?雷达遥感的优点和缺点是什么?
雷达探测被称为主动探测,因为它自身发射电磁波,并接收目标反射回来的信号,从而获取目标信息。这与被动探测(如光学遥感)不同,后者依赖外部光源(如太阳)照射目标,再接收其反射或辐射的能量。
雷达遥感的优点:
- 全天候能力:雷达使用微波,可穿透云层和雨雾,不受天气和光照条件影响,能够昼夜工作。
- 穿透能力:某些波段的雷达波可穿透植被、沙土和冰层,探测地表以下的信息。
- 速度测量:通过多普勒效应,雷达可测量目标的运动速度。
雷达遥感的缺点:
- 分辨率限制:传统雷达的空间分辨率相对较低,难以获取精细的地物信息。
- 复杂的图像解译:雷达图像受成像几何和目标特性的影响,解译难度较大,需要专业知识。
- 高成本:雷达系统复杂,建设和维护成本较高。
2. 为什么雷达成像必须是侧视的?
雷达成像采用侧视方式(即斜视成像),主要原因是:
- 避免天线尺寸限制:正下方成像需要极高的天线分辨率,实际难以实现。
- 获取地表信息:侧视成像可捕捉地表的起伏和结构信息,有助于识别地物特征。
- 避免遮挡:正下方成像可能被自身结构遮挡,侧视可避开这些问题。
3. 描述雷达成像系统的主要几何畸变,包括:缩短、叠置和雷达阴影。
雷达成像系统的主要几何畸变有:
- 缩短(Foreshortening):
- 定义:地形坡度朝向雷达时,坡面在雷达图像中被压缩,导致坡度显得陡峭。
- 原因:斜视成像使得坡面与雷达波束夹角减小,回波返回时间缩短。
- 叠置(Layover):
- 定义:当地形坡度大于雷达入射角时,坡顶回波先于坡底返回,导致坡顶在图像中叠加在坡底之上。
- 原因:雷达波以斜角入射,陡峭坡面使得回波返回顺序颠倒。
- 雷达阴影(Radar Shadow):
- 定义:在雷达波无法照射到的区域,图像中出现无信号的阴影区。
- 原因:地形遮挡或陡峭坡度背向雷达,导致该区域无回波返回。
4. 合成孔径雷达(SAR)成像系统如何在方位和距离方向上实现高空间分辨率?
SAR 通过以下方式在方位和距离方向上实现高分辨率:
- 距离方向:
- 脉冲压缩:发射宽带线性调频信号,通过匹配滤波技术,将宽脉冲压缩为窄脉冲,提高距离分辨率。
- 方位方向:
- 合成孔径技术:利用雷达平台的运动,将多个回波信号合成为一个长的虚拟天线阵列,提升方位分辨率。
5. 为什么在 SAR 图像中,机场和高速公路看起来很暗,而森林看起来很亮?
在 SAR 图像中,不同地物的亮度取决于其对雷达波的散射特性:
- 机场和高速公路:
- 特性:表面平坦、光滑。
- 散射:主要产生镜面反射,雷达接收器接收到的回波较弱,图像中表现为暗色。
- 森林:
- 特性:树木枝叶繁茂,结构复杂。
- 散射:产生强烈的体散射和多次散射,雷达接收器接收到的回波较强,图像中表现为亮色。
6. 解释拐角反射对雷达信号的关键条件及其对军事设备设计的影响。
拐角反射(Corner Reflector):
- 关键条件:
- 结构:由两个或三个相互垂直的平面组成。
- 作用:使入射雷达波多次反射后,回到原方向,增强回波信号。
- 对军事设备设计的影响:
- 雷达隐身:避免在设备表面形成垂直平面结构,减少强回波,降低被雷达探测的概率。
- 结构设计:采用倾斜、曲面等设计,散射雷达波,减少回波强度。
雷达干涉测量(InSAR)与应用(第十章)
🔗 Relevant Information
📝 Class Notes
从空间进行厘米级测量和探测。
雷达干涉仪的原理
雷达干涉测量的基本原理
单视复合(SLC)SAR 图像由复数像素值构成,这些像素不仅记录了返回的微波信号的强度(从目标返回的信号能量),还记录了信号的相位,而相位则取决于目标与雷达天线之间的距离。
给定 SLC 像素的复数:c = a + ib,c 的幅度(即 SAR 强度图像)为 ,其相位角为 。
单程和重复程 SAR 干涉测量配置
InSAR 的目的是获取一个 SAR 干涉图(即相位差图),表示两个相干 SLC 图像(通常称为条纹对)之间的相位差: 。

图 (a) 展示了单次通过的 SAR 干涉仪配置,其中一根主动天线负责发送和接收雷达信号,而另一根被动天线(与主动天线之间距离为 B)仅用于接收信号。
图 (b) 展示了重复通过的 SAR 干涉仪配置,通过两次访问的轻微轨道漂移 B 对同一区域成像。
雷达干涉测量中的几何

在雷达移动前后,它们离同一个点的距离差为 ,根据大学物理中学习过的知识,当距离差为 时,相位差为 。由于图中的距离差包含了来回,因此需要乘以 2,相位差为 。第二个公式应该是余弦定理,但我推导出来的结果与上面有一些不同。

其他两个公式没有推导出来。
InSAR 数据处理中,会计算出每对单视(Single Look Complex)SAR 图像中对应像素点之间的相位差 。通过计算两幅 SLC 图像中相应像素点的相位差,可以生成一个干涉图(Interferogram)。
干涉图通过不同的条纹(fringe)来表示相位变化,从而可以反映地形的高度或地表的形变情况。
在图中,垂直基线 起到了关键作用。垂直基线 是两个雷达观测位置之间的垂直距离,它决定了干涉图的相位变化对地形高度的敏感性。较大的垂直基线通常能带来更显著的相位变化,从而更准确地反映地形信息。此外,基线的设置也会影响到地表变形的监测精度。
为什么相位差可以反映地形的变化?
相位差可以用于反映两次测量前后的路径差,而路径差可以计算出高度,因此可以使用相位差来计算地形高度的大小,进而反映地形的变化。
当把相位差信息转化为图像形式时,不同的相位值会显示为不同的条纹(称为“干涉条纹”)。这些条纹的疏密和方向表明了地形的起伏和变化。例如:
- 条纹密集:通常表示地形陡峭,路径差变化快,相位差也较大。
- 条纹稀疏:通常表示地形平缓,路径差变化小,相位差较小。
地形高度的具体计算过程如下图所示:

总之,通过两次测量中相位差的变化,可以计算出地形的高度 z。
InSAR 的相位测量是基于干涉条纹的相位差,而相位差本质上是一个角度量。由于相位是周期性的,相位差在 2π 范围内会发生“缠绕”(也称为“相位缠绕”),这意味着相位差会被限制在一个 2π 的范围内(从 0 到 2π)。超出 2π 的相位差会“折回”,因此测量到的相位差实际上是被“模 2π”的结果。
由于测量的相位差被限制在 2π 范围内,因此实际的相位差 不仅仅是测量的相位差 ,还可能是 加上若干个 2π。这可以表示为:
其中:
- 是实际的相位差。
- 是测量的相位差(在 2π 内)。
- n 是一个整数,表示相位差超过 2π 的倍数。
这意味着,实际的相位差可能是测量值的整数倍 2π 的累加。
路径差 和实际相位差 的关系是:
由于实际相位差 ,将其代入上式,可以得到:
这个公式表达了路径差 的计算方法,其中:
- 第一项 是由测量相位差 决定的路径差。
- 第二项 是一个整数倍的路径差修正项,用来补偿超过 2π 的相位变化。

SAR干涉图的高程分辨率与垂直基线成正比,基线越大,一个周期的高程增量越小,DEM分辨率越高。

考虑到 δ 与 r 相比非常小,因此


最终可以得到:


当 时,观测点从两个 SAR 图像中的同一视角被观测,此时 是与观测角 无关的常量。
在这种特殊情况下,干涉图在位置上保持恒定,因此不包含任何地形信息。
显然,具有非常小的 的 SAR 干涉条纹对高度变化不敏感。
当垂直基线 很大时,对地形高度的敏感度也较高,但这会显著降低干涉图的相干性,从而降低信噪比(SNR),因为两束雷达波的平行性降低。
大多数干涉合成孔径雷达(InSAR)应用要求 的比值小于 1/1000。因此,对于轨道高度为 800 公里、视角为 23° 的 ERS-2 和 ENVISAT 卫星来说,建议 以确保 InSAR 的有效性。
DInSAR 和形变测量

图中的图示内容:
斜距差引起的相位偏移。“斜距差” 指的是卫星观测点与地表物体之间的距离差。相位偏移反映了地表由于形变产生的变化。
- 卫星差分干涉合成孔径雷达(DInSAR)是一种有效的工具,用于测量由地震、地面沉降、冰川运动、火山膨胀等引起的地形变形。
- DInSAR 基于重复通道的星载雷达干涉仪配置。
利用两个事件前的 SAR 图像和一个事件后的图像(在可行的基线范围内),可以构造出一个事件前和事件后的条纹对,从而可以直接得到差分干涉图。经过地球曲率平坦化校正后的 DInSAR 公式如下所示(Zebker 等人,1994):
其中, 是地面参考点在零高程时的雷达观测角(即地表参考角)。此操作抵消了稳定的地形,并揭示了地表的几何形变。上述公式表明,形变 D 与差分相位差 成正比,因此 DInSAR 可以以毫米级精度测量地形形变,优于雷达波长的一半。
需要注意的是,当我们说 DInSAR 可以在毫米级精度下测量形变时,指的是 SAR 斜距方向(视线方向,LOS)上的平均形变。对于 ERS InSAR,例如,其图像像素的空间分辨率约为 25 米。
作为一种替代方法,如果研究区域有高质量的数字高程模型(DEM),可以利用 DEM 生成相位 ,并赋予与事件间条纹对基线相等的人工基线,以模拟雷达成像几何结构(Massonnet 等,1993,1994,1995)。在这种情况下,DInSAR 就是事件间 SAR 干涉图 和地形模拟干涉图 之间的简单差值:
使用 DEM 生成 的优点在于它不受合适的 SAR 条纹对可用性的限制,并且 的质量在不需要展开的情况下得到了保证。

上图是地表形变的干涉图,包含以下主要内容:
- 背景图像:背景是一个区域的合成孔径雷达(SAR)干涉图,使用不同颜色显示地表形变的条纹。这种条纹通常是由于地表发生的形变或高程差异造成的相位变化,呈现出类似彩虹的条纹模式。
- 放大区域:图像的中心放大显示了一个小区域的干涉条纹。这个放大部分更清晰地显示了条纹的颜色变化。
- 条纹含义:放大区域标注了“一条条纹 = 28 毫米的形变,沿 SAR 视线方向(LOS)”。这意味着每一条完整的条纹周期(从红到蓝再到红)代表了 28 毫米的地表位移。这种位移通常是通过干涉相位变化计算得出的,表明地表在 SAR 视线方向上的形变量。
- 比例尺:放大区域右下角标明了一个 0.6 公里的比例尺,帮助观察者理解图中条纹的空间分布范围。
多时相相干图像与随机变化检测
要生成有意义的干涉图,两个 SAR 图像必须具有高度相干性或高相干度。InSAR 相位相干性是衡量两个 SAR 图像之间局部空间相关性的指标。地表散射体的任何随机变化都会导致相位的不规则变化,从而降低相干性。特别是,视线方向上超过雷达波长一半的随机变化将导致完全失去相干性。
任何地表都会受到许多去相关因素的影响,如植被生长、风吹沙和侵蚀。这些连续的随机变化会累积。如果两个 SAR 图像之间的时间间隔较长,条纹对的相干性通常较低,因此无法生成高质量的干涉图。不过,在这种情况下,低相干性反而可以作为地表随机变化的有效指示器。

上图展示了不同情况的地表散射体的排列状态:
- (a) 和 (b):分别表示在两次观测中的地表散射体分布。
- (c):表示一种不同的地表散射体分布。
- (d) 和 (e):表示将不同次观测的地表散射体分布结合后,得到的合成图像。
- (f):高相干性图像,条纹清晰,表明地表在两个时间点间的变化较小。
- (g):低相干性图像,显示为噪声状,表明地表发生了显著的变化或去相干现象。
相位相干性定义:两个 SLC(单视图复合)SAR 图像的相位相干性表示两个观测之间的地表目标的雷达反射特性的局部相关性。
估算方法:相干性可以通过对 SAR 复数数据的相邻像素进行 N 次邻域平均来估算,相干性公式如下:
其中:
- 表示相干性幅值的估计。
- 和 分别是两幅 SAR 图像的复数值。
- * 表示复共轭。
- 相干性范围: 的取值范围是 [0, 1],其中 0 表示完全去相干,1 表示完全相干。
总结
InSAR 干涉图用于生成数字高程模型(DEM)。InSAR 的单次观测配置可以完全消除时间去相干性,确保高质量的干涉图。基线越宽,地形分辨率越高,但干涉图的信噪比(SNR)越低。通常,对于 C 波段 InSAR,高度精度最好能达到 10 米以内。
差分 InSAR (DInSAR) 用于地形形变测量。DInSAR 需要重复观测的 InSAR 数据,至少包含一个跨形变事件的 SAR 图像对。差分相位差直接从形变量转换而来,测量值为半个雷达波长处的 (对于 C 波段 SAR 为 28 毫米)。因此,该技术对地形形变非常敏感,可以达到毫米级的精度。
InSAR 相干性技术用于随机变化检测。此技术侧重于检测,而非测量。该方法基于重复观测的 InSAR。地表的随机变化随时间累积,导致相干性图像中的相干性降低,这些图像是从时间间隔较长的两个 SLC 图像生成的,并且可以通过低相干性特征来检测地表的随机变化。
问题测验

gpt 回答
1. 描述单路径和重复路径 InSAR 的基本配置,并使用图示说明。
InSAR(合成孔径雷达干涉测量)有两种主要配置:
- 单路径 InSAR(Single-Pass InSAR):
- 配置:在同一平台上安装两个雷达天线,彼此间隔一定距离,称为基线。
- 工作原理:两个天线同时获取同一区域的雷达影像,利用天线间的空间基线差异,生成干涉图,提取地形高程信息。
- 应用:适用于快速获取高精度数字高程模型(DEM)。
- 重复路径 InSAR(Repeat-Pass InSAR):
- 配置:同一雷达天线在不同时间沿相同或相近轨道多次观测同一地区。
- 工作原理:通过对比不同时间获取的雷达影像,生成干涉图,监测地表形变。
- 应用:适用于地表形变监测,如地震、火山活动、地面沉降等。
图示说明:
- 单路径 InSAR:
- 平台上安装两个天线,间隔一定距离,同时对地面进行观测。
- 重复路径 InSAR:
- 单个天线在不同时间沿相同轨道多次观测同一区域。
2. 使用图示解释 InSAR 的原理。
InSAR 的基本原理是利用雷达从不同位置或时间获取同一地区的影像,通过分析影像间的相位差,提取地形高程信息或监测地表形变。
图示说明:
- 获取影像:
- 两个天线(单路径)或同一天线在不同时间(重复路径)获取同一地区的雷达影像。
- 生成干涉图:
- 通过计算影像间的相位差,生成干涉图,显示相位信息。
- 解缠相位:
- 处理干涉图中的相位环绕现象,获取连续的相位信息。
- 提取信息:
- 根据相位信息,提取地形高程或地表形变信息。
3. InSAR、DInSAR 和相干技术之间有什么区别?它们的主要应用是什么?
- InSAR(合成孔径雷达干涉测量):
- 定义:利用两幅雷达影像的相位差,提取地形高程信息。
- 应用:生成数字高程模型(DEM),用于地形测绘。
- DInSAR(差分合成孔径雷达干涉测量):
- 定义:在 InSAR 基础上,利用多时相雷达影像,消除地形影响,提取地表形变信息。
- 应用:监测地表形变,如地震、火山活动、地面沉降等。
- 相干技术:
- 定义:分析两幅雷达影像的相干性,评估地表散射特性变化。
- 应用:检测地表变化,如植被变化、土壤湿度变化等。
4. 与使用立体影像的摄影测量方法相比,讨论使用 InSAR 生成数字高程模型(DEM)的优缺点。
优点:
- 全天候能力:InSAR 使用微波,可穿透云层和雨雾,不受天气和光照条件影响。
- 大范围覆盖:卫星 InSAR 可覆盖大面积区域,适合区域性地形测绘。
- 高精度:在理想条件下,InSAR 可生成高精度 DEM。
缺点:
- 相干性要求:地表覆盖变化(如植被生长)会降低相干性,影响 DEM 精度。
- 基线控制:基线长度和精度对 DEM 质量有重要影响,需精确控制。
- 解缠相位复杂性:相位解缠过程复杂,可能引入误差。
与立体影像摄影测量相比:
- 立体影像摄影测量:
- 优点:
- 可获取高分辨率影像,适合小范围高精度测绘。
- 直观,可直接解译地物信息。
- 缺点:
- 受天气和光照条件影响,无法全天候工作。
- 处理复杂,需人工干预。
- InSAR:
- 优点:
- 全天候、大范围、高精度。
- 缺点:
- 对相干性要求高,处理复杂。
5. 从以下四个选项中选择唯一正确的陈述,并解释你的选择理由:
- a) InSAR 技术可用于生成厘米级精度的高程 DEM。
- b) 差分 InSAR 技术可用于生成厘米级精度的高程 DEM。
- c) 差分 InSAR 技术可以检测厘米级(半个雷达波长)的地表随机变化。
- d) SAR 相干图像可以检测厘米级(半个雷达波长)的地表随机变化。
正确答案:c)
解释:
- 差分 InSAR 技术(DInSAR)通常用于检测地表微小形变,如地震、火山活动、地面沉降等。由于其敏感性,它可以检测到小至厘米级的地表变化,这是通过计算影像的相位差得出的。而这种变化的精度通常可达到雷达波长的一半,甚至更高。
- 选项 a 和 b 不正确,因为一般来说,InSAR 和 DInSAR 技术生成的 DEM 精度虽高,但很难达到厘米级精度,特别是在大范围测绘中受到相位解缠、基线长度等因素的限制。
- 选项 d 不正确,因为 SAR 相干图像主要用于分析地表的相干性变化,例如植被变化、土壤湿度变化等,通常用于检测地表结构变化,而不是直接检测厘米级的地表位移或随机变化。