图像特征点检测是计算机视觉研究中的一个关键性任务。随着图像处理与模式识别技术的发展,准确充分地提取原图蕴含信息的图像特征,对物体识别、图像匹配、视觉跟踪、三维重建等课题的发展有着很大的裨益,因此特征点检测是一项关键且基础的研究任务。
图像特征点指的是周围包含丰富的局部图像特征的像素点,常见的特征类型有边缘点、角点、纹理、斑点等[1]。传统的特征点检测方法包括Moravec算法、Harris算法、DoG算法[2-4]等。Moravec算法考察局部图像平移前后的像素值差异,并将差异最大的局部图像的中心像素作为特征点。然而该方法只具备弱旋转不变性,其在实际任务中的性能表现较差。Harris算法[5]计算局部图像方向导数得出图像特征变换最剧烈/缓和的两个方向,根据这两个方向的梯度值区分无纹理区域的点、边缘点或是角点。然而由于Harris算法对于图像的尺度较敏感,该算法在实际复杂环境下的图像特征提取应用中表现亦不佳。LoG和DoG算法将局部区域中的图像导数的极值点作为特征点,无法兼顾特征点的精确定位和图像的良好去噪,在实际应用中难以取舍。尺度不变特征转换方法(Scale-invariant Feature Transform,SIFT)[6]算法使用高斯差分金字塔构造尺度空间,并在尺度空间中定位极值点以选取特征点。然而该算法无法对边缘光滑的目标准确提取特征点。加速稳健特征(Speeded Up Robust Features,SURF)[7]算法对SIFT算法进行了改进,通过计算Hessian矩阵并构造尺度空间以进行特征点的选取与定位。然而SURF算法并未解决SIFT算法在尺度空间中各个层之间的尺度值不够紧密的问题。
除基于人工设计的特征点检测方法[8-10],近年来也涌现出越来越多基于神经网络学习的特征点检测方法[11-12]。然而现阶段缺少带有特征点标注的大规模数据集。其原因在于,首先,对于不同的任务场景,所需的最优特征点类型可能不同,即无法准确找到最优特征点对数据集进行标注。其次,对于密集的特征点生成来说,人工标注是一件非常困难的事情。这也使得很多基于学习的特征点检测器都依赖人工设计的检测器来生成训练数据,或将其作为网络的一部分一起参与训练。而后者将限制基于学习的检测器的性能进一步发展。为了解决以上问题,Quad-Network[13]提出了一种基于数据驱动的无监督特征点检测方法,该思想也被LF-Net[14]和SuperPoint[15]作为特征点检测的重要部分来参与整个图像匹配任务网络的训练。以上工作说明了无监督的学习方法能够很好地完成特征点检测任务。
本文提出一种基于差分响应图的无监督特征点检测网络,主要的工作如下:
(1) 提出一种新的无监督特征点检测网络,训练特征点检测器对以每一个像素点为中心构成的局部图像块计算一个响应值。考察每一个图像块的响应值在当前图像的所有图像块中的大小关系,依据响应值大小使用非极大值抑制的方法在响应图中挑选特征点。在训练方式上,使用卷积核对整幅图像做卷积操作,省去了Quad-Network中对图像块进行随机选取、裁剪的步骤,减少了训练时间。
(2) 对特征点检测器前端进行优化,将简单线性滤波器替换为由不同尺度的卷积核进行差分运算得到的差分卷积核。在本文后续章节的分析与实验结果表明,利用差分响应有利于更精准地定位物体边缘,并缓解了物体边缘选取的特征点聚集的现象。
(3) 与现有方法相比,本文所提出的方法采用旋转、光照、模糊等多种图像变换训练检测器,获得相应特征不变性,该网络更适用于小规模数据集训练,摆脱对大数据集规模的依赖。实验结果表明,即便只使用具有足够丰富细节信息的单幅图像进行训练,并对图像进行合理变换,即可得到性能优良的特征点检测器。
1 本文方法假设1 已知集合
| $ y = {{F}} \otimes x $ | (1) |
| $ H {\rm{(}}x{\rm{) = }}H {\rm{(}}y{\rm{)}} $ | (2) |
成立,则称操作
对于特征点检测任务来说,特征点的可重复性指的是:同一特征点可在该场景的不同图像中被检测器检测出来。特征点的可重复率是特征点检测任务中的一项重要指标。
根据假设1,假设存在两幅图像
综上所述,本文将特征点对于多对匹配的像素点响应值一一对应相等的问题,近似为,多对匹配的像素点对特征检测器的输出响应值,在不同图像中的大小排序相近的问题,即将值比较问题转化成排序比较问题。基于该思想,检测器将对每一个以像素点为中心的局部图像块输出一个响应值,该响应值在整体图像所有响应值的排序位置决定该像素点的重要性程度。对于两幅同一三维场景下的不同图像来说,要求多对匹配点所输出的响应值的大小排序顺序相近。而响应值在全局范围内排序队列前端部分和末端部分的像素点,在不同的图像中重复率比排序队列中其他像素点更大,即选取响应值最大及响应值最小的多对像素点作为特征点。
在检测器的选取问题上,本文使用不同尺度下卷积核的差分输出来计算响应值。并在后续章节中分析差分卷积核的相关性质。
1.2 网络结构及模型训练图1展示了本文方法的网络架构,使用的深度学习框架为PyTorch。图1(a)为训练过程的步骤。输入图像
|
图 1 本文网络架构 Figure 1 The proposed network architecture |
如图1(b)所示,在测试过程中,使用训练后的检测器对图像输出一幅差分响应图,然后在全局范围内挑选响应值最大和最小的一部分像素点作为特征点。在选取的方式上使用常见的非极大值抑制方法。以选取的特征点的重复率评判特征点检测器的性能优劣。
1.2.1 采样随机变换与仿射变换由于缺乏大规模的含有真实标注的数据集,在特征点检测任务中如何设计基于学习的网络是一件困难的事情。在使用反传网络来训练模型参数的时候,由真实标注和计算结果构成的误差会反向传播回模型并更新模型的参数以达到训练的效果。在特征点检测任务中除了需要考虑如何得到真实标注外,还需扩增训练的数据量以避免造成过拟合。本文使用采样随机变换的方法来获得真实的标注。
如图2所示,可对图像进行随机变换操作,例如光照强度变换、模糊变换等。该变换操作并不改变像素的相对位置,即二维图像每个像素点对应的三维位置信息是固定和已知的,并且所得到的新图像与原图的差异可用来训练模型获得相应的特征不变性。若模型对同一场景的不同图像的响应分布越相近,则说明这些图像之间包含的变换关系对该特征点检测网络的干扰影响越小,代表着这些图像变换的鲁棒性越强。而模型中的卷积操作并不会影响位置属性,于是图1(a)所示的模型输出的两幅差分响应图之间的位置信息也是一致的,即在训练过程中获得了对应的真实标注,而该标注信息将被用于计算网络后端的损失函数的输出。
|
图 2 原图与经过光照强度变换、模糊变换与JPEG压缩变换后的图像 Figure 2 The original image and its three transformed images (brightness, blur, JPEG compress) |
由于本文使用小规模的数据来进行训练,需要进行数据增广以防止训练过拟合。本文对原图及进行随机变换后的新图像采用随机的仿射变换。对图像进行仿射变换,相当于图像中每个像素点坐标乘以一个仿射变换矩阵,如式(3)所示。仿射变换包括一些常见的变换,例如平移、旋转、缩放等。可通过设置矩阵的参数
由于在同一个训练批次中仿射变换矩阵是已知的,可通过对网络模型输出的响应图进行逆仿射变换以使得新的响应图符合原图的位置分布。该操作执行后真实标注的对应情况不受影响。
| $ \left[ {\begin{array}{*{20}{c}} {{x'}} \\ {{y'}} \\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {{a_{11}}}&{{a_{12}}}&{{a_{13}}} \\ {{a_{21}}}&{{a_{22}}}&{{a_{23}}} \\ 0&0&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} x \\ y \\ 1 \end{array}} \right] $ | (3) |
| $ \left[ {\begin{array}{*{20}{c}} {{x'}} \\ {{y'}} \\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {\cos \theta }&{\sin \theta }&0 \\ { - \sin \theta }&{\cos \theta }&0 \\ 0&0&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} x \\ y \\ 1 \end{array}} \right] $ | (4) |
| $ \left[ {\begin{array}{*{20}{c}} {{x'}} \\ {{y'}} \\ 1 \end{array}} \right] = \left[ {\begin{array}{*{20}{c}} {{a_x}}&0&0 \\ 0&{{a_y}}&0 \\ 0&0&1 \end{array}} \right]\left[ {\begin{array}{*{20}{c}} x \\ y \\ 1 \end{array}} \right] $ | (5) |
与以往使用单个线性滤波器作为检测器的方法不同,本文使用两个不同尺度的卷积核输出的差分来计算得到响应图,如图3所示。不同尺度的卷积核表示感受野大小的不同。图3(a)为原图,图3(b)与图3(c)分别为原图经过较小尺度和较大尺度的卷积核运算后输出的结果,其中假设两个卷积核参数服从同一分布。在该可视化方法中,响应值越大的点所显示的颜色越浅。在图3(b)上可发现该选定的卷积核对建筑物纹理与树阴的响应值有较大不同,并且两者的分界较为清晰。而图3(c)也显示了建筑物纹理与树阴的响应值的不同,但两者的分界较为模糊。图3(b)和图3(c)表明线性卷积核对于物体的纹理的输出较为稳定。对两幅响应图进行批规范化操作,即将响应图规范化至符合特定均值与方差的分布,再对其进行差分运算,得到图3(d)。如图3(d)所示,建筑物纹理的颜色与树阴区域的颜色相近,表明了两者的响应值大小相近。而在物体边缘部分像素点的响应值将往最大及最小的趋势变化(如建筑物与树阴的分界区域响应值变大,建筑物与天空的分界区域响应值变小)。这是由于大尺度的卷积核对物体的边缘不敏感,在进行差分运算时,相比于边缘位置的像素点,非边缘像素点的响应会减去与其更为相近的值,而使得其差分响应接近于零,而边缘点的响应值会处于全局范围内最大及最小的部分。因此,本文方法选取差分响应图中最大及最小的一部分作为特征点。
|
图 3 原图及卷积核响应图 Figure 3 The original image and response maps |
为了得到每一个像素点的响应值,首先根据二维卷积公式
| $ f * g = \int_{ - \infty }^\infty {\int_{ - \infty }^\infty {f\left( {u,v} \right)g\left( {x - u,y - v} \right){\rm{d}}u{\rm{d}}v} } $ | (6) |
其离散二维卷积形式可写为
| $ {H_1}\left( {i,j} \right) = \sum\limits_{k = 0}^{{n_1}} {\sum\limits_{l = 0}^{{n_1}} {I\left( {k,l} \right){C_1}\left( {i - k,j - l} \right)} } $ | (7) |
| $ {H_2}\left( {i,j} \right) = \sum\limits_{k = 0}^{{n_2}} {\sum\limits_{l = 0}^{{n_2}} {I\left( {k,l} \right){C_2}\left( {i - k,j - l} \right)} } $ | (8) |
式(7)~(8)中,图像
选取响应图
| $ H\left( {i,j} \right) = {H_1}\left( {i,j} \right) - {H_2}\left( {i,j} \right) $ | (9) |
| $ \begin{split} H(i,j) = & \sum\limits_{k = 0}^{{n_1}} {\sum\limits_{l = 0}^{{n_1}} {I\left( {k,l} \right){C_1}\left( {i - k,j - l} \right)} } - \\ & \sum\limits_{k = 0}^{{n_1}} {\sum\limits_{l = 0}^{{n_2}} {I\left( {k,l} \right){C_2}\left( {i - k,j - l} \right)} } \end{split} $ | (10) |
式(6)~(10)为像素点的差分响应值计算步骤。检测器输出的差分响应图可简记为
当图像经过某种非仿射变换后(如模糊、光照等),特征点检测器对变换前后的图像所输出的响应图的分布越接近,代表着检测器对于该变换的鲁棒性越强,其所选取的特征点的重复率也越高。
假设存在图像变换操作集
| $ L\left( w \right) = \sum\limits_{t \in T} {{\lambda _t}||{\rm{BN} }\left( {H\left( {{I_i}|w} \right)} \right) - {\rm{BN}} \left( {H\left( {t\left( {{I_i}} \right)|w} \right)} \right)|{|_1}} $ | (11) |
其中BN代表Batch Normalization操作。
本文图像变换操作集合
模糊变换的计算方法如式(13) ~(15)所示,其中
由于JPEG压缩算法的实现较复杂,本文直接使用OPENCV函数库工具对图像的JPEG压缩率进行调整。
| $ B(i,j) = \alpha \cdot I(i,j) $ | (12) |
| $ G(i,j) = g(i,j) * I(i,j) $ | (13) |
| $ G(i,j) = \sum\limits_{k = 0}^{2{n_3} + 1} {\sum\limits_{l = 0}^{2{n_3} + 1} {I(k,l) \cdot g(i - k,j - l)} } $ | (14) |
| $ g(i,j) = \frac{1}{{2{\text{π}}{\sigma ^2}}}{{\rm{e}} ^{ - \frac{{{{(i - {n_3} - 1)}^2} + {{(j - {n_3} - 1)}^2}}}{{2{\sigma ^2}}}}} $ | (15) |
本文使用Oxford VGG数据库[16]进行训练和测试分析,其中包含LEUVEN数据集、UBC数据集和TREES数据集。LEUVEN数据集中包含同一场景中不同光照强度的图像,用于测试特征点检测器的光照不变性。TREES数据集包含同一场景不同模糊程度的图像,UBC数据集包含同一场景不同压缩程度的图像,分别用于测试特征点检测器的模糊不变性与JPEG压缩损失不变性。每个数据集都提供了图像之间的单应矩阵,可用于计算特征点的重复率指标。
2.2 度量标准本文实验的定量评价指标为特征点的可重复率,其数学描述见定义1。图4能直观地表示可重复率的意义。检测器对存在确定的仿射关系
|
图 4 特征点检测器在两幅图像选取的特征点 Figure 4 Feature points selected by detector in two images |
然而只使用可重复率作为评价指标也具有局限性。例如当选取的特征点过于密集形成积聚时,计算的可重复率较高,但是该情况可能造成特征点在后续实际应用中性能不佳。因此本文同时对特征点的分布情况做出定性评价。
定义1 特征点的可重复率。若存在图像
| $ \left\{ {{{\tilde x}_i}} \right\} = \left\{ {{x_i}|{{{F}}_{ij}}{x_j} \in {I_j}} \right\} $ | (16) |
| $ \left\{ {{{\tilde x}_j}} \right\} = \left\{ {{x_j}|{{{F}}_{ji}}{x_j} \in {I_i}} \right\} $ | (17) |
特征点以误差
| $ r\left( \xi \right) = \frac{{\left| {R\left( \xi \right)} \right|}}{{\min \left( {{n_i},{n_j}} \right)}} $ | (18) |
式(18)中
| $ R\left( \xi \right) = \left\{ {\left( {{{\tilde x}_i},{{\tilde x}_j}} \right)|{\rm{dist}}\left( {{H_{ij}}{{\tilde x}_i},{{\tilde x}_j}} \right) < \xi } \right\} $ | (19) |
本文使用Python语言来编写和训练特征点检测网络,使用的深度学习框架为PyTorch。训练集为LEUVEN数据集中图像细节最完备的一幅图像,测试集为前面所述3个数据集。本文选择无监督的Quad-Network网络和常用的DoG检测器作为对比方法。在Quad-Network算法的实现上,为了公平比较,本文使用该网络的训练方式和损失函数替换本文网络相对应的部分,其余训练操作均一致。本文网络使用Adam算法来优化网络权重,批量化大小(Batch Size)为8,学习率为0.01。随机光照强度变换选取衰减因子的范围为[0.2,1]。随机模糊变换选取的模糊像素半径为[0, 5],
本文方法使用仿射变换中的旋转与缩放操作进行数据增广。选取随机旋转角度的范围为[0,360],随机缩放因子
计算特征点可重复率的误差阈值对特征点检测器的性能做出了要求,当误差阈值越小时,要求检测器对特征点的定位要更精准。本文选取常用的5像素阈值来评判检测器的性能。
2.4 结果分析图5为3种方法在LEUVEN数据集上的测试结果,红色和蓝色的点为所选择的特征点。图6展示DoG算法选取的候选点及Quad-Network和本文方法输出的响应图。所输出的响应图采用灰度图的方式进行可视化。如图7所示,是3种方法分别在TREES和UBC数据集上选择的特征点。所有实验的特征点重复率数据如表1所示。
| 表 1 特征点重复率 Table 1 Repetition rate of feature points |
|
图 5 3种方法在LEUVEN数据集上检测的特征点 Figure 5 Feature points selected by DoG detector, Quad-Network and our method on LEUVEN dataset |
|
图 6 DoG, Quad-Network和本文方法在LEUVEN数据集上的候选点/响应图 Figure 6 Candidate point/response diagrams of DoG detector, Quad-Network and our method on LEUVEN dataset |
|
图 7 3种方法分别在TREES数据集(左)和UBC数据集(右)上选择的特征点 Figure 7 Feature points selected by DoG detector, Quad-Network and our method on TREES and UBC datasets |
由表1可以看出,3种方法在UBC数据集中取得的重复率均较高,且与其余数据集中相差较大。这是由于LEUVEN数据集与TREES数据集中图像包含了仿射变换,而UBC数据集是使用同一幅图像在不同JPEG压缩条件下生成的图像,并不存在仿射变换。传统的DoG方法只有在LEUVEN数据集上的定量性能要比Quad-Network和本文的方法要好。但是,结合图5(a)与图6(a)分析,DoG方法选择的特征点有很大部分聚集在树阴的区域。然而该区域中,点的位置难以辨认与定位,所选择的像素点在特征点检测任务中被认为是难样本(Hard Sample)。这是由于DoG方法总是选择图像离散函数二阶导数为零的点,即局部变化最剧烈的点,但在全局中该类型的点可能并非最优特征点。综上,虽然DoG检测器能很好地检测出物体的边缘,但也存在着选取大量难样本的风险。
如图5(c)和图5(d),Quad-Network方法对物体的边缘不够敏感,在边缘的响应值大小极为接近,在所测试的3个数据集上都存在特征点聚集情况。由图6(c)与图6(d)可看出,Quad-Network输出的响应图模糊现象及边缘点的积聚现象较为严重。虽然Quad-Network在UBC数据集上取得最高的重复率,但是结合对特征响应图分析,Quad-Network可能会选取远离图像中复杂纹理的像素点,并认为其与所处在复杂纹理的像素点具有相似的性能表现。这种特征点的选取策略可能会对后续任务的性能有损害,例如图像描述子生成任务等。
与DoG方法比较,本文所提出的方法在TREES数据集和UBC数据集中取得的重复率均高于前者。虽然在LEUVEN数据集上的重复率指标与前者相比较低,但缓解了DoG方法优先选择难样本的问题。与Quad-Network方法相比,所提出的方法在LEUVEN和TREES数据集上特征点的重复率均优于前者。此外,本文方法生成了对物体边缘更为敏感,细节更为清晰的特征响应图,见图6(e)与图6(f)。
图8为两种基于学习的方法在测试过程中对LEUVEN数据集检测特征点所耗费的时间曲线图。可以看出本文方法在同等特征点数目检测中所需要的时间远比Quad-Network的要少。因为Quad-Network在使用线性滤波器去对局部图像块计算相应的响应值时,存在着大量耗时的图像裁剪操作,而本文方法使用了不同于Quad-Network的训练模式与损失函数,利用卷积核对图像输出特征图以候选特征点,省去了随机采样和裁剪图像块的操作,简化了数据处理流程,使得耗时大大减少。
|
图 8 检测特征点的数量与所消耗时间的关系 Figure 8 The relationship between the number of feature points detected and the time consumed |
图9是对本文网络中随机选取的一个尺度的卷积层进行可视化操作。训练得到的卷积核呈中心对称,且卷积参数的均值近似于零。由于未使用非线性的激活函数,当卷积核处于无纹理区域中,即图像像素值近似无变化的区域,其输出的响应值也接近于零;当卷积核处于有纹理区域中,输出的响应值会趋于正无穷及负无穷,远离零点。实验表明,选取响应值最大及最小的一部分像素点为特征点,具有较好的可重复性。
|
图 9 尺度为23像素的三通道卷积核可视化 Figure 9 Visualization of 3-channel convolution kernels with a scale of 23 pixels |
综上,在分别对应光照强度变换、模糊变换和JPEG压缩变换的3个数据集的测试上,本文所提出的方法在3种方法中表现出最佳的综合性能。
3 结语本文提出了一种新的数据驱动的基于差分特征响应图的无监督特征点检测网络。利用光照、模糊、压缩等变换来准确获取训练数据真实标注,利用随机仿射变换扩充数据集以避免训练过拟合,采用差分卷积核来代替传统的卷积核提取图像特征,获得对边缘更为敏感的特征图。采用了一种新的基于全局图像的损失函数,简化了数据处理过程。使用定量与定性评价标准在3个数据集上将提出的方法与其他传统经典方法进行实验对比。实验结果表明,所提出的方法能有效地完成特征点检测任务,生成的特征响应图对物体边缘更敏感、细节更清晰,缩短了训练耗时,在小规模数据集上获得更优的检测效果,总体表现出最佳的综合性能。本文方法的局限性在于,未解决含有仿射变换的数据集所检测的特征点可重复率不高的问题,这也是下一步将要研究的问题。
| [1] |
SCHMID C, MOHR R, BAUCKHAGE C. Evaluation of interest point detectors[J].
International Journal of Computer Vision, 2000, 37(2): 151-172.
DOI: 10.1023/A:1008199403446. |
| [2] |
CANNY J. A computational approach to edge detection[J].
IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, 8(6): 679-698.
|
| [3] |
TRAJKOVIM, HEDLEY M. Fast corner detection[J].
Image and Vision Computing, 1998, 16(2): 75-87.
DOI: 10.1016/S0262-8856(97)00056-5. |
| [4] |
MATAS J, CHUM O, URBAN M, et al. Robust wide-baseline stereo from maximally stable extremal regions[J].
Image and Vision Computing, 2004, 22(10): 761-767.
DOI: 10.1016/j.imavis.2004.02.006. |
| [5] |
HARRIS C G, STEPHENS M. A combined corner and edge detector[C]//Proceedings of the 4th Alvey Vision Conference. Manchester: Citeseer, 1988: 147-151.
|
| [6] |
LOWE D G. Distinctive image features from scale-invariant keypoints[J].
International Journal of Computer Vision, 2004, 60(2): 91-110.
DOI: 10.1023/B:VISI.0000029664.99615.94. |
| [7] |
BAY H, TUYTELAARS T, VAN GOOL L. SURF: Speeded up robust features[C]//European Conference on Computer Vision. Heidelberg: Springer, 2006: 404-417.
|
| [8] |
陈晓宁, 赵健, 杨润丰. 基于兴趣点检测的视觉关键词提取新方法研究[J].
现代电子技术, 2017, 40(21): 70-73.
CHENG X N, ZHAO J, YANG R F. Study on visual keywords extraction new method based on points of interest detection[J]. Modern Electronics Technique, 2017, 40(21): 70-73. |
| [9] |
李德隆, 刘伟. 基于改进的 SIFT 特征点的双目定位[J].
广东工业大学学报, 2017, 34(1): 90-94.
LI D L, LIU W. Object location for binocular stereo vision based on improved SIFT feature[J]. Journal of Guangdong University of Technology, 2017, 34(1): 90-94. |
| [10] |
叶志坚, 王福龙. 一种改进的 FREAK 算法的图像特征点匹配[J].
广东工业大学学报, 2017, 34(6): 37-42.
YE Z J, WANG F L. An improved FREAK algorithm for image feature point matching[J]. Journal of Guangdong University of Technology, 2017, 34(6): 37-42. |
| [11] |
LENC K, VEDALDI A. Learning covariant feature detectors[C]//European Conference on Computer Vision. Amsterdam: Springer, 2016: 100-117.
|
| [12] |
VERDIE Y, YI K, FUA P, et al. TILDE: A temporally invariant learned detector[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Boston: IEEE, 2015: 5279-5288.
|
| [13] |
SAVINOV N, SEKI A, LADICKY L, et al. Quad-networks: unsupervised learning to rank for interest point detection[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Hawaii: IEEE, 2017: 1822-1830.
|
| [14] |
ONO Y, TRULLS E, FUA P, et al. LF-Net: learning local features from images[C]//Advances in Neural Information Processing Systems. San Francisco: Margan Kaufmann, 2018: 6234-6244.
|
| [15] |
DETONE D, MALISIEWICZ T, RABINOVICH A. Superpoint: self-supervised interest point detection and description[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. Salt Lake City: IEEE, 2018: 224-236.
|
| [16] |
MIKOLAJCZYK K, TUYTELAARS T, SCHMID C, et al. A comparison of affine region detectors[J].
International Journal of Computer Vision, 2005, 65(1-2): 43-72.
DOI: 10.1007/s11263-005-3848-x. |
2020, Vol. 37

