雅可比矩阵

为避免空气水污染问题,采取SuperSting R8电阻仪对凯亚马的钽铁矿脉进行勘测。

许多年来,南凯亚马一直进行着手工和小规模采矿活动,该地区常见的矿物包括金、锡石、钨矿和钽矿,它们寄存在风化的伪长英岩和石英矿脉中,深度很浅,一般不超过6-7米。

2015年,在凯亚马中部某个新住宅区附近,用于开发地下水资源的手工挖井里发现了钽矿矿化。该地区采矿坑揭示出,富含钽矿的矿脉位于约12米深的地方。

由于该地距离市中心太近,因此当地不允许ASM在该区域进行钽矿的勘探和采矿,毕竟ASM活动向来都是以大规模沙土开采、空气水体污染、土地退化、侵蚀为特点。
?

当地政府即便有兴趣开采该矿产以获得经济效益,但仍要尽量减少对环境的负面影响,为了研究该地区的岩石,我们进行了地质野外测绘和初步地球物理勘查,还对该地区露头进行了测绘,并测量了平面构造的走向和倾角。
?

对富含钽矿化的坑道进行了检查,以了解该地区矿化脉的趋势、深度和大致厚度,之后根据野外观察和坑道检查的结果,选择一些地球物理勘测参数,包括电极阵列、最佳电极间距和需要穿透矿化脉最大深度的剖面长度。
?

进行初步的地球物理勘测后,再利用结果来调整实际勘测的采集参数,在选定位置建立九个2D ERS勘测,用于数据采集的设备是一台SuperSting R8/IP多电极地球电阻仪,还包括84个金属电极、一个多通道切换盒、一个直流电池、12通道电缆、锤子和测量卷尺。
?

每个通道电缆长70米,由七个金属夹子组成,可连接七个电极,在每个剖面上,84个电极以3米间隔沿直线与地面连接,最接近的七个电极为一组,使用通道电缆和夹子连接,整个电极布置利用多通道切换盒连接电阻仪。
?

电阻仪连接直流电池供电,电阻仪初始化以采集沿电偶极-电偶极电极阵列,进行测量数据,每个剖面长249米。

测量是串行自动化的,即先选择电极1、2、3、4,然后选择电极2、3、4、5,接着选择电极3、4、5和6,以此类推,最后选择电极81、82、83和84进行电阻率测量,这是在第一级。这意味着n=1?a,级别下有81个测量和电位点,其中n为电偶极之间的距离,a是电偶极间距。
?

关于电偶极-电偶极电极阵列、间距和a与n之间的关系描述,一些地球物理学文献中都有相关解释,测量继续进行,电偶极间距分别为n=2、3、4、5和6,该过程在每个剖面上重复,直到完成第9个剖面。
?

原始数据被绘制成图形,以便进行质量控制的视觉检查,并正确识别受噪声和仪器误差影响的数据,使用基于MATLAB的脚本对数据进行预处理,去除噪声并衰减尖峰,对预处理的数据进行处理以进行层析反演。
?

明显电阻率数据使用有限差分技术,和采集参数进行正演模拟,电阻率模型反演采用了基于平滑约束有限差分方法,反演基于地球物理层析成像原理,理论计算数据与实测数据进行迭代比较,直到获得最小可能的均方根误差,或达到最大迭代次数。
?

在每次迭代结束时,计算数据与观测数据之间的不匹配度用于改进实测数据,然后将改进实測数据输到层析过程中进行下一级迭代,计算数据与观测数据间的差异被认为是实测测量误差和数据中的噪声。

?
反演过程可以在数学上定义为:d = JTg,J是电阻率相对模型参数的偏导数,JT则是雅可比矩阵的转置,μ是约束因子,是限制模型扰动向量可取的值范围,F是单位矩阵,代表地下的地质结构,d是测量原始数据和计算数据之间的差异向量。

?
g包含测得和计算明显电阻率值的对数的差异,为了改进反演结果和优化收敛时间,d被定义为Marquardt-Levenberg修改,最小化不匹配向量和参数变化向量的幅度组合,正演模拟和反演过程使用EarthImager2D软件进行。

?
明显电阻率层析的最终目标是为了获得最佳地球模型,以产生在实地采集到的明显电阻率数据,产生计算数据的地球模型是已知的,但产生数据的地球模型是未知的,如果没有仪器误差和噪声,与计算数据最匹配的数据则被认为是产生实测数据的地球模型。

?
通过在尼日利亚凯亚马的现场调查,展示了电阻率地球物理方法,在变质基岩复合地区探矿中的实用性,研究目标是勾勒和确定钽矿化带的深度,从研究区域获得的二维电阻率数据,所生成的地下层析图像显示出低电阻率区域,与钽矿化带相对应。

?
在6号剖面挖掘的一个探矿坑,证实了低电阻率区域是富含钽矿的矿脉,二维电阻率层析图显示,富含钽矿的矿脉长度大约在40到220米之间,厚度在3到32米之间,矿化控制和矿化脉取向与泛非造山运动一致。
?

与凯亚马一直盲目试错的开采方法相比,我们所采用的方法稳定且环保,研究对矿产储量的前期经济评估、选择最佳采矿方法,以及开采后土地复垦的规划具有重要意义,研究推荐在研究区域采用露天矿法开采钽矿化带。

雅可比矩阵的意义

机器之心报道

机器之心编辑部

人们常说「隔行如隔山」,机器学习社区在外行人眼里是什么样的?

近日,一位来自传统行业的从业者观察了机器学习研究社区的现状,发现了一些问题并在 reddit 上发帖,不少机器学习从业者也纷纷表达观点,参与讨论。

帖子作者注意到,机器学习社区内有很多研究者正致力于优化、控制、信号处理等「旧领域」的交叉研究,他们会突然发表大量声称要解决某个问题的论文,问题本身通常是近期的,使用的方法会包含一些深度神经网络。

然而仔细一看,这些研究唯一新颖的地方只有提出的问题,而不是研究人员解决该问题的方案。

让他困惑的是,为什么大量这种看起来水平一般,几乎就是对各领域内 20 世纪 80 年代,甚至 60 年代以后的技术重新编排的文章却能够被接受?经过仔细研究,作者发现机器学习社区存在一些问题。

只有机器学习顶会欢迎

许多研究者只在机器学习会议上发表论文,而不会在其研究的专属会议或期刊(例如优化和控制领域期刊)上发表。例如,在一篇对抗机器学习论文中,整篇论文的内容几乎都是关于解决一个优化问题的,但提出的优化方法基本是其他成熟研究成果的变体。作者还注意到,如果一篇论文没有被 NeurIPS 或 ICLR 接收,它就会被转投给 AAAI 或其他名气小一点的会议,真是一点也不浪费。

有人评论称,这其实和会议的名气有关:「在 NeurIPS 等机器学习顶会上发表的研究,收益可能是其他会议的十倍。但有一些子领域的会议也很受重视,比如计算机视觉领域的 CVPR、自然语言处理领域的 ACL 会议等。」

审稿人不了解领域内研究进展

通过开放评审,我发现审稿人(不只是研究者)对所属的具体领域一无所知。他们似乎只是在审核论文的正确性,而不是新颖性。实际上,我对审稿人是否了解该方法的新颖程度表示怀疑。

评论区有网友表示:这一问题也是存在的,但似乎很难解决。因为机器学习领域正在呈爆炸式增长,并不是每个审稿人都能够跟得上该领域的发展步伐,有些审稿人掌握的知识信息的确有些滞后。

引用混乱

通常,ML 领域的研究人员只会从最近几年的研究中引用自己或其他机器学习从业者的研究。偶尔会有一个引用数百年前研究的情况,那可能是因为与牛顿、柯西等人的经典研究有关。然后引用研究的年份就会突然跳到 2018、2019 年。

有人指出,这一问题主要是追溯难度太大造成的。经过多年的发展,很多名词术语的叫法已经和几十年前不一致了。当前机器学习社区中的论文引用主要来自于谷歌搜索,有些名词想要找到其原始出处并不容易。

堆砌数学公式

论文中经常存在堆砌数学公式的情况,形成一堵巨大的「数学墙」,例如证明特征值、梯度、雅可比矩阵等数学问题的深奥条件。有些定理其实并不适用,因为在高度非凸的深度学习应用中,定理的前提条件就不满足。因此,从这些错综复杂的数学定理中唯一获得的东西就是一些微弱的直觉,这些直觉还可能会被立刻推翻。

有网友指出,「数学墙」非常令人沮丧。由于带有数学公式的论文似乎更容易被接收,很多论文都加入了公式,但有时公式并不是必要的。

为什么会出现这种情况?有人猜测说,一个不太专业的审稿人可能会拒绝自己看不懂的想法,因为 ta 不喜欢这个想法。但在看到「数学墙」之后,ta 可能会给出更加严谨的审稿结果,如「弱接收(Weak Accept)」或「弱拒稿(Weak Reject)」。

缺乏后续研究

作者还发现,有些研究者在提出一个超越其他研究的新基准之后,并不会进行更多后续研究来进一步发展该研究提出的技术方法。但在其他领域,研究团队中的一些成员后续会花费大量时间和精力去完善该研究所提出的方法,有些研究甚至会贯穿某些研究者的职业生涯。

上述几个问题使得机器学习社区在某种程度上成为一个「回声室」,研究者只是将大量已知的研究结果重新编排,并用其问题的新颖性来掩饰创新的缺失。然而这些论文都能被接收,因为很少有人能发现这些研究是缺乏新颖性的。

综合以上问题,这位来自传统行业的作者最后表示:「机器学习社区就像一棵自动接收论文的摇钱树。」

讨论

在评论区,我们还发现了一些新的观点和看法。

一位来自物理学领域的研究者表示:「理论物理学等硬科学中也存在一些类似问题。『(论文)不发表就会被埋没(Publish or Perish)』的观念根深蒂固,以至于没有人理智地尝试解决一些实际且有意义的问题。」

这位理论物理学家还指出,不仅研究方向有所偏颇,发表论文的周期也在变短,研究质量因此降低。发表论文量成为了一种评价标准,很少有研究者潜心解决科学难题了。

此外,有人表示:「有些 ML 研究者似乎并不了解性能提升的根本原因,他们只是做了一些简单的改进。」这也是一件令人沮丧的事情。

尽管这些问题只代表原帖作者和部分机器学习从业者的看法,但这不失为机器学习社区的一种缩影,有待解决与改善。

参考链接:https://www.reddit.com/r/MachineLearning/comments/lvwt3l/d_some_interesting_observations_about_machine/

雅可比

雅可比行列式通常称为雅可比式(Jacobian)它是以n个n元函数的偏导数为元素的行列式。事实上,在函数都连续可微(即偏导数都连续)的前提之下,它就是函数组的微分形式下的系数矩阵(即雅可比矩阵)的行列式。

若因变量对自变量连续可微,而自变量对新变量连续可微,则因变量也对新变量连续可微。这可用行列式的乘法法则和偏导数的连锁法则直接验证。