chebykan与代码3

目录

参考文献有 ‘’

中文

各自讲了什么

 切比雪夫多项式有两类吗?这里存疑

KAN变体

期刊

切比雪夫と爱因斯坦の约定

维度标签的含义

爱因斯坦求和约定


参考文献有 ‘’

中文

[1] 神经网络:全面基础
[2] 通过sigmoid函数的超层叠近似
[3] 多层前馈网络是通用近似器
[4] 生成对抗网络
[5] 注意力是你所需要的
[6] 深度残差学习用于图像识别
[7] 视觉化神经网络的损失景观
[8] 牙齿模具点云补全通过数据增强和混合RL-GAN
[9] 强化学习:一项调查
[10] 使用PySR和SymbolicRegression.jl的科学可解释机器学习

[11] Z. Liu, Y. Wang, S. Vaidya, F. Ruehle, J. Halverson, M. Soljačić, T.Y. Hou, M. Tegmark, "KAN:科尔莫戈罗夫-阿诺德网络",2024年,arXiv预印本 arXiv:2404.19756。
[12] D.A. Sprecher, S. Draghici, "空间填充曲线和基于科尔莫戈罗夫超层叠的神经网络",《神经网络》15卷1期(2002年)57-67页。
[13] M. Köppen, "关于科尔莫戈罗夫网络的训练",收录于《人工神经网络—ICANN 2002:国际会议 马德里,西班牙,2002年8月28-30日 论文集》12卷,Springer出版社,2002年,474-479页。
[14] J. Schmidhuber, "发现具有低科尔莫戈罗夫复杂性和高泛化能力的神经网络",《神经网络》10卷5期(1997年)857-873页。
[15] M.-J. Lai, Z. Shen, "科尔莫戈罗夫超层叠定理可以在近似高维函数时打破维度诅咒",2021年,arXiv预印本 arXiv:2112.09963。
[16] P.-E. Leni, Y.D. Fougerolle, F. Truchetet, "用于图像处理的科尔莫戈罗夫样条网络",收录于《图像处理:概念、方法、工具与应用》,IGI Global出版社,2013年,54-78页。
[17] J. He, "关于ReLU DNNs的最优表达能力和其在科尔莫戈罗夫超层叠定理中的应用",2023年,arXiv预印本 arXiv:2308.05509。
[18] A.D. Jagtap, K. Kawaguchi, G.E. Karniadakis, "自适应激活函数加速深度和物理信息神经网络的收敛",《计算物理》404卷(2020年)109136。
[19] S. Guarnieri, F. Piazza, A. Uncini, "具有自适应样条激活函数的多层前馈网络",《IEEE神经网络交易》10卷3期(1999年)672-683页。
[20] D. Fakhoury, E. Fakhoury, H. Speleers, "ExSpliNet:一个可解释且表现力强的基于样条的神经网络",《神经网络》152卷(2022年)332-346页。

[21] C.J. Vaca-Rubio, L. Blanco, R. Pereira, M. Caus, "用于时间序列分析的科尔莫戈罗夫-阿诺德网络(KANs)",2024年,arXiv预印本 arXiv:2405.08790。
[22] M.E. Samadi, Y. Müller, A. Schuppert, "平滑科尔莫戈罗夫阿诺德网络,实现结构知识表示",2024年,arXiv预印本 arXiv:2405.11318。
[23] Z. Li, "科尔莫戈罗夫-阿诺德网络是径向基函数网络",2024年,arXiv预印本 arXiv:2405.06721。
[24] Z. Bozorgasl, H. Chen, "Wav-KAN:小波科尔莫戈罗夫-阿诺德网络",2024年,arXiv预印本 arXiv:2405.12832。
[25] NLNR, "Jacobikan",2024年,https://github.com/mintisan/awesome-kan/。
[26] SynodicMonth, "ChebyKAN",2024年,https://github.com/SynodicMonth/ChebyKAN/。
[27] S. SS, "基于切比雪夫多项式的科尔莫戈罗夫-阿诺德网络:非线性函数近似的有效架构",2024年,arXiv预印本 arXiv:2405.07200。
[28] S.S. Bhattacharjee, "TorchKAN:简化KAN模型及其变体",2024年,https://github.com/1ssb/torchkan/。
[29] M. Raissi, P. Perdikaris, G.E. Karniadakis, "物理信息神经网络:解决涉及非线性偏微分方程的正问题和反问题的深度学习框架",《计算物理》378卷(2019年)686-707页。
[30] D.W. Abueidda, P. Pantidis, M.E. Mobasher, "DeepOKAN:基于科尔莫戈罗夫-阿诺德网络的深度运算网络,用于力学问题",2024年,arXiv预印本 arXiv:2405.19143。

[31] G.E. Karniadakis, I.G. Kevrekidis, L. Lu, P. Perdikaris, S. Wang, L. Yang, "物理信息机器学习",《自然综述:物理学》3卷6期(2021年)422-440页。
[32] L.D. McClenny, U.M. Braga-Neto, "自适应性物理信息神经网络",《计算物理》474卷(2023年)111722页。
[33] Z. Wang, X. Meng, X. Jiang, H. Xiang, G.E. Karniadakis, "物理信息神经网络推断的纳维-斯托克斯解的多重性及数据和涡粘性的影响",2023年,arXiv预印本 arXiv:2309.06010。
[34] L. Lu, P. Jin, G. Pang, Z. Zhang, G.E. Karniadakis, "基于运算符的通用逼近定理的DeepONet学习非线性运算符",《自然:机器智能》3卷3期(2021年)218-229页。
[35] C. Wu, M. Zhu, Q. Tan, Y. Kartha, L. Lu, "物理信息神经网络非自适应和基于残差的自适应采样的综合研究",《计算力学应用力学工程》403卷(2023年)115671页。
[36] S.J. Anagnostopoulos, J.D. Toscano, N. Stergiopulos, G.E. Karniadakis, "PINNs中的学习:相变、总扩散和泛化",2024年,arXiv预印本 arXiv:2403.18494。
[37] M.D. Wilkinson, M. Dumontier, I.J. Aalbersberg, G. Appleton, M. Axton, A. Baak, N. Blomberg, J.-W. Boiten, L.B. da Silva Santos, P.E. Bourne 等,"科学数据管理和监护的FAIR指导原则",《科学数据》3卷1期(2016年)1-9页。
[38] N. Tishby, F.C. Pereira, W. Bialek, "信息瓶颈方法",2000年,arXiv预印本 physics/0004057。
[39] N. Tishby, N. Zaslavsky, "深度学习与信息瓶颈原理",收录于2015 IEEE信息论研讨会(ITW),IEEE,2015年,第1-5页。
[40] R. Shwartz-Ziv, N. Tishby, "通过信息打开深度神经网络的黑箱",2017年,arXiv预印本 arXiv:1703.00810。
[41] Z. Goldfeld, Y. Polyanskiy, "信息瓶颈问题及其在机器学习中的应用",《IEEE选择领域信息论杂志》1卷1期(2020年)19-38页。
[42] A.F. Psaros, X. Meng, Z. Zou, L. Guo, G.E. Karniadakis, "科学机器学习中的不确定性量化:方法、指标和比较",《计算物理》477卷(2023年)111902页。
[43] S. Cai, Z. Mao, Z. Wang, M. Yin, G.E. Karniadakis, "用于流体力学的物理信息神经网络(PINNs):综述",《力学学报》37卷12期(2021年)1727-1738页。
[44] Z. Mao, A.D. Jagtap, G.E. Karniadakis, "用于高速流动的物理信息神经网络",《计算力学应用力学工程》360卷(2020年)112789页。
[45] L. Yang, X. Meng, G.E. Karniadakis, "B-PINNs:贝叶斯物理信息神经网络,用于带噪声数据的前向和反问题",《计算物理》425卷(2021年)109913页。
[46] X. Meng, Z. Li, D. Zhang, G.E. Karniadakis, "PPINN:用于时变偏微分方程的并行物理信息神经网络",《计算力学应用力学工程》370卷(2020年)113250页。
[47] Z. Zou, G.E. Karniadakis, "L-HYDRA:多头物理信息神经网络",2023年,arXiv预印本 arXiv:2301.02152。
[48] Z. Zou, X. Meng, G.E. Karniadakis, "在物理信息神经网络(PINNs)中纠正模型误指定",《计算物理》期刊。

[49] Z. Zhang, Z. Zou, E. Kuhl, G.E. Karniadakis, "通过结合物理信息神经网络与符号回归发现阿尔茨海默病的反应-扩散模型",《计算力学应用力学工程》419卷(2024年)116647页。
[50] P. Chen, T. Meng, Z. Zou, J. Darbon, G.E. Karniadakis, "利用多时间哈密顿-雅可比偏微分方程解决某些科学机器学习问题",《SIAM科学计算杂志》46卷2期(2024年)C216–C248页。
[51] P. Chen, T. Meng, Z. Zou, J. Darbon, G.E. Karniadakis, "利用具有时间依赖哈密顿量的哈密顿-雅可比偏微分方程进行连续科学机器学习",收录于《第六届动态与控制学习年度会议》,PMLR,2024年,第1–12页。
[52] Z. Li, N. Kovachki, K. Azizzadenesheli, B. Liu, K. Bhattacharya, A. Stuart, A. Anandkumar, "用于参数化偏微分方程的傅里叶神经运算符",2020年,arXiv预印本 arXiv:2010.08895。
[53] K. Shukla, P.C. Di Leoni, J. Blackshire, D. Sparkman, G.E. Karniadakis, "用于超声无损量化表面裂纹的物理信息神经网络",《无损评价杂志》39卷(2020年)1–20页。
[54] K. Shukla, A.D. Jagtap, J.L. Blackshire, D. Sparkman, G.E. Karniadakis, "利用超声数据通过物理信息神经网络量化多晶镍的微观结构性质:解决反问题的有前景方法",《IEEE信号处理杂志》39卷1期(2021年)68–77页。
[55] S.J. Anagnostopoulos, J.D. Toscano, N. Stergiopulos, G.E. Karniadakis, "物理信息神经网络中的基于残差的注意力",《计算力学应用力学工程》421卷(2024年)116805页。
[56] L. Lu, X. Meng, S. Cai, Z. Mao, S. Goswami, Z. Zhang, G.E. Karniadakis, "基于公平数据的两种神经运算符(及其实用扩展)的全面公平比较",《计算力学应用力学工程》393卷(2022年)114778页。
[57] Z. Zou, A. Kahana, E. Zhang, E. Turkel, R. Ranade, J. Pathak, G.E. Karniadakis, "使用基于神经运算符的快速求解器进行大规模散射",2024年,arXiv预印本 arXiv:2405.12380。
[58] K. Shukla, V. Oommen, A. Peyvan, M. Penwarden, N. Plewacki, L. Bravo, A. Ghoshal, R.M. Kirby, G.E. Karniadakis, "深度神经运算符作为形状优化的准确替代模型",《工程应用人工智能》129卷(2024年)107615页。
[59] X. Meng, L. Yang, Z. Mao, J. del Águila Ferrandis, G.E. Karniadakis, "从数据和物理中学习功能先验和后验",《计算物理》457卷(2022年)111073页。
[60] Z. Zou, X. Meng, A.F. Psaros, G.E. Karniadakis, "NeuralUQ:用于神经微分方程和运算符不确定性量化的综合库",《SIAM评论》66卷1期(2024年)161–190页。
[61] Z. Zou, X. Meng, G.E. Karniadakis, "物理信息神经网络和神经运算符中噪声输入-输出的不确定性量化",2023年,arXiv预印本 arXiv:2311.11262。

[62] J. Lin, "Awesome-KAN",2024年,网址:https://github.com/SpaceLearner/JacobiKAN/.
[63] G. Karniadakis, S. Sherwin, 《计算流体动力学的谱/hp元素方法》,第二版,牛津大学出版社,牛津,英国,2005年。
[64] B. Ter-Avanesov, "Awesome-KAN",2024年,网址:https://github.com/Boris-73-TA/OrthogPolyKANs/.
[65] G. Karniadakis, S.J. Sherwin, 《计算流体动力学的谱/hp元素方法》,牛津大学出版社,美国,2005年。
[66] N. Rahaman, A. Baratin, D. Arpit, F. Draxler, M. Lin, F. Hamprecht, Y. Bengio, A. Courville, "关于神经网络的谱偏倚",收录于:国际机器学习会议,PMLR,2019年,第5301–5310页。
[67] S. Greydanus, M. Dzamba, J. Yosinski, "哈密顿神经网络",《神经信息处理系统进展》32卷(2019年)。
[68] A. Garg, S.S. Kagi, "哈密顿神经网络",2019年。
[69] D.P. Kingma, J. Ba, "Adam:一种随机优化方法",2014年,arXiv预印本 arXiv:1412.6980。
[70] A. Krishnapriyan, A. Gholami, S. Zhe, R. Kirby, M.W. Mahoney, "特征物理信息神经网络的潜在失败模式",《神经信息处理系统进展》34卷(2021年)26548–26560页。
[71] Y. He, Z. Wang, H. Xiang, X. Jiang, D. Tang, "用于不可压缩流的人工粘性增强物理信息神经网络",《应用数学与力学》44卷7期(2023年)1101–1110页。
[72] J.-L. Guermond, R. Pasquetti, B. Popov, "非线性守恒律的熵粘性方法",《计算物理》230卷11期(2011年)4248–4267页。
[73] Z. Wang, M.S. Triantafyllou, Y. Constantinides, G. Karniadakis, "柔性管道中湍流流动的熵粘性大涡模拟研究",《流体力学杂志》859卷(2019年)691–730页。
[74] X. Jin, S. Cai, H. Li, G.E. Karniadakis, "NSFnets(纳维-斯托克斯流网):用于不可压缩纳维-斯托克斯方程的物理信息神经网络",《计算物理》426卷(2021年)109951页。
[75] S.M. Allen, J.W. Cahn, "有序二元合金中具有第二近邻相互作用的基态结构",《金属学报》20卷3期(1972年)423–433页。
[76] K. Linka, A. Schäfer, X. Meng, Z. Zou, G.E. Karniadakis, E. Kuhl, "用于实际非线性动力系统的贝叶斯物理信息神经网络",《计算力学应用力学工程》402卷(2022年)115346页。
[77] M. Yin, Z. Zou, E. Zhang, C. Cavinato, J.D. Humphrey, G.E. Karniadakis, "在数据稀疏情况下推断生物力学本构定律家族的生成建模框架",《力学与物理固体杂志》181卷(2023年)105424页。
[78] Z. Zou, T. Meng, P. Chen, J. Darbon, G.E. Karniadakis, "利用粘性哈密顿-雅可比PDE进行科学机器学习中的不确定性量化",2024年,arXiv预印本 arXiv:2404.08809。
[79] R.M. Neal, 等著,"使用哈密顿动力学的MCMC",《马尔可夫链蒙特卡洛手册》2卷11期(2011年)2页。
[80] I. Loshchilov, F. Hutter, "解耦权重衰减正则化",2017年,arXiv预印本 arXiv:1711.05101。
[81] T.M. Inc, "MATLAB版本:9.14.0(r2023a)",2023年,网址:https://www.mathworks.com。
[82] R. Shwartz-Ziv, "深度神经网络中的信息流",2022年,arXiv预印本 arXiv:2202.06749。
[83] S.J. Anagnostopoulos, J.D. Toscano, N. Stergiopulos, G.E. Karniadakis, "基于残差的注意力及其与信息瓶颈理论的联系在物理信息神经网络中",2023年,arXiv预印本 arXiv:2307.00379。
[84] K. Shukla, A.D. Jagtap, G.E. Karniadakis, "通过域分解实现并行物理信息神经网络",《计算物理》447卷(2021年)110683页。

以下列出部分参考文献的中文翻译:

1. 海金,S. (1998). 神经网络:综合基础. 普林斯顿霍尔指针出版社.

2. 西本科,G. (1989). Sigmoidal 函数的叠加近似. 数学控制与信号系统,2(4),303–314.

3. 霍尼克,K.,斯廷奇科姆,M.,怀特,H. (1989). 多层前馈网络是万能逼近器. 神经网络,2(5),359–366.

4. 古德费洛,I.,普乌热特-阿巴迪耶,J.,米尔扎,M.,旭,B.,沃德-法雷利,D.,奥齐尔,S.,柯维尔,A.,本吉奥,Y. (2020). 生成对抗网络. 通信协会,63(11),139–144.

5. 瓦斯瓦尼,A.,沙泽尔,N.,帕尔马尔,N.,乌斯科雷特,L.,琼斯,L.,戈梅兹,Ł.,凯泽,I.,波罗斯库欣,I. (2017). 注意力即一切. 神经信息处理系统,30.

6. 何,K.,张,X.,任,S.,孙,J. (2016). 深度残差学习用于图像识别. 图像识别和模式识别会议论文集,770–778.

7. 李,H.,徐,Z.,泰勒,G.,斯特德,C.,戈德斯坦,T. (2018). 神经网络损失景观的可视化. 神经信息处理系统,31.

8. 托斯卡诺,J. D.,祖尼加-纳瓦雷特,C.,席乌,W. D. J.,塞瓜拉,L. J.,孙,H. (2023). 通过数据增强和混合 rl-gan 进行牙齿模具点云完成. 计算信息科学工程杂志,23(4),041008.

各自讲了什么

. [11] Z. Liu, Y. Wang, S. Vaidya, F. Ruehle, J. Halverson, M. Soljačić, T.Y. Hou, M. Tegmark, KAN: Kolmogorov-Arnold networks, 2024, arXiv preprint arXiv:2404.19756.

  • 这是 KAN 的开山之作,介绍了 KAN 的概念、架构和原理,并与 MLP 进行了比较。该论文展示了 KAN 在解决非线性问题上的潜力,并引发了后续的研究。

2. [27] S. SS, Chebyshev Polynomial-Based Kolmogorov-Arnold Networks: An Efficient Architecture for Nonlinear Function Approximation, 2024, arXiv preprint arXiv:2405.07200.

  • 该论文提出了基于 Chebyshev 多项式的 KAN 架构,并将其应用于非线性函数逼近。实验结果表明,该架构在精度和效率方面都优于 MLP。

3. [30] D.W. Abueidda, P. Pantidis, M.E. Mobasher, DeepOKAN: Deep Operator Network Based on Kolmogorov Arnold Networks for Mechanics Problems, 2024, arXiv preprint arXiv:2405.19143.

  • 该论文将 KAN 应用于力学问题,并提出了 DeepOKAN,一种基于 KAN 的深度算子网络。实验结果表明,DeepOKAN 在解决力学问题方面优于传统的深度算子网络。

4. [34] L. Lu, P. Jin, G. Pang, Z. Zhang, G.E. Karniadakis, Learning nonlinear operators via DeepONet based on the universal approximation theorem of operators, Nat. Mach. Intell 3 (3) (2021) 218–229.

  • 该论文将 KAN 的思想应用于算子学习,并提出了 DeepONet,一种基于算子逼近定理的深度算子网络。该论文展示了 DeepONet 在学习非线性算子方面的潜力。

5. [40] R. Shwartz-Ziv, N. Tishby, Opening the black box of deep neural networks via information, 2017, arXiv preprint arXiv:1703.00810.

  • 该论文介绍了信息瓶颈理论,该理论可以用于分析深度神经网络的训练过程,并解释 KAN 在解决非线性问题上的优势。

6. [42] A.F. Psaros, X. Meng, Z. Zou, L. Guo, G.E. Karniadakis, Uncertainty quantification in scientific machine learning: Methods, metrics, and comparisons, J. Comput. Phys. 477 (2023) 111902.

  • 该论文讨论了科学机器学习中的不确定性量化方法,并比较了 PINN 和 PIKAN 在解决不确定性问题上的表现。

7. [43] S. Cai, Z. Mao, Z. Wang, M. Yin, G.E. Karniadakis, Physics-informed neural networks (PINNs) for fluid mechanics: A review, Acta Mech. Sin. 37 (12) (2021) 1727–1738.

  • 该论文综述了 PINN 在流体力学中的应用,并讨论了 PINN 的优势和局限性。该论文还提到了 KAN 作为一种潜在的替代方案。

8. [49] Z. Zhang, Z. Zou, E. Kuhl, G.E. Karniadakis, Discovering a reaction–diffusion model for Alzheimer’s disease by combining PINNs with symbolic regression, Comput. Methods Appl. Mech. Engrg. 419 (2024) 116647.

  • 该论文展示了 PINN 在解决生物医学问题上的潜力,并讨论了 PINN 与符号回归的结合。该论文还提到了 KAN 作为一种潜在的替代方案。

9. [53] K. Shukla, P.C. Di Leoni, J. Blackshire, D. Sparkman, G.E. Karniadakis, Physics-informed neural network for ultrasound nondestructive quantification of surface breaking cracks, J. Nondestruct. Eval. 39 (2020) 1–20.

 切比雪夫多项式有两类吗?这里存疑

  • 该论文展示了 PINN 在解决无损检测问题上的潜力,并讨论了 PINN 的优势和局限性。该论文还提到了 KAN 作为一种潜在的替代方案。
  • KAN变体

  • 1. 基于 B 样条的 KAN (Vanilla KAN):

  • 这是 KAN 的原始版本,将 B 样条作为基函数,并将其加权组合作为激活函数。
  • 2. 基于 RBF 的 KAN:

  • 使用径向基函数 (RBF) 作为基函数,可以加速训练并提高精度。P4
  • 3. 基于 Wavelet 的 KAN:

  • 使用小波函数作为基函数,可以更好地平衡准确性和泛化性,并避免过拟合。P4
  • 4. 基于 Chebyshev 多项式的 KAN (Chebyshev-KAN):

  • 使用 Chebyshev 多项式作为基函数,可以提高精度并降低计算成本。P4
  • 5. 基于 Legendre 多项式的 KAN (Legendre-KAN):

  • 使用 Legendre 多项式作为基函数,可以与 Chebyshev 多项式类似地提高精度并降低计算成本。
  • 6. 基于 Jacobi 多项式的 KAN (Jacobi-KAN):

  • 使用 Jacobi 多项式作为基函数,可以进一步提高精度并降低计算成本,因为它们可以更有效地表示高阶函数。
  • 7. 基于 Hermite 多项式的 KAN (Hermite-KAN):

  • 使用 Hermite 多项式作为基函数,可以与 Legendre 和 Chebyshev 多项式类似地提高精度并降低计算成本。
  • 8. 基于 Chebyshev 多项式的深度算子网络 (DeepOKAN):

  • 将 Chebyshev-KAN 应用于 DeepONet 架构中,可以构建更强大的深度算子网络,用于解决更复杂的科学机器学习问题。
  • 9. 基于 Chebyshev 多项式的可微贝叶斯 PIKAN (B-cPIKAN):

  • 将 Chebyshev-KAN 与贝叶斯框架结合,可以构建可微贝叶斯 PIKAN,用于解决具有不确定性数据的问题。
  • 10. 基于 Chebyshev 多项式的递归 PIKAN (cPIKAN®):

  • 使用 Chebyshev 多项式的递归表示,可以解决 Chebyshev-KAN 训练过程中可能出现的数值不稳定问题。P12
  • 11. 基于 Chebyshev 多项式的改进 PIKAN (cPIKAN(θ)):

  • 将 Chebyshev-KAN 层与双曲正切函数组合,可以进一步提高训练稳定性。
  • 12. 基于 KAN 的并行 PINN:

  • 将 KAN 应用于并行 PINN 架构中,可以进一步提高解决大规模 PDE 的效率。
  • 13. 基于 KAN 的时变 PDE 解决方案:

  • 将 KAN 应用于时变 PDE 的解决方案,可以扩展 KAN 的应用范围。
  •  以下列举部分参考文献中提到的 KAN 变体和创新,并标注序号:

  • [11]: 介绍了 KAN 的概念、架构和原理,并与其他神经网络进行了比较。该论文是 KAN 的开山之作。

  • [23]: 提出了一种基于 RBF 的 KAN 变体,它可以加速训练并提高精度。

  • [24]: 提出了一种基于 Wavelet 的 KAN 变体,它可以更好地平衡准确性和泛化性,并避免过拟合。

  • [26]: 提出了一种基于 Chebyshev 多项式的 KAN 变体,它可以提高精度并降低计算成本。

  • [27]: 进一步研究了基于 Chebyshev 多项式的 KAN 变体,并提出了更高效的架构。

  • [30]: 将 Chebyshev-KAN 应用于 DeepONet 架构中,构建了 DeepOKAN,一种更强大的深度算子网络。

  • [34]: 将 KAN 的思想应用于算子学习,并提出了 DeepONet,一种基于算子逼近定理的深度算子网络。

  • [35]: 探讨了不同类型的采样方法对 PINN 的影响,并提出了基于残差的自适应采样方法。

  • [36]: 分析了 PINN 的学习过程,并提出了信息瓶颈理论来解释 KAN 的优势。

  • [42]: 讨论了科学机器学习中的不确定性量化方法,并比较了 PINN 和 PIKAN 在解决不确定性问题上的表现。

  • [43]: 综述了 PINN 在流体力学中的应用,并讨论了 PINN 的优势和局限性。

  • [49]: 展示了 PINN 在解决生物医学问题上的潜力,并讨论了 PINN 与符号回归的结合。

  • [53]: 展示了 PINN 在解决无损检测问题上的潜力,并讨论了 PINN 的优势和局限性。

  • [56]: 对比了两种神经网络算子,并提出了改进方法。

  • [57]: 使用神经网络算子来解决大规模散射问题。

  • [58]: 将深度神经网络算子应用于形状优化问题。

  • [62]: 介绍了 Awesome-KAN 项目,收集了各种 KAN 变体。

  • [64]: 介绍了 Awesome-KAN 项目的一个分支,专注于正交多项式 KAN。

1. Chebyshev 第一类多项式 (Chebyshev of the first kind):

递归定义:

T_0(x) = 1

T_1(x) = x

T_n(x) = 2xT_{n-1}(x) - T_{n-2}(x) (n ≥ 2)

T_n(x) = cos(narccos(x))

2. Chebyshev 第二类多项式 (Chebyshev of the second kind):

U_0(x) = 0

U_1(x) = x

U_n(x) = 2xU_{n-1}(x) - U_{n-2}(x) (n ≥ 2)

U_n(x) = sin(narccos(x)) / sin(nπ)

请注意:

  • 另一种表示方式:
  • 递归定义:
  • 另一种表示方式:
  • 这里的 x 都是在 [-1, 1] 区间内的值。

  • 使用递归定义计算多项式可能效率较低,建议使用数值计算库 (如 NumPy) 中的 Chebyshev 多项式函数。

期刊

为了查询特定期刊的分区,您可以使用以下三个平台:

  1. 中国科学院文献情报中心期刊分区表:这个平台对SCIE、SSCI和A&HCI全部期刊进行分区,并提供大、小类两种学科分类体系的分区数据。个人用户可以通过关注其官方微信公众号免费查询期刊分区。请注意,从2025年开始,期刊分区表的发布时间改为年初3。

  2. 科研通:这个平台收录了超过40,000条期刊信息,包括期刊排名、ISSN号、最新及历年影响因子、主题、学科分区(包括中科院分区)等。您可以通过期刊名称关键字或ISSN号进行查询1。

  3. 爱科学网:这个网站提供了SCI期刊的分类导航,可以查询期刊的影响因子(IF)、JCR分区以及中科院分区。它涵盖了多个学科领域,方便用户根据需要查询2。

您可以根据期刊的名称或ISSN号在这些平台上进行查询。由于我无法直接访问这些数据库,因此无法为您提供具体的期刊分区信息。您需要亲自在这些平台上进行查询以获取所需信息。

 我刚刚的回复有误。根据最新的中科院分区表(2023年12月发布),《Computer Methods in Applied Mechanics and Engineering》(简称CMAME)位于工程领域的中科院分区表Q1区,属于中科院TOP期刊。此外,该期刊在JCR分区中也被列为Q1区期刊。
如果您想了解更多关于该期刊的信息,可以访问Web of Science、Elsevier官网或其他相关学术数据库进行查询。

引用

是的,《Computer Methods in Applied Mechanics and Engineering》是一本SCI(Science Citation Index)收录的期刊。

切比雪夫と爱因斯坦の约定

用户_uBiEPA

def forward(self, x): x = torch.reshape(x, (-1, self.inputdim)) # shape = (batch_size, inputdim) # Since Chebyshev polynomial is defined in [-1, 1] # We need to normalize x to [-1, 1] using tanh x = torch.tanh(x) # Initialize Chebyshev polynomial tensors cheby = torch.ones(x.shape[0], self.inputdim, self.degree + 1, device=x.device) if self.degree > 0: cheby[:, :, 1] = x for i in range(2, self.degree + 1): cheby[:, :, i] = 2 * x * cheby[:, :, i - 1].clone() - cheby[:, :, i - 2].clone() # Compute the Chebyshev interpolation y = torch.einsum('bid,iod->bo', cheby, self.cheby_coeffs) # shape = (batch_size, outdim) y = y.view(-1, self.outdim) return y 详细解释这里torch.einsum('bid,iod->bo', cheby, self.cheby_coeffs) 是什么意思

ChatGLM

torch.einsum 是 PyTorch 中的一个函数,用于计算爱因斯坦求和约定(Einstein summation convention)的运算。这个函数允许用户通过字符串表达式来指定多维数组(张量)之间的元素如何相乘和求和。

表达式 'bid,iod->bo' 是爱因斯坦求和约定的字符串表示,其中:

  • 'bid' 和 'iod' 分别代表输入张量 cheby 和 self.cheby_coeffs 的维度标签。
  • 'bo' 是输出张量的维度标签。

让我们分解这个表达式:

  • 'bid' 表示 cheby 张量的维度,其中 b 是批处理大小(batch size),i 是输入维度(input dimension),d 是多项式的度数(degree of the polynomial)。
  • 'iod' 表示 self.cheby_coeffs 张量的维度,其中 i 是输入维度(input dimension,与 cheby 中的 i 对应),o 是输出维度(output dimension),d 是多项式的度数(degree of the polynomial,与 cheby 中的 d 对应)。

'bid,iod->bo' 的含义是:

  • 将 cheby 和 self.cheby_coeffs 的对应维度相乘。这里,i 和 d 维度在两个张量中都是对应的,所以它们会被相乘。
  • 对所有不包含在输出标签 'bo' 中的维度进行求和。在这个例子中,i 和 d 维度都会被求和。

具体步骤如下:

  1. 对于每个批处理元素 b 和每个输出维度 ocheby 的 i 维度(输入维度)和 self.cheby_coeffs 的 i 维度(输入维度)将被对应元素相乘。
  2. 然后,对于每个批处理元素 b 和每个输出维度 o,将所有 d 维度的元素相加。

最终结果是每个批处理元素 b 和每个输出维度 o 的一个标量值,这些值组成了形状为 (batch_size, outdim) 的输出张量 y

在代码中,cheby 是一个形状为 (batch_size, inputdim, degree + 1) 的张量,而 self.cheby_coeffs 是一个形状为 (inputdim, outdim, degree + 1) 的张量。通过 torch.einsum 的计算,我们得到了一个形状为 (batch_size, outdim) 的张量 y

用户_uBiEPA

表达式 `'bid,iod->bo'` 是爱因斯坦求和约定的字符串表示,其中: * `'bid'` 和 `'iod'` 分别代表输入张量 `cheby` 和 `self.cheby_coeffs` 的维度标签。 * `'bo'` 是输出张量的维度标签。

维度标签的含义

在处理多维数组(在PyTorch中称为张量)时,每个维度都有一个特定的意义。维度标签就是用来指代这些维度的简写。下面是对 'bid' 和 'iod' 中每个字母的解释:

  • 'b':通常代表“batch”,即批处理大小。在机器学习中,我们经常同时处理多个数据点,这些数据点集合在一起形成一个批次。
  • 'i':通常代表“input”,即输入维度。比如,如果你有一个特征向量,每个特征可能是一个维度。
  • 'o':通常代表“output”,即输出维度。在神经网络中,这通常是你想要预测的值的维度。
  • 'd':在这里,它可能代表“degree”,即多项式的度数。在计算Chebyshev多项式时,每个多项式都有一个特定的度数。

所以,当我们说 'bid'

  • 'b' 表示批处理维度。
  • 'i' 表示输入维度。
  • 'd' 表示多项式的度数。

同理,当我们说 'iod'

  • 'i' 表示输入维度。
  • 'o' 表示输出维度。
  • 'd' 表示多项式的度数。

爱因斯坦求和约定

爱因斯坦求和约定是一种在数学和物理中用来简化对多维数组(张量)操作的符号表示方法。它的基本思想是,在一个表达式中,如果某个维度索引在两个张量中都出现了,那么就对这个维度进行遍历并求和。

例如,如果你有两个张量 A 和 B,它们的维度分别是 (a, b) 和 (b, c),那么表达式 'ab,bc->ac' 的含义是:

  • 对 A 的 b 维度和 B 的 b 维度进行元素相乘。
  • 然后对这些乘积求和,因为 b 维度在输出张量中不再出现。
  • 结果是一个维度为 (a, c) 的张量。

在表达式 'bid,iod->bo' 中:

  • 'bid' 和 'iod' 表示两个输入张量的维度。
  • 'bo' 表示输出张量的维度。
  • 爱因斯坦求和约定指示我们对每个批处理 'b' 和每个输出 'o',对 'i' 和 'd' 维度进行遍历和求和。

所以,这个表达式告诉 PyTorch:

  • 对于每个批处理元素(‘b’),对每个输出维度(‘o’),将 cheby 的 ‘i’ 维度(输入维度)和 self.cheby_coeffs 的 ‘i’ 维度(输入维度)对应元素相乘,然后将所有 ‘d’ 维度的元素相加。

希望这些解释能帮助你理解维度标签和爱因斯坦求和约定的基本概念。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/31293.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

DETR详解

1.概述 DETR,全称为Detection Transformer,是Facebook在ECCV2020上提出的基于Transformer的端到端目标检测网络最大的特点就是:不需要预定义的先验anchor,也不需要NMS的后处理策略,就可以实现端到端的目标检测。但是&…

南昌长空STONE 60A-M 无人机电调深度测评:轻量化设计与工业级安全的融合典范

引言 在无人机技术不断革新的今天,电调作为动力系统的核心组件,其性能直接影响飞行稳定性与操控体验。STONE 系列凭借 “轻量化设计” 理念,在竞争激烈的市场中独树一帜。本文将深度解析 STONE 60A-M 电调的技术亮点与实际表现,探…

初阶数据结构(C语言实现)——4.2队列

目录 2.队列2.1队列的概念及结构2.2队列的实现2.2.1 初始化队列2.2.2 销毁队列2.2.3 队尾入队列2.2.4 队头出队列2.2.5获取队列头部元素2.2.6 获取队列队尾元素2.2.7获取队列中有效元素个数2.2.8 检测队列是否为空,如果为空返回非零结果,如果非空返回0 3…

C++和OpenGL实现3D游戏编程【连载24】——父物体和子物体之间的坐标转换

欢迎来到zhooyu的C++和OpenGL游戏专栏,专栏连载的所有精彩内容目录详见下边链接: 🔥C++和OpenGL实现3D游戏编程【总览】 父子物体的坐标转换 1、本节要实现的内容 前面章节我们了解了父物体与子物体的结构,它不仅能够表示物体之间的层次关系,更重要的一个作用就是展示物…

怎么实现: 大语言模型微调案例

怎么实现: 大语言模型微调案例 目录 怎么实现: 大语言模型微调案例输入一个反常识的问题:首都在北京天安门之后对输出模型进行测试:首都在北京天安门微调代码:测试微调模型代码:微调输出模型结构输出模型参数大小对比Qwen 2.5_0.5:53MB输出模型:951MB 是一样的,没有进行…

知乎后台管理系统:数据库系统原理实验1——数据库基础概念

实验背景 通过练习绘制语义网络,加深对于基本概念之间关系的理解和掌握。掌握在VISIO中绘制能准确表达基本概念之间关系的语义网络的技能。了解并比较数据模型的Chen’s表示法和UML表示法。理解关系模型设计中的完整性约束的重要性。掌握在Linux操作系统下远程访问…

超过 37000 台 VMwareESXi 服务器可能受到持续攻击威胁

近日,威胁监测平台影子服务器基金会(The Shadowserver Foundation)发布报告,指出超 3.7 万个互联网暴露的威睿(VMware)ESXi 实例存在严重安全隐患,极易受到 CVE-2025-22224 漏洞的攻击。该漏洞属…

Linux《基础开发工具(中)》

在之前的Linux《基础开发工具(上)》当中已经了解了Linux当中到的两大基础的开发工具yum与vim;了解了在Linux当中如何进行软件的下载以及实现的基本原理、知道了编辑器vim的基本使用方式,那么接下来在本篇当中将接下去继续来了解另…

Vue3 Pinia 符合直觉的Vue.js状态管理库

Pinia 符合直觉的Vue.js状态管理库 什么时候使用Pinia 当两个关系非常远的组件,要传递参数时使用Pinia组件的公共参数使用Pinia

知识库Dify和cherry无法解析影印pdf word解决方案

近期收到大量读者反馈:上传pdf/图文PDF到Dify、Cherry Studio等知识库时,普遍存在格式错乱、图片丢失、表格失效三大痛点。 在试用的几款知识库中除了ragflow具备图片解析的能力外,其他的都只能解析文本。 如果想要解析扫描件&#xff0c…

Webservice创建

Webservice创建 服务端创建 3层架构 service注解(commom模块) serviceimpl(server) 服务端拦截器的编写 客户端拦截器 客户端调用服务端(CXF代理) 客户端调用服务端(动态模式调用&a…

腾讯云低代码开发应用

创建客户端应用 如上所示,登录腾讯云微搭低代码业务控制台,开始搭建企业官网应用 如上所示,在腾讯云微搭低代码业务控制台中,开始创建企业官网应用 如上所示,在腾讯云微搭低代码业务控制台中,开始编辑企业官…

【Java开发指南 | 第三十四篇】IDEA没有Java Enterprise——解决方法

读者可订阅专栏:Java开发指南 |【CSDN秋说】 文章目录 1、新建Java项目2、单击项目名,并连续按两次shift键3、在搜索栏搜索"添加框架支持"4、勾选Web应用程序5、最终界面6、添加Tomcat 1、新建Java项目 2、单击项目名,并连续按两次…

深度学习原理与Pytorch实战

深度学习原理与Pytorch实战 第2版 强化学习人工智能神经网络书籍 python动手学深度学习框架书 TransformerBERT图神经网络: 技术讲解 编辑推荐 1.基于PyTorch新版本,涵盖深度学习基础知识和前沿技术,由浅入深,通俗易懂&#xf…

uniapp项目运行失败Error: getaddrinfo *.bspapp.com 文件查找失败uview-ui及推荐MarkDown软件 Typora

一、uniapp项目运行失败Error: getaddrinfo *.bspapp.com 文件查找失败uview-ui 在运行一个uniapp项目时,出现报错 文件查找失败:uview-ui,Error: getaddrinfo ENOTFOUND 960c0a.bspapp.com。hostname异常,报错的详细信息如下&…

什么是vue的keep-alive?它是如何实现的?具体缓存了什么内容?

文章目录 一、keep-alive 的核心作用二、实现原理1. 缓存管理策略2. 核心源码解析(Vue 2.x 简化版)3. 缓存生命周期 三、缓存的具体内容1. 缓存对象结构2. 具体缓存内容 四、使用示例1. 基础用法2. 配置缓存策略 五、注意事项六、实现流程图解 Vue 的 k…

pytest基础知识

pytest知识了解 pytest的基础知识了解:Python测试框架之pytest详解_lovedingd的博客-CSDN博客_pytest框架 (包含设置断点,pdb,获取最慢的10个用例的执行耗时) pytest-pytest.main()运行测试用例,pytest参数: pytest-…

Liunx(CentOS-6-x86_64)使用Nginx部署Vue项目

一:编译vue项目和上传到linux系统 通过本地编译器编译后的文件 上传服务器后的 二:安装 node(版本 v16.20.2)和npm( 8.19.4或 9.6.5) 备注一:安装nodejs就是安装node和npm, su…

分布式锁—Redisson的同步器组件

1.Redisson的分布式锁简单总结 Redisson分布式锁包括:可重入锁、公平锁、联锁、红锁、读写锁。 (1)可重入锁RedissonLock 非公平锁,最基础的分布式锁,最常用的锁。 (2)公平锁RedissonFairLock 各个客户端尝试获取锁时会排队,按照队…

2025年渗透测试面试题总结-字某某动-安全研究实习生(一面)(题目+回答)

网络安全领域各种资源,学习文档,以及工具分享、前沿信息分享、POC、EXP分享。不定期分享各种好玩的项目及好用的工具,欢迎关注。 目录 字某某动-安全研究实习生(一面) 一、岗位认知与方向选择 1. 对公司业务的理解 …