cahtgpt算法压力测试(丁真版,更新gpt4(暴风哭泣了已经))

更新

补充了gpt-4版本的答案,只能说牛逼,我收回之前的替代不了高级科研工作者的结论,话不多说上答案:
在这里插入图片描述

在这里插入图片描述
可以看到这里已经吊打got3.5了,它能把这个问题解释的很清楚了
那么关于GPF算法和varimax的关系呢
在这里插入图片描述
可以看到gpt3.5根本串不起来,但gpt4可以
在这里插入图片描述
它能改自己代码的错
并且它给出了基于scipy的一个算法,注意rpca的算法python实现大多来自github仓库这个我从来没见过:
在这里插入图片描述

import numpy as np
from scipy.optimize import minimizedef varimax_rotation(components, gamma=1.0, tol=1e-6):n, m = components.shapedef varimax_objective_function(orthogonal_matrix_flat):orthogonal_matrix = orthogonal_matrix_flat.reshape(m, m)rotated_components = components @ orthogonal_matrixvarimax_criterion = (rotated_components ** 2).sum(axis=0) - gamma / n * (rotated_components ** 4).sum(axis=0)return -varimax_criterion.sum()def orthogonality_constraint(orthogonal_matrix_flat):orthogonal_matrix = orthogonal_matrix_flat.reshape(m, m)return np.linalg.norm(orthogonal_matrix.T @ orthogonal_matrix - np.eye(m), ord='fro')initial_guess = np.eye(m).flatten()result = minimize(varimax_objective_function,initial_guess,constraints={'type': 'eq', 'fun': orthogonality_constraint},tol=tol)if not result.success:print("Warning: Varimax rotation did not converge within the specified tolerance")rotation_matrix = result.x.reshape(m, m)return components @ rotation_matrix

有点牛皮啊
接下来我让他用公式解释代码原理:
U ∈ R p × k U \in \mathbb{R}^{p \times k} URp×k为旋转前的矩阵, Z = U T ∈ R p × k Z = U T \in \mathbb{R}^{p \times k} Z=UTRp×k为旋转后的矩阵,其中 T ∈ R k × k T \in \mathbb{R}^{k \times k} TRk×k为正交旋转矩阵。Varimax旋转的目标是最大化以下目标函数
在这里插入图片描述
注意这个就很吊了
我们对比一下GPA论文中的算法看看它是不是在胡编乱造:
在这里插入图片描述
这个用矩阵符号表示的
在这里插入图片描述

看它继续解释
在这里插入图片描述
实际上就是计算了梯度 ∂ V ∂ T \frac{\partial V}{\partial T} TV。在这个梯度的基础上,通过奇异值分解(SVD)计算新的旋转矩阵,进而优化目标函数

测试流程

这里我们看看气象统计中的经典算法-REOF/RPCA算法,用chatgpt(3.5)当老师看看会怎么样

首先我们让他解释rpca算法流程,它讲的很清楚,实际上就是旋转基得到新基
在这里插入图片描述
进一步解释varimax旋转即刚性旋转算法,讲的挺清楚哈
在这里插入图片描述
在这里插入图片描述
接下来我们让它用python实现代码:
到这里我都不怎么惊讶因为这个代码是wiki里直接抄过来的,相当于复制粘贴
在这里插入图片描述

import numpy as np
from scipy import linalgdef varimax(Phi, gamma=1.0, q=20, tol=1e-6):"""Varimax rotation of factor loadings matrix."""p, k = Phi.shape # p是变量数,k是因子数R = np.eye(k)d = 0for i in range(q): # 迭代q次,直到收敛或达到最大迭代次数Phi1 = np.dot(Phi, R)tmp = np.diag(np.sum(Phi1 ** 2, axis=0)) / pU, S, V = linalg.svd(np.dot(Phi1, Phi1.T) - gamma * tmp)R = np.dot(U, V)d1 = np.sum(S)if d1 < d * (1 + tol):breakd = d1return np.dot(Phi, R)

接下来它给了逐行说明,这里解释的很清楚了,鄙人曾经在气象家园的帖子里详解了reof算法,基本上跟它这个差不多,到这里虽然觉得有点厉害但仍在我理解范围内

在这里插入图片描述
在这里插入图片描述
好家伙–注意到这里我就有些觉得恐怖了,它居然指出了算法中核心步骤:
在这里插入图片描述
也就是为什么要奇异值分解这步,接下来我将进行诱导提问,看看他能不能讲清楚,如果能完全讲清楚,那么学校就可以完全删除统计学这门课了,因为到这里基本上是个数学不太差的工科大学牲应该都能理解

开始压力测试:
在这里插入图片描述
你搁着搁着呢?
继续诱导提问,很显然它的总结并没有涉及到问题的本质,所以我们明确的给它提出来,诱导它
在这里插入图片描述
在这里插入图片描述

注意这是解释手段而非从设计算法的角度来解释,这里有天差地别,如果不诱导提问它是不会自己回答出来的,但到这里其实已经很离谱了,完全可以替代本科的课程了,因为它解释的很清楚了对于应用工科来说,这些完全够了

继续压力测试

我们剑指向核心
在这里插入图片描述
好家伙,干断线了,这个问题的输出极慢,我们继续搞它
实际上到这里它已经妈妈生的了
在这里插入图片描述

看看它到底能不能讲清楚

到这里它已经解释到了这是个最优化问题

但又妈妈生的了

那么换一种思路可以先让他了解一下啊GPA梯度投影算法

在这里插入图片描述
诱导它从最优化和梯度等关键词的角度来解释

它的回答:

在非负矩阵分解(NMF)问题中,我们希望将一个非负矩阵分解成两个非负矩阵的乘积,即 X = W H X=WH X=WH,其中 X X X是原始矩阵, W W W H H H是非负矩阵。我们通常使用最小化误差的方法来求解这个问题,即:

min ⁡ W , H ∣ ∣ X − W H ∣ ∣ F 2 \min_{W,H}||X-WH||^2_F minW,H∣∣XWHF2

其中, ∣ ∣ ⋅ ∣ ∣ F ||\cdot||_F ∣∣F表示矩阵的Frobenius范数, W W W H H H都是非负矩阵。

从最优化问题的角度来看,上述问题等价于:

min ⁡ W , H 1 2 ∣ ∣ X − W H ∣ ∣ F 2 \min_{W,H}\frac{1}{2}||X-WH||^2_F minW,H21∣∣XWHF2

s . t . W , H ≥ 0 s.t.\ W,H\geq 0 s.t. W,H0

其中, s . t . s.t. s.t.表示满足约束条件, W , H ≥ 0 W,H\geq 0 W,H0表示 W W W H H H都是非负矩阵。

为了求解上述问题,我们可以使用梯度下降法来更新矩阵 W W W H H H,具体来说,我们需要计算误差矩阵 E = X − W H E=X-WH E=XWH和梯度矩阵 G = W E H T G=WEH^T G=WEHT,然后根据学习率和梯度矩阵来更新矩阵 W W W H H H

然而,在实际应用中,直接使用梯度下降法可能会导致分解结果不满足非负性约束,因此我们需要进行一些特殊的处理。其中,计算 Φ 1 Φ 1 T − γ ⋅ tmp \Phi_1\Phi_1^T-\gamma \cdot \text{tmp} Φ1Φ1Tγtmp这一步的作用就是为了确保分解结果满足非负性约束。

具体来说,我们首先通过将 W W W H H H中所有小于零的元素置为零来保证非负性约束。然后,我们可以发现,将 W W W H H H中所有小于零的元素置为零相当于将矩阵 W W W H H H投影到非负空间中,即 W = Proj ( W ) , H = Proj ( H ) W=\text{Proj}(W),H=\text{Proj}(H) W=Proj(W),H=Proj(H)。因此,我们可以将梯度矩阵 G G G投影到切空间中,然后再将其投影到非负空间中,得到一个新的梯度矩阵 G ′ = Proj W , H ( G ) G'=\text{Proj}{W,H}(G) G=ProjW,H(G),其中 Proj W , H ( ⋅ ) \text{Proj}{W,H}(\cdot) ProjW,H()表示将矩阵投影到 W W W H H H的切空间中,然后再投影到非负空间中。接着,我们可以根据学习率和新的梯度矩阵 G ′ G' G来更新矩阵 W W W H H H。而计算$\Phi_1\Phi_1^T-\gamma \cdot

好家伙又断线了

让他继续解释

…然后,我们可以发现,将矩阵 W W W H H H中所有小于零的元素置为零相当于将矩阵 W W W H H H投影到非负空间中,即 W = Proj ( W ) , H = Proj ( H ) W=\text{Proj}(W),H=\text{Proj}(H) W=Proj(W),H=Proj(H)。因此,我们可以将梯度矩阵 G G G投影到切空间中,然后再将其投影到非负空间中,得到一个新的梯度矩阵 G ′ = Proj W , H ( G ) G'=\text{Proj}{W,H}(G) G=ProjW,H(G),其中 Proj W , H ( ⋅ ) \text{Proj}{W,H}(\cdot) ProjW,H()表示将矩阵投影到 W W W H H H的切空间中,然后再投影到非负空间中。接着,我们可以根据学习率和新的梯度矩阵 G ′ G' G来更新矩阵 W W W H H H

为了实现投影操作,我们可以使用旋转矩阵 Ω \Omega Ω,即:

W ′ = W Ω , H ′ = H Ω W'=W\Omega,H'=H\Omega W=WΩ,H=HΩ

其中, Ω \Omega Ω是一个刚性旋转矩阵,它可以将矩阵 W W W H H H投影到非负空间中。

我们希望找到一个最优的旋转矩阵 Ω \Omega Ω,使得投影后的矩阵 W ′ W' W H ′ H' H能够最小化误差矩阵 E ′ = X − W ′ H ′ T E'=X-W'H'^T E=XWHT。因此,我们可以将上述目标函数转化为:

min ⁡ Ω 1 2 ∣ ∣ X − W Ω H T Ω T ∣ ∣ F 2 \min_{\Omega}\frac{1}{2}||X-W\Omega H^T\Omega^T||^2_F minΩ21∣∣XWΩHTΩTF2

s . t . Ω ∈ O ( k ) s.t.\ \Omega\in O(k) s.t. ΩO(k)

其中, O ( k ) O(k) O(k)表示大小为 k k k的正交矩阵集合,即 O ( k ) = Ω ∈ R k × k ∣ Ω T Ω = I k O(k)={\Omega\in\mathbb{R}^{k\times k}|\Omega^T\Omega=I_k} O(k)=ΩRk×kΩTΩ=Ik I k I_k Ik表示大小为 k k k的单位矩阵。

将上述目标函数展开可得:

1 2 ∣ ∣ X − W Ω H T Ω T ∣ ∣ F 2 \frac{1}{2}||X-W\Omega H^T\Omega^T||^2_F 21∣∣XWΩHTΩTF2

= 1 2 ∣ ∣ X − W H T − vec ( W ) vec ( H T ) T vec ( Ω ) vec ( Ω ) T ∣ ∣ F 2 =\frac{1}{2}||X-WH^T-\text{vec}(W)\text{vec}(H^T)^T\text{vec}(\Omega)\text{vec}(\Omega)^T||^2_F =21∣∣XWHTvec(W)vec(HT)Tvec(Ω)vec(Ω)TF2

其中, vec ( A ) \text{vec}(A) vec(A)表示将矩阵 A A A展开成一列向量。

P = vec ( W ) vec ( H T ) T P=\text{vec}(W)\text{vec}(H^T)^T P=vec(W)vec(HT)T Q = vec ( Ω ) vec ( Ω ) T Q=\text{vec}(\Omega)\text{vec}(\Omega)^T Q=vec(Ω)vec(Ω)T,则上述目标函数可以进一步化简为:

1 2 ∣ ∣ X − W H T − P Q ∣ ∣ F 2 \frac{1}{2}||X-WH^T-PQ||^2_F 21∣∣XWHTPQF2

s . t . Q ∈ O ( k ) s.t.\ Q\in O(k) s.t. QO(k)

其中, Q ∈ O ( k ) Q\in O(k) QO(k)表示 Q Q Q是一个大小为 k k k的正交矩阵。

我们可以使用旋转矩阵的奇异值分解(SVD)来

又妈妈生的了,来继续

我们可以使用旋转矩阵的奇异值分解(SVD)来求解上述问题。具体地,我们将矩阵 P H T PH^T PHT做SVD分解,即:

P H T = U S V T PH^T=USV^T PHT=USVT

其中, U U U V V V是正交矩阵, S S S是大小为 r × r r\times r r×r的对角矩阵,其中 r r r是矩阵 P H T PH^T PHT的秩。注意,我们这里使用了 P H T PH^T PHT的SVD分解,而不是 P P P H H H各自的SVD分解。这是因为我们要优化的是 W W W H H H的乘积 W H T WH^T WHT,而不是它们各自的矩阵分解。

接着,我们可以将旋转矩阵 Ω \Omega Ω表示为 V U T VU^T VUT,即:

Ω = V U T \Omega=VU^T Ω=VUT

则我们的目标函数可以进一步化简为:

1 2 ∣ ∣ X − W H T − P V U T U V S T ∣ ∣ F 2 \frac{1}{2}||X-WH^T-PVU^TUVS^T||^2_F 21∣∣XWHTPVUTUVSTF2

= 1 2 ∣ ∣ X − W H T − P U V S T ∣ ∣ F 2 =\frac{1}{2}||X-WH^T-PUVS^T||^2_F =21∣∣XWHTPUVSTF2

s . t . U , V ∈ O ( k ) s.t.\ U,V\in O(k) s.t. U,VO(k)

其中, U , V ∈ O ( k ) U,V\in O(k) U,VO(k)表示 U U U V V V是大小为 k k k的正交矩阵。

将上述目标函数展开,我们可以得到:

1 2 tr ( X T X ) − tr ( X T W H T ) − tr ( H W P T ) − 1 2 tr ( S T U T V T P T P U T V S ) \frac{1}{2}\text{tr}(X^TX)-\text{tr}(X^TWH^T)-\text{tr}(HWP^T)-\frac{1}{2}\text{tr}(S^TU^TV^TP^TPU^TVS) 21tr(XTX)tr(XTWHT)tr(HWPT)21tr(STUTVTPTPUTVS)

注意到 tr ( H W P T ) \text{tr}(HWP^T) tr(HWPT) tr ( S T U T V T P T P U T V S ) \text{tr}(S^TU^TV^TP^TPU^TVS) tr(STUTVTPTPUTVS)不依赖于 Ω = V U T \Omega=VU^T Ω=VUT,因此我们可以将它们忽略,得到:

1 2 tr ( X T X ) − tr ( X T W H T ) \frac{1}{2}\text{tr}(X^TX)-\text{tr}(X^TWH^T) 21tr(XTX)tr(XTWHT)

s . t . U , V ∈ O ( k ) s.t.\ U,V\in O(k) s.t. U,VO(k)

接下来,我们可以使用梯度下降等优化算法来求解上述目标函数,从而得到最优的旋转矩阵 Ω \Omega Ω。具体地,我们可以在每次迭代中使用以下更新规则:

U ← U − η ∂ ∂ U tr ( X T W H T ) U\leftarrow U-\eta\frac{\partial}{\partial U}\text{tr}(X^TWH^T) UUηUtr(XTWHT)

V ← V − η ∂ ∂ V tr ( X T W H T ) V\leftarrow V-\eta\frac{\partial}{\partial V}\text{tr}(X^TWH^T) VVηVtr(XTWHT)

其中, η \eta η是学习率, ∂ ∂ U tr ( X T W H T ) \frac{\partial}{\partial U}\text{tr}(X^TWH^T) Utr(XTWHT) ∂ ∂ V tr ( X T W H T ) \frac{\partial}{\partial V}\text{tr}(X^TWH^T) Vtr(XTWHT)分别是目标函数对 U U U V V V的梯度。在每次迭代中,我们可以将 U U U V V V更新为它们的投影矩阵,以保证它们满足$U,V

同时是正交矩阵。

接下来,我们考虑如何计算目标函数对 U U U V V V的梯度。具体地,我们可以使用梯度投影算法(Gradient Projection Algorithm,GPA)来计算梯度。GPA是一种基于投影的优化算法,它可以将一个点投影到一个约束集上,从而得到在该约束集上的最优解。

在本问题中,我们的约束集是 U , V ∈ O ( k ) U,V\in O(k) U,VO(k),即 U U U V V V是大小为 k k k的正交矩阵。因此,我们需要将梯度投影到正交矩阵集合 O ( k ) O(k) O(k)上。

具体地,我们可以将 U U U V V V写成特征值分解的形式:

U = Q Λ U T U=Q\Lambda U^T U=QΛUT

V = Q Γ V T V=Q\Gamma V^T V=QΓVT

其中, Q Q Q是正交矩阵, Λ \Lambda Λ Γ \Gamma Γ是对角矩阵, U T U^T UT V T V^T VT U U U V V V的转置矩阵。

接着,我们可以计算目标函数对 U U U V V V的梯度,分别为:

∂ ∂ U tr ( X T W H T ) = − ( X W H T − X U U T X W H T ) \frac{\partial}{\partial U}\text{tr}(X^TWH^T)=-(XWH^T-XUU^TXWH^T) Utr(XTWHT)=(XWHTXUUTXWHT)

∂ ∂ V tr ( X T W H T ) = − ( X W H T − X V Γ Γ T V T X W H T ) \frac{\partial}{\partial V}\text{tr}(X^TWH^T)=-(XWH^T-XV\Gamma\Gamma^TV^TXWH^T) Vtr(XTWHT)=(XWHTXVΓΓTVTXWHT)

接下来,我们将梯度投影到正交矩阵集合 O ( k ) O(k) O(k)上,即求解以下最小化问题:

min ⁡ Q , Λ 1 2 ∣ ∣ Q Λ U T X W H T − X W H T U Λ T Q T ∣ ∣ F 2 \min_{Q,\Lambda}\frac{1}{2}||Q\Lambda U^TXWH^T-XWH^TU\Lambda^TQ^T||^2_F minQ,Λ21∣∣QΛUTXWHTXWHTUΛTQTF2

s . t . Q ∈ O ( k ) , Λ ∈ R k × k s.t.\ Q\in O(k),\Lambda\in\mathbb{R}^{k\times k} s.t. QO(k),ΛRk×k

这是一个典型的最小化问题,可以使用特征值分解等方法求解。具体地,我们可以将矩阵 U T X W H T U^TXWH^T UTXWHT做特征值分解,即:

U T X W H T = U D U T U^TXWH^T=UDU^T UTXWHT=UDUT

其中, D D D是对角矩阵, U U U是正交矩阵。然后,我们可以将 Q Q Q Λ \Lambda Λ分别设置为 U U U的前 k k k个特征向量和对应的特征值,即:

Q = U ( : , 1 : k ) Q=U(:,1:k) Q=U(:,1:k)

Λ = diag ( D 1 : k , 1 : k ) \Lambda=\text{diag}(D_{1:k,1:k}) Λ=diag(D1:k,1:k)

这样,我们就得到了最小化问题的最优解。最后,我们可以将 U U U V V V分别更新为 Q U T QU^T QUT Q Γ V T Q\Gamma V^T QΓVT,即:

U ← Q U T U\leftarrow QU^T UQUT

V ← Q Γ V T V\leftarrow Q\Gamma V^T VQΓVT

这样,我们就得到了更新后的 U U U V V V,从而得到了更新后的旋转矩阵$\Omega=VU

它终于bb完了,下来就是关键时刻,看看它能不能串起来

在这里插入图片描述
好吧它开始胡言乱语了
开始胡给代码了
在一次迭代中,梯度的方向并不一定是旋转矩阵。假设我们在当前迭代中希望找到一个旋转矩阵 R R R,使得目标函数 Q Q Q 最小化。在某个旋转矩阵 R 0 R_0 R0 的位置,我们可以计算出目标函数 Q Q Q R 0 R_0 R0 处的梯度 G G G,并沿着梯度的反方向移动一定距离 α \alpha α,得到新的旋转矩阵 R 1 = R 0 − α G R_1 = R_0 - \alpha G R1=R0αG。这里梯度 G G G 的方向不一定是旋转矩阵的方向,因为梯度方向只是指向最小值方向的一个向量,而旋转矩阵是由一系列矩阵乘法组成的,不一定与梯度方向一致。

在Varimax算法中,我们通过迭代多次梯度下降来逐步优化目标函数,并逐步逼近最优解。每次迭代都可以得到一个新的旋转矩阵,而这个矩阵是由上一次迭代的旋转矩阵和当前梯度方向共同作用得到的。因此,旋转矩阵的方向并不完全由梯度方向决定,而是由多次迭代的结果共同作用得到的。

到这里我们已经大概理解了整个算法步骤

但gpt显然不能把它串起来

因为维基上没有python的实现所以我们换成r试试

在这里插入图片描述

总结

干掉本科老师问题不大,但很显然它不能完全讲明白,即使在诱导提问的情况下,并且有很多错

所以可以暂时放下心,它应该替代不了高级的科研工作者

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/24059.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

连音乐都可以创作!Google AI部门推出交互式体验

机器学习也能应用在音乐上吗&#xff1f;Google AI部门的Magenta研究项目PAIR计划团队打造出第一个由AI驱动的Doodle服务&#xff0c;Doodle为一项交互式体验&#xff0c;让用户自行创造一段旋律&#xff0c;按下和声演奏&#xff08;Harmonized&#xff09;的按钮后&#xff0…

现在程序员的工资是不是被高估了?

图片来源&#xff1a;AIGC 文章来源&#xff1a;www.zhihu.com/question/295009798 韩冬 不是程序员的工资被高估了。而是在中国&#xff0c;IT行业是少有的劳动者议价能力强&#xff0c;能够比较公平的和资方分配公司收入的行业。 最近三十年我国经济突飞猛进&#xff0c;GDP从…

im即时通讯开发/聊天软件系统/社交APP源码搭建/私有化部署聊天原生开发源码快速搭建

由IM技术专家打造的基于 Java 实现的即时通讯&#xff08;IM&#xff09;项目 我们提供私有化即时通讯解决方案&#xff0c;独立部署在您自己的服务器上、代码可以开源、支持二次开发、苹果端上线指导&#xff0c;源码出售&#xff0c;提供远程技术指导&#xff0c;全程指导服务…

微分销机制设计_免费快速搭建微信分销商城_OctShop源码

现在微信的流量以及用户基数的庞大&#xff0c;让很多企业或商家都想在微信里面分一杯羹。搭建一个微信分销商城是一个很明智的选择&#xff0c; 而一个比较完善的商城系统,它的设计与开发是庞大复杂的系统工程&#xff0c;比较耗时耗财。 如何快速免费搭建一个大型专业级的微信…

全新开源微商城源码带分销 支持多端+搭建部署教程

分享一个全新版开源微商城源码带分销功能&#xff0c;支持10终端合一&#xff0c;功能强大&#xff0c;含完整代码程序包和搭建部署教程。 系统特色功能一览&#xff1a; 1、一个后台管理所有设备端&#xff0c;支持&#xff1a;电脑H5手机微信ipad微信小程序支付宝小程序百度…

股票左侧交易策略

文章目录 1.散户炒股常见问题1.1.满仓、重仓操作1.2.一买就跌一卖就涨-反复被洗1.3.追高被套1.4.持股数量过多1.5.过分迷恋技术分析1.6.不会逆向思考1.7.没有自己成型的操作策略 2.认识市场、认识主力、认识自己2.1.认识市场2.1.1.A股的本质是政策市 2.1.2.A股的本质是圈钱市2.…

外汇经典交易策略,最基本的趋势跟踪策略

在所有的经典交易策略中&#xff0c;趋势跟随策略可以说是非常主流的策略&#xff0c;趋势跟随策略一直是盈利能力非常强的交易的策略&#xff0c;往往可以出现较大盈利的策略一般都有趋势跟随的影子&#xff0c;毕竟交易的一条基本准则就是&#xff1a;顺势而为。下面我们介绍…

股票打板策略分析

股票打板策略分析 这里我们只分析一件事情&#xff0c;就是如何打板才能最大概率赚到钱&#xff0c;就是我们可以分析过去一天涨停今天还涨停、分析过去两天涨停今天涨的概率&#xff0c;一直到过去10天涨停今天涨的概率&#xff0c;其实很多人都喜欢打板&#xff0c;但是可能…

我的股票交易策略

投资股市已经成为我们进行资产配置的一个重要选择。在这个市场中主流的投资方式无外乎 价值投资 和 趋势投资 两种。价值投资需要了解各种财务指标来评价各支股票&#xff0c;在被市场低估时买入&#xff0c;在被市场高估时卖出。这对于非财务背景的人来说门槛偏高。趋势投资需…

【汇正财经】沪深创集体收涨

盘面回顾&#xff1a; 今日沪深创午盘均有反弹&#xff0c;收盘沪指涨0.54%&#xff0c;深成指涨0.02%&#xff0c;创业板指涨0.16%。中字头板块集中走强&#xff1b;午后银行板块领涨大金融&#xff0c;助力大盘V型反弹&#xff1b;ChatGPT、算力概念股午后跌幅收窄&#xff…

快讯|山东大学仿生两栖软体机器人; 男子用 ChatGPT 编假新闻赚流量牟利,被警方采取刑事强制措施

一分钟速览新闻点 男子用 ChatGPT 编假新闻赚流量牟利&#xff0c;被警方采取刑事强制措施山东大学仿生两栖软体机器人中国科研团队让机器人通过“看一看”“摸一摸”识别地形OpenAI 不再使用 API 客户数据训练 ChatGPT高通芯片被发现用于收集和传输用户信息&#xff0c;全球约…

巴比特 | 元宇宙每日必读:微软将于下周发布大语言模型GPT-4,多模态成为最大亮点,专家称可为大客户每天节省 500 个工时...

摘要&#xff1a;据德国新闻媒体 Heise 报道&#xff0c;微软德国公司首席技术官 Andreas Braun 在一场活动中宣布GPT-4 将在下周发布&#xff0c;拥有多模态&#xff08;multimodal&#xff09;模型将提供完全不同的可能性。多模态 AI不仅可以将文本相应地翻译成图像&#xff…

提高AI算力,异构优化也是关键

近期&#xff0c;劲爆亮相的ChatGPT着实让人们眼前一亮&#xff0c;让普罗大众也“亲密”体验了人工智能&#xff08;AI&#xff09;的神奇魔力&#xff0c;窥见了智能未来的璀璨前景之一斑。 然而&#xff0c;就在这离生活愈来愈近的AI让人们对未来充满无限憧憬、满怀激动的同…

朱啸虎:ChatGPT对创业公司很不友好,未来两三年内请大家放弃融资幻想

来源&#xff1a;i黑马 作者&#xff1a;朱啸虎 创业家&i黑⻢讯 3月19日&#xff0c;“2023黑马产业大会”在北京举行。本次大会主题为“产业新力量”&#xff0c;来自北京怀柔、四川绵阳、江苏南京、重庆、山东青岛、山东威海、广东佛山等7个产业城市和园区的政府代表&a…

ChatGPT —— Pycharm插件NexChatGPT ,好用好用

废话不多说直接教程吧 文件 -> 设置&#xff08;Settings&#xff09; -> 插件 应用后&#xff0c;右侧边栏会有使用的边框&#xff0c;部分功能如下&#xff1a; 还可以在框内提问&#xff0c;方便~&#xff1a;

解决:keeps stopping(停止运行)

今天在写Android的时候&#xff0c;本来要写一个关于线程的。正常应该是这样的&#xff1a; 可是&#xff0c;在敲完代码后&#xff0c;运行…… 对于这个问题&#xff0c;网上有很杂&#xff0c;最后不得不去问老师&#xff0c;最后&#xff0c;解决。步骤分享如下&#xff1a…

Linux 解决终端关闭后应用程序停止运行

使用screen命令&#xff0c;使用方法如下&#xff1a; 首先执行screen&#xff0c;按任意键进入界面内 在界面内执行程序&#xff0c;若是想在后台保持程序的运行&#xff0c;先按ctrla然后按d 此时便退回了主界面&#xff0c;此时便可以关闭终端 用screen –ls可以查看目前子界…

chatgpt赋能python:如何让Python停止运行

如何让Python停止运行 Python是一种高级编程语言&#xff0c;常用于开发Web应用、数据分析和机器学习等领域。然而&#xff0c;在编写Python代码时&#xff0c;我们难免会遇到程序无限循环、阻塞或出现错误等情况&#xff0c;导致程序无法正常结束。本文将介绍如何让Python停止…

chatgpt赋能python:Python中如何停止运行程序

Python中如何停止运行程序 Python 是一种功能丰富、灵活的编程语言&#xff0c;但有时候你需要停止运行你的程序&#xff0c;无论是因为出现了错误&#xff0c;或者因为完成了你想要的任务。在本文中&#xff0c;我们将介绍 Python 中停止运行程序的几种方法&#xff0c;以及对…

华为平板和手表?我全都要!2021最强ICT人答题挑战赛正式开始!

专属于新生代ICT人的夏末福利 「最强ICT人答题挑战赛」 2021排位赛来啦&#xff01; 朋友们&#xff0c;是时候展示真正的技术了&#xff01; ✨奖品丰厚&#xff0c;越早参与&#xff0c;赢的概率越高✨ 本次挑战赛共分为5个关卡&#xff0c;每个关卡都设置有不同的奖品&#…