本文将很短
先说结论吧:离能取代人工,还差很远啊。
目前就是个大号的GPT。
心得吧
cursor我用了很久了,大概几十年了。。。当然这不是真的。。。
记不清用了多久了,但给我的感觉是它进步不大。
特别是我昨天充了20$以后,更是觉得不值。一会再讨论这个问题。
我先来讲一下,如何用和学习这个东西。
其它不说了,只提一点,可能有些人没注意到的,
比如cursor虽然特性不多,但有两个框chat和compose,
我一直也不知道是什么,然后,突发奇想,在CHAT问就行了。
chat给解释得很清楚。
简单来说,chat就是一个chat;
而compose事实上,是把你的代码传到它那以后,它消化了一下。这是最大的区别。
一个动因是你自己,另一个动因,是它。这是完全不同的。
Trae是同样的。
就说这一点。这是以前我从来没有想到的:软件就不用写帮助了!这太有创意了。而且这个创意是天然的。
要吐槽的
太多了。
我们先来说本质原因吧。
我知道,我说这话有人会不高兴。
现在的AI是第二代AI,也就是基于transformer,本质上,是与人类的语言类似的。
你简单可以认为所谓的attention,像是地图上的交通枢纽,然后每次从一个位置到别一个位置。是这样一个算法。
事实上,这接近于人类的语言的模式。
但事实上,人类的大脑不是这么算的,人类的大脑,更加立体和超级并行,在许多个维度上,同时以抽象图形的方式在运算。
这个道理很简单:语言是用于交流用的,不是用于思考用的。
简单说几句吧。
理解哲学后,会发许许多事,是要以类比成相同或相似的思维模型,也就 哲学框架。
所以,大脑中有固化的快速的计算的模式,远远高于语言计算的速度,至少不需要像语言那样,每次都建场景,然后,基于这个场景布attention,然后选择一个路径描述出来。
大脑不是这样的啊。
因为这个不同,也就带来现在一切的问题。
就好比,怎么说呢,酒还没酿制好,就喝了,不对味。现在就是,不对味。
一个是没有什么记忆。但其实这也没什么,没有记忆,定期同步上下文就行了,但这个现在也没有实现。
见知乎:
https://zhuanlan.zhihu.com/p/18914704543
何导出和保存Cursor的聊天记录。使用SpecStory
就现在而言,chat没有记忆,但compose却很难清除记忆。
慢
太慢了。
一般如果我们整理代码,是需要先将之重构,厘清,但这个工作,目前cursor之流都做不了。
Trae好一些,但极慢。
其它
Trae目前要去外网才能用。这也是一个大问题。但这个以后可能会变吧。
感觉字节似乎并没有为这个项目提供多少资源。