每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/
过去两年里,人工智能技术呈现爆发式增长,大型语言模型(LLM)如ChatGPT、Dall-E和Midjourney已经成为日常工具。在读这篇文章的时候,生成式AI程序正在回复电子邮件、编写营销文案、录制歌曲,甚至根据简单的输入创建图像。
更令人惊讶的是,个人和企业接受AI生态系统的速度。根据麦肯锡的最新调查显示,至少在一个业务功能中采用生成式AI的公司数量在一年内翻了一番,从2023年初的33%增长到了65%。
然而,和大多数技术进步一样,这一新兴创新领域也面临着挑战。训练和运行AI程序是一个资源密集的过程,目前来看,大型科技公司似乎占据了上风,这就带来了AI集中化的风险。
AI发展的计算瓶颈
根据世界经济论坛的一篇文章,AI计算的需求正在加速增长;目前,维持AI开发所需的计算能力年增长率在26%到36%之间。
另一项由Epoch AI进行的研究证实了这一趋势,预测未来训练或运行AI程序的成本将达到数十亿美元。
Epoch AI的研究员Ben Cottier指出:“自2016年以来,最大规模的AI训练运行成本每年翻两到三倍,这意味着到2027年,甚至更早,可能会出现数十亿美元的价格标签。”
事实上,这一趋势已经显现。去年,微软向OpenAI投资了100亿美元,最近又有消息称两家公司计划建设一个数据中心,该中心将由数百万个专用芯片驱动的超级计算机支撑。其成本高达1000亿美元,是最初投资的十倍。
当然,微软并不是唯一一个在AI计算资源上大手笔投入的科技巨头。其他参与AI竞赛的公司如谷歌、Alphabet和英伟达也在AI研究和开发上投入了大量资金。
虽然巨额投资可能带来相应的成果,但不得不承认,当前AI开发似乎成了一场“大科技”游戏。只有这些财力雄厚的公司才有能力为AI项目投入数十亿甚至数百亿美元。
因此,一个问题不禁浮现:如何避免像Web2创新那样,因为少数公司控制创新而导致的问题?
斯坦福HAI副主任兼研究主任James Landay对此曾提出看法。他认为,随着大型科技公司优先使用其AI计算资源,GPU资源的争夺将推动开发更便宜的硬件解决方案。
在中国,由于与美国的芯片战争限制了中国公司获取关键芯片的能力,政府已经开始支持AI初创企业。今年早些时候,中国地方政府推出了补贴计划,承诺为AI初创企业提供14万到28万美元的计算券,以降低计算成本。
去中心化的AI计算成本
从目前的AI计算现状来看,有一个共同点——整个行业高度集中。大科技公司控制了大部分计算能力和AI程序。事情越变越大,但本质却未曾改变。
不过,值得期待的是,这一次事情可能会有所不同,这要归功于像Qubic Layer 1区块链这样的去中心化计算基础设施。这种L1区块链使用了一种先进的挖矿机制,被称为“有用的工作量证明”(uPoW);与比特币传统的PoW不同,Qubic的uPoW利用其计算能力执行诸如训练神经网络等生产性AI任务。
简而言之,Qubic通过离开当前的范式,将AI计算资源的获取去中心化,不再局限于创新者拥有的硬件或从大科技公司租借的硬件。相反,它利用其可能达到数万台矿机的网络来提供计算能力。
虽然这一方式比让大科技公司处理后台问题更为技术化,但去中心化的AI计算资源获取方式更具经济性。而且,更重要的是,AI创新应该由更多利益相关者推动,而不是依赖当前行业的少数玩家。
如果这些公司都出现问题会怎样?更糟糕的是,这些科技公司在处理影响深远的技术进步时已经被证明不够值得信赖。
如今,大多数人对数据隐私侵犯问题感到愤怒,更不用提其他相关问题如社会操纵了。有了去中心化的AI创新,监控开发进展变得更容易,同时也降低了进入的成本。
结论
AI创新才刚刚起步,但获得计算能力的挑战仍然是一个阻力。更糟的是,目前大科技公司控制了大部分资源,这对创新速度造成了巨大挑战,不仅如此,这些公司可能最终掌握更多对我们数据的控制权——这可是数字时代的“黄金”。
然而,随着去中心化基础设施的出现,整个AI生态系统有望降低计算成本,并消除大科技公司对21世纪最有价值技术的控制。