一些中国内地和香港的人工智能(AI)专家响应全球科技老将的呼吁,敦促暂停开发比GPT-4更先进的AI技术,因为他们认为当前的进展速度“过快”可能会带来危险。
上个月,研究人类社会技术风险的“生命未来研究所”(FLI)起草了一封公开信,特斯拉的Elon Musk、苹果联合创始人Steve Wozniak和历史学家Yuval Harari等上万人署名。该信称当前的AI竞赛很危险,并呼吁建立独立监管机构,确保未来的系统能够安全部署。
尽管一些从业者批评该信煽动了对AI未来的恐惧,但几位驻扎在中国内地和香港的专家对此表示支持,认为有必要解决对OpenAI(微软支持)开发的GPT-4大型语言模型(LLM)的AI聊天机器人ChatGPT的担忧。
自 ChatGPT 于去年 11 月发布以来,有关 AI 是否有一天会超越人类的争论一直存在。
武汉大学人工智能研究所教授蔡恒进表示,ChatGPT 的出现打破了那些认为这种情况永远不会发生的争论。
蔡恒进在周日接受《南华早报》采访时说道:“一个衡量标准是,人工智能会以何种速度和强大程度增长到超出我们想象。有些人认为它会缓慢增长,我们还有几十年甚至几百年的时间。但事实并非如此……我们只有几年的时间,因为我们(人工智能)的进步速度太快了。”
蔡恒进的担忧得到了许多其他签署FLI公开信的中国专家支持。
南京理工大学副教授张轶哲和亚马逊退休老将、基于云的软件即服务初创公司Tricorder Observability的首席执行官赵亚雄都表达了对人工智能可能带来的安全挑战的担忧,并呼吁加强监管。
尽管张轶哲表示他并不完全同意公开信中的所有内容,但他仍说:“我签署了FLI公开信以支持提出的与人工智能相关的安全问题,希望能有更好的系统协调大公司间的LLM开发活动。”
张教授表示:“GPT-4和更大的模型将释放生产力升级,导致许多人失业。如何安全、合理和道德地开发和使用超大语言模型是我们需要关注的问题。”
Tricorder的赵总认为:最近的趋势是让ChatGPT评分AI聊天机器人技术的研究论文,这是一个危险的信号,表明我们已经开始让AI来评判人类的工作。
香港大学工程学院副院长Alfonso Ngan(也签署该公开信)表示:学校将要求学生在一个学期内不使用这项技术,以便机构有时间制定如何在学术环境中适当应用它的共识立场。
“我们不是永远禁止这项技术,”Ngan说道,强大的人工智能如ChatGPT对教育部门构成了难题。
他说:“一方面,我们希望学生能接触到AI技术并进行学习,甚至需要教授这些技术,但另一方面,教育部门需要时间来进行调整,特别是在评估、家庭作业和任务方面。”
Ngan和其他签署者,包括Tricorder的赵总和专注于物联网的创业公司Edgenesis的创始人陈永立,都表示ChatGPT的力量不能被轻视。
蔡教授指出:“ChatGPT的训练材料是人类的语言材料,所以你不能简单地祈祷当AI变得更聪明、更强大时,它仍会对我们人类怀有同情心,仍然会保持理性,并且只继承好的东西而不是人类的恶性本质。”“我们可以利用我们现在还有的时间,在元宇宙中与它并肩进化,并指导其成为好的东西。”
本文由边无际授权发布