对话大模型中的事实错误:ChatGPT 的缺陷

24fb50a0fbe1b62b9cf7080a2a83befc.gif

©PaperWeekly 原创 · 作者 | 愁云

fba6c7e05b00e324d77ab0801a39a7aa.png

引言

随着 ChatGPT 的横空出世,智能对话大模型俨然已成为 AI 发展的焦点,更是在整个自然语言处理 (NLP) 领域掀起了一阵海啸。自去年席卷全球以来便引起各行各业空前的热度,数亿用户纷纷惊叹于 ChatGPT 的强大功能,思考其背后关键技术革新,也关注当前 ChatGPT 仍存在哪些缺陷,除了巨量数据资源的耗费需求,无法与时俱进关联最新信息等之外,一个引人瞩目的问题就是 ChatGPT 交互中仍会生成不少的事实性错误,对一些老幼皆知的简单问题也会一本正经的胡说八道,如下图所示:

f14bb295d232c528b977c7aec37d32df.png

▲ Figure 1: ChatGPT 事实错误示例

这种事实性错误的存在对产品的广泛落地不可谓不致命,假设应用于医学,金融等非闲聊式场景,这些潜在风险就可能会造成经济损失或威胁生命安全,因此消除大模型中的事实错误成为了工业界和学术界的共同需求。 

首先明确一则术语,在 NLP 论文中,这种事实性错误一般统称为“幻觉” (Hallucination),顾名思义,该术语最早用于图像合成等领域,直到后来描述诸如图像检测时检测到虚假或错误目标等现象,才沿用至自然语言生成 (NLG) 任务,指模型生成自然流畅,语法正确但实际上毫无意义且包含虚假信息即事实错误的文本,以假乱真,就像人产生的幻觉一样。 

本文主要参考港科大的综述文章 [1],全部采用模型“幻觉”来指代前文所述的事实性错误,先简述下 NLG 生成“幻觉”文本的成因,接着详细介绍对话任务中的“幻觉”现象,针对对话任务的“幻觉”评估方法和未来研究方向等。

a856bfc0ff55e6b9f18265f81fb2d8e4.png

自然语言生成的“幻觉”成因

此前已有相关工作将自然文本生成中的幻觉问题分为内部幻觉 (intrinsic hallucination) 和外部幻觉 (extrinsic hallucination) 两大类。所谓内部幻觉,是指生成的文本与给定源文本出现不忠实 (unfaithfulness) 或不一致 (inconsistency) 的现象,这种问题常见于文本摘要任务中,生成的摘要与原文不一致。

另一种外部幻觉,则是指生成内容在源文本中并未提及,我们虽然不能找出相关证据,但也不能断言这就是错误的,这就涉及到语言模型本身的事实性知识 (factual knowledge) 或世界知识 (real-world knowledge)。下面对这些幻觉的成因进行分析。

虽然两类幻觉表现上有着明显区别,但成因却较为类似,根据以下因果图即可简单分析:

2e0439a9bdad05e833124a7ee615c30e.png

▲ Figure 2: 文本生成的幻觉来源因果分析

生成的文本 𝑌 由源文本 𝑋 和语言模型里的先验知识 𝐾 共同决定,由于一般认为给定的源文本都是事实正确的 ground-truth,所以出现的幻觉一般都会归结于语言模型本身包含了错误事实。

语言模型中的先验知识都来自于训练语料,用于训练语言模型的大数据语料库在收集时难免会包含一些错误的信息,这些错误知识都会被学习,存储在模型参数中,相关研究表明模型生成文本时会优先考虑自身参数化的知识,所以更倾向生成幻觉内容,这也是自然语言生成任务中大部分幻觉的来源,本文后续讨论的幻觉默认基于这个原因。 

另一方面,模型训练和推理时的差异,也是导致推理时更容易生成幻觉的原因之一。训练中通常用最大似然估计的做法训练解码器,并且是以 ground-truth 作为后续预测 token 的前缀输入,而解码时则根据历史序列生成来预测下一个 token。通过改变解码策略,也能一定程度上增强生成文本的事实性。

66d8aebbe0faec711bcf4d1b287ac85b.png

对话系统中的“幻觉”现象

随着对话大模型 ChatGPT 的巨大成功,对话系统的“幻觉”现象也成为热门的研究方向。构建对话系统需要根据用户话语和对话历史生成流畅连贯,与对话历史保持一致,且满足用户对话需求的合理回复。

对话任务分为任务型对话 (Task-Orientated Dialogue) 和开放域对话 (Open-Domain Dialogue),任务型对话在很多场景的自动客服上已广泛应用,评测也相对容易,研究难点主要集中在类似 ChatGPT 这种开放域对话模型上,虽然是用于闲聊场景,但是需要满足各种用户能够提出的问题,解决各类任务,由于针对一条用户话语的回复并不唯一,也很难制定一个完善的评价体系。

因此开放域对话中的幻觉研究也更具有挑战性,在对话模型的研究中,用来描述这些文本生成的幻觉问题则有一个更常见的术语,“不一致” (inconsistency)。

对话回复的不一致也可分为两类,模型自身不一致 (self-inconsistency) 和外部不一致 (external inconsistency)。自身不一致是指模型生成的回复与对话历史或与自身已生成回复相矛盾,属于前文所提及的内部幻觉;与对话历史的不一致性问题一般来自于历史信息的遗忘,包含与已生成文本相矛盾,这是人设 (persona) 对话中常见的问题,赋予系统一个固定角色,在聊天过程中模型的人设信息会发生变化,如下图所示:

da5be9b17c7b9b75f7e08dcb9f7aac28.png

▲ Figure 3: 人设对话不一致(选自 AI 乌托邦)

而另一种外部不一致的问题,则是对话系统为了生成角色一致且信息丰富的回复,会将包含显式角色信息的外部数据引入系统以辅助模型生成,例如 PersonaChat 数据集中每个对话都伴随着人物描述,通过以角色描述为条件来增强角色一致性 [2]。尽管 PersonaChat 已经在不少方法上取得显著效果,但进一步研究不依赖于给定角色描述的方法依然是有必要的,因为单靠文本描述很难覆盖一个角色的所有特征。

3.1 知识对话中的“不一致”问题

开放域知识对话要求模型在外部知识图或知识语料库的帮助下,将外部知识视为源文本的一部分,生成与知识描述一致并且完成对话任务的回复。因此知识对话中的“幻觉”或“不一致”则聚焦于回复与外部知识的关系,比如一种常见的问题就是生成回复包含与所提供的外部知识不一致(图 4)。

df1d36861be8884eed2dd82b0467e5fb.png

▲ Figure 4: 知识对话的事实不一致(图片来自 [3])

由于世界知识数量庞大且不断更新,知识对话的很难保持事实正确性 (factual correctness),也就是前文所说的外在幻觉,它可能是真实的但难以验证。知识对话涉及两个步骤,首先需要用一个检索模型根据上下文对话来检索所需要的相关知识,然后将检索的知识作为输入文本生成回复,对这两个阶段进行优化都可以显著提高对话的事实正确性。 

文章构造了一个专门用于知识对话事实一致性检测的数据集 Conv-FEVER [4],通过改编 Wizard-of-Wikipedia 创建,由事实一致和不一致的回复组成,该工作将回复与外部知识的关系分为三类:

第一种是非验证性回复,即生成的回复只是做了简短闲聊,并未涉及任何外部知识,也就不需要来验证与知识的一致性;

第二种是事实一致性回复,即回复与外部知识高度相关一致,利用外部知识完成对话任务,这是最理想的状态;

第三种则是外部幻觉性回复,即回复中的知识与提供的外部知识信息不一致,由于外部知识也是检索而来,我们无法断言回复就一定发生了事实错误,这就需要借助“世界知识”来判断。

这三种分类基本涵盖了大部分知识对话可能产生的幻觉现象,利用该数据集,可训练分类器以检测与所提供的知识相关的事实不一致的回复。

edd62e9f0a42e47d5d3fb067330df120.png


对话系统“幻觉”的评估方法

对话系统,尤其是开放域对话,模型幻觉的评估仍是一个悬而未决的难题,截至目前也没有标准指标。对话回复往往根据事实一致性或事实正确性进行评估,整体有三条思路,分别是基于统计,模型和人工的评估方法。

4.1 基于统计方法的评估

最简单的幻觉评估方法是直接计算生成文本和参考目标文本之间的词汇匹配度,例如 ROUGE,BLEU 等,F1 分数结合了生成文本和目标文本的精确率和召回率,能更好地反应其匹配关系。额外使用源文本是因为不能保证输出目标文本包含输入源文本中可用的完整信息集。

然而开放域对话任务的回复往往不唯一,输入与输出是一对多的映射,而实际应用中,覆盖所有可能的输出几乎不可能,这也给目标参考的选择造成很大困难。在知识对话中,假设给定的外部知识是事实正确的,那么我们则更关注生成回复与依赖的外部知识间的一致性,相关工作提出 Knowledge F1 [5] 指标用于测量生成回复数据集收集期间参考的真实知识之间的重叠,非常适用于知识对话场景。

4.2 基于模型方法的评估

模型评估方法主要基于自然语言推理 (Natural Language Inference, NLI),即判断一项假设(即生成文本)是否蕴含于前提(即参考文本),基于 NLI 的指标将幻觉分数定义为源文本与生成文本之间的蕴含概率,也称为生成文本蕴含、中立和矛盾的次数百分比。

当然,这也意味着需要先收集相关蕴含关系的数据集来训练这样一个判别模型,当前已有不少工作工作发布额外的一致性数据集在基于 NLI 的方法上训练可学习的评估指标,如前文提到的 Conv-FEVER 数据集 [4];在知识对话中,还有工作提出借助问答系统的 𝑄2 方法来判断回复与外部知识的一致性 [3]。 

基于模型的评估方法整体上比词级别的统计方法要适用得多,然而文本蕴含模型只能返回一个分数,无法定位具体生成文本的哪些部分是错误的,从消除事实错误的角度讲,还是应该更关注细粒度,可以定位到词级别的评估方法。

4.3 基于人工的评估

由于当前模型幻觉问题自动评估方法仍不完善,无论是通用的文本生成任务还是对话系统,人工评估仍然是最常用的方法之一,通常有对幻觉文本进行评分或与 groundtruth 直接比较两种方法,但都不可避免的会增加研究成本,一种比较折中的方法是,先让人工评估者在某个范围内对回复中的幻觉现象进行评分,然后提出改进一些现有的自动评估方法,只要该自动评估指标与人类评估打分趋势保持一致,就可以认为是个可行的评估方法 [6]。

69ee7102767fdc374a4dbbbafa339c27.png

对话模型“幻觉”的解决办法

5.1 数据方法

前文已分析过,造成模型生成幻觉文本的首要因素是训练数据,那么构造干净的数据集,进行数据去噪显然是一条可行的方法。由于预训练数据多为网上收集的句子,一般都需要进行去噪操作,修改语法,指代不明或事实错误,确保语言模型能学习到事实准确的知识,另外也可以用 Wikipedia 这样的知识库或其他三元组表示的知识来对语言模型的进行知识增强,这些数据都是公认的包含世界知识的准确数据,对于降低模型幻觉的干扰有很大帮助。

在对话微调阶段,可以先用前文的测量指标对回复进行评估打分,然后过滤掉那些低质量不可信的回复,人工标注的样本也需要严格的筛选,确保模型生成与外部知识一致,并且保留对话特性,能完成应用场景对话任务的可靠回复。

5.2 模型方法

数据方法涉及到人工构造,也就意味着成本较高,所以学术上更加关注使用其他方法,这里统称为模型方法,是因为区别于数据方法,其他方法都是对模型的架构、训练或推断来进行优化的。

对开放域对话任务而言,我们往往希望能控制生成回复的偏好,使其具备某种特性,以手动提供的可控 token 或自动预测的方式加到输入上,来提高生成回复的可信度,例如训练一个 token 来控制生成回复偏向第一人称的主观表达还是第三人称的客观陈述,然后在测试阶段通过手动赋值就可以控制回复的偏好了 [7],这对于人设对话是很有参考价值的,如果将人设特征如性格、年龄、性别、职业、爱好等都设置成可控 token,那么只需要手动设置,就可以构建出各式各样的虚拟角色了。 

另外在知识对话中,模型幻觉很大程度来源之一是外部知识选择不正确,因此用更强的检索模型搜索知识,返回更加有用的知识,也是消除对话回复幻觉的有效途径之一 [5]。当前 ChatGPT 并不具备检索能力,其模型内部的隐式知识已然非常强大,一旦可以进行检索,结合网络上海量数据,就可以做到实时学习,并更新模型内部过期的知识,这对模型效果的进一步提升也是相当可观的。

4d7e2b8c5b35b9516dbe5f5cb69397a8.png

▲ Figure 5: 最后来调戏一把 ChatGPT

3a777e837c6b5ed2d0779fdea25f2a13.png

▲ Figure 6: 最后来调戏一把 ChatGPT

2a856a1f804f41bbb3d09acfc3b9039a.png

总结

本文受启发于 ChatGPT 的事实错误问题,从文本生成的幻觉问题入手,对当前对话大模型的幻觉现象,评估以及解决方法进行了简单综述,模型幻觉仍是对话大模型的发展瓶颈,本文也不难看出,无论是幻觉评估还是解决,受限于对话任务本身的难度,都还是任重而道远,不过我们有理由相信,一旦解决了模型幻觉这一重大难题,那通用大模型也就离真正的人工智能不过咫尺之遥了。

outside_default.png

参考文献

outside_default.png

[1] Z. Ji, N. Lee, R. Frieske, T. Yu, D. Su, Y. Xu, E. Ishii, Y. Bang, A. Madotto, and P. Fung, “Survey of hallucination in natural language generation,” ACM Computing Surveys, 2022. 1

[2] E. Dinan, V. Logacheva, V. Malykh, A. Miller, K. Shuster, J. Urbanek, D. Kiela, A. Szlam, I. Serban, R. Lowe et al., “The second conversational intelligence challenge (convai2),” in The NeurIPS’18 Competition: From Machine Learning to Intelligent Conversations. Springer, 2020, pp. 187–208. 3

[3] O. a. Honovich, “𝑞2: Evaluating factual consistency in knowledge-grounded dialogues via question generation and question answering,” in Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, Nov. 2021, pp. 7856–7870. 4, 5

[4] S. Santhanam, B. Hedayatnia, S. Gella, A. Padmakumar, S. Kim, Y. Liu, and D. HakkaniTur, “Rome was built in 1776: A case study on factual correctness in knowledge-grounded response generation,” arXiv preprint arXiv:2110.05456, 2021. 4, 5

[5] K. Shuster, S. Poff, M. Chen, D. Kiela, and J. Weston, “Retrieval augmentation reduces hallucination in conversation,” in Findings of the Association for Computational Linguistics: EMNLP 2021, 2021, pp. 3784–3803. 5, 6

[6] N. Lee, W. Ping, P. Xu, M. Patwary, P. Fung, M. Shoeybi, and B. Catanzaro, “Factuality enhanced language models for open-ended text generation,” in Advances in Neural Information Processing Systems, 2022. 6

[7] H. Rashkin, D. Reitter, G. S. Tomar, and D. Das, “Increasing faithfulness in knowledgegrounded dialogue with controllable features,” in Proceedings of the 59th Annual Meeting of 8the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), 2021, pp. 704–718. 6

更多阅读

426ae373a17d457b3853f08d86ffb9d1.png

4394e989397af4408a1f53b2aabd328e.png

8f398bba9e761ea13914e752ac42ec82.png

299fb671c4a537343058dc6dfc61d2ce.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

22b820111098fab9d1c156b63b49916d.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

·

2780cc710aaa40724e9aee17b3b5fd56.jpeg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/6386.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

ChatGPT总是答非所问?如何使用chatgpt定义角色

一、📝 定义角色:ChatGPT 的角色设定 背景信息:提供详细、准确的背景信息和前提条件,以便 ChatGPT 提供有针对性的回答和建议 任务目标:清晰地描述希望 ChatGPT 完成的任务 输出要求:告知 ChatGPT 如何完…

华为的大模型终于来了,我的评价是:相当震撼

华为的大模型终于来了,我的评价是:相当震撼 原创 2023-07-08 10:21 差评 老被人说在大模型竞赛中掉队的华为,这次终于带着它的家伙事儿来了。 这不,在昨天的华为开发者大会 2023 上,华为就狠狠地秀了一把。 将近三个小…

乔布斯离开后的苹果 | 历史上的今天

整理 | 王启隆 透过「历史上的今天」,从过去看未来,从现在亦可以改变未来。 今天是 2023 年 2 月 2 日,在 1913 年的今天,世界最大的火车站——纽约中央车站(Grand Central Terminal)正式启用。美国纽约中央…

2023 年云计算的增长点在何处?

作者 | 孙琦(万博智云 CTO 及联合创始人) 编辑 | 宋慧 出品 | CSDN 云计算 编者注: 2023 年已来,数字化转型仍然是 IT 的主旋律。不过,与以往一窝蜂、追求形式化的数字化不同,在疫情和日益增加的外部压力下…

人工智能发展月报(2023年1月)

本期导读 兔年伊始,人工智能业界已呈现出竞争加速之态势。不仅对话机器人ChatGPT为科技大厂们带来了技术与产品迭代的竞争压力,而且美国和欧盟达成的AI联手研发协议也为诸多国家带来了战略发展的竞争压力,2023年全球人工智能发展必将掀起新篇…

前瞻洞察|Prompt Learning(提示学习)——新的低资源场景克星

近年来,预训练语言模型已然成为自然语言处理(NLP)领域中备受瞩目的技术之一。预训练模型可以在大规模文本语料上进行自监督学习,从而获得丰富的语言学知识,并通过在下游任务上进行微调,实现出色的性能。Pro…

AIGC周报|下一个裁谁?老板:问问AI;OpenAI推出Shap·E;库克:AI仍有不少问题要解决

AIGC(AI Generated Content)即人工智能生成内容。近期爆火的 AI 聊天机器人 ChatGPT,以及 DallE 2、Stable Diffusion 等文生图模型,都属于 AIGC 的典型案例,它们通过借鉴现有的、人类创造的内容来快速完成内容创作。 …

python selenium 实现页面元素捕捉及信息交互

1引入相关库 from selenium import webdriver from selenium.webdriver.common.by import By import time import json2.这里以b站为例,这里使用cookie登录b站,用其他方式登录也可 #d访问bilibili url https://www.bilibili.com/ driver webdriver.Chrome() dri…

人工智能轨道交通行业周刊-第47期(2023.5.29-6.4)

本期关键词:郑州智慧地铁、货运安全监控、激光炮、6C系统、越行站、ChatGPT原理 1 整理涉及公众号名单 1.1 行业类 RT轨道交通人民铁道世界轨道交通资讯网铁路信号技术交流北京铁路轨道交通网上榜铁路视点ITS World轨道交通联盟VSTR铁路与城市轨道交通RailMetro轨…

4步掌握“指令工程”,使用ChatGPT进行高效AI创作

通过有效的指令发挥AI写作的能力,让你领先99%的用户。 微信搜索关注《Python学研大本营》,加入读者群,分享更多精彩 你是否曾对AI生成的内容感到失望?也许你认为ChatGPT的输出很不靠谱,完全达不到期望。 然而事实是&am…

ChatGPT克星,介绍5款免费又好用的AIGC检测工具

各种AI生成的内容海量涌入,介绍用于检查各项文本内容是否由AI生成的顶级免费工具。 微信搜索关注《Python学研大本营》,加入读者群,分享更多精彩 简介 ChatGPT推出后,犹如潘多拉魔盒被打开了。我们现在正观察到许多工作方式的技术…

「ChatGPT克星」升级:老师可以把全班作业丢进去检测了!华人作者:免费用

金磊 发自 凹非寺量子位 | 公众号 QbitAI 「ChatGPT克星」,升级了! 没错,就是之前华人小哥Edward Tian所打造出来的那个GPTZero,几秒内就能摸清文字是人类还是AI写的。 而时隔近一个月,小哥所推出的版本名叫GPTZeroX&a…

ChatGPT「克星」来了!文章作者是人是AI几秒检出,华人小哥元旦假期搞定,服务器已挤爆...

丰色 杨净 发自 凹非寺量子位 | 公众号 QbitAI 你说ChatGPT,它写的东西逼真到傻傻分不清? 没关系! 现在,它的“克星”来了—— 一位华人小哥专门搞了这么一个网站,专门鉴别文字到底是出自于AI还是人类。 你只需要把相应…

ChatGPT“克星”:用AI识别AI生成的文本,英语论文阅读笔记都能测出

萧箫 发自 凹非寺量子位 | 公众号 QbitAI ChatGPT的出现,让不少人看到了交期末大作业的曙光(手动狗头)。 无论是英语论文、还是阅读笔记,只要在ChatGPT的知识范围内,都可以拜托它帮忙完成,写出来的内容也有…

ChatGPT人工智能浪潮所带来的产业机会

李彦宏在文心一言的发布会说过,深入理解ChatGPT人工智能浪潮所带来的产业机会,其中提到大模型时代将产生三大产业机会:通用大模型、行业大模型和AI应用。 这三个产业机会就是一个金字塔结构,最顶层的就是通用大模型,只…

“AI+”概念是什么?(附十大概念股)

所谓AI即人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。 而AI应用概念即指应用AI技术的下游场景,这是一个非常大的概念&#xf…

人工智能算法 上市公司,人工智能算法公司排名

人工智能上市公司龙头股票有哪些 一、科大讯飞(002230),属于人工智能稀缺标的,多领域布局苦尽甘来,业绩拐点临近。二、浪潮信息(000977),人工智能基础设施提供商,目前具备业界最全CPU服务器产品线。 三、中科曙光(60…

九龙证券|人工智能+国产软件+智慧城市概念股火了,欧洲资管巨头大举抄底

近一周组织调研个股数量有130多只,迈瑞医疗成为调研组织数量最多的股票。 证券时报数据宝统计,近一周组织调研公司数量有130多家。从调研组织类型来看,证券公司调研相对最广泛,调研80多家公司。 迈瑞医疗获超500家组织调研 迈瑞…

人工智能神经网络概念股,神经网络芯片概念股

1、人工智能概念股有哪些? 人工智能芯片谁是龙头? 人工智能包含硬件智能、软件智能和其他。 硬件智能包括:汉王科技、康力电梯、慈星股份、东方网力、高新兴、紫光股份。 软件智能包括:金自天正、科大讯飞。 其他类包括&#x…

智能算法和人工智能算法,人工智能算法概念股票

人工智能股票有哪些? 1、苏州科达:苏州科达科技股份有限公司是领先的视讯与安防产品及解决方案提供商,致力于以视频会议、视频监控以及丰富的视频应用解决方案帮助各类政府及企业客户解决可视化沟通与管理难题。 2012年,公司整体…