Datawhale学习
分享人:周明老师,Datawhale 特邀嘉宾
这次 Datawhale开源学习 特别邀请了周明老师分享:
周明,澜舟科技创始人兼CEO,中国计算机学会 CCF 副理事长、NLP和大模型领域的顶尖大牛。
1991年就从NLP重镇哈工大拿到了博士学位,其后进入清华任职任教,并在1999年被微软亚洲研究院创始院长李开复挖走,后来不久成为NLP研究组de负责人。直到2020年离开,周明已经是MSRA副院长多年。
周明也是当今NLP领域成就最高的华人之一。他不仅是中国第一个中英翻译系统的研制者、日本最著名中日翻译产品研制者,还在2019年成为了语言领域最高级顶会ACL(国际计算语言协会)主席。
学术维度看,周明在NLP领域的影响力也位居世界前列。他是过去十年来发表NLP论文最多的科学家之一。据谷歌学术最新数据,其文章被引用总量超过3.4万。
2020年12月,他从微软离职,随后加入创新工场担任首席科学家,2021年6月孵化出澜舟科技,7月就推出轻量化模型——「孟子」,在中文语言理解评测CLUE榜单的多项指标上登顶第一。
周老师在人才培养、学术、产业方面都有非常高的成就,这次分享是对话的形式,主要根据参与开源学习的学习者感兴趣的问题,进行探讨和答疑。
在这次学习中,周明老师亲自看了每一个学习者提的问题,并逐一提供了反馈。晚上将选出部分问题一起交流。
1.直播预约:4月26日晚20:00
后台回复“周明”可以获取录播分享
以下是学习者们提的问题,周明老师亲自分类(经师易遇,人师难遇,感谢周明老师),看看大家都关心什么:
教育类
您好周老师,您能谈谈NLP未来的可能的发展么,以及这一波大模型的热度对NLP的从业人员和科研人员和学生的影响?
周老师您好,请问您如何看待AIGC对教育的影响?您认为在AIGC技术下智慧教育的发展方向在哪里?
周老师,您好,目前的chatGPT可能已经比世界上任何一个人都聪明了,您觉得未来学历还重要么,考研还有必要么,因为社会变化这么快,学校的那一套越来越不适应社会的发展
周老师您好,LLM对于刚入门的学生应如何学习呢?
周老师,您好,请问您觉得chatgpt4能帮助考研学生大幅度提高学习效率吗?
周教授,大模型时代已经到来,您认为在这种背景下,如何才能做出创新?
老师您好,我想请问一下,您觉得在目前大模型背景下,nlp 方向的研究、就业是否会受到巨大影响以至于进入一个衰退区呢,因为大模型其实导致了很多nlp经典任务的消融。
周老师您好,请问一个文科生如何学习ai,尤其是ai 的数学基础。请为文科生规划一个学习路径。谢谢周老师。
周老师晚上好,我想请教一下关于在社科研究领域如何应用ChatGPT做研究,怎么发挥其LLM模型的优势,在社科领域中有哪些可以较好切入的研究点。谢谢老师!
周老师,您好,我想问下对于在从事别的行业的在职人员,本身对NLP感兴趣,现阶段学习哪方面的知识可以更好的利用这些大模型,不会别别人替代呢,方便后续谋求更好的职业发展(比如财务审计领域、金融行业)
周老师,这波大模型浪潮,对于个体而言意味着什么,有哪些重要影响和机会?是否能够为个体实现很大的赋能?主要体现在哪些方面?谢谢老师
周老师您好!作为一个刚毕业才入职的员工,我正在转型计算机视觉,单位有创新科研的要求,但感觉自己的创新能力有限,一方面是感觉有很多基础知识要学,另一方面又觉得ai发展那么快,感觉自己跟不上了,有种无能无力的感觉。请问老师我该怎么做才能赶上ai的浪潮,不被淘汰呢,感谢老师~
周老师您好,请问在如今ChatGPT高速发展的形式下,我们作为基层开发者,要如何调整发展才能保持住自己的价值呢?
周老师您好,在大模型当道的今天,初学者是否还需要学习传统的机器学习理论、方法?
老师你好,我想问一下如何在AI突起的时代背景下找到需求方向,如何找到自己的AI方向?
技术类
周老师,请问在大模型高速发展都情况下,知识图谱是否有必要继续发展?如果发展是否是llm+kg,你认为两者该如何结合?
周老师您好,请问您如何看待LLM的智能化程度,它离真正的具有自我思考创造的智能还有多远?以及未来NLP的发展方向?
您好周老师,我想请教一下:在传统的NLP任务(如抽取、生成、分类、问答等)中,大型语言模型现在能够达到什么样的效果?相对于小型模型,它们是否具有明显的优势?如果大型模型能够超越小型模型,那么是否意味着将来每个人都可以完成NLP任务,而不需要过多的NLP工程师了呢?
您好周老师,目前gpt的模型中,规模相对较小的4b,8b类型模型,在基于GPT4生成的训练素材进行训练似乎也能达到接近GPT4的效果。如果只需要特定场景的模型,比如代替人类写sql代码这个场景,是不是基于4b,8b规模的模型进行为微调,也能得到不错的效果?未来研究趋势是沿着GPT的路线越做越大,还是在保证准确率的情况下把大模型做小,让人人都可离线部署?
周老师您好,我有两个问题:现在越来越多的人提到传统的NLP技术已经不复存在了,这是否意味着以应用为主的NLP入门者该花费相交以往更少的时间在传统nlp理论的学习上?
请问当前大模型的潜力挖掘到什么程度了呢,如果增加更多数据和算力,模型性能还会有多大的增长?
老师您好,我想了解一下人工智能现在是否真的到了一个瓶颈期,开始需要像chatgpt那样开始从规模入手提升算法而不是从更优化的模型?
想问下周老师怎么看大模型对CV的影响,目前来看一般是以多模态的方式去完成对CV的任务。想问下您对于纯视觉的大模型怎么看。以及对于科研工作者,大模型感觉让很多科研工作者处于无科研可做的境地,您怎么看这个事?
老师您好,现在的大语言模型都有一个很严重的通病,就是会有严重的幻觉,会胡编乱造根本不存在的内容,目前有什么技术路线可以根据这个恶疾?
现在LLM应用在文本生成领域,怎么控制以及评测生成的数据质量?
似乎现在的各种类AGI应用,都是把所需的各种信息用旁门左道的方法转化为自然语言文本,再交给LLM进行API调用并自我迭代完成的,这显然是个笨办法,那有没有什么有前景的研究方向,可以取代LLM这个"胶水"模型?
周老师您好,问下GPT-4相比GPT-3.5,在训练阶段有变化吗,后续的指令微调过程和GPT-3.5有什么不同吗?
我是一名业务类AI算法工程师,但是面对AIGC一个大模型可以统一所有任务的情况,感到特别焦虑,担心被淘汰。您觉得算法工程师应该如何应对这样的变化呢?
周老您好,请问您目前对国内的大数据模型看法如何,您认为国内有什么大学或者公司的探索领域是值得关注的?您如何看待ai的安全问题?
周老师您好,向您请教,如何利用开源大语言模型,开展自己企业的个性化本地化大语言模型打造?
周老师好,LLM未来在人机对话领域有哪些科研发展方向?哪些前景值得研究?
周老师好,请问您对LLM的self-refine和self-improve的技术路径有何见解?
ChatGPT及GPT4.0远远优于其他同类LLM的根本原因是什么?
LLM的涌现能力出现的底层原因或数学原理是什么?ChatGPT在各项涌现能力上领先于同类产品吗?是否有具体指标衡量?
从大模型蒸馏减枝方式将参数减少到小模型之后,通过更高质量数据训练调优,能否一样产生涌现能力?
应用类
周老师您好,除了自然语言的模型,大模型还会对哪些产业的模型有本质的影响,大家会有意愿去共享自己私域的数据吗?如果会,是什么原因在驱动这个变化?
周老师,您好。请问对于LLM的finetune,您有什么理解,以后可能每个公司,甚至创业的小公司都能廉价地训练出自己业务领域的LLM吗?finetune需要多少数据量?
周老师你好,目前OpenAI对国内不开放,而且有合规问题,国内商用LLM效果还比较弱,很多开源的LLM都不允许商用,部分可以商用的中文效果都不好,请问对于国内的个人或者是中小企业,在这波变革之中如何不被落下
您好,现在各大公司和机构都在争相研究大模型作为基础模型,我们是否真的需要那么那么多相似的大模型,这是否会造成算力和能源的浪费?
自然语言处理的技术如何应用到基础科学上?比如材料、物理、生物等学科。
周老师您好,目前大模型在文本、图像等通用非结构化数据上表现良好,请问您觉得这种优势能否应用在结构化数据上,如交通、金融等时序数据,提升这些垂直领域上的模型推理能力吗?
老师您好,如何针对垂类领域进行数据标注?
周老师好,请问AI对传统软件的影响是什么样的,未来会大规模嵌入吗?
周老师您好!您能谈谈多模态大模型与机器人领域结合的发展么,AGI通用人工智能机器人如何实现?感谢老师
请问nlp目前在情感分析和心理咨询方面有什么突破性的进展?未来实现ai心理咨询是否是大势所趋?
周老师您好,这次AIGC的浪潮,我感觉开源生态起了很大的作用,像github、huggingface、colab、LLaMa等等,我们不仅依赖这些国外的生态学习,甚至越来越多付费了。想请问周老师,这类开源生态产品有没有推荐的国产替代?以及这类国产替代是否值得作为创业方向?
周老师您好!请问chatGPT与图技术结合在风控领域的应用有成功案例么?
周老师好,请问如何利用chatGPT更好赋能coding?
金融领域落地专用大模型的可能困难在什么地方?
NLP发展历程的拐点有哪些,最新的或者下一次拐点会是什么呢?
参考:
1. 对话AI大牛周明:从科学家到企业家要迈过多少道坎
参与学习:AIGC 组队学习来了!
点赞“分享”就是一种支持↓