“千模千测”——针对大语言模型认知能力的高效测试方法

2146242f8184cb54f6e410524eb2e2bb.gif

©PaperWeekly 原创 · 作者 | 庄严、宁雨亭

单位 | 中国科学技术大学BASE课题组

b171eef49caf93a259f3b6c5b804c973.png

论文标题:

Efficiently Measuring the Cognitive Ability of LLMs: An Adaptive Testing Perspective

作者:

Yan Zhuang, Qi Liu, Yuting Ning, Weizhe Huang, Rui Lv, Zhenya Huang, Guanhao Zhao, Zheng Zhang, Qingyang Mao, Shijin Wang, Enhong Chen

单位:

中国科学技术大学、认知智能全国重点实验室

链接:

http://arxiv.org/abs/2306.10512

8dda0b3892c2ab91a94a1fbb28ba6fb6.png

摘要

ChatGPT 等大规模语言模型(LLM)已经展现出与人类水平相媲美的认知能力。为了比较不同模型的能力,通常会用各个领域的 Benchmark 数据集(比如文学、化学、生物学等)进行测试,然后根据传统指标(比如答对率、召回率、F1 值)来评估它们的表现。

然而,从认知科学 [1] 的角度来看,这种评估 LLM 的方法可能是低效且不准确的。受心理测量学中的计算机自适应测试(CAT)的启发,本文提出了一个用于 LLM 评估的自适应测试框架:并非简单计算答对率,而是根据各个被试(模型)的表现动态地调整测试问题的特征,如难度等,为模型“量身定制”一场考试。

以下图为例,CAT 中的诊断模型 CDM 会根据被试之前的作答行为(对/错)对其能力进行估计。接着,选题算法(Selection Algorithm)会根据该估计值选择最具信息量或最适合他的下一道题,例如选择难度和被试能力最接近的题目。如此循环往复直到测试结束。相比传统评估方法,该框架能用更少的题目更准确地估计模型的能力 [2]。

1177ef43d0b3e859dbc40557dc23b962.png

▲ 图1 CAT流程

本文对 6 个商业化的大语言模型:ChatGPT(OpenAI)、GPT4(OpenAI)、Bard(谷歌)、文心一言(百度)、通义千问(阿里)、星火(讯飞)进行细粒度的诊断,并从学科知识、数学推理和编程三个方面对它们进行了认知能力排名。其中 GPT4 显著优于其他模型,已经达到了人类平均水平的认知能力。本文的诊断报告也发现,ChatGPT 表现得像一个“粗心的学生”,容易失误,偶尔也会猜测问题的答案。

“千模千测”——这有可能成为评估大规模语言模型的新范式。

27bc42b381c2b80aabf042778a8e9c10.png

引言

近几个月来, 大规模语言模型(LLM)以其强大的能力颠覆了人们对语言模型的认知。除了传统的 NLP 任务,大模型在写作、编程、作词作曲等各方面展现出难以置信的类人水平 —— 这仅仅是 LLM 能力的冰山一角。

为了充分评估 LLM 认知能力水平,一些最初为人类设计的各类专业或学术考试被用来对模型进行评测:

2605eebd019870428ca4b5f8eeac618d.png

▲ 图2 传统 LLM 评测方法

然而,依赖这些固定的考试并不高效:(1)它通常需要许多相应领域的专家对 LLM 的每一个回答进行评判/打分,尤其对于主观或创造性的问题。(2)模型回答过程中推理(inference)的开销是巨大的。例如,GPT3 需要在 1750 亿参数的模型上进行推理、GPT4 对每一千 tokens 收费 0.03 美元,并且限制了 API 请求的频率...

因此,本文从认知科学领域中引入了一种新的评估模式——计算机自适应测试(Computerised Adaptive Testing, CAT),建立一个自适应的、高效的评估框架:

80b954928dd6c142ad166a88ee858dc3.png

▲ 图3 自适应 LLM 评测

本文将 LLM 视为一个学生,为各个模型“定制试卷”以准确评估其能力。相比传统基于答对率的方法,它所需要的题目数量更少(降低专家人工成本)、能力估计更准,是一种更符合认知能力评估的范式。本文贡献如下:

1. 正式将心理测量学中的 CAT 引入 LLM 的评估中,分析发现每个模型的试卷中有 20%~30% 的题目是不同的,这部分题目对测试的自适应性和个性化至关重要。同时,在相同的能力评估精度下,仅需要传统评估方法 20% 的样本/题目数量

2. 模型 vs 人类:本文将 ChatGPT 与不同能力水平人类进行了比较,发现它在动态规划和搜索方面的编程能力已经超越了高水平的大学生。同时,ChatGPT 经常表现得像一个“粗心的学生”,很容易失误,偶尔也会靠猜。

3. 模型 vs 模型:本文研究了 6 个有代表性大模型,并得到它们在学科知识、数学推理和编程水平三个方面的细粒度诊断报告,发现 GPT4 显著超越其他大模型,其数学推理能力已经接近中等水平的高中生。

b05f61814ba82ecc0b72be10a9a969bb.png

LLM 自适应评测框架

计算机自适应测试(CAT)是一种高效的、个性化的测试模式,已被广泛应用于各类标准化考试中(如 GRE、GMAT)。它的首要目标是在准确评估被试者能力的同时尽可能缩短考试长度。相比传统的纸笔测试,CAT 的测评效率更高。本节将详细介绍本文提出的两阶段 LLM 自适应评测框架:题库构建和自适应测试。

64504eccf5cb059f956f8d0f0f2218ea.png

▲ 图4 LLM 自适应评测框架

3.1 阶段1:题库构建

首先需要为自适应测试构建一个多样且高质量的题库:准备好要目标领域/学科的题目集 ,题库构建的目标就是校准所有题目的参数特征(如难度、区分度等)。由于本文需要将人和 LLM 进行对比,还需要收集人类在这些题目上的作答记录。本文选择测量心理学中经典认知诊断模型——项目反应理论(Item Response Theory, IRT)来对题目参数进行校准:

a186dea63aec91e98e89489a82172b7e.png

其中 表示能力为 的被试者答对题目 的概率。每个题目 有三个参数:难度 、区分度 、猜测因子 。

通过在作答记录  上进行参数估计,得到所有  个试题的参数 ,以及  个真实人类的估计能力值 ,可以后续直接用于与 LLM 进行比较。

IRT 基本假设是:不同的题目对于能力评估的重要性并不相同。例如,大模型 A 和 B 在某个 Benchmark 中的答对率分别为 0.88 和 0.89,他们的差距可能并不像看起来那么小,甚至并不准确。因为(1)大量简单的问题可能会淹没困难的问题,从而导致 B 无法显著地体现出其优越性;(2)数据集中或存在标注错误/噪声,可能导致这些传统指标失效。下面利用估计出的题目参数列举一些例子。

1. 难度 :当被试能力  保持不变时,难度  越大,答对的概率越小。下图是本文中的 MOOC 数据集中估计出最难和最简单的题目。解决问题 需要 ChatGPT 理解 PAC,这是计算学习理论中一个非常难理解的知识点。相比之下,最简单的问题和机器学习中的“感知机”有关,初学者也可以很容易地解决。

ce7aaf9325370563cd3d07cb3fd3d030.png

▲ 图5 难度

2. 区分度 :对于区分度高的问题,能力的微小变化可能会引起答对率的较大变化,因此这些题目可以更好地区分具有相似能力的被试。下图低区分度   非常简单,而且这种“垂直平分线”问题有固定的套路,很难真正区分不同能力的被试。高区分度问题  虽然也不难,但需要对原问题进行转换,并熟练掌握“圆与圆之间的位置关系”的相关知识。

8f8243b526d3bd592e167749fdc785b6.png

▲ 图6 区分度

3. 猜测因子 :它主要反映低能力被试能答对的概率,可以简单理解为猜对该题的概率。对于下图  的 题,甚至不需要被试掌握任何编程语言的知识,就可以用常识“猜”对。然而,为了答对  最小的  题(下),ChatGPT 需要掌握并理解 JAVA 中 Interface 的定义和用法:Interface 是一个完全抽象的类',并且能够选出所有不相关的选项;如果没有熟练掌握 “Interface” 的概念,想要猜对几乎不可能。

a62e51c8100e2c76a102e4eb737d2d1f.png

▲ 图7 猜测因子

3.2 阶段2:自适应测试

题库构建后,将正式进行自适应测试。主要包含两个核心模块:认知诊断模型和自适应选题算法。首先,诊断模型会根据 LLM 之前的作答情况对其能力进行估计。接着,选题算法将根据某种的信息量度量函数选择下一个对被试最有价值/最适合的题目。这两个算法交替工作,直到满足某个停止规则。

1. 使用认知诊断进行 LLM 能力估计:与阶段 1 保持一致,本文使用 IRT 来估计 LLM 的当前能力 :在第 t 轮测试后,利用极大似然估计(交叉熵)根据 LLM 前 步的作答情况(题目 , 正确性 ) 估计出当前能力值 。

能力估计值   的渐进分布 [3] 是以真值 为均值, 为方差的正态分布(下图),其中 为 Fisher 信息量。因此为了提高能力估计的效率(减小测试长度),减小能力估计的不确定性(方差)是至关重要的。

f2b4249b61355cb2459eccf748400e4b.png

▲ 图8 能力估计值的统计特性

2. 自适应选题:为了提高能力估计的效率、减小方差,本文采用最大化 Fisher 信息量的选题算法。在每一轮测试时,根据 LLM 当前能力估计值,选择能够使得 Fisher 信息量 尽可能大的下个题目 给模型回答:

79212a7bc10932b0d221b67d799de2c2.png

研究发现 [4]:Fisher 信息量选题方法倾向于选择(1)高区分度且(2)难度接近当前能力估计值的题目。因此 Fisher 方法不仅考虑了题目的质量(即区分度),也考虑了问题的难度对 LLM 的匹配性。例如,当 ChatGPT 在第 轮回答正确时,选题算法将为其选择一个难度更大的问题,反之亦然。这就是为什么许多能力水平高的 GRE 考生发现考试中题目变得越来越难的原因。

d3cf3f5aedc3d1876af738cd4feed2d4.png

评测效率与可靠性

本文通过上述介绍的自适应测试框架对各个 LLM 进行评测。LLM-CAT-专家 的交互界面如下图所示。

7b9c318fcd85063b137c4227e3a82b9c.png

▲ 图9 LLM-CAT-Expert 交互测试框架

评测效率:本文通过仿真实验来验证该框架的评估效率。本文随机生成 100 名被试的能力真值 ,并进行能力评估的模拟。计算每一轮的能力估计 和真实能力 的 MSE 误差(下图),发现:与使用固定 Benchmark 测试集(即从数据分布中 Random 采样)相比,自适应评估方法在相同的估计误差下最多只需要 20% 的题量。

由于 20 足以满足一般自适应测试,本文将最大长度固定为 20,并根据信息量指标 [5] 自适应调整测试长度。因此,相较于传统评估中需要 LLM 回答上百道题目 [5],该方法可以挑选出真正有价值的问题,最多只需要问模型 20 个问题,特别是对于需要大量专家评分的模型测试,它大大降低人工成本和模型推理开销。

9563dc6eef2eaed72e75674bd93615db.png

▲ 图10 自适应选择和随机选择的能力估计误差

自适应性:为验证 CAT 能否根据模型能力自适应地选择适合的问题,本文用 Jaccard 相似度来衡量任意两个模型所作答的题目集之间的相似性:,其中  和  代表两个不同的题目集合/试卷。下图展示了 CAT 为各个 LLM 定制的试卷相似度。几乎所有 Jaccard 值都在 0.6 左右,表明至少 20-30% 的问题是不同的,这部分题目是实现测试自适应性的关键。其余 70-80% 的题目是相同的,对于评估所有 LLM 都有价值。这两部分共同组成了一份试卷,以高效评估模型。

918a9ae25de71e5ac332c3a95d6846e5.png

▲ 图11 试卷的Jaccard相似度

评测可靠性:为了验证用于人类的 CAT 框架是否可以用于 LLM,本文研究了它的可靠性(SE 曲线 [5])。在 CAT 中,SE值通常是指能力估计 的标准差,它反映了能力估计的精度:。较小的 SE 表示更精确且更可靠的估计 [7]。下图显示了 ChatGPT(蓝色)和 100 名学生(黑色)测试过程中的 SE 变化:ChatGPT 的 SE 曲线虽有波动,但是比真实学生更快、更容易收敛。

7c21e393bf30877c2101f6a25714adc6.png

▲ 图12 ChatGPT 和学生的 SE 曲线

为探究 ChatGPT 与人类的相似性,本文在学生的测试过程中添加了猜测和失误因素:(1)猜测因素:即使被试没有掌握,仍有概率答猜对;(2)失误因素:即使掌握了该题,仍有小概率失误答错。因此,Guess10% 表示正确性标签从错误变为正确的概率为 10%,而 Slip10% 表示标签从正确变为错误的概率为 10%。有趣的是,ChatGPT 的 SE 曲线非常接近 Guess=10%、Slip=30% 的学生(红色)。由此,本文推断 ChatGPT 更像一个“粗心的学生”,容易失误(30%)并且偶尔会去猜答案(10%)。

effa8944be17541f8fc91d46c0a85308.png

诊断报告

本文选择了国内外较有代表性的 6 个 instruction-tuned LLM 进行评测:ChatGPT、GPT4、谷歌 Bard、百度文心一言(ERNIEBOT)、阿里通义千问(QianWen)、讯飞星火(Spark)。并将他们与高水平(High-Ability)、中等水平(Mid-Level)的人类学生进行比较。

数据集:本文选择学科知识、数学推理、编程三个领域为例对 LLM 进行细粒度评测,分别对应三个数据集:MOOC、MATH 和 CODIA。

  • 学科知识水平(MOOC):MOOC 是目前最知名的在线学习平台之一,本数据集收集了 1.5 万大学生对计算机科学中不同知识概念(如人工智能、计算机系统等)的回答记录。

  • 数学推理水平(MATH):该数据通过智学网收集,其中包含了超过 10 万名高中生的数学考试数据。

  • 编程水平(CODIA):该数据由中国科学技术大学自主研发的在线编程平台 CODIA(https://code.bdaa.pro/)。提供,其中包含了来自 120 所大学的大学生的编程提交数据。

5.1 ChatGPT VS 人类

本文以 ChatGPT(蓝色)为例对其从上述三个方面进行高效诊断,并和高水平学生(红色)进行比较:

1. 编程水平:尽管 ChatGPT 在官方报告和海量用户case中已经展示出其惊人的编程水平,但它并非全能,并不擅长所有类型的问题。本文使用 CODIA 平台对 ChatGPT 的编程能力中“动态编规划和贪心算法”、“搜索”、“数学问题”、“数据结构”、“树和图论”进行评估。ChatGPT 表现最佳的是“搜索”、“动态规划和贪心算法”。它在这些类型的问题上超过高水平大学生。然而,“数据结构”、“树和图论”是其编程能力上的短板。因此,下次让 ChatGPT 写代码时,可以避免这些类型;而如果你遇到关于动态规划的问题,则可以放心交给 ChatGPT。

bfba35af04864abac4be9c013cd76d8c.png

▲ 图13 编程水平对比:ChatGPT(蓝)vs 学生(红)

2. 学科知识水平:如下图,ChatGPT 在“算法”和“机器学习”这两个知识点上的能力水平显著高于高水平学生。然而,它在编程语言方面相对较弱,这似乎与人们对其的认知不太相符。为了探索原因,本文在下图右侧展示了一个关于编程语言的例子。这是一道非常基础的问题,但是 ChatGPT 却答错了,类似的例子在 ChatGPT 的考试中并不罕见。这说明它在掌握和理解编程语言的一些基础概念方面并不准确。而结合它在 CODIA 上惊人的编码水平(上图),本文有理由相信:ChatGPT 更像是一个 “实干家”,而不是一个 “书呆子”。

58a2d8fc5c5c5a05cb5adb86c96efb37.png

▲ 图14 学科知识水平对比:ChatGPT(蓝)vs 学生(红)

3. 数学推理水平:ChatGPT 的数学推理能力与人类的数学推理能力仍有相当大的差距:在“概率与统计”、“排列与组合”以及“几何”的问题的上尤其差;在“函数”、“方程和不等式”方面的表现相对好一些。因此,对于方程、函数这种有固定解题套路的基本计算问题,ChatGPT 是合格的。但面对现实场景中的推理问题[7](例如,概率和统计、排列组合)显然还差得远。

2cbe97ebfa1ff91f7202b55de4b8c3a9.png

▲ 图15 数学推理能力对比:ChatGPT(蓝色) vs 学生(红色)

5.2 LLM排名

本文在国内外 6 个有代表性的商业化 LLM 进行了 CAT 测试,并同时与不同水平的人类学生进行比较:

40bd5754e57a55896782645f4d1759b3.png

▲ 表1 不同 LLM 及不同水平学生能力诊断结果

数学推理:高水平高中生 > GPT4 ≈ 中等水平高中生 > 星火 > Bard > 文心 > ChatGPT > 千问

编程:高水平大学生 > GPT4 > 中等水平大学生 > ChatGPT >  星火 > 文心 > 千问 > Bard

学科知识:GPT4 > Bard > ChatGPT ≈ 高水平大学生 > 中等水平大学生 > 星火 > 千问 > 文心

GPT4 在学科知识、数学推理、编程水平上明显优于其他 LLM。其学科知识水平几乎在每个知识点上都超过了高水平大学生(Top20%)。

每个 LLM 都有其自己的“特长”。例如编程中,GPT4 擅长“动态规划”和“数学问题”;ChatGPT 更擅长“搜索”问题;星火平均编程水平低于 GPT4/ChatGPT,但是用编程解决数学问题是它的强项。因此,尽管这些 LLM 没有公布它们预训练所用数据的配比和具体细节,本文有理由推断,ChatGPT/GPT4 可能在训练阶段使用了更多的编程相关数据,而星火则使用了更多的数学学科数据。

大模型要实现媲美人类的数学推理仍有很长的路要走。根据 CAT 诊断的结果,即使最强的 GPT4,其推理能力也接近于中等水平的高中生。毕竟 LLM 的本质还是数据驱动的概率生成模型,并非像人类那样去思考和推理。因此,基于或模仿人类的认知结构 [9],或许是未来提升 LLM 推理能力的“捷径”。

04de2f497001a6d5eaed5d5138c82d36.png

总结

大语言模型正逐步改变人们日常的工作和生活方式。越来越多的人尝试探索 LLM 能力边界,让它们完成传统 NLP 时代难以想象的事情,如生成代码、制作 PPT、作诗作曲等等。因此,如何科学有效地诊断并分析 LLM 的能力显得愈发重要。本文尝试引入原本用于人类的认知能力评估框架——计算机自适应测试,来对 LLM 进行评估。在相同的评估精度下,CAT 需要的测试数据更少,极大地降低了 对 LLM 评估的人工成本和计算开销。

原论文由于中国科学技术大学计算机学院 BASE(http://base.ustc.edu.cn/)课题组撰写。该课题组聚焦于将大数据和人工智能技术应用于教育科学,包括:教育资源理解、认知诊断与学生建模、个性化教育服务等。本文希望 CAT 这一科学的评估范式可以促进 LLM 的研究与迭代,欢迎交流探讨!

outside_default.png

参考文献

outside_default.png

[1] Liu Q. Towards a New Generation of Cognitive Diagnosis[C]//IJCAI. 2021: 4961-4964.

[2] Zhuang Y, Liu Q, Huang Z, et al. A Robust Computerized Adaptive Testing Approach in Educational Question Retrieval[C]//Proceedings of the 45th International ACM SIGIR Conference on Research and Development in Information Retrieval. 2022: 416-426.

[3] Sheldon M Ross. A first course in probability. Pearson, 2014.

[4] Zhuang Y, Liu Q, Huang Z, et al. Fully Adaptive Framework: Neural Computerized Adaptive Testing for Online Education[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2022, 36(4): 4734-4742.

[5] C. Wang, D. J. Weiss, and Z. Shang. Variable-length stopping rules for multidimensional computerized adaptive testing. Psychometrika, 2018.

[6] OpenAI. Gpt-4 technical report, 2023.

[7] Wim J Van der Linden and Cees AW Glas. Elements of adaptive testing, volume 10. Springer, 2010.

[8] Lin X, Huang Z, Zhao H, et al. Learning Relation-Enhanced Hierarchical Solver for Math Word Problems[J]. IEEE Transactions on Neural Networks and Learning Systems, 2023.

[9] Liu J, Huang Z, Lin X, et al. A cognitive solver with autonomously knowledge learning for reasoning mathematical answers[C]//2022 IEEE International Conference on Data Mining (ICDM). IEEE, 2022: 269-278.

更多阅读

e952b4acb9680b652165d1e0ae839b33.png

e74603d3b5c278aa76ba844cd1dc69a6.png

f29508d3beaf55a39d76ab44ae1d3fe1.png

5ab78e9e7f6a81da1d81f84d01eeda79.gif

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

9c764ccdda8d8936826b7cc2047a1b2f.png

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

db2dc182f97cb144f9eec99fa554a4b2.jpeg

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/24981.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【烟雨星河】情绪哲学

目录 【情绪篇】 自信,自强,自我 诫己书 【哲学篇】 生命是什么? 序 时间浩大而渺远, 我站在时川之上 ,涛声滚滚,雨落惊雷。 总感觉在时间浪花里,得留下些什么。 仿佛应该是一些自己奇奇怪…

是在变好吗?

写这篇文章缘起于尹烨在节目中提到了他不喜欢大家说达尔文的学说是“进化论”,而更喜欢叫做“演化论”。 因为进化代表着越来越好,越来越进步;而演化只是在适应新的要求的变化,是合适的,但并不一定是在进步&#xff1b…

在弱肉强食的世界里,人类的美德意识为何能够超越其他物种?

来源:混沌巡洋舰 本文摘编整理自《人性悖论:人类进化中的美德与暴力》 中信出版集团 2022年6月 狭隘利他主义假设,战争可能导致自我牺牲,似乎只适用于其文化效应方面,而不能解释为进化上的选择力量。然而,该…

腾讯技术工程 2019 年十大最受欢迎文章出炉!

马上要过年了,大家是在回家的路上还是已经到家了?祝各位过一个好年,大鱼大肉吃个够,今天我们腾讯技术工程也给大家准备了点「精神食粮」。从 2019 年发布的近 300 篇文章中精挑细选出了十大最受欢迎文章,以供各位闲暇之…

腾讯游戏是如何使用Docker的

转自:http://www.infoq.com/cn/articles/how-tencent-game-use-docker 干货 | 腾讯游戏是如何使用Docker的? 作者 郭蕾 发布于 2015年8月15日 | 讨论 分享到: 微博 微信 Facebook Twitter 有道云笔记 邮件分享 稍后阅读我的阅读清单 腾…

好家伙,渣男基因被发现了?还能让直男变弯?

导读:“渣男基因被发现了!”这是怎么回事呢? 作者:宛平城外的胖子 来源:大数据DT(ID:hzdashuju) 01 渣男的必要条件:D4DR基因 上世纪末,耶路撒冷的理查德埃布…

2021金蝶全球创见者大会成功举办, 500强企业共话EBC数字战斗力

11月27日,由金蝶主办的“2021全球创见者大会”成功举办。大会以“用数字战斗力,向管理要效益”为主题,求索不确定时代,EBC如何帮助500强及中小企业拥抱数字战斗力,构建企业韧性。 据了解,金蝶全球创见者大…

复旦-华盛顿大学EMBA科创的奥E丨从《生命密码》看生命之趣

复旦大学-华盛顿大学EMBA项目【科创的奥E】读书栏目本期带来《生命密码》。      如果把地球的发展史浓缩到365天,人类的历史几乎可以忽略不计。虽然微生物渺小到要通过高倍显微镜才能窥见一斑,但是说它是地球之王并不过分。地球上的种种都由微生物构…

元账户层是进入Web3元宇宙的传送门

当前的 Web3.0 更像是一个有限集合,可见的元素仅有去中心化金融(DeFi)、去中心化创作者经济(NFT&Gamefi&Metaverse)、去中心化账户与身份(Connect Wallet)。可谓稀少,甚至没…

编程能够带来食物和水吗?

导言: 读完我这篇文章或许能让你颠覆认知,亦或许能让你深受启发,也或者你也有和我一样的想法…… 最近在回顾《黑客帝国》前三部,准备看第四部,你这个问题突然激发了我一些思考,觉得蛮有意思的&#xff0…

[2021年新鲜出炉]K8s工程师资料合辑,书籍推荐,面试题,精选文章,开源项目,PPT,视频,大厂资料

【推荐收藏】68道常见的Kubernetes面试题总结 本内容节选自:https://github.com/0voice/k8s_awesome_document 如果想学习更多关于云原生、K8s的知识,可以点击订阅更新,关注本Github。 跟大厂一起认识K8s Kubernetes 的概述—官方Kubernetes…

Istio 中实现客户端源 IP 的保持

作者 尹烨,腾讯专家工程师, 腾讯云 TCM 产品负责人。在 K8s、Service Mesh 等方面有多年的实践经验。 导语 对于很多后端服务业务,我们都希望得到客户端源 IP。云上的负载均衡器,比如,腾讯云 CLB 支持将客户端源IP传…

【读书笔记】万物原理——打开客观世界与主观情感的大门

被尹烨老师推荐种草的,以为是一本讲生命科学的科普书,看上了又以为是说量子物理等高端科学研究的,最后被互补性理论惊到了。这哪里只是一本打开认知客观世界的大门,还让我重识内心。那些看不见摸不着的情感,比如同情心…

屌丝评:阿里云计算总裁胡晓明《让计算成为中国的能力》

2015年12月23日有幸参加由广东省人民政府和阿里巴巴集团举行的“数据引领,飞粤云端”2015年云栖大会广东峰会暨广东省云计算大数据开发者大会,也很荣幸现场听了阿里云计算总裁胡晓明先生的精彩演讲《让计算成为中国的能力》,作为IT界非著名的…

《循序渐进学Docker》——1.3 为什么使用Docker

本节书摘来自华章出版社《循序渐进学Docker》一书中的第1章,第1.3节,作者李金榜 尹烨 刘天斯 陈纯,更多章节内容可以访问云栖社区“华章计算机”公众号查看。 1.3 为什么使用Docker 当深入了解Docker后,你想在公司或部门推广Dock…

生命密码:你的第一本基因科普书

内容简介 生命如此美妙,我们却知之甚少。芸芸众生蕴藏哪些造化之妙?基因组学、生命科学为何包含无穷魅力?它有趣、有用,又有科学严谨的态度,用人人都看得懂的语言,轻松地解答那些古怪而让人忧心的问题&…

这一年,这些书:2022年读书笔记

Note: 以下 markdown 格式文本由 json2md 自动转换生成,可参考JSON转Markdown:我把阅读数据从MongoDB中导出转换为.md了了解具体的转换过程。 为什么是中国 作者:金一南[中] ISBN:9787559639134 出版社:北京联合出版…

Docker基础 --循序渐进学Docker(李金榜、尹烨......)学习笔记

docker基础 Docker三个重要的概念:仓库(Repository),镜像(Image)和容器(Container),他们是Docker的三大基础组件。 容器都是基于镜像创建的,基于一个镜像可以创建若干个…

华大基因尹烨的一些语录记录

不谋万事者不足谋一时,而不谋全局者不足谋一域。 技术的发展从来不以人的意志为转移。 实际上到那个点上就要认知,我们的人智是有穷尽的,生命是有尽头的。这个时候就一定要升维,不能还是在一个频道上去学了,一定要向上…

教你在Midjourney中直接使用ChatGPT

v ChatGPT云炬学长 ​之前零零碎碎的分享过很多教程, 基础的比较多,进阶的也有不少, 当时是想着将高级技巧收录进高阶教程里来收费的, 所以就有很多东西,一直都没有分享出来。 但现在不想靠卖这种教程来创收了。 …