ChatGPTGPT4开源“平替”汇总,持续更新

GPT视频教程

ChatGPT视频教程汇总: https://xueshu.fun/?s=gpt

ChatGPT/GPT4开源“平替”汇总,持续更新

ChatGPT爆火出圈,国内很多高校、研究机构和企业都发出类似ChatGPT的发布计划。ChatGPT没有开源,复现难度极大,即使到现在GPT3的完全能力也没有任何一个单位或者企业进行了复现。刚刚,OpenAI又官宣发布了图文多模态的GPT4模型,能力相对ChatGPT又是大幅提升,似乎闻到了以通用人工智能主导的第四次工业革命的味道。

无论是国外还是国内,目前距离OpenAI的差距越来越大,大家都在紧锣密鼓的追赶,以致于在这场技术革新中处于一定的优势地位,目前很多大型企业的研发基本上都是走闭源路线,ChatGPT和GPT4官方公布的细节很少,也不像之前发个几十页的论文介绍,OpenAI的商业化时代已经到来。当然,也有一些组织或者个人在开源平替上进行了探索,本文章汇总如下,本人也会持续跟踪,有更新的开源平替及时更新此处

一、自主模型篇

        该类方法主要采用非LLAMA等微调方式,自主设计或者优化GPT、T5模型,并实现从预训练、监督微调、强化学习等全周期过程。

ChatYuan

        ChatYuan(元语AI)是由元语智能开发团队开发和发布的,自称第一个国内最早的一个功能型对话大模型,可以写文章、写作业、写诗歌、做中英文间的翻译;一些法律等特定领域问题也可以提供相关信息。该模型目前只支持中文,github链接是:

        https://github.com/clue-ai/ChatYuan

        从披露的技术细节看,底层采用7亿参数规模的T5模型,并基于PromptClue进行了监督微调形成了ChatYuan。该模型基本上是ChatGPT技术路线的三步的第一步,没有实现奖励模型训练和PPO强化学习训练。

Colossal AI

        最近,ColossalAI开源了他们的ChatGPT实现。分享了他们的三步策略,完整实现了ChatGPT核心的技术路线:其Github如下:

        https://github.com/hpcaitech/ColossalAI

        本人基于该项目,更加明确了三步策略,并进行了分享:

        第一阶段(stage1_sft.py):SFT监督微调阶段,该开源项目没有实现,这个比较简单,因为ColossalAI无缝支持Huggingface,本人直接用Huggingface的Trainer函数几行代码轻松实现,在这里我用了一个gpt2模型,从其实现上看,其支持GPT2、OPT和BLOOM模型;

        第二阶段(stage2_rm.py):奖励模型(RM)训练阶段,即项目Examples里train_reward_model.py部分;

        第三阶段(stage3_ppo.py):强化学习(RLHF)阶段,即项目train_prompts.py

        三个文件的执行需要放在ColossalAI项目中,其中代码中的cores即原始工程中的chatgpt,cores.nn在原始工程中变成了chatgpt.models

ChatGLM

        ChatGLM是清华技术成果转化的公司智谱AI开源的GLM系列的对话模型,支持中英两个语种,目前开源了其62亿参数量的模型。其继承了GLM之前的优势,在模型架构上进行了优化,从而使得部署和应用门槛变低,实现大模型在消费级显卡上的推理应用。详细技术可以参考其github:

https://github.com/THUDM/ChatGLM-6B

        从技术路线上看,其实现了ChatGPT强化学习人类对齐策略,使得生成效果更佳贴近人类价值,其目前能力域主要包括自我认知、提纲写作、文案写作、邮件写作助手、信息抽取、角色扮演、评论比较、旅游建议等,目前其已经开发了正在内测的1300亿的超大模型,算是目前开源平替里面参数规模较大的对话大模型。

PaLM-rlhf-pytorch

        其号称首个开源ChatGPT平替项目,其基本思路是基于谷歌语言大模型PaLM架构,以及使用从人类反馈中强化学习的方法(RLHF)。PaLM是谷歌在今年4月发布的5400亿参数全能大模型,基于Pathways系统训练。其可以完成写代码、聊天、语言理解等任务,并且在大多数任务上具有强大的少样本学习性能。同时采用了ChatGPT一样的强化学习机制,能让AI的回答更加符合情景要求,降低模型毒性。        

        Github地址为:https://github.com/lucidrains/PaLM-rlhf-pytorch

GPTrillion

        该项目号称开源的最大规模模型,高达1.5万亿,且是多模态的模型。其能力域包括自然语言理解、机器翻译、智能问答、情感分析和图文匹配等。其开源地址为:

        https://huggingface.co/banana-dev/GPTrillion

OpenFlamingo

        OpenFlamingo是一个对标GPT-4、支持大型多模态模型训练和评估的框架,由非盈利机构LAION重磅开源发布,其是对DeepMind的Flamingo模型的复现。目前开源的是其基于LLaMA的 OpenFlamingo-9B模型。Flamingo模型在包含交错文本和图像的大规模网络语料库上进行训练,具备上下文少样本学习能力。OpenFlamingo实现了原始Flamingo中提出的相同架构,在一个新的多模态C4数据集的5M样本和LAION-2B的10M样本上训练而来。该项目的开源地址是:

        https://github.com/mlfoundations/open_flamingo

二、Alpaca模式篇

        LLaMA是由Facebook 母公司Meta发布的全新人工智能大型语言模型,在生成文本、对话、总结书面材料、证明数学定理或预测蛋白质结构等任务上方面表现良好。LLaMA模型支持20种语言,包括拉丁语和西里尔字母语言,目前看原始模型并不支持中文。

       LLaMA目前比较火的两个顶流开源项目是ChatLLaMA和stanford_alpaca

       ChatLLaMA是由Nebuly+AI推出的基于人类反馈强化学习的LLaMA+AI聊天机器人的开源实现,它的技术路线类似 ChatGPT,该项目上线刚刚 2 天,狂揽 5.2K 星。其github地址是:

        https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama

       ChatLLaMA 训练过程算法实现主打比 ChatGPT 训练更快、更便宜,据说能快近15倍,主要特色有:

        完整的开源实现,允许用户基于预训练的 LLaMA 模型构建 ChatGPT 风格的服务;

        LLaMA 架构更小,使得训练过程和推理速度更快,成本更低;

        内置了对 DeepSpeed ZERO 的支持,以加速微调过程;

        支持各种尺寸的 LLaMA 模型架构,用户可以根据自身偏好对模型进行微调。

       另外一个比较火的是最近刚发布的alpaca(羊驼模型),是由斯坦福基于 Meta 的 LLaMA 7B 模型微调出一个新模型,其基本原理是让 OpenAI 的 text-davinci-003 模型以 self-instruct 方式生成 52K 指令样本,以此来微调LLaMA。该项目已将训练数据、生成训练数据的代码和超参数开源,模型文件尚未开源,以一天多达到5.6K星的关注度,估计很快会开源其模型文件供大家使用。其github地址为:

        https://github.com/tatsu-lab/stanford_alpaca

        同时公布了一个DEMO地址:

        https://alpaca-ai-custom6.ngrok.io

        这种模式奠定了现在主流的类ChatGPT实现,大批类似模型开始涌现

OpenChatKit

        OpenChatKit由前OpenAI研究员所在的Together团队,以及LAION、Ontocord.ai团队共同打造。OpenChatKit包含200亿个参数,用GPT-3的开源版本GPT-NoX-20B进行微调。同时,不同ChatGPT的强化学习,OpenChatKit采用一个60亿参数的审核模型,对不合适或者是有害的信息进行过滤,确保生成内容的安全和质量。其github地址为:

        https://github.com/togethercomputer/OpenChatKit

BELLE

        基于 Stanford Alpaca ,实现基于Bloom、LLama的监督微调。Stanford Alpaca 的种子任务都是英语,收集的数据也都是英文,该开源项目是促进中文对话大模型开源社区的发展,针对中文做了优化,模型调优仅使用由ChatGPT生产的数据(不包含任何其他数据)。项目包含以下内容:

        175个中文种子任务

        生成数据的代码

       10M生成的数据,目前开源了1.5M、0.25M数学指令数据集和0.8M多轮任务对话数据集

        基于BLOOMZ-7B1-mt、LLama-7B优化后的模型

        github地址为:https://github.com/LianjiaTech/BELLE

alpaca-lora

        alpaca-lora是斯坦福大学的另一个巨作,其使用LoRA(low-rank adaptation)技术复现了Alpaca的结果,用了一个更加低成本的方法,只在一块RTX 4090显卡上训练5个小时得到了一个Alpaca水平相当的模型。而且,该模型可以在树莓派上运行。在该项目中,其使用了Hugging Face的PEFT来实现廉价高效的微调。PEFT 是一个库(LoRA 是其支持的技术之一),可以让你使用各种基于 Transformer的语言模型并使用LoRA对其进行微调,从而使得在一般的硬件上廉价而有效地微调模型。该项目github地址是:

        https://github.com/tloen/alpaca-lora

        尽管 Alpaca和alpaca-lora取得了较大的提升,但其种子任务都是英语,缺乏对中文的支持。一方面除了以上提到Belle收集到了大量的中文语料,另一方面基于alpaca-lora等前人工作,来自华中师范大学等机构的三位个人开发者开源的中文语言模型骆驼 (Luotuo),单卡就能完成训练部署。目前该项目释放了两个模型 luotuo-lora-7b-0.1、luotuo-lora-7b-0.3,还有一个模型在计划中。其github地址是:

        https://github.com/LC1332/Chinese-alpaca-lora

Dolly

        Dolly在Alpaca的启发下,用Alpaca数据集,在GPT-J-6B上实现微调,由于Dolly本身是一个模型的“克隆”,所以团队最终决定将其命名为“多莉”。这种克隆式在Alpaca启发下越来越多,总结起来大致采用Alpaca开源的数据获取方式,在6B或者7B规模大小的旧模型上进行指令微调,获得类似ChatGPT的的效果。这种思想很经济,也能迅速模仿出ChatGPT的韵味来,广受欢迎,一经推出star爆棚。该项目github地址是:

        https://github.com/databrickslabs/dolly

Vicuna和Chinese-Vicuna

        斯坦福学者继推出alpaca后,联手CMU、UC伯克利等,推出一个全新模型——130亿参数的Vicuna(俗称小羊驼、骆马)。仅需300美元就能实现ChatGPT 90%的性能。Vicuna是通过在ShareGPT收集的用户共享对话上对LLaMA进行微调训练而来,测试过程使用GPT-4作为评判标准,结果显示Vicuna-13B在超过90%的情况下实现了与ChatGPT和Bard相匹敌的能力。

        UC伯克利LMSys org近期又发布了70亿参数的Vicuna,不仅体积小、效率高、能力强,而且只需两行命令就能在M1/M2芯片的Mac上运行,还能开启GPU加速!

        github开源地址为:https://github.com/lm-sys/FastChat/

        另一个中文版的进行了开源Chinese-Vicuna ,github地址为:

        https://github.com/Facico/Chinese-Vicuna

LMFLOW

        ChatGPT爆火后,都在寻找通往圣殿的快捷之路,一些类ChatGPT开始出现,尤其是低成本效仿ChatGPT成为一个热门途径。LMFlow就是在这种需求场景下诞生的产物,他使得在3090这样的普通显卡上也能炼大模型。该项目由香港科技大学统计和机器学习实验室团队发起,致力于建立一个全开放的大模型研究平台,支持有限机器资源下的各类实验,并且在平台上提升现有的数据利用方式和优化算法效率,让平台发展成一个比之前方法更高效的大模型训练系统。

        利用该项目,即便是有限的计算资源,也能让使用者针对专有领域支持个性化训练。例如LLaMA-7B,一张3090耗时 5 个小时即可完成训练,成本大幅降低。该项目还开放了网页端即刻体验问答服务 (lmflow.com)。LMFlow的出现和开源使得普通资源可以训练问答、陪伴、写作、翻译、专家领域咨询等各种任务。目前很多研究者们正在尝试用该项目训练650亿甚至更高参数量的大模型。

        该项目github地址为:

        https://github.com/OptimalScale/LMFlow

Baize白泽

        该项目提出了一个自动收集 ChatGPT 对话的方法,让 ChatGPT 自我对话,批量生成高质量多轮对话数据集,分别收集了5万条左右Quora、StackOverflow和MedQA的高质量问答语料,并已经全部开源。同时其改进了LLama模型,效果还不错。白泽同样采用目前低成本的LoRA微调方案,获得白泽-7B、13B 和30B三种不同尺度,以及一个医疗垂直领域的模型。遗憾的是中文名字起的不错,但目前仍然不支持中文,中文的白泽模型据悉在计划中,未来发布。其开源github地址是:

        https://github.com/project-baize/baize

Koala考拉

        基于LLama的ChatGPT平替继续发酵,UC伯克利的伯克利发布了一个可以在消费级GPU上运行的对话模型Koala,参数达到13B。Koala 的训练数据集包括如下几个部分:ChatGPT数据和开源数据(Open Instruction Generalist (OIG)、斯坦福 Alpaca 模型使用的数据集、Anthropic HH、OpenAI WebGPT、OpenAI Summarization)。Koala模型在EasyLM中使用JAX/Flax实现,用了8 个A100 GPU,完成2轮迭代需要6个小时。评测效果优于Alpaca,达到ChatGPT 50%的性能。

       开源地址:https://github.com/young-geng/EasyLM

StackLLaMA

        随着斯坦福Alpaca的出现,一大堆基于LLama的羊驼家族和扩展动物家族开始出现,终于Hugging Face研究人员近期发布了一篇博客StackLLaMA:用RLHF训练LLaMA的实践指南。同时也发布了一个70亿参数的模型——StackLLaMA。这是一个通过人类反馈强化学习在LLaMA-7B微调而来的模型。详细见其博客地址:

        https://huggingface.co/blog/stackllama

Dolly2.0 (更新于2023年4月13日)

        4月12日,Databricks发布了Dolly2.0,号称业内第一个开源、遵循指令的LLM,数据集由Databricks员工生成,并进行了开源且可用于商业目的。新提出的Dolly2.0是一个120亿参数的语言模型,基于开源EleutherAI pythia模型系列,针对小型开源指令记录语料库进行了微调。

        开源地址为:https://huggingface.co/databricks/dolly-v2-12b

            https://github.com/databrickslabs/dolly

Deep Speed Chat (更新于2023年4月13日)

        该项目带来了全民ChatGPT的时代,训练成本再次大幅降低。项目是微软基于其Deep Speed优化库开发而成,具备强化推理、RLHF模块、RLHF系统三大核心功能,可将训练速度提升15倍以上,成本却大幅度降低。例如,一个130亿参数的类ChatGPT模型,只需1.25小时就能完成训练。

        开源地址为:https://github.com/microsoft/DeepSpeed

Wombat (更新于2023年4月16日)

        该项目采取了不同于RLHF的方式RRHF进行人类偏好对齐,RRHF相对于RLHF训练的模型量和超参数量远远降低。RRHF训练得到的Wombat-7B在性能上相比于Alpaca有显著的增加,和人类偏好对齐的更好。

        开源地址为:https://github.com/GanjinZero/RRHF

Guanaco (更新于2023年4月16日)

        Guanaco是一个基于目前主流的LLaMA-7B模型训练的指令对齐语言模型,原始52K数据的基础上,额外添加了534K+条数据,涵盖英语、日语、德语、简体中文、繁体中文(台湾)、繁体中文(香港)以及各种语言和语法任务。丰富的数据助力模型的提升和优化,其在多语言环境中展示了出色的性能和潜力。

        开源地址为:https://github.com/Guanaco-Model/Guanaco-Model.github.io

LLMZoo(凤凰Phoenix和Chimera) (更新于2023年4月16日)

        LLMZoo,即LLM动物园开源项目维护了一系列开源大模型,其中包括了近期备受关注的来自香港中文大学(深圳)和深圳市大数据研究院的王本友教授团队开发的Phoenix(凤凰)和Chimera等开源大语言模型,其中文本效果号称接近百度文心一言,GPT-4评测号称达到了97%文心一言的水平,在人工评测中五成不输文心一言。

        Phoenix 模型有两点不同之处:在微调方面,指令式微调与对话式微调的进行了优化结合;支持四十余种全球化语言。

        开源地址为:https://github.com/FreedomIntelligence/LLMZoo

OpenAssistant (更新于2023年4月16日)

        OpenAssistant是一个开源聊天助手,其可以理解任务、与第三方系统交互、动态检索信息。据其说,其是第一个在人类数据上进行训练的完全开源的大规模指令微调模型。该模型主要创新在于一个较大的人类反馈数据集(详细说明见数据篇),公开测试显示效果在人类对齐和毒性方面做的不错,但是中文效果尚有不足。

        开源地址为:https://github.com/LAION-AI/Open-Assistant

三、语料篇

开源传统对话语料

正在整理中。。。

指令集+答案

  1. Stanford-Alpaca数据集,52K的英文,采用Self-Instruct技术获取,数据已开源:

    https://github.com/tatsu-lab/stanford_alpaca/blob/main/alpaca_data.json

  2. 中文Stanford-Alpaca数据集,52K的中文数据,通过机器翻译翻译将Stanford-Alpaca翻译筛选成中文获得:

    https://github.com/ymcui/Chinese-LLaMA-Alpaca/blob/main/data/alpaca_data_zh_51k.json

  3. pCLUE数据,基于提示的大规模预训练数据集,根据CLUE评测标准转化而来,数据量较大,有300K之多

    https://github.com/CLUEbenchmark/pCLUE/tree/main/datasets

  4. Belle数据集,主要是中文,目前有2M和1.5M两个版本,都已经开源,数据获取方法同Stanford-Alpaca

    2M:https://huggingface.co/datasets/BelleGroup/train_2M_CN

    1M:https://huggingface.co/datasets/BelleGroup/train_1M_CN

    0.5M:https://huggingface.co/datasets/BelleGroup/train_0.5M_CN

  5. 微软GPT-4数据集,包括中文和英文数据,采用Stanford-Alpaca方式,但是数据获取用的是GPT-4

    中文:https://github.com/Instruction-Tuning-with-GPT-4/GPT-4-LLM/blob/main/data/alpaca_gpt4_data_zh.json

    英文:https://github.com/Instruction-Tuning-with-GPT-4/GPT-4-LLM/blob/main/data/alpaca_gpt4_data.json

  6. ShareChat数据集,其将ChatGPT上获取的数据清洗/翻译成高质量的中文语料,从而推进国内AI的发展,让中国人人可炼优质中文Chat模型,约约九万个对话数据,英文68000,中文11000条。

    https://paratranz.cn/projects/6725/files

  7. OpenAssistant Conversations, 该数据集是由LAION AI等机构的研究者收集的大量基于文本的输入和反馈的多样化和独特数据集。该数据集有161443条消息,涵盖35种不同的语言。该数据集的诞生主要是众包的形式,参与者超过了13500名志愿者,数据集目前面向所有人开源开放。

    https://huggingface.co/datasets/OpenAssistant/oasst1

仅指令集

  1. awesome-chatgpt-prompts,该项目基本通过众筹的方式,大家一起设计Prompts,可以用来调教ChatGPT,也可以拿来用Stanford-alpaca形式自行获取语料,有中英两个版本:

    英文:https://github.com/f/awesome-chatgpt-prompts/blob/main/prompts.csv

    简体中文:https://github.com/PlexPt/awesome-chatgpt-prompts-zh/blob/main/prompts-zh.json

    中国台湾繁体:https://github.com/PlexPt/awesome-chatgpt-prompts-zh/blob/main/prompts-zh-TW.json

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/36968.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

微软也搞起了开源小模型!利用OpenAI的ChatGPT和GPT-4 训练,实力碾压当前最强开源模型

来源 | AI前线 ID | ai-front 整理 | 核子可乐,褚杏娟 Chatbot Arena 等排行榜已经反复证明,数十亿美元支撑起来的 ChatGPT 仍然是聊天机器人领域无可争辩的王者。而人们只能调用其 API ,无法私有化部署,无法自己训练调整。…

chatgpt赋能python:Python-基于微信API搜索和加入微信群的实现方法

Python-基于微信API搜索和加入微信群的实现方法 随着微信群在社交领域的不断普及,越来越多的用户希望能够快速找到与自己相关的微信群,但是微信上的群搜索机制或者官方推荐机制并不总是满足用户需求。这时候,我们可以借助 Python 的强大功能…

chatgpt赋能python:Python获取微信群二维码

Python获取微信群二维码 微信群是现代社交网络中非常重要的一部分,它是线上社交活动的主要形式之一。微信群中聚集人群的特点和社交效果也吸引了越来越多的人加入。有些微信群还需要二维码来方便加入。 Python是一个非常强大的编程语言,可以通过它来获…

再谈数据架构, 探讨 Data 和 AI 结合的新产品形态

编辑 | 张俊宝 深度学习诞生 10 年,LLM (大语言模型技术)终于带来 AI 平民化。ChatGPT 爆火后,AIGC 浪潮席卷全球。AI 作画、AI 写歌、AI 生成视频…… 全球大厂纷纷推出 AIGC 应用,让 AI 变得“触手可及”。从技术角…

2023 年值得关注的7个SaaS趋势

软件即服务 (SaaS) 在过去十几年中逐渐走向主流,SaaS在越来越多的行业中取代本地部署系统,提供尖端的解决方案。SaaS产品之间也越来越卷,竞争加剧,客户的期望也越来越高。 Price Intelligently最近发布的一项研究表明&#xff0c…

树莓派(raspbian2)上开发OpenCv_C++

树莓派[raspbian2]上开发OpenCv_C 背景故事一.首先就是搭建环境了1.该位置是环境下载地址2.远程连接3.安装OpenCV(如果使用的是上面的镜像,则不用安装) 二.代码示例1.打开摄像头2.采集图像 以上是2023-06-12的日志,接下来还有四天的实训!继续更新!今天遇到个很大的问题:使用Mob…

压缩即泛化,泛化即智能

随着百度文心一言、ChatGPT、GPT4等先进技术的问世,我们或许是历史上首次深刻意识到机器智能已经走到了一个临界点,未来的增长曲线或许会变得非常陡峭。 大家所看到类似ChatGPT产品的底层算法都是GPT(Generative Pretraining Transformer&…

[day5]python网络爬虫实战:爬取Top250电影(Scrapy版)

l> 我的新书《Android App开发入门与实战》已于2020年8月由人民邮电出版社出版,欢迎购买。点击进入详情 文章目录 1.开发环境2.第三方库3.Scrapy css 语法4.网页分析5.xx.py6.保存爬取的内容为csv文件7.问题1:"UnicodeDecodeError: utf-8 codec …

在Flutter中使用markdown

最近在写flutter入门的项目,打算把常用的widgets和插件用法总结下,方便后期查找,项目大概是这个样子。 搜索页 widgets属性页面写的时候考虑排版,但是文字居多,如果设计下排版,用widgets把样式写好&#xf…

vvic、小红书API接口调用

本帖只展示部分代码及接口 需了解更多或开发系统请移步注册测试 http://console.open.onebound.cn/console/?iRookie { “item”: { “num_iid”: “5eb1097ba091410953951d17”, “title”: “2020夏季新款韩版女装高腰直筒裤宽松阔腿西装短裤上班穿搭 黑色 M”, “desc_shor…

Python的网易云音乐数据分析系统 爬虫 echarts可视化 Flask框架 音乐推荐系统 源码下载

Python的网易云音乐数据分析系统 爬虫 echarts可视化 Flask框架 音乐推荐系统 一、技术说明 网易云音乐数据(歌单、用户、歌词、评论)Python爬取Flask框架搭建ECharts、WordCloud可视化项目。系统分为:数据采集模块、数据分析处理模块、数据存储模块、以及数据可视…

【vue3仿网易云音乐app】歌单列表以及歌单界面

实现效果: 实现思路: 异步获取后台api中的歌单信息使用轮播图组件,实现歌单轮播将播放量转换为万、亿单位点击歌单画面,进入单独的歌单详情页 具体实现过程: 1. 异步获取后台api中的歌单信息 在api/index.js中定义获…

【分享】用java和pathon实现小红书(Red Booklet)客服自动回复功能、技术实现分析

技术栈:python、java、android,进程管理、socket通信 客户需求: 客户需要在Red Booklet平台做一个可以24小时自动回复用户私信、评论、回关用户等行为的客服软件。他说他们公司有50个小红书号,十几个客服,急需一款代…

哪家互联网大厂,对离职员工最“狠”?

本文转载自 时代数据,作者 张照 又到一年毕业季。今年高校应届毕业生达到909万人,再创历史新高。 但最让毕业生们焦虑的是,能否顺利进入互联网大厂工作。因为对于他们来说,进入一家互联网大厂工作意味着丰厚的薪水和光明的前景。…

被裁员,HR说要背调阴我!网友说,主动裁员还敢整人?录音留证,必须诉讼!...

HR能卑鄙到什么程度? 一位网友爆料:自己被裁员,HR威胁说要背调阴我,我说:随便! 网友说,主动裁员还敢整人?录音留证,必须诉讼! 有人让楼主威胁回去&#xff0c…

聊聊裁员

大家好!我是韩老师。 从去年下半年开始,无论是大厂还是小厂,不少公司都裁员风波不断。 昨天“微软科技”公众号上,也提及了裁员。 原文链接:预见2023 | 微软侯阳:上半年将在华推出两大服务,始终…

公司通知要大裁员,hr太强势,和所有人吵起来,老板见势不妙,不得不答应大家要求,把HR一起裁掉了!...

在裁员中,hr一般都会代表老板的利益和员工对抗,但如果hr和员工闹翻了,老板会维护hr吗? 一位网友说: 一上班就收到消息要裁员,立马让报上名单面谈,锁电脑关权限。后面那些人面谈的时候吵起来了&a…

谷歌、亚马逊、Meta等多家科技公司被爆员工「假工作」,裁员成最终归宿

整理 | 朱珂欣 出品 | CSDN程序人生(ID:coder_life) 国际知名商业顾问 Brent Peterson 和 Gaylan Nielson 曾在《Fake Work》中定义 「假工作」—— 在价值幻觉下所做的努力,包括毫无意义的会议、报告和演示。 在科技行业&…

雅思口语高分课程

雅思口语高分课程 雅思口语7的途径 课程英文名:Score High Ielts Speaking 此视频教程共4.0小时,中英双语字幕,画质清晰无水印,源码附件全 下载地址 百度网盘地址:https://pan.baidu.com/s/1eb-XCeEI5p5Z88Soc-hho…

应该如何训练自己的雅思口语?

如何训练自己的雅思口语?这是很多雅思考生在备考的时候遇到的问题,那么接下来就和来看看吧! 第一,用英文简单界定一个东西的技巧。美国人和美国人交谈80%是想告诉对方这个事物是什么。我们的课本尽管词汇难度不断加深,…