普通用户是否可以完成机器训练部署个性化私人AI

一、机器训练的本质

1、机器训练的本质:定义规则和逻辑

  • 机器学习的核心在于让机器通过学习数据中的模式,而不是通过显式编程来完成任务。
  • 这通常涉及:
    • 定义目标: 明确希望机器完成的任务,例如识别图像中的物体、翻译文本等。
    • 选择算法: 选择适合任务的机器学习算法,例如支持向量机、决策树、神经网络等。
    • 提供数据: 向机器提供大量带有标签或不带标签的数据,让机器从中学习规则和模式。
    • 训练模型: 通过优化算法参数,使机器能够根据学习到的规则完成任务。
  • 例如,在本地部署AI,并通过训练使其理解文档中的名称、术语和图片,实际上就是在定义一套针对特定文档的规则和逻辑。

2、大型语言模型的本质:数据标注和算法提升

  • 其核心在于:
    • 海量数据: 使用互联网上的海量文本数据进行训练,使模型能够学习语言的各种模式和知识。
    • 数据标注: 通过人工或自动方式对数据进行标注,使模型能够理解语言的语义和上下文。
    • 深度学习: 采用深度学习算法(如Transformer模型),使模型能够捕捉语言中的复杂关系和模式。
    • 算法优化: 通过不断优化算法,提高模型的语言生成和理解能力。
  • 大型语言模型通过学习大量数据,获得了对语言的广泛理解,从而能够进行文本生成、问答、翻译等多种任务。

3、补充说明

  • 机器学习的类型:
    • 监督学习: 使用带有标签的数据进行训练,例如图像识别、文本分类。
    • 无监督学习: 使用不带标签的数据进行训练,例如聚类、降维。
    • 强化学习: 通过与环境交互,使机器学习如何做出最优决策。
  • 大型语言模型的持续学习:
    • 大型语言模型可以通过持续学习,不断更新其知识库和提高性能。
    • 这通常涉及使用新的数据进行微调,以及收集用户反馈进行优化。
  • 机器学习的实际应用:
    • 机器学习已经被广泛应用于各个领域,例如:
      • 医疗:辅助诊断、药物研发。
      • 金融:风险评估、欺诈检测。
      • 交通:自动驾驶、智能交通管理。
      • 自然语言处理:机器翻译,智能客服。

二、普通用户是否可以完成机器训练

对大数不具备AI算法、软件编程的人而言,目前能不能完成自己个性化的机器训练?也就是说,用户只需要知道AI算法是干嘛用的、适合什么样的场景,然后对数据进行标注完成机器训练,最终形成一套适合自己的私有AI模型。

对于不具备深厚AI算法和软件编程知识的人来说,个性化的机器训练在当前技术发展下,已经变得越来越可行。以下是对这个问题的详细解答:

1、当前技术发展趋势:

  • AutoML(自动化机器学习):
    • AutoML平台和工具的出现,极大地降低了机器学习的门槛。
    • 这些平台能够自动完成数据预处理、模型选择、参数调优等复杂任务,用户只需提供数据和定义目标。
    • 例如,Google Cloud的Vertex AI和Amazon SageMaker等平台,都提供了强大的AutoML功能。
  • 低代码/无代码平台:
    • 这些平台提供了图形化界面和预构建的组件,用户可以通过拖拽和配置,快速构建机器学习模型。
    • 这使得用户无需编写大量代码,即可实现个性化的机器训练。
  • 预训练模型和微调:
    • 大型语言模型(LLM)的出现,为个性化机器训练提供了新的途径。
    • 用户可以使用预训练模型,并根据自己的特定需求,进行微调。
    • 这种方式大大减少了训练数据和计算资源的需求。
  • 用户友好的工具和界面:
    • 越来越多的工具和平台,致力于提供更加用户友好的界面和交互方式。
    • 这使得普通用户能够更加轻松地进行数据标注和模型训练。

2、个性化机器训练的实现:

  • 数据标注:
    • 数据标注是个性化机器训练的关键环节。
    • 用户需要根据自己的需求,对数据进行标注,例如标记图像中的物体、标注文本中的关键词等。
    • 现在有很多标注平台和工具,可以帮助用户高效地完成数据标注。
  • 选择合适的平台和工具:
    • 用户可以根据自己的需求和技术水平,选择合适的AutoML平台、低代码/无代码平台或预训练模型。
    • 这些平台和工具通常提供了详细的文档和教程,帮助用户快速上手。
  • 理解算法的应用场景:
    • 虽然用户不需要深入了解算法的细节,但了解不同算法的应用场景,有助于选择合适的模型。
    • 例如,分类算法适用于文本分类、图像识别等任务,回归算法适用于预测任务。
  • 迭代和优化:
    • 机器训练是一个迭代的过程。
    • 用户需要不断地评估模型性能,并根据评估结果,调整数据标注或模型参数。

3、结论:

  • 对于不具备深厚AI算法和软件编程知识的人来说,通过AutoML平台、低代码/无代码平台和预训练模型微调等方式,完成个性化的机器训练是可行的。
  • 用户需要重点关注于数据的标注,以及选择适合自身需求的平台和工具。
  • 随着AI技术的不断发展,个性化机器训练的门槛将进一步降低。

三、私有自动化机器学习平台

用户数据高度保密情况下,私有部署AutoML平台或其他工具的需求,是非常现实且重要的。在当前数据安全和隐私意识日益增强的背景下,许多企业和机构都倾向于选择私有化部署的机器学习解决方案。以下是一些相关信息:

1、私有化部署AutoML平台和工具的必要性:

  • 数据安全:
    • 对于涉及敏感数据(如医疗记录、金融数据、法律文件等)的场景,私有化部署可以有效避免数据泄露的风险。
    • 企业可以在自己的服务器或数据中心内部署机器学习平台,实现对数据的完全控制。
  • 合规性要求:
    • 某些行业或地区有严格的数据隐私法规(如GDPR、HIPAA等),要求数据必须在本地处理和存储。
    • 私有化部署可以帮助企业满足这些合规性要求。
  • 定制化需求:
    • 不同企业和机构的机器学习需求各不相同。
    • 私有化部署可以提供更高的灵活性和定制化能力,允许企业根据自身需求定制平台功能和算法。

2、目前可用的私有化部署产品和方案:

  • 企业级机器学习平台:
    • 一些大型科技公司和软件供应商提供企业级的机器学习平台,支持私有化部署。
    • 例如,一些云计算厂商会提供可以部署在客户私有服务器上的机器学习解决方案。
    • 例如:智能钛机器学习平台,此平台有私有化部署的版本。
  • 开源AutoML工具:
    • 存在一些开源的AutoML工具和库,可以供企业自行部署和定制。
    • 这些工具提供了AutoML的基本功能,企业可以根据自身需求进行扩展和优化。
  • 数据库内置机器学习:
    • 例如:Oracle Database 包含30 多种高性能算法,提供机器学习功能。企业可以在自己的数据库内部署这些功能,从而实现数据的本地化处理。

3、选择私有化部署方案时需要考虑的因素:

  • 安全性:
    • 确保平台具有强大的安全功能,包括数据加密、访问控制、漏洞防护等。
  • 可扩展性:
    • 选择支持灵活扩展的平台,以满足未来数据和计算资源的需求。
  • 易用性:
    • 选择具有用户友好界面和丰富文档的平台,降低使用和维护的难度。
  • 成本:
    • 综合考虑硬件、软件、人员等成本,选择性价比高的方案。

4、面向个人的AI工具和平台:

  • 云服务提供商的个人版服务:
    • Google Cloud Platform (GCP) 和 Amazon Web Services (AWS):
      • 这些云服务提供商也提供面向个人开发者的服务,虽然完整的功能和watsonx相比,有区别,但是它们提供了比较灵活的按需付费模式,可以根据实际使用情况控制成本。
      • 例如,GCP的Vertex AI和AWS的SageMaker,都提供了相对易于使用的机器学习工具。
    • 这些平台允许您使用他们强大的计算资源,并根据您的使用量付费,这对于个人项目来说可能更经济实惠。
  • 开源工具和库:
    • TensorFlow和PyTorch:
      • 这些是流行的开源深度学习框架,可以用于构建和训练各种机器学习模型。
      • 它们是免费的,并且有庞大的社区支持,但是需要一定的编程基础。
    • Hugging Face:
      • Hugging Face提供了一个平台,用于共享和使用预训练的机器学习模型,包括大型语言模型。
      • 您可以利用这些模型,并根据自己的需求进行微调。
  • 本地部署的AI工具:
    • 对于注重数据隐私的个人用户,本地部署AI工具也是一种选择。
    • 现在,一些开源项目和工具,使得在个人电脑上运行大型语言模型成为可能。
    • 但是,本地运行大型模型通常需要强大的硬件配置。

5、个人用户需要考虑的因素:

  • 成本:
    • 云服务通常采用按需付费模式,而本地部署则需要考虑硬件成本。
    • 根据您的项目需求和预算,选择最经济实惠的方案。
  • 技术水平:
    • 开源工具和库需要一定的编程基础,而云服务平台通常提供更友好的图形界面。
    • 根据您的技术水平,选择易于使用的工具。
  • 数据隐私:
    • 如果您的数据非常敏感,本地部署可能是更好的选择。
    • 如果选择云服务,请务必了解服务提供商的数据隐私政策。

4、总结:

在数据安全和隐私要求较高的场景下,私有化部署AutoML平台或其他机器学习工具是必要的。目前市场上存在多种可供选择的产品和方案,企业可以根据自身需求和预算,选择合适的解决方案。

通过云服务提供商的个人版服务、开源工具和库,以及本地部署的AI工具,个人用户仍然可以实现许多类似的AI功能。在选择时,请务必根据自己的需求、预算和技术水平,选择最合适的方案。

四、企业私有AI平台IBM Watsonx介绍

IBM watsonx是一个面向企业的AI和数据平台,它旨在帮助企业构建、部署和管理AI模型,其中包括机器学习模型。

1、IBM watsonx的关键点:

  • 企业级AI平台:
    • watsonx是一个全面的AI平台,旨在满足企业在AI开发和部署方面的需求。
    • 它提供了工具、库和基础设施,用于构建、训练和部署各种AI模型,包括机器学习模型和生成式AI模型。
  • 数据治理和安全性:
    • watsonx强调数据治理和安全性,这对于企业级应用至关重要。
    • 它提供了工具和功能,用于管理数据质量、安全性和合规性。
  • 多模型支持:
    • watsonx支持多种AI模型,包括机器学习模型、深度学习模型和生成式AI模型。
    • 这使得企业能够根据自己的需求选择合适的模型。
  • 部署灵活性:
    • IBM提供了watsonx的多种部署选项,以满足不同企业的需求。
    • 这包括云部署和本地部署,让企业可以选择最适合他们的部署方式。所以,是可以满足企业私有化部署的需求的。

因此,IBM watsonx确实可以被视为一个面向企业的、能够支持私有机器训练的平台。它旨在为企业提供一个安全、可靠和灵活的AI开发和部署环境。

2、IBM watsonx与开源模型:

  • 开放性:
    • IBM watsonx旨在提供一个开放的AI平台,支持多种模型和技术。这意味着它可以与开源模型集成。
    • watsonx的设计允许企业灵活地选择和部署适合其需求的模型,无论是IBM提供的模型还是开源模型。
  • 模型部署:
    • watsonx提供了模型部署工具和基础设施,可以帮助企业将开源模型部署到其平台上。
    • 这包括支持容器化技术,如Docker和Kubernetes,使得模型的部署和管理更加便捷。
  • 定制化:
    • 通过watsonx,企业可以对开源模型进行定制和微调,以满足其特定的业务需求。
    • 这包括使用企业内部的数据对模型进行训练,以提高其在特定领域的性能。

3、实现企业内部功能:

  • 自动翻译:
    • 可以将开源的翻译模型(如MarianMT、OPUS-MT等)部署到watsonx上,实现企业内部的自动翻译功能。
    • 通过定制化训练,可以使翻译模型更好地适应企业内部的术语和语言风格。
  • 日常使用的大语言模型:
    • 可以将开源的大语言模型(如LLaMA、Falcon等)部署到watsonx上,为企业员工提供智能助手、问答系统等功能。
    • 通过微调和优化,可以使大语言模型更好地服务于企业的特定需求。
  • watsonx.governance:
    • 通过watsonx.governance,用户可以对第三方模型进行管理。这其中包括对模型风险的监控,和对模型表现的记录。

4、总结:

  • IBM watsonx具有足够的灵活性,支持开源模型的部署和定制。
  • 企业可以利用这一特性,实现内部的自动翻译、日常使用的大语言模型等功能。
  • watsonx.governance为企业提供了对模型全生命周期的管理。

因此,将开源模型部署到IBM watsonx上,对于希望利用开源AI技术构建企业内部AI应用的企业来说,是一个可行的选择。

五、 开源AI工具介绍

1、Hugging Face

  • 概述:
    • Hugging Face是一个专注于自然语言处理(NLP)的平台和社区,旨在 democratize good machine learning through open source and open science。它提供了一个广泛的工具和库,用于构建、训练和部署NLP模型。
    • Hugging Face的核心产品是Transformers库,它提供了一系列预训练的Transformer模型,可以用于各种NLP任务。
  • 主要特点:
    • Transformers库:
      • 提供大量预训练的Transformer模型,如BERT、GPT、T5等,支持PyTorch、TensorFlow和JAX。
      • 简化了NLP模型的开发和使用,使得开发者可以快速构建高性能的NLP应用。
    • Hugging Face Hub:
      • 一个模型、数据集和应用程序的平台,用户可以分享和发现各种NLP资源。
      • 促进了NLP领域的合作和知识共享。
    • Datasets库:
      • 提供了一系列用于加载和处理NLP数据集的工具,简化了数据预处理的流程。
    • 加速库(Accelerate):
      • 让用户在任何分布式硬件上都能简单的训练pytorch模型。
  • 应用场景:
    • 文本分类、情感分析、机器翻译、问答系统、文本生成等。
    • 适用于各种需要使用NLP技术的应用场景。

2、TensorFlow

  • 概述:
    • TensorFlow是由Google开发的开源机器学习框架,被广泛应用于各种机器学习任务。
    • 它提供了一个灵活的架构,支持各种计算平台,包括CPU、GPU和TPU。
  • 主要特点:
    • 强大的计算能力:
      • 支持高效的数值计算和大规模机器学习。
      • 适用于各种复杂的机器学习模型。
    • 灵活的架构:
      • 提供了高层次的API(如Keras)和低层次的API,满足不同开发者的需求。
      • 支持静态图和动态图两种计算模式。
    • 丰富的工具和库:
      • 提供了TensorBoard等工具,用于可视化模型训练过程。
      • 拥有庞大的社区和丰富的第三方库。
    • 跨平台支持:
      • TensorFlow Lite, 可以将模型部署到移动端,和嵌入式系统。
  • 应用场景:
    • 图像识别、语音识别、自然语言处理、推荐系统等。
    • 适用于各种需要使用机器学习技术的应用场景。

3、PyTorch

  • 概述:
    • PyTorch是由Facebook(现Meta)开发的开源机器学习框架,以其灵活性和易用性而闻名。
    • 它采用动态图计算模式,使得开发者可以更加方便地调试和修改模型。
  • 主要特点:
    • 动态图计算:
      • 允许开发者在运行时动态地构建和修改计算图,方便调试和实验。
      • 使得PyTorch在研究领域非常受欢迎。
    • 易用性:
      • 提供了简洁的API和丰富的工具,使得开发者可以快速上手。
      • 拥有活跃的社区和丰富的第三方库。
    • GPU加速:
      • 支持GPU加速,可以提高模型训练和推理的速度。
    • 强大的生态系统:
      • PyTorch拥有活跃的社区和丰富的第三方库,例如Pytorch lightning,可以简化深度学习工作流。
  • 应用场景:
    • 深度学习研究、自然语言处理、计算机视觉等。
    • 适用于各种需要使用深度学习技术的应用场景。

4、总结:

  • Hugging Face专注于NLP领域,提供了丰富的预训练模型和工具,简化了NLP应用的开发。
  • TensorFlow是一个强大的机器学习框架,适用于各种机器学习任务,具有灵活的架构和丰富的工具。
  • PyTorch是一个灵活且易于使用的深度学习框架,特别适合于研究和实验,拥有强大的动态图计算能力。

六、Google Cloud的Vertex AI介绍

1、Vertex AI与Python能力:

  • Python SDK的用途:
    • Google Cloud的Vertex AI提供了Python SDK,这对于希望进行更高级、更定制化的机器学习开发人员来说非常有用。
    • Python SDK允许开发人员以编程方式与Vertex AI交互,执行诸如数据处理、模型训练和部署等任务。
    • 因此,如果你想进行深度定制化的机器学习,python能力会有很大的帮助。
  • AutoML功能:
    • 然而,Vertex AI也提供了AutoML(自动化机器学习)功能,这些功能旨在使机器学习更容易被非专业人士使用。
    • AutoML允许用户通过图形用户界面(GUI)或简单的配置来训练模型,而无需编写大量代码。
    • 这意味着,即使您不具备深厚的Python编程能力,也可以使用Vertex AI进行机器训练。
    • 例如,Vertex AI的AutoML Tables功能允许用户上传表格数据,并自动训练模型进行预测。

3、普通人使用Vertex AI:

  • 图形用户界面:
    • Vertex AI的GUI提供了许多可视化工具和向导,可以引导用户完成机器学习工作流程。
    • 用户可以通过简单的点击和拖拽操作,完成数据导入、模型选择和训练等任务。
  • 预训练模型:
    • Vertex AI还提供了预训练模型,用户可以直接使用这些模型进行推理,而无需进行额外的训练。
    • 这降低了使用机器学习的门槛,使得普通用户也可以利用AI技术。
  • 降低门槛:
    • Google Cloud一直在努力简化Vertex AI的使用,使其更加易于访问。
    • 所以,普通用户也可以通过Google Cloud的Vertex AI平台进行机器学习。

3、总结:

  • 虽然Python能力对于Vertex AI的高级使用很有帮助,但普通用户仍然可以通过AutoML功能和GUI,基于Vertex AI进行机器训练。
  • Google Cloud致力于降低机器学习的门槛,使更多人能够利用AI技术。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.rhkb.cn/news/36910.html

如若内容造成侵权/违法违规/事实不符,请联系长河编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

C#从入门到精通(1)

目录 第一章 C#与VS介绍 第二章 第一个C#程序 (1)C#程序基本组成 1.命名空间 2.类 3.Main方法 4.注释 5.语句 6.标识符及关键字 (2)程序编写规范 1.代码编写规则 2.程序命名方法 3.元素命名规范 第三章 变量 &…

【LINUX操作系统】 动静态库的链接原理

初识linux(16) 动静态库(手搓动静态库!)-CSDN博客 完成了对动静态库使用的学习,现在浅显理解下动态库加载的原理。 1. 宏观认知 磁盘中的应用程序main和动态库libmystdio.so先加载到内存中 加载到内存后&am…

广东启动“跨境电商+产业带”系列活动 三年打造30个产业振兴样板

大湾区经济网湾区财经快讯,近日,2025年广东省“跨境电商+产业带”助力“百千万工程”系列活动在中山市古镇镇启动。作为外贸领域新质生产力的重要载体,跨境电商将通过赋能县域特色产业带转型升级,为城乡融合与乡村振兴…

穿透递归的本质:从无限梦境到可控魔法的蜕变之路

穿透递归的本质:从无限梦境到可控魔法的蜕变之路(C实现) 一、递归:程序员的盗梦空间 在计算机科学的宇宙中,递归是最接近魔法本质的编程范式。它像一面镜子中的镜子,引导我们通过自我相似性破解复杂问题。…

基于django+vue的购物商城系统

开发语言:Python框架:djangoPython版本:python3.8数据库:mysql 5.7数据库工具:Navicat11开发软件:PyCharm 系统展示 系统首页 热卖商品 优惠资讯 个人中心 后台登录 管理员功能界面 用户管理 商品分类管理…

WordPress靶场攻略

后台修改模板 修改404.php为一句话木马 访问404.php,验证有没有成功 http://47.122.51.245:8080/wp-content/themes/twentyfifteen/404.php?cmdphpinfo(); 上传主题 创建6.php,写入图中代码 自己随便下载一个主题包,将1.php和主题包压缩在一起,提交上…

JVM常用概念之对象对齐

问题 对象对齐有什么规范吗?对象对齐是8个字节吗? 基础知识 许多硬件实现要求对数据的访问是对齐的,即确保所有 N 字节宽度的访问都在 N 的整数倍的地址上完成。即使对于普通的数据访问没有特别要求,特殊操作(特别是原子操作&#xff09…

K8S学习之基础三十七:prometheus监控node资源

Prometheus v2.2.1 ​ 编写yaml文件,包含创建ns、configmap、deployment、service # 创建monitoring空间 vi prometheus-ns.yaml apiVersion: v1 kind: Namespace metadata:name: monitor-sa# 创建SA并绑定权限 kubectl create serviceaccount monitor -n monito…

leetcode127.单词接龙

本题的思路就是将所有可转换的序列相连,构成图,然后选择起始词作为广度优先遍历的起点,那么就能找到转换的最小步骤数 而这里的两个单词是否相连不是真的把他们弄成一张图,而是采用暴力枚举,逐个尝试替换字母&#xf…

Tr0ll2靶机详解

一、主机发现 arp-scan -l靶机ip:192.168.55.164 二、端口扫描、漏洞扫描、目录枚举、指纹识别 2.1端口扫描 nmap --min-rate 10000 -p- 192.168.55.164发现21端口的ftp服务开启 以UDP协议进行扫描 使用参数-sU进行UDP扫描 nmap -sU --min-rate 10000 -p- 19…

Pycharm接入DeepSeek,提升自动化脚本的写作效率

一.效果展示: 二.实施步骤: 1.DeepSeek官网创建API key: 创建成功后,会生成一个API key: 2. PyCharm工具,打开文件->设置->插件,搜索“Continue”,点击安装 3.安装完成后&…

如何在 Node.js 中使用 .env 文件管理环境变量 ?

Node.js 应用程序通常依赖于环境变量来管理敏感信息或配置设置。.env 文件已经成为一种流行的本地管理这些变量的方法,而无需在代码存储库中公开它们。本文将探讨 .env 文件为什么重要,以及如何在 Node.js 应用程序中有效的使用它。 为什么使用 .env 文…

《视觉SLAM十四讲》ch13 设计SLAM系统 相机轨迹实现

前言 相信大家在slam学习中,一定会遇到slam系统的性能评估问题。虽然有EVO这样的开源评估工具,我们也需要自己了解系统生成的trajectory.txt的含义,方便我们更好的理解相机的运行跟踪过程。 项目配置如下: 数据解读: …

软考高级信息系统管理工程师通关100题(21-40)附记忆口诀

文章目录 21.常用存储模式的技术与应用对比22.物联网架构23.云计算服务提供的资源层次24.大数据25.区块链26.人工智能27.虚拟现实VR28.IT治理的内涵29.IT 治理活动30.IT治理本质31.IT审计目标32.IT审计方法33.治理系统设计34.数据管理能力成熟度评估模型35.项目管理原则36.管理…

Redisson 分布式锁原理

加锁原理 # 如果锁不存在 if (redis.call(exists, KEYS[1]) 0) then# hash结构,锁名称为key,线程唯一标识为itemKey,itemValue为一个计数器。支持相同客户端线程可重入,每次加锁计数器1.redis.call(hincrby, KEYS[1], ARGV[2], 1);# 设置过期时间redis.call(pexpi…

主流加固方案深度剖析(梆梆/腾讯/阿里)

1. 加固技术演进与核心原理 1.1 移动端加固技术图谱 graph TD A[代码防护] --> A1[混淆] A --> A2[虚拟化] A --> A3[动态加载] B[数据防护] --> B1[资源加密] B --> B2[协议加密] C[运行时防护] --> C1[反调试] C --> C2[环境检测] C --> C…

大模型之蒸馏模型

蒸馏模型(Distilled Model)是一种通过知识蒸馏(Knowledge Distillation)技术训练得到的轻量级模型,其核心思想是将一个复杂的大模型(称为教师模型)的知识“迁移”到一个更小、更高效的模型&…

iPaaS集成平台中的API可视化编排能给企业带来什么作用

随着企业数字化转型的加速,API(应用程序接口)作为企业数字化资产的核心组成部分,其数量和复杂性不断增加。为了满足业务敏捷化交付的要求,API可视化编排平台应运而生。谷云科技作为这一领域的领先者,其API可…

演员马晓琳正式加入创星演员出道计划,开启演艺事业新篇章

3月19日,演员马晓琳正式加入“创星演员出道计划”,不仅得到参演都市爱情喜剧《和我结婚吧》角色的机会,还获得文旅精品网剧《醉梦灵州》的出演机会,自此开启全新影视之路。对表演抱有极大热情的马晓琳,相信未来可以凭借…