GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。
Security Papers
🔹对软件供应链的信任:支持区块链领域的SBOM和AIBOM
简介:这项研究通过引入区块链授权的SBOM共享方法,利用可验证的凭证允许选择性披露,为这些挑战提出了一种新颖的解决方案。此外,本文将SBOM的职权范围扩大到包括人工智能系统,从而创造了人工智能物料清单(AIBOM)一词。
链接:
https://arxiv.org/pdf/2307.02088.pdf
🔹ChatGPT生成代码的安全漏洞
简介:本文探讨了人工智能生成代码对网络安全的影响以及ChatGPT兴起的重要冲击。
链接:
https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security-vulnerabilities.html
🔹微软开源Azure ChatGPT!专为企业打造的安全版ChatGPT
简介:ChatGPT在全球火爆出圈后,数据安全、用户隐私等难题成为其实现场景化落地、技术发展的绊脚石。多数企业希望将ChatGPT应用在实际业务中,但碍于数据安全一直处于犹豫、观望状态。现在,为了帮助企业安全、可靠地在业务流程中应用ChatGPT,微软开源了Azure ChatGPT。
链接:
https://github.com/imartinez2/azurechatgpt
Security Tools
🔹promptbench
简介:该工具是大语言模型针对对抗性提示词的健壮性评估框架。
链接:
https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security-vulnerabilities.html
🔹ChatGPT暗黑版——FraudGPT
简介:对FraudGPT的研究提醒人们,网络犯罪分子将如何不断改变他们的技术以获得最大的影响。然而,免费提供的工具也带来了网络安全风险。任何使用互联网或致力于保护在线基础设施的人都必须跟上新技术及其风险。关键是负责任地使用ChatGPT等工具,同时保持对潜在危害的认识。
链接:
https://hackernoon.com/what-is-fraudgpt
🔹LangKit
简介:ChatGPT等大语言模型一直有生成虚假信息、数据隐私、生成歧视信息等难题,阻碍了业务场景化落地。为了解决这些痛点并增强大语言模型的安全性,AI和数据监控平台WhyLabs推出了LangKit。
链接:
https://github.com/whylabs/langkit