IT资讯 微软宣布推出 Security Copilot:为网络安全专家量身定制的 GPT-4 AI 助手

shino · 2023-03-29 10:20:09 · 热度: 20

3 月 29 日消息,在宣布为 Office 应用提供人工智能驱动的 Copilot 助手后,微软现在将注意力转向网络安全。

微软推出了一款新的人工智能助手,名为 Security Copilot,专门为网络安全专业人士提供帮助。这款助手可以帮助防御者识别网络入侵,更好地理解每天收集到的海量信号和数据。

Security Copilot 的核心技术是 OpenAI 的 GPT-4 生成式人工智能和微软自己的安全专用模型。Security Copilot 看起来像一个简单的对话框,就像其他的聊天机器人一样。你可以问“我企业里有哪些安全事件?”,它就会给你一个概要。但在幕后,它利用了微软每天收集到的 65 万亿个信号,以及安全领域的专业技能,让安全专业人士能够追踪威胁。

Security Copilot 的设计目的是辅助而不是取代安全分析师的工作,并且还包括一个便签板功能,让同事们可以协作和分享信息。安全专业人士可以使用 Security Copilot 来进行事件调查或快速总结事件并帮助进行报告。

Security Copilot 接受自然语言输入,所以安全专业人士可以询问某个特定漏洞的概要,输入文件、网址或代码片段进行分析,或者从其他安全 工具 中获取事件和警报信息。所有的提问和回答都会被保存,所以调查者可以有完整的审计记录。

结果可以被固定和总结到一个共享的工作空间,这样同事们就可以一起进行威胁分析和调查。

Security Copilot 最有趣的一个方面是提示书(prompt book)功能。它本质上是一组步骤或自动化功能,可以打包成一个单一的易用按钮或 prompt。比如说,可以有一个共享的 prompt 来对一个脚本进行逆向工程,这样安全研究人员就不用等待他们团队中的某个人来执行这种类型的分析。甚至可以使用 Security Copilot 来创建一个 PowerPoint 幻灯片,概述事件和攻击向量。

就像 Bing 一样,当安全研究人员询问最新漏洞信息时,微软也会清楚地标明结果来源。微软使用了来自网络安全与基础设施安全局、国家标准与技术研究院的漏洞数据库以及微软自己的威胁情报数据库中的信息。

但这并不意味着微软的 Security Copilot 总是正确的。“我们知道有时候这些模型会出错,所以我们提供了确保我们有反馈的能力,”微软人工智能安全架构师 Chang Kawaguchi 说,反馈循环比 Bing 上的赞或踩要复杂得多。“因为它可能有很多种错误方式,”Kawaguchi 解释说。微软将让用户回答到底哪里出错了,以便更好地理解任何错误。

虽然微软的 Security Copilot 看起来像 Bing 一样的聊天机器人,但该公司将其限制在与安全有关的查询上。你不能在这里获取最新的天气信息,也不能问它最喜欢的颜色是什么。

码农网 了解,微软今天开始向“几个客户”提供新的 Security Copilot 预览版,官方并未公布更广泛地推出这个技术的日期。

为您推荐与 微软 相关的帖子:

暂无回复。
需要 登录 后方可回复, 如果你还没有账号请点击这里 注册