51CTO博客链接:https://blog.51cto.com/u_13637423

在今天Microsoft Ignite 大会,微软发布了新一代的Copilot结合先进的Azure Open AI技术,通过自然语言交互,为用户提供建议、完成任务和自动执行重复性工作来帮助你节省时间和精力,比如:

·       Microsoft Copilot for Sales 借助生成式 AI 的会议总结、通话转录和情景化邮件回复提高效率,简化销售流程,让大家有更多时间专注于销售。

·       Microsoft Copilot for Service 助您打造智能化客户服务中心,还能智搜全网内容,辅助客服团队为客户提供个性化回复以及对客服绩效产生积极影响,对客户问题进行情绪分析,提供分析见解

那么在我们考虑落地Copilot的时候,作为IT Leader我们应该从哪些安全角度来完成落地部署的考量?

首先,让我们了解一下Microsoft Copilot的工作原理,如下:

Microsoft 365 解决方案:Copilot for Microsoft 365 安全落地123_安全落地

如上图得知,Copilot 从应用中的用户接收输入的提示词,获取该用户有权限访问的数据进行预处理、LLM分析后返回给用户交互内容。

核心组件是LLM(大型语言模型),专用于理解和生成类似于人类的文本。 LLM 中的“大”既指模型在参数数量上的规模,也指训练模型所依据的大量数据。 Copilot 使用 LLM(例如生成式预训练转换器 (GPT))来了解、汇总、预测和生成内容。 LLM(包括 ChatGPT 等模型)是一种生成式 AI。 生成式 AI(如 LLM)不仅能预测或分类,还能生成全新的内容。 应用于文本时,LLM 可以根据提供的提示生成上下文相关且语法正确的响应。

这里,重点强调一下,Copilot是基于现有的Microsoft 365 角色访问控制来获取授权访问数据,进行后续的LLM分析,那么如果此时用户的权限过大,有可能发生敏感机密数据有泄漏的风险,所以推荐落地Copilot for Microsoft 365的同时,考虑如何对现有组织内的敏感数据加强保护管理,推荐部署步骤:

·       为防止不良参与者使用 Copilot 更快地发现和访问敏感数据,第一步是通过条件访问阻止他们获取访问权限。

·       为防止组织的数据面临过度曝光或过度共享的风险,通过Sensitivity Label来保护 Microsoft 365 租户中的数据。

·       为了防止不良参与者破坏设备,或使用泄露的设备来访问 Copilot,通过使用 Microsoft 365 的设备管理和保护功能来监控设备的风险级别,主动防止数据丢失

配置条件访问模版

条件访问模板提供一种便捷的方法来部署符合 Microsoft 建议的新策略。 这些模板旨在提供与常用于各种客户类型和位置的策略相符的最大保护。

·       需要对管理员进行多重身份验证

·       保护安全信息注册

·       阻止旧式身份验证

·       需要对访问 Microsoft 管理门户的管理员进行多重身份验证

·       需要对所有用户进行多重身份验证

·       需要对 Azure 管理进行多重身份验证

·       对所有用户要求使用合规/已建立 Microsoft Entra 混合联接的设备或进行多重身份验证

Sensitivity Label增加组织内数据的额外保护

当企业将Sensitivity Label应用到敏感或者绝密的数据时,会有一层额外的保护,用户必须具有Extract使用权限,Copilot才能返回数据。

Microsoft 365 解决方案:Copilot for Microsoft 365 安全落地123_安全落地_02

部署或验证设备管理和保护

为了防止不良参与者破坏设备,或使用泄露的设备来访问 Copilot,下一步是使用 Microsoft 365 的设备管理和保护功能。 请务必确保:

·       步骤 1. 实现应用保护策略

·       步骤 2. 注册设备进行管理

·       步骤 3. 设置符合性策略

·       步骤 4. 需要正常且合规的设备

·       步骤 5。 部署设备配置文件

今天的分享就到这里,希望大家将 AI 工具引入企业时,同时也要考虑数据安全和防护的问题,如果大家有相关方面的需求和讨论,欢迎线下讨论。