首页 > 科技周边 > 人工智能 > 微软向美国政府提供GPT大模型,如何保证安全性?

微软向美国政府提供GPT大模型,如何保证安全性?

PHPz
发布: 2023-06-12 20:59:18
转载
771 人浏览过

微软向美国政府提供GPT大模型,如何保证安全性?

生成式人工智能的热潮已经席卷到了美国联邦政府,微软宣布推出Azure OpenAI服务,允许Azure政府客户访问GPT-3、 GPT-4以及Embeddings。

微软在一份声明中说,政府机构将通过此项服务获得ChatGPT用例,而且不会牺牲“他们为了满足政府对敏感数据的要求所需要的、严格的安全和合规标准。”

微软声称,它已经开发了一种架构,让政府客户“能够从Azure Government安全地访问商业环境中的大语言模型”。微软表示,通过Python SDK REST APIs或者 Azure AI Studio进行访问,所有这一切都不会将政府数据暴露在公共互联网上。

微软承诺称:“只有提交给Azure OpenAI服务的查询才会转入商业环境中的Azure OpenAI模型。”“Azure Government直接与微软Azure商业网络对等,而不直接与公共互联网或者微软企业网对等。”

微软报告称,它使用IEEE 802.1AE——或MACsec——网络安全标准对所有Azure流量进行加密,而且所有的流量都驻留在全球骨干网中,该骨干网由超过25万公里的光纤和海底电缆系统构成。

Azure OpenAI Service for government已经全面推出,对于经过批准的企业或者政府客户,已经可以使用了。

政府用的ChatGPT到底能有多保密?

微软一直希望赢得美国政府的信任——但它也出过纰漏。

有消息称有超过1兆字节的政府敏感军事文件被暴露在公共互联网上——国防部和微软就这个问题互相指责。

微软子公司、ChatGPT的创建者OpenAI在安全方面也不尽如人意,3月份,一个糟糕的开源库让一些用户的聊天记录被曝光。从那个时候起,一些知名的公司——包括苹果、亚马逊和几家银行——因为担心ChatGPT可能暴露内部机密信息,已经禁止内部使用它。

英国的间谍机构GCHQ甚至对这种风险发出了警告。那么,即使这些秘密显然不会被传输到一个不受信任的网络,但美国政府把自己的秘密交给微软是否正确?

微软表示,它不会专门使用政府数据来训练OpenAI模型,所以绝密数据很可能不会在给其他人的回复中被泄露。但是这并不意味着它可以被默认安全。微软在公告中委婉地承认,当政府用户使用OpenAI模型的时候,一些数据仍将被记录下来。

微软表示:“微软允许具有额外限定访问资格并证明特定用例的客户申请修改Azure OpenAI的内容管理功能。”

它补充说:“如果微软批准了客户修改数据记录的请求,就不会存储与已批准的Azure订阅相关的任何提问和回复,在Azure商业中的数据记录也会被设置为关闭。”这意味着,除非政府机构符合某些特定的标准,否则提问和回复——由人工智能模型返回的文本——将被保留。

以上是微软向美国政府提供GPT大模型,如何保证安全性?的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板