Trace Id is missing
跳转至主内容
Microsoft
Microsoft AI
Microsoft AI
Microsoft AI
主页
产品和解决方案
个人版
个人版
Microsoft Copilot
下载 Copilot 应用
适用于组织
适用于组织
智能 Microsoft 365 Copilot 副驾驶®
下载 Microsoft 365 Copilot 应用
适用于组织的 Copilot
自定义你的 Copilot
自定义你的 Copilot
Copilot Studio
构建自己的
构建自己的
Azure AI Foundry
Azure AI 服务
Azure AI 解决方案
Intelligent PCs
Intelligent PCs
Copilot+ PCs
面向业务领导者的 AI
负责任 AI
概述
原则和方法
工具和做法
客户案例
了解详细信息
博客中的 AI
AI 学习中心
更多
所有 Microsoft
Global
Microsoft 安全
Azure
Dynamics 365
Microsoft 365
Microsoft Teams
Windows 365
技术和创新
技术和创新
Microsoft Cloud
AI
Azure Space
混合现实
Microsoft HoloLens
Microsoft Viva
量子计算
可持续发展
工业
工业
教育
汽车
金融服务
政府
医疗保健
制造业
零售业
所有行业
合作伙伴
合作伙伴
查找合作伙伴
成为合作伙伴
合作伙伴网络
Azure 市场
AppSource
资源
资源
博客
Microsoft Advertising
开发人员中心
文档
活动
许可
Microsoft Learn
Microsoft Research
查看站点地图
Microsoft 的边界治理框架,用于管理我们最高级模型所带来的风险。
了解详情
Microsoft 的负责任 AI
探索我们为践行负责任 AI 原则而创建的工具、做法和政策。
2024 RAI 透明度报告
我们的承诺
我们的承诺
新闻和见解
业务资源
工具
推进策略
常见问题解答
Microsoft 的负责任 AI
我们对负责任 AI 的承诺
在 Microsoft,我们致力于以负责任的方式设计、构建和发布 AI 技术,始终坚持以人为本,并以我们的原则为指引。我们已将这一承诺提炼为六项核心价值观,它们仍然是我们的立足之本:
查看我们的原则
新闻和见解
通过我们的策略、研究和工程,探索 Microsoft 在负责任 AI 方面的举措。
全部
策略
研究
工程
上一页
下一页
上一张幻灯片
下一张幻灯片
策略
了解 Microsoft 如何帮助组织应对并遵守《欧盟人工智能法案》。
阅读博客
研究
评估并理解 AI 领域的进展”的博客
阅读博客
工程
识别 100 多种生成式 AI 产品中的潜在风险
阅读博客
研究
Phi-4 简介:一款拥有 140 亿参数的语言模型
阅读报告
研究
为开发者和用户简化人体工学设计
阅读博客
研究
推进下一代基础模型的运行时策略
阅读博客
策略
保护公众免受滥用 AI 生成内容的影响
了解如何操作
策略
打击 AI 深度伪造:我们参与 2024 年政治集会的情况
立即阅读
策略
进一步提高我们负责任 AI 工作的透明度
立即阅读
工程
利用 Azure AI 中的新工具支持负责任的创新
了解如何操作
策略
Microsoft 隐私承诺如何应用于 AI
立即阅读
工程
Cyber Signals:Microsoft 如何保护 AI 平台免受网络威胁》
立即阅读
策略
打击滥用 AI 生成的内容:一种综合方法
立即阅读
策略
必应中的 Copilot:我们实现负责任 AI 的方法
立即阅读
策略
AFL-CIO 和 Microsoft 宣布建立 AI 方面的新型技术劳工合作关系。
详细了解
策略
Microsoft 宣布为客户提供全新的 Copilot 版权承诺
详细了解
策略
我们致力于推动安全、可靠且值得信赖的 AI 发展
立即阅读
策略
Microsoft、Anthropic、Google 和 OpenAI 启动前沿模型论坛
立即阅读
策略
Microsoft 宣布 AI 客户承诺
详细了解
研究
关于 AI 与人类繁荣未来的思考
立即阅读
策略
维护民主价值观并保护网络空间稳定性
立即阅读
研究
Microsoft 全新开放源代码工具背后的研究协作
立即阅读
研究
推进以人为中心的 AI:有关负责任 AI 研究的更新》
立即阅读
工程
发现 Microsoft AI 红队的安全最佳做法
详细了解
返回到“最新更新 - 全部”选项卡部分
上一张幻灯片
下一张幻灯片
策略
了解 Microsoft 如何帮助组织应对并遵守《欧盟人工智能法案》。
阅读博客
策略
保护公众免受滥用 AI 生成内容的影响
了解如何操作
策略
打击 AI 深度伪造:我们参与 2024 年政治集会的情况
立即阅读
策略
进一步提高我们负责任 AI 工作的透明度
立即阅读
策略
Microsoft 隐私承诺如何应用于 AI
立即阅读
策略
我们致力于推动安全、可靠且值得信赖的 AI 发展
立即阅读
策略
Microsoft、Anthropic、Google 和 OpenAI 启动前沿模型论坛
详细了解
策略
维护民主价值观并保护网络空间稳定性
立即阅读
策略
新必应:我们实现负责任 AI 的方法》
立即阅读
策略
Microsoft 宣布 AI 客户承诺
详细了解
策略
打击滥用 AI 生成的内容:一种综合方法
立即阅读
策略
AFL-CIO 和 Microsoft 在 AI 方面的新型技术劳工合作关系
详细了解
返回到“最新更新 - 策略”选项卡部分
上一张幻灯片
下一张幻灯片
研究
推进下一代基础模型的运行时策略
阅读博客
研究
为开发者和用户简化人体工学设计
阅读博客
研究
Phi-4 简介:一款拥有 140 亿参数的语言模型
阅读报告
研究
评估并理解 AI 领域的进展”的博客
阅读博客
研究
Microsoft 全新开放源代码工具背后的研究协作
立即阅读
研究
推进以人为中心的 AI:有关负责任 AI 研究的更新》
立即阅读
研究
关于 AI 与人类繁荣未来的思考
立即阅读
返回到“最新更新 - 研究”选项卡部分
上一张幻灯片
下一张幻灯片
工程
识别 100 多种生成式 AI 产品中的潜在风险
阅读博客
工程
利用 Azure AI 中的新工具支持负责任的创新
了解如何操作
工程
发现 Microsoft AI 红队的安全最佳做法
了解详情
工程
Cyber Signals:Microsoft 如何保护 AI 平台免受网络威胁》
立即阅读
返回到“最新更新 - 工程”选项卡部分
返回选项卡
借助值得信赖的 AI 建立业务
了解安全可靠的 AI 业务做法如何提高性能并有效推动影响。
获取电子书
探索更多资源
工具和做法
查找资源,帮助你评估、理解 AI 的开发与应用,并做出更明智的决策。
探索全部
操作手册
人与 AI 交互体验 (HAX) 操作手册
帮助贵组织定义和实施人与 AI 交互的最佳实践。
了解详情
博客
利用 Azure AI 构建安全可靠的应用
我们正在推出新的产品功能,以增强 AI 系统的安全性、可靠性和隐私性。
了解详情
工具包
负责任的 AI 仪表板
获取一套可帮助你创建自定义的、端到端负责任的 AI 体验的工具。
了解详情
策略
推进 AI 策略
从 Microsoft 专家那里了解有关 AI 策略的最新观点。
上一张幻灯片
下一张幻灯片
博客
推动美国的 AI 发展
立即阅读
博客
释放美国生成式 AI 生态系统的经济潜力
立即阅读
博客
利用 AI 加速实现可持续发展
立即阅读
博客
在 AI 时代促进繁荣
立即阅读
博客
AI 的全球治理
立即阅读
博客
治理 AI:未来蓝图
立即阅读
播客
迎接 AI 时刻
立即阅读
博客
思考我们的负责任 AI 计划
立即阅读
博客
全球无障碍宣传日:辅助功能是创新的核心
立即阅读
博客
让知识产权成为解决重大问题的工具
立即阅读
播客
与 Brad Smith 探讨工具和武器
立即收听
博客
在日本推进 AI 治理
立即阅读
博客
加拿大的 AI 治理注意事项
立即阅读
博客
非洲的 AI 治理
立即阅读
博客
印度的 AI 机遇
立即阅读
博客
推进欧洲和国际 AI 治理
立即阅读
返回到“推进 AI 策略”部分
使负责任的 AI 成为可能
了解 Microsoft 如何促进协作并帮助每个人负责任地使用 AI。
上一张幻灯片
下一张幻灯片
探索负责任 AI 的商业案例
本白皮书为商业和技术领域的领导者提供关于如何系统地构建值得信赖的 AI 方面的指导。
了解详情
负责任地推进 AI
探索有关包容性 AI 的讨论和全球观点,例如它对社会的影响。
阅读更多内容
UNESCO 与 Microsoft 合作以推动负责任的 AI 发展
UNESCO 和 Microsoft 正在合作制定联合计划,以促进和实施关于遵循道德和伦理原则的 AI 的建议。
阅读更多内容
Microsoft 加入合成媒体集体行动框架
了解 Microsoft 如何计划参与由 Partnership on AI 创建的框架。
阅读更多内容
借助 Microsoft AI 实现业务转型
在此学习路径中探索如何负责任地规划和缩放 AI 项目并制定策略。
阅读更多内容
返回到“最新资讯”部分
常见问题解答
全部展开
全部折叠
01/
什么是负责任 AI,为什么它很重要?
负责任 AI 是我们为确保 AI 系统值得信赖且秉持社会原则而采取的一系列措施。这涉及处理诸如公平性、可靠性与安全性、隐私与安全、包容性、透明度和问责制等问题。并且要深入思考我们设计、构建和运行 AI 系统的方式。
02/
Microsoft 如何确保其 AI 系统的公平性?
Microsoft 通过一种全面的方法来确保其 AI 系统的公平性,该方法包括旨在减少偏差并促进包容性的原则、实践和工具。
Microsoft 的负责任 AI 原则包括公平性、可靠性与安全性、隐私与安全性、包容性、透明度和问责制。这些原则指导着 AI 系统的开发和部署,以确保它们平等对待每个人,并防止基于个人特征的歧视。Microsoft 还强调负责任地验证 AI 模型对提高公平性并使其更符合现实情况的重要性。
03/
使用生成式 AI 工具时需要考虑哪些道德问题?
使用生成式 AI 工具时,道德方面的注意事项包括解决偏差与公平性问题、确保隐私与安全性、保持透明度和问责制、促进包容性,以及确保可靠性和安全性。确保准确性和诚实性、保持人为监督、制定合乎道德的决策框架、遵守法律和监管要求,以及避免有害偏差也很重要。这些措施有助于确保负责任且公平地使用 AI 技术。
04/
各组织应如何为负责任地引入 AI 做好准备?
为了负责任地引入 AI,各组织应制定一套负责任 AI 标准,就像 Microsoft 的标准那样,涵盖公平性、可靠性、隐私性和包容性等原则。
以下是各组织为确保负责任地使用 AI,可以采取的其他措施:
设立一个负责任的 AI 办公室来监督道德和治理问题。
实施诸如 Microsoft 负责任 AI 仪表板之类的 AI 治理工具,以监控和管理人工智能系统。
让组织内的所有利益相关者参与进来,并提供有关负责任 AI 原则和做法的培训。
05/
Microsoft 如何保护我的隐私并确保敏感数据的机密性?
Microsoft Copilot 会记住对你的日常生活至关重要的详细信息,同时保护你的个人数据和
隐私
。可随时在 Copilot 隐私设置中管理隐私首选项。
在工作中使用 Copilot 时,它继承了你现有的所有安全性和合规性要求,因此只有拥有适当权限的人员才能访问其生成的内容。
作为一家公司,Microsoft 致力于提供
值得信赖的 AI
- 通过数十年的研究、客户反馈和学习掌握的能力,提供隐私、安全和保障。
了解有关 Microsoft 的 AI 的详细信息
AI for Good
了解如何使用 AI 支持环境、人道主义和文化遗产计划。
Microsoft AI
了解如何在组织中安全地整合 AI。
了解详情
面向企业领导者的 AI 资源
探索深度资源、实际业务成果和专家指导,帮助成功采用 AI。
查看资源