Trace Id is missing
跳到主要內容
Microsoft
Microsoft AI
Microsoft AI
Microsoft AI
首頁
產品和解決方案
個人用
個人用
Microsoft Copilot
下載 Copilot 應用程式
適用於組織
適用於組織
Microsoft 365 Copilot
下載 Microsoft 365 Copilot 應用程式
適用於組織的 Copilot
自訂您的 Copilot
自訂您的 Copilot
Copilot Studio
建置您自有的
建置您自有的
Azure AI Foundry
Azure AI 服務
Azure AI 解決方案
Intelligent PCs
Intelligent PCs
Copilot+ PCs
適用於商務領導人員的 AI
負責任 AI
概觀
準則和方法
工具和做法
客戶案例
深入了解
部落格中的 AI
AI 學習中心
更多
所有 Microsoft
Global
Microsoft 安全性
Azure
Dynamics 365
Microsoft 365
Microsoft Teams
Windows 365
技術與創新
技術與創新
Microsoft Cloud
AI
Azure Space
混合實境
Microsoft HoloLens
Microsoft Viva
量子運算
永續性
產業
產業
教育
汽車
金融服務
政府機構
醫療保健
製造
零售
所有產業
合作夥伴
合作夥伴
尋找合作夥伴
成為合作夥伴
合作夥伴網路
Azure Marketplace
AppSource
資源
資源
部落格
Microsoft Advertising
開發人員中心
文件
活動
授權
Microsoft Learn
Microsoft 研究
檢視網站地圖
Microsoft 的 Frontier 治理架構,以從我們最先進的模型管理風險。
深入了解
Microsoft 的負責任 AI
探索我們建立的工具、做法和原則,以維護我們的負責任 AI 原則。
2024 RAI 透明度報告
我們的承諾
我們的承諾
新聞和深入解析
企業資源
工具
進階原則
常見問題集
Microsoft 的負責任 AI
我們對負責任 AI 的承諾
Microsoft 致力於以負責的方式設計、組建和發行 AI 技術,以人類為中心,並遵循我們的原則。我們將承諾提煉為六大核心價值,這些價值仍是我們的基礎:
查看我們的原則
新聞和深入解析
透過我們的原則、研究與工程,探索 Microsoft 的負責任 AI 做法。
全部
原則
參考資料
工程
上一頁
下一步
上一張投影片
下一頁投影片
原則
了解 Microsoft 如何協助組織瀏覽並遵守歐盟 AI 法案。
閱讀部落格
研究
評估及了解 AI 的進度
閱讀部落格
工程
識別超過 100 種生成式 AI 產品的潛在風險
閱讀部落格
研究
Phi-4 簡介:140 億個參數語言模型
閱讀報告
研究
為開發人員簡化人體工學
閱讀部落格
研究
針對新一代基礎模型推動執行階段策略
閱讀部落格
原則
保護大眾不受濫用 AI 產生的內容攻擊
了解做法
原則
對抗 AI 深偽技術: 我們參與 2024 年政治慣例
立即閱讀
原則
針對我們負責的 AI 工作提供進一步的透明度
立即閱讀
工程
使用 Azure AI 中的新工具支援負責創新
了解做法
原則
Microsoft 隱私權承諾如何適用於 AI
立即閱讀
工程
《Cyber Signals》:Microsoft 如何保護 AI 平台抵禦網路威脅
立即閱讀
原則
對抗濫用 AI 產生的內容: 全面的方法
立即閱讀
原則
Bing 中的 Copilot:我們實現負責任 AI 的方法
立即閱讀
原則
AFL-CIO 與 Microsoft 宣佈在 AI 上的新技術人力合作關係。
深入了解
原則
Microsoft 宣佈為客戶提供新的 Copilot 著作權承諾
深入了解
原則
我們致力於推動安全、可靠且值得信任的 AI
立即閱讀
原則
Microsoft、Anthropic、Google 和 OpenAI 發起「前沿模型論壇」
立即閱讀
原則
負責任 AI 的 A 到 Z 資訊
立即閱讀
原則
Microsoft 宣告 AI 客戶承諾
深入了解
參考資料
對人工智慧和人類繁榮未來的反思
立即閱讀
原則
恪守民主價值觀,維護網路空間穩定
立即閱讀
參考資料
Microsoft 新開源工具背後的研究合作
立即閱讀
參考資料
推進以人為本的人工智慧:負責任 AI 匯報
立即閱讀
工程
探索來自 Microsoft AI Red Team 的安全性最佳做法
深入了解
返回 [最新匯報] - [全部] 索引標籤區段
上一張投影片
下一頁投影片
原則
了解 Microsoft 如何協助組織瀏覽並遵守歐盟 AI 法案。
閱讀部落格
原則
保護大眾不受濫用 AI 產生的內容攻擊
了解做法
原則
對抗 AI 深偽技術: 我們參與 2024 年政治慣例
立即閱讀
原則
針對我們負責的 AI 工作提供進一步的透明度
立即閱讀
原則
Microsoft 隱私權承諾如何適用於 AI
立即閱讀
原則
我們致力於推動安全、可靠且值得信任的 AI
立即閱讀
原則
Microsoft、Anthropic、Google 和 OpenAI 發起「前沿模型論壇」
深入了解
原則
Microsoft 宣佈為客戶提供新的 Copilot 著作權承諾
深入了解
原則
恪守民主價值觀,維護網路空間穩定
立即閱讀
原則
負責任人工智慧的 A 到 Z 的資訊
立即閱讀
原則
全新的 Bing:我們實現負責任 AI 的方法
立即閱讀
原則
Microsoft 宣告 AI 客戶承諾
深入了解
原則
對抗濫用 AI 產生的內容: 全面的方法
立即閱讀
原則
AFL-CIO 與 Microsoft 在 AI 上的新技術人力合作關係
深入了解
返回 [最新匯報] - [原則] 索引標籤區段
上一頁投影片
下一頁投影片
研究
針對新一代基礎模型推動執行階段策略
閱讀部落格
研究
為開發人員簡化人體工學
閱讀部落格
研究
Phi-4 簡介:140 億個參數語言模型
閱讀報告
研究
評估及了解 AI 的進度
閱讀部落格
參考資料
Microsoft 新開源工具背後的研究合作
立即閱讀
參考資料
推進以人為本的人工智慧:負責任 AI 匯報
立即閱讀
參考資料
對人工智慧和人類繁榮未來的反思
立即閱讀
返回 [最新匯報] - [參考資料] 索引標籤區段
上一頁投影片
下一頁投影片
工程
識別超過 100 種生成式 AI 產品的潛在風險
閱讀部落格
工程
使用 Azure AI 中的新工具支援負責創新
了解做法
工程
探索來自 Microsoft AI Red Team 的安全性最佳做法
深入了解
工程
《Cyber Signals》:Microsoft 如何保護 AI 平台抵禦網路威脅
立即閱讀
返回 [最新匯報] - [工程] 索引標籤區段
回到索引標籤
透過值得信任的 AI 拓展業務
探索安全有保障的 AI 商務做法如何加強效能,並有效推動影響力。
取得電子書
探索更多資源
工具和做法
尋找資源以協助您評估、理解及做出更明智的 AI 開發和使用決策。
探索所有項目
活頁簿
人性 AI 體驗 (HAX) 活頁簿 (英文)
協助貴組織定義和實作人性 AI 互動的最佳作法。
深入了解
部落格
使用 Azure AI 建立安全且值得信任的應用程式
我們引進了新的產品功能,以加強 AI 系統的安全性、安全和隱私權。
深入了解
工具組
負責任 AI 儀表板
存取工具套件以協助建立自訂、端對端的負責任 AI 體驗。
深入了解
原則
推動 AI 原則
探索 Microsoft 專家對於 AI 原則的最新觀點。
上一張投影片
下一頁投影片
部落格
促進美國 AI 的發展
立即閱讀
部落格
解鎖美國生成式 AI 生態系統的經濟潛力
立即閱讀
部落格
使用 AI 加速可持續發展
立即閱讀
部落格
推動 AI 紀元的繁榮
立即閱讀
部落格
AI 的全球管理
立即閱讀
部落格
治理 AI:未來發展的藍圖
立即閱讀
播客
迎向 AI 的時刻
立即閱讀
部落格
反思我們的負責任 AI 計劃
立即閱讀
部落格
全球無障礙體認日:無障礙是創新的核心
立即閱讀
部落格
讓 IP (智慧財產權) 成為解決大問題的工具
立即閱讀
播客
與 Brad Smith 一起認識工具和武器
立即收聽
部落格
推動日本的 AI 治理
立即閱讀
部落格
加拿大 AI 治理的考量
立即閱讀
部落格
非洲的 AI 治理
立即閱讀
部落格
印度的 AI 機會
立即閱讀
部落格
推進歐洲和國際的 AI 治理
立即閱讀
返回 [推動 AI 原則] 區段
讓負責任 AI 得以實現
探索 Microsoft 如何培育共同作業,並協助每個人以負責的方式使用 AI。
上一頁投影片
下一頁投影片
探索負責任 AI 的商業案例
本白皮書為企業和技術領導者提供如何系統化建立值得信任的 AI 的指引。
深入了解
促進負責任地使用 AI
探索有關包容性 AI 的討論及全球觀點,例如它對於社會的影響。
深入閱讀
UNESCO 與 Microsoft 合作以促進負責任 AI 的發展
UNESCO 與 Microsoft 合作開發聯合計劃,以推廣和實作有關道德 AI 的建議。
深入閱讀
Microsoft 加入 Synthetic Media 的集體行動架構
查看 Microsoft 計劃如何為由 Partnership on AI 所建立的架構做出貢獻。
深入閱讀
透過 Microsoft AI 轉型您的企業
在此學習路徑中探索如何以負責的方式規劃、制定策略並調整 AI 專案。
深入閱讀
回到最新消息區段
常見問題集
全部展開
全部摺疊
01/
什麼是負責任 AI? 為什麼它很重要?
負責任 AI 是一組我們採取的步驟,以確保 AI 系統值得信任且維護原則。這涉及解決如公平性、可靠性和安全、隱私權和安全性、包容性、透明度和問責性。並深入思考我們設計、組建及運作 AI 系統的方式。
02/
Microsoft 如何確保其 AI 系統的公平性?
Microsoft 透過包含原則、實作和工具的全方位方法,確保其 AI 系統中的公平性,其設計目的是減少偏見並提升包容性。
Microsoft 的 AI 原則包括公平性、可靠性和安全、隱私權和安全性、包容性、透明度和問責性。這些原則會引導 AI 系統的開發和部署,以確保它們公平對待每個人,並防止由於個人特性而遭受的歧視。Microsoft 亦強調以負責任的方式驗證 AI 模型的重要性,以提高公平性並與現實相符。
03/
使用生成式 AI 工具的道德考量是什麼?
使用生成式 AI 工具時,道德考量包括解決偏見和公平性問題、確保隱私權和安全性、維持透明度與問責性、促進包容性,以及確保可靠性和安全。確保準確性和誠實性、保持人為監督、制定符合道德的決策架構、遵守法律和法規要求,以及避免有害的偏見也很重要。這些步驟有助於確保我們負責且合理地使用 AI 技術。
04/
組織如何以負責的方式準備 AI 的引進?
為了負責地引進 AI,組織應該開發負責任 AI 標準,例如 Microsoft 的標準,以涵蓋公平性、可靠性、隱私權和包容性等原則。
以下是組織可能採取的其他步驟,以確保負責任 AI 使用:
建立責任 AI 的辦公室,以監督道德和治理。
實作 AI 治理工具,例如 Microsoft AI 儀表板,以監視和管理 AI 系統。
與整個組織的項目關係人互動,並提供負責任 AI 原則和做法的訓練。
05/
Microsoft 如何保護我的隱私權並確保敏感性資料的機密性?
Microsoft Copilot 會記住您日常工作中重要的詳細資料,同時保護個人資料的安全並保護您的
隱私權
。您隨時都可以在 Copilot 隱私權設定中管理隱私權喜好設定。
當您在公司使用 Copilot 時,系統會繼承所有現有的安全性和合規性需求,因此只有具有適當權限的人才能存取 Copilot 生成的內容。
作爲一家公司,Microsoft 致力於提供
值得信賴的 AI
,其透過數十年的研究、客戶應見反應與學習,成就了可實現隱私、安全性和保護的能力。
深入了解 Microsoft 的 AI
AI for Good
查看如何使用 AI 來支援環境、人道主義以及文化傳承計劃。
Microsoft AI
了解如何安全地將 AI 納入您的組織。
深入了解
適用於企業領導者的 AI 資源
探索成功採用 AI 的深入資源、真正的商業成果,以及專家指導。
查看資源
關注 Microsoft
關注 Microsoft