"責任ある AI" とは、さまざまな AI システムを信頼できる状況、社会の原則が尊重される状況を確実に保つために Microsoft が行う一連の手順の総称です。これには、公平性、信頼性、安全性、プライバシーとセキュリティ、インクルーシブ性、透明性、アカウンタビリティなどの問題に対する取り組みが含まれます。そして、Microsoft における AI システム設計、構築、運用の方法について深く検討することが含まれます。
Microsoft は、偏見を減らしインクルーシブ性を高めるような設計に基づく原則、プラクティス、ツールの提供を含め、包括的なアプローチによって AI システムの公平性を確保しています。
責任ある AI に関する Microsoft の原則には、公平性、信頼性と安全性、プライバシーとセキュリティ、インクルーシブ性、透明性、アカウンタビリティが含まれます。これらの原則は、すべての人を平等に扱い、個人の特性による差別をしない AI システムを確実に提供するための、AI システムの開発とデプロイにおける指針です。また、Microsoft は、現実との整合性や公平性を高めるために、責任ある形で AI モデルを検証することの重要性を強く主張しています。
生成 AI ツールを使用する際の倫理的な考慮事項としては、偏見と公平性について対策を講じること、プライバシーとセキュリティを確保すること、透明性とアカウンタビリティを維持すること、インクルーシブ性を高めること、信頼性と安全性を確保することが挙げられます。また、正確性と誠実さを保つこと、常に人間による監視下に置くこと、倫理的な意思決定の枠組みを築くこと、法律や規制の要件を遵守すること、有害な偏見を防ぐことも重要です。これらの手順を行うことは、責任ある公正な AI テクノロジ利用を保つために役立ちます。
組織が責任ある形で AI を導入するには、Microsoft と同様に、公平性、信頼性、プライバシー、インクルーシブ性などの原則を盛り込んだ "責任ある AI 標準" を策定すべきであると考えられます。
責任ある AI 利用を組織が確実に行うには、以下のような追加の手順を実施するとよいでしょう。
倫理とガバナンスを監督する "責任ある AI 事務局" を設置します。
AI システムの監視と管理を行うために、Microsoft Responsible AI ダッシュボードなどの AI ガバナンス ツールを実装します。
組織内のあらゆるステークホルダーに関与させる形で、責任ある AI の原則と実践に関するトレーニングを実施します。
Microsoft Copilot は、ユーザーの日常生活に関する重要な詳細情報を記憶する一方、個人情報についてはセキュアな状態を保ち、ユーザーのプライバシーを保護します。プライバシー設定は、Copilot のプライバシー設定でいつでも管理できます。
Microsoft をフォローする