Last Updated on 2024-05-07 02:13 by admin
AIガバナンスはその複雑さと急速な進化により、国際的な注目を集めています。OECDは、国際的なAIガバナンスイニシアチブを数多く推進しており、AIガバナンスの定義と範囲を明確にしています。共通の課題とテーマには、技術の進歩に伴う倫理的、法的な問題が含まれます。
政府機関はAIガバナンスに備えるため、責任あるリーダーの指定、資金提供、実践的なトレーニングの提供、アルゴリズムの影響評価以外のインベントリの評価など、具体的な手法を講じる必要があります。これらの行動は、AI技術の責任ある使用を確保するために不可欠です。
AIガバナンスの実践においては、ポリシーの実施に関する課題が存在します。責任と協力の文化を構築し、多様な専門分野のチームと協力することが重要です。また、教育とコミュニケーションもAIガバナンスの成功には欠かせません。これらの要素は、AI技術の倫理的かつ効果的な管理を促進するために必要です。
ニュース解説
人工知能(AI)のガバナンスは、その複雑さと急速な進化により、国際的な注目を集めています。OECDは、国際的なAIガバナンスイニシアチブを数多く推進しており、AIガバナンスの定義と範囲を明確にしています。共通の課題とテーマには、技術の進歩に伴う倫理的、法的な問題が含まれます。
政府機関はAIガバナンスに備えるため、責任あるリーダーの指定、資金提供、実践的なトレーニングの提供、アルゴリズムの影響評価以外のインベントリの評価など、具体的な手法を講じる必要があります。これらの行動は、AI技術の責任ある使用を確保するために不可欠です。
AIガバナンスの実践においては、ポリシーの実施に関する課題が存在します。責任と協力の文化を構築し、多様な専門分野のチームと協力することが重要です。また、教育とコミュニケーションもAIガバナンスの成功には欠かせません。これらの要素は、AI技術の倫理的かつ効果的な管理を促進するために必要です。
AIガバナンスは、AIツールやシステムの安全性や倫理性、データアクセスやモデル使用に関するポリシー、または政府による規制自体を指すことがあります。国家や国際的なガイドラインは、これらの重なり合う定義をさまざまな方法で取り扱っています。AIガバナンスは、概念のレベルで始まり、AIソリューションのライフサイクル全体を通じて続けられるべきです。
政府機関は、経済的繁栄、国家安全保障、政治的ダイナミクスといった社会的関心事を支え、バランスを取るガバナンスを目指しています。一方で、多くの民間企業は経済的繁栄を優先し、ビジネスの成功と株主価値を推進する効率性と生産性に焦点を当てています。IBMのような企業は、AIワークフローにガードレールを組み込むことを強調しています。
AIガバナンスにおける共通の規制テーマとしては、エンドユーザーに対して彼らが対話しているAIの存在と使用についての透明性を提供することがますます推奨されています。リーダーは、パフォーマンスの信頼性と攻撃への抵抗力を確保するとともに、社会的責任への実行可能なコミットメントを持つことが求められます。これには、トレーニングデータと出力の公平性とバイアスの欠如を優先し、環境への影響を最小限に抑え、責任ある個人の指定と組織全体の教育を通じて説明責任を高めることが含まれます。
ポリシーがソフトローまたは正式な執行に依存しているかどうか、そしてそれらがどれほど包括的または雄弁に書かれているかに関わらず、それらは原則に過ぎません。組織がそれらをどのように行動に移すかが重要です。たとえば、ニューヨーク市は2023年10月に自身のAIアクションプランを発表し、2024年3月にAI原則を正式化しました。これらの原則は上記のテーマと一致していますが、市がビジネスの開始と運営に関する質問に答えるために展開したAI駆動のチャットボットは、ユーザーに法律違反を奨励する回答を提供しました。実装がどこで失敗したのでしょうか?
ガバナンスを運用化するには、人間中心の、説明責任のある、参加型のアプローチが必要です。政府機関が取るべき3つの重要な行動を見てみましょう:
1. 責任あるリーダーを指定し、その任務に資金を提供する
信頼は説明責任なしには存在できません。ガバナンスフレームワークを運用化するためには、政府機関は説明責任を持ち、その仕事を行うための資金を提供されたリーダーが必要です。知識のギャップの一例を挙げると、私たちが話をしたいくつかのシニアテクノロジーリーダーは、データがどのように偏見を持つ可能性があるかを理解していません。データは人間の経験の産物であり、世界観や不平等を固める傾向があります。AIは、私たちの偏見を私たちに反映する鏡と見なすことができます。私たちは、これを理解し、倫理的に運用され、コミュニティの価値観と一致するAIを確保するために責任を持ち、財政的に権限を与えられたリーダーを特定することが不可欠です。
2. 適用されたガバナンストレーニングを提供する
多くの機関は、運用効率の向上(コスト削減、市民や従業員とのエンゲージメントなどのKPI向上)を目的としたAI「イノベーションデー」やハッカソンを開催しています。私たちは、これらのハッカソンの範囲を拡大し、AIガバナンスの課題に対処することを推奨しています。以下のステップを通じて:
ステップ1:パイロットが提示される3ヶ月前に、候補となるガバナンスリーダーがハッカソン参加者にAI倫理に関する基調講演を行います。
ステップ2:ポリシーを確立する政府機関がイベントの審査員として機能します。パイロットプロジェクトがどのように評価されるかについての基準を提供し、AIガバナンスアーティファクト(文書出力)を含めます。これには、ファクトシート、監査報告書、効果の層分析(意図された、意図されていない、一次的および二次的影響)、運用中のモデルの機能的および非機能的要件が含まれます。
ステップ3:プレゼンテーション日までの6〜8週間、チームにこれらのアーティファクトの開発に関する適用トレーニングを提供します。ワークショップを通じて、倫理とモデルリスクを評価する際に、多様で多分野のチームを開発チームに招待します。
ステップ4:イベント当日、各チームは自分たちの作業を包括的に提示し、彼らのユースケースに関連するさまざまなリスクをどのように評価し、軽減するかを示します。ドメインの専門知識、規制、およびサイバーセキュリティのバックグラウンドを持つ審査員が、各チームの作業を質問し、評価する必要があります。
これらのタイムラインは、非常に具体的なユースケースに関して実践者に適用トレーニングを提供する経験に基づいています。これにより、ガバナンスの実際の作業をコーチの指導の下で行う機会がリーダー候補に与えられ、チームメンバーは識別ガバナンス審査員の役割を果たします。しかし、ハッカソンだけでは十分ではありません。3ヶ月で全てを学ぶことはできません。機関は、必要に応じて古い仮定を捨てることを含む、継続的な学習を促進するAIリテラシー教育の文化を構築するための投資を行うべきです。
3. アルゴリズムの影響評価を超えたインベントリを評価する
多くのAIモデルを開発する組織は、重要なメタデータを収集し、デプロイされる前にAIモデルのリスクを評価し、軽減するための主要なメカニズムとしてアルゴリズム影響評価フォームに頼っています。これらのフォームは、AIモデルの目的、トレーニングデータとアプローチ、責任ある当事者、異なる影響への懸念について、AIモデルの所有者または調達者にのみ調査を行います。これらのフォームを厳格な教育、コミュニケーション、文化的考慮事項なしに単独で使用することに関する多くの懸念があります。これには以下が含まれます:
インセンティブ:これらのフォームを思慮深く記入することに対して、個人はインセンティブを与えられているのでしょうか、それともディセンティブを与えられているのでしょうか?私たちは、ほとんどの人がクオータを満たす必要があるため、ディセンティブを与えられていると考えています。
リスクの責任:これらのフォームは、特定の技術を使用したり、クラウドホストを使用したり、第三者からモデルを調達したりしたことで、モデル所有者がリスクから免除されることを示唆している可能性があります。
AIの関連定義:モデル所有者は、彼らが調達またはデプロイしているものが、規制によって説明されるAIまたはインテリジェントオートメーションの定義を満たしていることを認識していないかもしれません。
異なる影響に関する無知:アルゴリズム評価フォームを完成させて提出する責任を一人の人に負わせることにより、異なる影響の正確な評価が設計上省略されていると主張することができます。
私たちは、地理的にも教育レベルにも、公表されたポリシーを読んで原則を理解していると言うAI実践者による懸念のあるフォーム入力を見てきました。これらのエントリーには、「私がPIIを収集していない場合、私のAIモデルが不公平である可能性はどうしてありますか?」や「私は最善の意図を持っているので、異なる影響のリスクはありません」といったものが含まれます。これらは、適用されたトレーニングの緊急性と、明確に定義された倫理ガイドラインに対するモデルの振る舞いを一貫して測定する組織文化の必要性を指摘しています。
責任と協力の文化を作り上げる
組織がこれほど広範な影響を持つ技術を管理する際には、参加型で包括的な文化が不可欠です。以前に議論したように、多様性は政治的要因ではなく数学的要因です。多様な専門分野のセンターは、従業員が教育された責任あるAIユーザーであり、リスクと異なる影響を理解していることを確実にするために不可欠です。組織は、ガバナンスを協力的なイノベーション努力に不可欠なものとし、責任がモデル所有者だけでなく全員に属することを強調する必要があります。彼らは、ガバナンスの問題に対して社会技術的な視点を持ち、政府、非政府、または学
from AI governance is rapidly evolving — here’s how government agencies must prepare.
“AIガバナンスの挑戦:OECDが国際的な取り組みを推進” への2件のフィードバック
AIガバナンスの進化とその複雑性に対する国際的な注目は、私たちがデジタル社会で直面する重要な課題の一つです。OECDが推進する国際的なイニシアチブは、この分野におけるグローバルな取り組みの必要性を強調しています。私たちがデジタルネイティブとして、特にソーシャルメディアインフルエンサーとして、AIの倫理的かつ責任ある使用を推進することは非常に重要です。
政府機関がAIガバナンスに取り組む際の具体的な手法、特に責任あるリーダーの指定や資金提供、実践的なトレーニングの提供は、AI技術を社会に適切に統合するための基盤を築きます。これは、私たちが仮想通貨やその他のデジタルトレンドを推進する際にも重要な考慮事項です。
AIガバナンスの成功は、ポリシーの実施だけでなく、責任と協力の文化を構築することにも依存します。多様な専門分野のチームとの協力や教育とコミュニケーションの強化は、AI技術の倫理的かつ効果的な管理を促進します。これは、私たちのコンテンツ制作においても同様に適用されるべき原則です。
AIガバナンスの実践における共通の規制テーマ、特にエンドユーザーへの透明性の提供や社会的責任へのコミットメントは、私たちがフォロワーとの関係を構築する際にも重要です。これらの原則を取り入れることで、信頼性と攻撃への抵抗力を高めることができます。
最終的に、AIガバナンスの実践は、人間中心のアプローチを必要とします。これは、私たちがデジタルコンテンツを通じて提供する価値と直接つながります。責任あるリーダーの指定、適用されたガバナンストレーニングの提供、そしてアルゴリズムの影響評価を超えたインベントリの評価は、私たちが社会に貢献する方法を形作る上で不可欠です。AIガバナンスは、私たちが推進するデジタルトレンドとライフスタイルの統合において、倫理と責任を確保するための鍵となります。
AIガバナンスの議論は、持続可能性と環境保護の観点からも非常に重要です。AI技術の発展と応用は、エネルギー消費の増加や環境への影響という形で環境問題を引き起こす可能性があります。そのため、AIガバナンスの枠組みにおいては、技術の倫理的な使用だけでなく、その環境への影響も考慮に入れる必要があります。
AI技術の責任ある使用を確保するためには、環境への影響を最小限に抑えることを目指すべきです。これには、エネルギー効率の良いアルゴリズムの開発、再生可能エネルギーの使用の促進、AIモデルのトレーニングと運用における環境負荷の評価などが含まれます。また、AI技術の開発者や利用者に対して、その環境への影響に関する教育と意識向上の取り組みも重要です。
政府機関や企業がAIガバナンスを推進する際には、社会的責任と環境保護の観点からも、その取り組みを評価し、必要な規制やポリシーを設定することが求められます。これにより、AI技術が持続可能な発展に貢献し、将来世代にとっても利益をもたらすようにすることができます。
環境活動家として、私はAIガバナンスの議論において、環境保護と持続可能性を重視することの重要性を強調したいと思います。技術の進歩は、私たちの環境と未来に対する責任を伴います。