AIにおける倫理原則の構築
Published on 26 Feb 2022
AI は大学の教育方法や教員の研究方法を変えています。しかし、教育における AI の利用には重大な課題がいくつかあります。
これらには、学生の能力に関する大量のデータを収集する際のプライバシーに関する問題が含まれます。また、意識的および無意識的な偏見の可能性もあり、結果などに悪影響を及ぼす可能性があります。また、使用されるデータの質に関する懸念もあります。不正確に測定または捏造されたデータは、誤った結果を生み、リスクのある意思決定プラットフォームを生み出す可能性があります。
参照: ミッションクリティカルなアプリケーション向けの VMware Cloud On AWS
教師あり学習と教師なし学習はどちらも欠点がある。欧州議会の調査によると、教師あり学習のトレーニングデータセットは、手元の仕事を正確に表すものでなければならない。そうでなければ、AI は偏りを示すことになる。教師なし学習モデルは有望だが、計算が難しく、出力を修正して評価するには熟練した人間の関与が必要である。
教育における機械学習モデルの多くは、人間が作成したデータを使用して構築されています。ただし、これらのモデルは、予測するようにトレーニングされたものしか予測できません。
トレーニング データ内の人間のバイアスは、開発者がそれに気付いて修正しなければ、簡単に計算バイアスにつながる可能性があります。AI 倫理は、AI の開発と適切な適用を導くための道徳基準とガバナンス フレームワークを確立します。
学術プログラムに AI を導入する際に考慮すべき 5 つの点は次のとおりです。
- 上で概説したフレームワークはまだ構築中であるため、学術機関は AI 倫理委員会を設立して AI プログラムの管理を維持し、内部および外部の利害関係者の間で AI ツールへの信頼を構築する必要があります。委員会は AI ロードマップを作成し、実行する必要がある重要な選択を強調できます。たとえば、どのような知識が必要か、どのようなガバナンスと標準を確立する必要があるかなどです。
- AI ソリューションが GDPR などの規制基準に準拠していることを保証するには、明確な倫理およびガバナンス フレームワークを構築することが重要です。
- マッキンゼーによると、AI は偏見を減らすのに役立つかもしれないが、偏見を根底から覆し、拡大させることもできる。経営コンサルティング組織によると、問題の主な原因はアルゴリズムではなく、根本的なデータ品質にある。データの前処理は、可能な限りの正確性を保つためだけでなく、偏見や最適でないデータを排除するためにも重要なステップである。
- AI の有効性は、処理されるデータの品質に依存します。データ操作でデータが漏洩してデータが汚染されないようにする必要があります。また、データは完全で矛盾がないようにする必要があります。そうしないと、結果が誤っていたり不十分になったりします。
- インフラストラクチャと分析機能を最初から作成します。AI にデータを供給し、機械学習アルゴリズムを構築するには、膨大な量のデータが必要です。
Orange Business Services のホワイトペーパー全文をダウンロードして読み、人工知能 (AI) における倫理原則の構築の重要性について学んでください。