AIにおける倫理原則の構築

Published on 26 Feb 2022

学術分野向けAIモデル

AI は大学の教育方法や教員の研究方法を変えています。しかし、教育における AI の利用には重大な課題がいくつかあります。

これらには、学生の能力に関する大量のデータを収集する際のプライバシーに関する問題が含まれます。また、意識的および無意識的な偏見の可能性もあり、結果などに悪影響を及ぼす可能性があります。また、使用されるデータの質に関する懸念もあります。不正確に測定または捏造されたデータは、誤った結果を生み、リスクのある意思決定プラットフォームを生み出す可能性があります。

参照: ミッションクリティカルなアプリケーション向けの VMware Cloud On AWS

教師あり学習と教師なし学習はどちらも欠点がある。欧州議会の調査によると、教師あり学習のトレーニングデータセットは、手元の仕事を正確に表すものでなければならない。そうでなければ、AI は偏りを示すことになる。教師なし学習モデルは有望だが、計算が難しく、出力を修正して評価するには熟練した人間の関与が必要である。

教育における機械学習モデルの多くは、人間が作成したデータを使用して構築されています。ただし、これらのモデルは、予測するようにトレーニングされたものしか予測できません。

トレーニング データ内の人間のバイアスは、開発者がそれに気付いて修正しなければ、簡単に計算バイアスにつながる可能性があります。AI 倫理は、AI の開発と適切な適用を導くための道徳基準とガバナンス フレームワークを確立します。

学術プログラムに AI を導入する際に考慮すべき 5 つの点は次のとおりです。

  • 上で概説したフレームワークはまだ構築中であるため、学術機関は AI 倫理委員会を設立して AI プログラムの管理を維持し、内部および外部の利害関係者の間で AI ツールへの信頼を構築する必要があります。委員会は AI ロードマップを作成し、実行する必要がある重要な選択を強調できます。たとえば、どのような知識が必要か、どのようなガバナンスと標準を確立する必要があるかなどです。
  • AI ソリューションが GDPR などの規制基準に準拠していることを保証するには、明確な倫理およびガバナンス フレームワークを構築することが重要です。
  • マッキンゼーによると、AI は偏見を減らすのに役立つかもしれないが、偏見を根底から覆し、拡大させることもできる。経営コンサルティング組織によると、問題の主な原因はアルゴリズムではなく、根本的なデータ品質にある。データの前処理は、可能な限りの正確性を保つためだけでなく、偏見や最適でないデータを排除するためにも重要なステップである。
  • AI の有効性は、処理されるデータの品質に依存します。データ操作でデータが漏洩してデータが汚染されないようにする必要があります。また、データは完全で矛盾がないようにする必要があります。そうしないと、結果が誤っていたり不十分になったりします。
  • インフラストラクチャと分析機能を最初から作成します。AI にデータを供給し、機械学習アルゴリズムを構築するには、膨大な量のデータが必要です。

Orange Business Services のホワイトペーパー全文をダウンロードして読み、人工知能 (AI) における倫理原則の構築の重要性について学んでください。

Icon
THANK YOU

You will receive an email with a download link. To access the link, please check your inbox or spam folder