第3次AIブームの中で色々な産業に使われ始めているAI。
世間的には「AI」「機械学習」と聞くと「人間の代わりに正しい判断をしてくれるモノ」と思われがちだが、大きな誤解である。
AIの判断は「正しい」わけではない。
今回はAIに対する誤解について紹介する。
AIの判断は正しい?
AIに対する大きな誤解として "AIの判断は正しい" というものがある。
別にAIの判断は正しくない。
事実AIを導入したが適切な結果が得られなかった事例がAmazonやGoogleにある。
アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ。
グーグルは2016年にSNSやウェブサイト上の、ヘイトスピーチを監視するAI(人工知能)アルゴリズムを開発した。しかし、このAIが全く逆の結果をもたらし、人種的偏見を助長するものあることが発覚した。
AIは正しくない
AIは正しくない。
AIはあくまでデータの傾向から妥当な判断をしているだけだ。
採用の例で言えば、これまでの採用結果データを学習させた採用判定モデルがあったとして、学習データの中で男性の採用例が多ければAIも男性を採用してしまうし、採用者の出身大学に偏りがあればAIも特定の大学を優先して採用判定してしまう。
AIは入力されたデータの傾向通りに判断するだけである。
AIは人間にできないことができる?
AIに対するもうひとつの誤解として "AIは人間を超越する" というものがある。
これも大きな誤解だ。
AIができることははあくまで人間ができることがベースとなっている。
AIができることは人間ができること
「AIができることは人間ができること」には根拠がある。
AIの背景にある機械学習はデータの学習が必要だ。
学習する為のデータには判断材料となる入力データと、結果データがある。
入力と結果の傾向を学習して、未知の入力に対する結果を予測するモデルが作られる。
では学習データとしての入力と結果のペアを作るのは誰か。
機械ではなく人間が作る。
画像に何が写っているかの判定であろうが、採用の合否判定であろうが、「これは猫です」「このひとは合格です」というデータを人間の判断によって作る。
つまり人間の判断結果を機械学習を通じてモデル化されるわけである。
あくまで人間の判断のパターンを擬似的に再現しているだけで、決して人間を超越した判断をしているわけではない。
採用の例で言うならば採用の傾向は機械学習で学習できても、候補者が活躍するかどうか、採用する価値があるかどうかまでは人間にはわからないしAIにもわからない。
データがあったとしても、入力データによって結果を説明できない場合、つまり入力データと結果に関連性がなければ、いくらデータがあってもAIは有意な学習ができず適切な判定もできない。
人間にできない判断は機械にもできないのだ。
AIはあくまで道具
2019年12月10日に人工知能学会倫理委員会が声明を出している。
機械学習はあくまでも道具にすぎず、その使い方を定めるのは人間です。機械学習は人類社会の繁栄に大きく貢献できる可能性を秘めているとともに、不適切な利用をすれば人類社会の利益に反する可能性もあります。機械学習は過去の事例に基づいて未来を予測しますから、偏りのある過去に基づいて予測する未来は、やはり偏りのあるものになりかねません。もし、過去と異なる「あるべき未来」を求めるのであれば、機械学習による予測や判断が公平性を欠くことがないように人間が機械学習に注意深く介入する必要があります。
機械学習やAIはあくまで人間の道具であり、データによっていくらでも偏ってしまうものであり、「AIは人間にはできない『神のような判断』をしてくれる」と盲信するのは不適切なのである。
まとめ
- AIは正しい判断ができるわけではなく、ただデータの傾向通りに判断するだけ
- データの傾向が不適切であればAIも不適切な判断をする
- AIはあくまで人間の道具であり、盲信すべきものではない