企業に説明責任を求める『AI』の基本原則【キーワード】

2018年12月7日

<今日のキーワード>
近年の人工知能(『AI』)は、ディープラーニング(深層学習)によりビッグデータ(膨大なデータ)を使って精度の高い結論を素早く導き出せるようになったことから、急速に進化し、活用の幅が広がっています。しかし、その判断基準などは表に出にくく、また『AI』を活用する際の倫理面などへの懸念もあります。これらなどについて国際的にも議論が進む中、日本政府は今月にも『AI』に関する基本原則を公表する予定です。

【ポイント1】技術の進化により、『AI』の活用の幅は拡大

一方で、判断基準が「ブラックボックス」化することへの懸念も

■近年、『AI』はディープラーニングによりビッグデータを使って精度の高い結論を素早く導き出せるようになったことから、急速に進化し、生活の様々な場面で『AI』が活用されるようになりました。例えば、金融機関では『AI』が融資の判断に関わったり、就職採用活動において『AI』が書類選考などの合否判定に関わったりしています。

■こうした中で、『AI』が物事をどのように判断したかの基準は表に出にくく、いわゆる「ブラックボックス」化することへの懸念もあります。また、『AI』に学習させるデータに偏りがあると判断が偏ってしまったり、性別や国籍などを判断材料としたことによって差別が生じるリスクなども指摘されています。

【ポイント2】政府は『AI』に関する7つの基本原則を公表予定

『AI』の判断について、使う企業に説明責任を求める

■日本では、政府が「人間中心のAI社会原則検討会議」において、『AI』をより良い形で社会実装し、共有するための基本原則を策定しており、今月中にも公表される見込みです。

■報道によるとこの基本原則とは、1.『AI』は人間の基本的人権を侵さない、2.誰もが『AI』を利用できるように教育を充実させる、3.個人情報を慎重に管理、4.『AI』のセキュリティーの確保、5.公正な競争環境の維持、6.『AI』を利用した企業に決定過程の説明責任、7.国境を越えてデータを利用できる環境を整備、の7つからなるものです。これにより、『AI』が物事を判断する場合に、その説明責任が企業に求められることになり、『AI』が下した判断理由などが分かりやすくなると考えられます。

【今後の展開】基本原則は世界に発信する見込み、国際的議論の進展に期待

■『AI』に関するルールは、今年から経済協力開発機構(OECD)が、『AI』の信頼構築と社会実装を促す原則などの理事会勧告の策定を始めたほか、欧州連合では『AI』倫理等に関するガイドライン作成の議論を進めています。日本は、今回発表予定の7つの基本原則を、来年6月に大阪で開催予定の20カ国・地域首脳会議(G20サミット)などで参加国に発信すると見られ、今後も国際的な議論が進んでいくと期待されます。

関連マーケットレポート

日々のマーケットレポート
日々のマーケットレポート