AI時代の社員教育(6)リスク意識の醸成も必須

2020-05-29

デジタルによる日本企業の変革が、人工知能(AI)の活用で次の段階に進もうとしている。同時に、デジタルによるビジネスモデルの変革「デジタル・トランスフォーメーション(DX)」の取り組みが進まない、成果が出せないなどの課題もつぶやかれている。根底にあるものとして、推進する人材の確保や、新技術を利用する側の基礎スキル・意識改革がついていかないなど人的なボトルネックが明確になってきた。

AIの活用ではこうした人的課題に対し、より全社的な対応が求められる。使いこなし、成果を上げる施策と同時に、リスク管理面でも対応が必要となるからだ。

使うだけなら関係者の中で済むものが、リスク管理は社会的な責任を問われる経営層も含め、全社的な対応・体制が必要となる。AIが取り扱うデータの信頼性やセキュリティーの課題、答えが自動的に出される仕組みが持つブラックボックス化の問題、情報漏洩や非倫理的な利用など、先んじて手を打つべき対象の範囲は広く、考えを巡らせるところも深い。

取り組みごとのリスクの特性や大きさに合わせ、全社的なガバナンス(企業統治)設計が求められる。その際、制度的な手当てやガイド・教育が必要となる対象も場合により広くなる。リスク認識やコンプライアンス(法令順守)意識の醸成、法的整備が必ずしも追い付いていないデジタル領域独特のリスク管理のあり方などを検討・判断する能力が求められる。

また、顧客が利用する場合、その顧客にも利用にあたっての広い意味での教育が考慮されるケースもある。AIの恩恵を受けられる人と受けられない人との間で生じる情報や収入の格差の問題をどう考えるのかという社会レベルの議論も始まったばかりだ。企画段階から組織の壁を越えて取り組む設計と洞察が求められる。

今後、AIの活用度が日本企業の競争優位を大きく左右する。デジタル時代だからこその顧客への信頼提供のあり方も、経営のかじ取りの中心となろう。一方で、AIに関するガバナンスが、担当組織の設置や形式的な管理プロセスを構築するだけで済まされ、丸投げされた状態では意味をなさない。AIの持つメリットを完全に引き出し、使いこなせるかを決めるのは、信頼できる仕組みや装置をつくることではなく、最後は、扱う側のヒトがAIに先んじて進化できるかどうかだ。

執筆者

神馬 秀貴

パートナー, PwCコンサルティング合同会社

Email

※本稿は、日経産業新聞2020年5月28日付掲載のコラムを転載したものです。

※本記事は、日経産業新聞の許諾を得て掲載しています。無断複製・転載はお控えください。

※法人名、役職などは掲載当時のものです。


{{filterContent.facetedTitle}}

{{contentList.dataService.numberHits}} {{contentList.dataService.numberHits == 1 ? 'result' : 'results'}}
{{contentList.loadingText}}