HRサミット2018 最新のHRテックとその応用

目次

最新のHRテックとその応用
~ ここまで来たAIとビッグデータ、そしてデジタル・トランスフォーメーション ~

サムトータル・システムズ株式会社 代表取締役社長 平野 正信氏

知っているようで難解な部分もあるビッグデータとAI、そして最新のトレンドであるデジタル・トランスフォーメーション。HR領域に関係のありそうなテクノロジーについてサムトータル・システムズ代表取締役社長の平野正信氏に詳細な解説をしていただくとともに、テクノロジーをいかに採用や社員教育に活かしていくのか、今後の展望についてお話していただきました。

1億5000万ユーザー、3500社以上が利用するソリューションをグローバル展開

まず当社の沿革を簡単にご説明します。アメリカで設立34周年を迎えた古い会社です。勤続34年で表彰された社員もいます。もともとはMicrosoft社の共同創立者で、最近では沈没した戦艦武蔵の探索で有名になったポール・アレン氏が設立しました。アレン氏はMicrosoft社時代に体を壊して引退後、復帰した時に「次のテクノロジーは何か」と考え、eラーニングに着目したことが当社設立のきっかけとなりました。その当時は、eラーニングという言葉の黎明期で、あまり一般的ではありませんでした。その後、急速に認知されるようになりましたが、実際に注目されるようになったのは、それから10数年ほど経過し、eラーニングが普通のコンピュータでも使うことが可能な状態になった2000年頃のことです。ここでeラーニングは1回目のブームを迎え、HR系のシステム、特にラーニングシステムとタレントマネジメントシステムがかなり注目されました。そのタイミングに合わせてサムトータル・システムズの日本法人が設立されました。
 実際には、2001年にドーセントという会社があったのですが、これが現在のサムトータル・システムズの前身です。その後、eラーニングの周辺テクノロジーがいくつも生まれ、eラーニングの会社も数多く設立されたことにより、色々な会社が買収・吸収を繰り返した結果、寡占化がかなり進みました。我々もその中の1つですが、最終的には2004年から社名がサムトータル・システムズに変わりました。

 現在、本社はアメリカにあり、一般のIT企業と同じように欧米を中心にアジア太平洋、インド、中国を含め、日本にも拠点があります。およそ1億5000万ユーザー、3500社以上に当社製品を使っていただいています。
内訳としては、クラウドユーザーが増えています。当社は、もともとオンプレミスで事業を展開しておりましたが、最近は急速にクラウド化が進んでいます。

 ユーザーは製造業、金融業、テクノロジー、ヘルスケアなど、業種面での得意分野や偏りはありません。しかし、10数年前はヘルスケアやライフサイエンス領域に関して強みがありました。それは、製薬会社が新薬を販売する際、社員教育をしっかり行わなければならないというレギュレーションがあったのですが、当社製品が教育のログを記録する機能をいち早く持っていたからです。
 また、世界の航空会社ベスト15のうち13社が当社のユーザーになっています。人気の理由は、少し前まで飛行機ではオンライン教育ができなかったのですが、当社製品は教育コンテンツをダウンロードして、オフラインでも教育を受けることができたからです。

 また、ウォルマート社は当社の非常に強力なサポーターであり、ユーザーでもあるのですが、特に創業者のサム・ウォルトン氏が社員教育に熱心であるため、全米に多数展開しているウォルマート社の店舗で、パートを含む従業員が当社製品による教育を行っています。

 なお、当社製品はラーニングプラットフォームとタレントプラットフォームの他に、Skillsoft社がコンテンツを別売しているため、コンテンツ量は世界No.1です。さらに、包括的に色々な分野をカバーしており、かつ経験値があることで、多様なソリューションへの対処が可能である点が強みとなっています。

ITの進化の中でのAI、ビッグデータ、そしてデジタル・トランスフォーメーションとは

 HRテックという言葉が最近のトレンドとなっています。みなさんはフィンテックという言葉をお聞きになったことがあると思いますが、これは金融系のテクノロジーのことです。このように最近では〇〇テックというような言葉が流行りのようになっているのですが、人事系のテクノロジーがHRテックというわけです。
 HRテックの根幹をなしている、AIやビッグデータ、デジタル・トランスフォーメーションについては、言葉としてはご存知かと思いますが、実際は何であるのかが分かりづらいため、テクニカルな観点から仕組みを示しつつ、説明します。理解すると応用が効き、実際にどのように使われるのかも分かりやすくなると思います。

 まずはビッグデータの話です。言葉が示す通り、「ビッグなデータ」のことです。これは大きさが大きいということもありますが、カバレージも大きい、つまり、すべてに大規模という意味のビッグです。もともと、数学にはITのデータベース・テクノロジーのベースにもなっている集合論という理論があります。コンピュータの世界ではこの集合論が活かされています。
 ITにおけるデータベースとは何かというと、コンピュータに入力されたデータを整理して保存するということです。一般的に整理といえばファイルに入れたり、書棚に入れたりしますが、それをコンピュータではどう行うか、ということがデータベース・テクノロジーの根本です。現在ITで最も一般的なリレーショナルデータベース(RDB)は日本語では関係データベースと呼ばれます。データをただ順番に置くのではなく、関係性を持たせてデータを追加していくという考え方です。
 これは1970年代から徐々に進化していきましたが、その後、急速に発展し、基幹系ITの世界ではデファクトとして現在最も普及している技術です。ビッグデータ以外は、これしかない、と言っても過言ではありません。
 みなさんがお使いになっている会社や組織のコンピュータ・データベースは、このRDBがないと成り立たないのが現実です。以前までは色々な技術があったのですが、競合の末、寡占化が進み、基幹系のデータベースはオラクル社とSAP社の2社に独占されているのが現状です。

RDBの問題点とNoSQLの登場

なぜデータベースの話をしているかというと、ある分野では、今までのRDBでは問題が出てきたからです。
関係するデータでできているということは、新しいデータを追加する時に、これは何に関係しているデータなのかを見極めながら追加しなければいけないという一種の制約がかかります。単純に追加していければ素早く簡単なのですが、RDBでは、データがバラバラになっているものを入力する時でさえ、それぞれで関係を考えながら追加していかなければなりません。
逆に言えば、関係があるデータを持ってくることは簡単ですが、無関係なデータを持ってくることは大変だということです。

関係データベースが問題になったきっかけはインターネットです。インターネットは、もともと接続されたコンピュータ同士で情報を共有するための仕組みであり、データベースというテクノロジーは必ずしも意識されませんでした。以前のITシステムは、A社のコンピュータが、他社であるB社のコンピュータとつながるという考えがなく、つながるようになったのは1970年頃、お互いの情報を共有したいと考えていたアメリカの大学や研究機関がお互いにつないでみようと試みたことが始まりです。

1990年に、コンピュータが保有しているデータの中身を閲覧するにはどうすればよいのだろう、というニーズからWebブラウザが登場します。ブラウザという「窓」を使って、よそのコンピュータの中身を閲覧する仕組みが出来上がっていったのです。ブラウザの登場により、現在のインターネットの基本的な使い方が確立しました。その結果、より良いブラウザを開発するために新しい会社がいくつか生まれました。いずれもベンチャーだったのですが、成長するにつれ、IT のビッグネームもブラウザのテクノロジーを買収するなどして取り込み、事業のベースにしていきました。Microsoft社もそうですし、Apple社もそうです。
繰り返しになりますが、もともとコンピュータは独立して使うものでした。1991年の8月には全世界にWebサイトとしては1台のコンピュータしかありませんでした。それが1995年には8000台のコンピュータがつながるようになりました。2006年には1億台になり、2014年には10億台となっています。現在もこの数字はものすごい勢いで増殖しています。

インターネットは無関係データベースで構築されている

コンピュータがここまで増えると困った問題が起きました。多くつながっているコンピュータの中からどうやって必要なデータを検索するか、という問題です。
結果的に言うと、Googleがその問題を解決しました。Google検索をイメージしていただくと分かりやすいのですが、Googleで検索しようとして、検索語を入力すると、“不思議”なことに答えがパッと出てきます。しかし、ある検索条件を入力し、何十億、何千億台もつながっているコンピュータのそれぞれのデータから、検索結果が瞬時に表示されるという仕組みは、どうやって実現したのでしょうか。
実際にGoogleで検索エンジンを作ったエンジニアは、当時はRDBが基本でしたから、当然のようにRDB使って、データの検索を試みました。検索エンジンもRDBで構築しようとしました。しかしうまくいかなかったのです。そこで、そのエンジニアは、「RDBテクノロジーではうまくいきそうもない」と考え、関係データベースではない「無関係」データベースを考案し、使うことにしました。
新しいでデータベースは、データを無関係に手当たり次第に追加していける仕組みになっています。手間をかけずにどんどん追加していくので、非常に簡単で高速にデータが蓄積されていきます。もしかしたらその後使われない(参照されない)データもかまわず追加していきます。その結果、データベースはどんどん大きくなっていきます。これがビッグデータの始まりです。
世界中にあるコンピュータから、将来検索されるかどうか予想せずに、とにかく全部入れてしまう。この仕組みを実際には人間がやるのではなく、bot(ボット)と呼ばれるソフトウエアのロボットが行います。botは人間が起きていようと寝ていようと、24時間365日、一瞬たりとも休まず働き続けます。
使うか使わないか分からないデータを前もって追加しておくとデータ量が膨大に増えていきます。しかし後でどう検索するのでしょうか。
実は、データを入れるときに、その内容に沿ったキーワードをいくつか埋め込んでいきます。この「おまじない」が重要なのです。無関係に蓄積されたビッグデータですが、検索条件が決まったときには、このキーワードだけをまず検索します。大きなデータを全部みるのではなく、短いキーワードだけを見るので速度が上がります。大雑把に言うと、これがビッグデータの基本です。
ITにおけるデータベースというものは、最初から関係したデータを集めたデータベースと、無関係なデータを集め、あとで関係性を持たせるデータベースの2種類しかないわけです。基幹系システムでは関係データベース、インターネットではビッグデータしかありません(キッパリ)。

図の左側が企業で使われている基幹系システムです。これは今でも関係データベースで構築されています。一方、インターネットは無関係データベースで構築されています。それが今ではすべて繋がっています。このことを使用する側が気にする必要はありませんが、繋がっているために、時にセキュリティの問題が起きる可能性があります。(この問題は今回触れる時間がありませんが、別の機会があれば解説したいと思います。)

人間の脳をモデルとして進化するAI

さて、それでは、もう1つのテーマであるAI(人工知能)についてお話しします。昔から人工知能という言葉はありましたので、古くて新しい概念と言えます。人工知能は、1950年頃からいくつかの重要な論文が発表され、試行錯誤の試みもありました。非常に期待されるテクノロジーであるため、多くの人が張り切って取り組んだのですが、うまくいきませんでした。考え方はそれほど間違っていなかったのですが、もっと大きな理由は、コンピュータの性能が追い付かなかったのです。何をするにも時間がかかりすぎたため、実用に至りませんでした。
AIに投資しても思うような成果を期待されず、誰も投資しなくなり、「AIはダメだ」という雰囲気になってしまいました。その結果、AIは世間から一旦は忘れさられてしまいました。

さて、そのAIですが、人間のマネをして人間と同じ論理で実現しようとする方法と、機械は機械であるから人間と違う方法で実現しようという、2つの考え方があります。
1つ目の考え方については、人間自体が論理的ではないので、論理的なことが得意のコンピュータとは相いれないのではないか、という難題にぶつかります。これは心理学、生物学的な問題でもありますが、分かりやすい例でいうと、人間は立っている鉛筆が傾いた時、サイン・コサイン・タンジェントなどという計算をせずに、感覚的にバランスをとる動作をします。
ところが、コンピュータは、鉛筆が傾いたから重心をずらさなければという時に、三角関数などで物理学的に計算し、対処しようとしました。ところがこの方法では、計算に時間がかかり、それを反映させ動作させるまでに持っていく効率の悪さが気にかかります。
そこでAIの出番です。今話題となっているAIは、人間の思考に近い仕組みを機械で作りあげることを実現しようとしています。
先ほどの鉛筆を倒さない方法は、人間の場合、繰り返しによる訓練でその場面ではもっとも迅速な反射神経を使って実現します。鉛筆を倒さないという部分だけを経験的に集中するので迅速で正確な動作が可能となります。
これをAIで実現するにはどうすれば良いのでしょうか。順番に見ていきましょう。
AIを語る時に出てくる言葉として、“ニューロン”があります。ニューロンとは、脳みその情報伝達を司る神経細胞のことです。この細胞は、人間の大脳には数百億個、小脳で一千億個、脳全体で千数百億個あります。
この膨大な数の神経細胞をお互いにつなげ脳みそができています。つまり、脳は神経細胞で構成される大規模なネットワークなのですが、この脳の神経回路網を人工ニューロンという数学的なモデルで表現したものをニューラルネットワークと言います。
たまたまですが、現在のパソコンのハードディスクの容量は、数百ギガバイトから1テラバイトです。1バイトは1文字ですから、パソコンの数千億から一兆文字という値は、脳みその細胞の数とほぼ同数になっています。数的には拮抗していますが、脳みその神経細胞はパソコンの1バイトよりももっと複雑な情報伝達が可能なので、脳みそはパソコンよりも能力的にははるかに上ですが、ただ数的には近づいている部分もあるということです。
冒頭で、1900年代のAIが失敗したのはコンピュータの性能の問題と言いましたが、当時のコンピュータのバイト数は、せいぜい数千バイト、数億バイトですから、数で比較しても、脳みそには到底及びもしませんでした。うまくいかなかったのはやむを得ないと言えるでしょう。

さて話を戻しますが、AIの用語に“ディープ”という言葉が出てきます。ディープラーニングやディープネットワークなどの用語を聞いたこともあるかと思います。
ネットワークのイメージは、一般に平面的なものを想像しますが、ディープとはそれを多層化、深層化するという意味を持っています。つまりネットワークが何層にもなり、人間の脳みそのように立体的に深く考える仕組みになっているということです。

AIとビッグデータがつながることで、AIは飛躍的に進化し続ける

さて、いよいよAIとビッグデータが結びついていきます。

膨大な量の無関係なデータの集まりから、検索で答えを出そうというのが今の検索エンジンの特徴ですが、検索する時に何をしているでしょうか。1つ目は“キーワード”という発想です。先ほど、データをランダムかつデタラメに追加していけばいいと言いましたが、一般的には、データを追加する時にはタグを付けると思います。
それと同じように、「このデータは、このキーワードに関係しそうだ」というデータをとりあえず入れておけば、検索エンジンは、そのキーワードを探し、中身を持ってくる作業を実行します。

AI的に考えると、データを持ってくる時にコンピュータは、次のように考えます。「このキーワードと、このキーワードを組み合わせると、どうもこのような意味になるだろう」と。こう考え、単純なキーワードだけで答えを決めるのではなく、共通の複数のキーワードでマッチングすることにより、もっと正確な答を取り出すことができるようになります。

良いデータ、すなわち答を取り出せる理由は、確率的な問題にはなりますが、キーワードが一致し、キーワードの組み合わせも一致した時は、より正確な答を導き出すことが可能になります。もう一つ忘れてならないのは、データ量です。このような検索の仕組みでは、データ量が多ければ多いほど正確な答が出やすくなります。
コンピュータはデータ量をほぼ無限に蓄えていくことが理論的に可能ですが、人間はそうではありません。人間の記憶量には限界があるので、人間の場合は、無意味なデータをどんどん捨てていき、重要で頻繁に使うデータだけが記憶として定着しやすいという特長を備えています。したがって、経験として定着したものや、ひらめきで冴えたものは答として有効な結果を導きだすことができます。効率的な仕組みだと言えるでしょう。
一方、コンピュータは無駄と思われるデータも含めて、できるだけデータを蓄積していきます。ひらめきに相当するのは、人間が忘れてしまったような膨大なデータからうまく答を導き出すのと、データがない場合は、ランダムなデータを生成させ、抜けがないような仕組みを自分で作り上げることにより、思いもよらない正しい答を導きだす可能性も秘めています。コンピュータはひらめかない、人間のカンに相当するものがない、というのは俗説で、コンピュータでも閃きのロジックを作り上げることが可能です。コンピュータの場合、データ量が無限にあれば、閃きに頼る必要がなくなるというのも事実かもしれません。
当初のGoogleの検索は、時にトンチンカンな検索結果もありましたが、最近はある程度、まともな検索結果が返ってきます。というのも、長年かけて、トンチンカンな答えが返ってきた時、「どこに穴があるのか」をエンジニアが研究し、日々改善しているからです。

2004年、Google社がHadoop(ハドゥープ)という名前でプロジェクトを作りました。関係データベースで行き詰ったときに、新しく作った無関係データベースで、これが現在のビックデータの基本になっています。
現在のビックデータは、ほとんどがこのハドゥープの流れを汲んでいます。このままではビッグデータをGoogleに独占されてしまうと気づいた企業が後追いを始め、2007年にAmazon社が自社のデータベースにハドゥープを組み込みました。次いでSAP社、Microsoft社など、次々とビッグデータに参入してきています。

人間が作るAIから、自己修復するAIが生まれる日は近い

本日最後のAI の議論はホットな話です。仕組みも含めて、AI はどんどん進化していますが、しかしそれは人間が作っています。そのため、時々バイアスがかかることがあるのです。
AI は非常に客観的、統計的に答えを出せるはずなのですが、あるとき答に何かがおかしいと気づく事態が発生しました。普通ならこんな答は出ないのに、何か人間的とも言える偏りが出てきたのです。なぜそうなったかというと、いつの間にかAI を作っている人間が、自分の好みを強調してAI のロジックに操作してしまったという例です。
それは好例とは言えないのですが、犯罪データベースの例が有名です。
米国の例ですが、犯罪データベースをAI で作り上げました。ところがある事件で、10 人ほどの容疑者をAIが抽出しました。ところが、なぜか黒人の比率が異常に高いのです。「おかしい。過去に犯罪に手を染めた白人の比率に比べ、容疑者が白人である比率が異常に低い。なぜ黒人の容疑者がこんなにも多いのか」というようなことが実際に起きました。検証してみると、すぐに理由が判明しました。AI を作ってきた開発者がロジックにバイアスをかけたのです。それで容疑者が黒人になる比率が高まってしまいました。元となるデータは間違っていなかったのです。
データを中立的に追加し、それが膨大になればなるほど、偏りは減っていきます。つまり客観的なデータベースになっていきます。しかし、答を導きだすときのロジックが意図的な偏りを持っていると、正しい答が出てきません。もし、AI ロジックを人間ではなく、コンピュータが自分自身で作るようになったら、そのような偏りがなくなる可能性が高いです。問題は、人間の力を借りずにコンピュータが自分で自分のAI ロジックを開発できるようになるのか否かです。
AI 自身が勝手に自分自身を修復する機能は徐々にできあがりつつあります。最終的には、一切人間の手を借りず、AI 自身が、論理性や公平性、客観性を取り入れたデータを、自分で組み込んでいくようになり、自分で改善していくようになる、それが最終的に、「シンギュラリティ」という言葉で表現されます。
AI がある一定のレベルを超え、AI が自分で自分を改良してでき、人間が不要となるとき、それがいつ来るかがホットな話題となりました。そのときに、30 年後というのが一つの目安となりましたが、30 年では無理なのではないかと言われていました。ところが、最近になり、「いや30 年もかからないのではないか」という人が増えてきています。
シンギュラリティ後の世界は、ジョージ・オーウェルの小説「1984 年」のような話が想起されますが、シングラリティ=コンピュータによる人間社会の管理、ということではありません。仮に、「1984 年」のような世界になるとしても、それはシンギュラリティの後に起こる事態です。シンギュラリティを超えたところで、AI を使うのは人間であり、それまでの道筋をきちんと考えておくことで1984 年の世界を回避したいものです。中には「シンギュラリティは起きない」と言う人もいますが、大方の見方はいつか起きるだろうと考えられています。

スマホの普及により注目されるデジタル・トランスフォーメーション

もう一つの用語である「デジタル・トランスフォーメーション」は、そんなにややこしい話ではありません。もともとはデジタル(Di git al )から、順次変化した言葉です。
まず、デジタイゼーション(Di giti zati on)という言葉がありました。アナログ(Anal og)の世界にデジタルが登場した際、アナログをデジタル化するという意味で生まれた言葉です。シンプルに、アナログからデジタルへデジタル化することをDigitization と呼びます。
その次に、デジタル側の影響が強くなり、社会全体にデジタイゼーションが影響を及ぼすようになってくると、デジタライゼーション(Digitalization)という表現が生まれました。
そして、デジタル化はもう当たり前、社会に影響を与えるのも当たり前。そうなったときに、その社会で暮らす人間は幸せになれるのかどうか、という視点で提唱されたのが、デジタル・トランスフォーメーション(Di git al Transformation)です。

デジタル・トランスフォーメーションは、スウェーデンの学者が2001 年頃に発表した論文で使用された用語です。しかし、当時はまだデジタルの影響と言ってもピンとこない人も多かったため、「デジタル化が進み、人間が幸せになるかどうか」といったことはそれほど大きな話題とはなりませんでした。
ところが、スマートフォン(スマホ)の登場で、この用語に注目が集まってきました。2001 年に提唱されたときにはスマホはありませんでした。なぜスマホなのでしょうか。
まず、スマホを使っている人は2 種類に分かれます。パソコンもスマホも使う人と、スマホしか使わない人です。パソコンもスマホも使う人は、スマホだけでなく、パソコンも使う両刀使いです。しかし、スマホだけを使う人はそもそもパソコンを使ったことのない人が大部分です。ここが重要な点です。スマホは技術的にはコンピュータが内蔵されていますが、使っている人はコンピュータとは思っていません。あくまでスマホという新しい道具であり、理系である必要もなく、IT の知識も必要ありません。家電、電車、バスなどと同じ近代的な社会の道具の一つです。
私はずっとパソコンを使っていましたが、IT 企業である当社でも、パソコンは不可欠なものだと思っていました。ところが、ほんの数年前に会社の方針として、「社員は必ずしもパソコンを使わなくてもよい」ということになり、大変驚きました。パソコンで育ってきた私たちの世代は、「ありえない。スマホではできないことがある」とも思いましたが、結果的に言うとパソコンを使わなくても大方問題はありませんでした。最初からスマホを使っていた人たちはそれを当然のことだと思っています。これが今、デジタル・トランスフォーメーションという言葉に注目しなければいけない理由です。

早い段階からスマホに親しんできた子どもたちの将来を悲観することはない

旧来のIT に無関係であった人たちに、ここまでスマホが普及してしまうと、スマホのある生活は、スマホのない生活に比べ、その人は幸せになれるのか、という疑問が湧いてきます。そのことこそ、2001 年に提起されたデジタル・トランスフォーメーションに他なりません。

今の中高校生を含む若い人たちが最初に身近で使うデジタル機器がスマホになり、スマホ抜きの生活が考えられなくなってきているのは大方の事実でしょう。使いすぎて親が注意し、喧嘩になったというニュースが頻繁に新聞に載るほどです。それ程までにスマホは若い人たちには不可欠な道具になってきています。中学生位になると、学校からの連絡網も電話から、スマホやパッドになってきたのもここ数年のことです。このような環境で育った子どもたちが、大人になった時、どのようになるのか? そのとき幸せなのか? ということが今、議論されてきています。それは悲観的な未来なのでしょうか。あるいは、より幸せな大人になるのでしょうか。
この問題について、デジタル・トランスフォーメーションは人間を幸せにする、という前提で話をしています。
これはテクノロジーの根本的な目的につながります。つまり、テクノロジーは人類の幸せのためにある、という前提です。したがって、デジタル・トランスフォーメーションにより、人類は幸せになるしか選択肢はないのです。
そうならなければ、人類は大きな過ちを犯すということになり、大問題です。

幸せかどうかの観点ではなく、まずは、使いやすくなるとメリットがある、という観点で当社製品の画面で一例をご説明しましょう。以下、当社の製品をスマホ画面で見たときの画面です。

上が現在のスマホの画面、下が以前からあるパソコンの画面です。比較して見ると、スマホ画面の方はあまり説明が要りません。説明しなくても、どうすれば良いかは、すぐにわかるからです。2 ~3 年前までは、当社の製品も下の画像のようなパソコン仕様だけでしたが、今は、このようなスマホ画面の形態になりました。スマホ仕様になっていないと今は誰も買ってくれません。
スマホ用の製品はマニュアルが不要です。もっと言えば、マニュアルなどあっても誰も読みません。直感的に操作できなければ、製品として不完全とみなされるのです。メニューを選ぶなどという発想はなく、直感的に、パッと見て、「この辺をなんとなく押せばよい」とわかるような操作性でなければ、もう使われないのです。
このような事例も、デジタル・トランスフォーメーションの1つのジャンルです。要するに、製品がわかりやすくなければ楽しく使えません。ストレスがあってはいけないのです。ストレスがなければ楽しむことが可能になります。楽しければ幸せになれるのです。

AI+ビッグデータのHRシステムにより、採用は激変する

採用あるいは面接において、これまでは履歴書を見ながら、5~6人で1人を面接し、評価するスタイルが一般的でしたが、今後はどのように変化するのでしょうか。
スマホのSNSの例が一つの方向性を示しています。つまり、限られた人たちではなく、もっと多くの人々の意見を聞いた方が良い、その方が候補者の人物像が正確に把握できるという前提です。いわゆる集合知のような方法で面接が行われるということになります。
この方法は、Google社が実際に行っていることで有名になりました。Google社の採用試験は、色々な人が入れ代わり、立ち代わり採用希望者の前に出てくるのだそうです。面接者以外の人たちのリファレンス・チェックも幅広く行い、学生時代の友人や前職の同僚など、とにかく大量の意見を集めるということです。言い換えると、採用面接自体がビッグデータ化するわけです。面接される人のデータをできるだけ集め、ビッグデータ化して、より客観的に判断するというわけです。ビッグデータの先駆者であるGoogleらしいですね。
今まではインターネットでは当たり前だったビッグデータは、HRの分野ではなかなか実現されていませんでした。旧来のシステムはそもそのビッグデータ仕様ではなかったので、ビッグデータを活用するためには、システムのデータベースを根本から入れ替える必要が出てきます。今までのHRシステムではビッグ・データベースは使われていませんでした。しかし、これからはHRデータもビッグデータ化され、分析もAI化していくのは確実だと思います。
今まではHRデータというと、住所・氏名・年齢から始まり、入社時期、給与額、職務経歴、受けてきた評価、といった履歴情報が中心でした。しかし今後は、履歴以外のあらゆる情報をどんどん追加していくことになるでしょう。例えば、趣味や言葉遣い、歩き方の癖など、どう使うと有用なのかわからない情報でも、その人にまつわるデータは、とにかく何でも入れていくようになるはずです。情報の使い方は後で考える。まさにビッグデータの基本です。

そして大量にビッグデータ化された情報からその人の人物像、能力などを見極めるのがAIです。今までは、ある人を評価する場合、その関係者、つまり上司や同僚、担当する顧客、友人などの意見から導き出すしかなかったのですが、すべてがビッグデータ化されると、AIを介して問い合わせることが可能となります。「この人のここが知りたい」、「この人はいったいどのような人なのだろう」などと質問すれば、膨大なデータを元に、瞬時にAIが論理的な答を出してくれるでしょう。

ここまでは採用や評価、あるいは組織における最適な人材探しについての話でしたが、教育に関して言えば、カリキュラムを自動化することがまず考えられます。つまり、その人の将来のキャリアパスを見据えると、その人の教育カリキュラムはこうあるべきだ、と自動的に判断し、作成するわけです。同じ部門の同じ年齢の社員だからといって、同じカリキュラムを行うとは限りません。実際にこのような流れになるのですが、現状は、そこまで実現できていないケースがほとんどです。しかし、当社のシステムでは徐々にその方向で実現しつつあります。
例えば、リコメンデーションと呼ばれる機能はすでに実現可能になりました。まず、「私は何を受けたらいいですか?」と尋ねると、これまではあらかじめ作成されたメニュー通りの答しかなかったものが、もっと柔軟に、「あなたはこの方向に行きたいようだから、この教育を受けてみてはどうですか?」というようなアドバイス、すなわち、リコメンデーションを示してくれるのです。リコメンデーションはAIの実装により、可能となりました。
さらに、教材の読み上げもできるようになっています。「読み上げは今までもあったテクノロジーではないのか?」と言われそうですが、実は読み上げ技術も着実に進歩しているのです。今までは、音声合成は、機械的な音声で、イントネーションや文章のつなぎが不自然になり、明らかに人間ではない、とわかることが多かったのですが、最近はあるところまで、まったく気づかないくらい自然な音声になってきました。この機能の実現も、実はAIによるところが大きいのです。ただ単語をつなぎ合わせるのではなく、全体の文章としてでより自然な流れに補正する、それもAIの技術です。音声自体も機械的なロボットの音声ではなく、より人間に近い音声が流れるようになってきています。最近では、SiriやOKグーグルの答を実は人間がやっているのではないかという都市伝説もあるようですが、そこまでAIが進化してきたのでしょうか。

次に、人材の発掘についてです。従来のタレントマネジメントでは、限られたデータベースの中から最適な人材を選ぶという方法しかありませんでした。例えば、スペイン語を話せる人を探す場合、スペイン語を話せるというデータをある人が持っていれば、当然結果としてその人の名前が出てきます。しかし、昨今の人材発掘は、そのような単純な話ではなくなってきています。
例えば、「営業の人間だが、実は絵を描くのが上手い」というようなデータは、今までのタレント・データベースには入れづらかったものですが、ビッグデータでは問題ありません。このように、一人一人に対して、今までは入力されなかった情報がいろいろな角度から膨大に蓄積されていきます。そのため、複合的な質問から思いもよらない答、すなわち今まで埋もれていた有能な人材がヒットする可能性が高まることは容易に想像できます。

現実世界を凌駕するテクノロジーが教育研修を変える

人事に関係しているテクノロジーとして、AI、ビッグデータ、デジタル・トランスフォーメーション以外にも、まだいろいろありますので、それもご紹介しましょう。
まず、仮想現実(VR:VirtualReality)です。VRは「現実には存在しない世界をCGで作成し、あたかも自分がその空間にいるような感覚にする技術」です。
似たものに拡張現実(AR:AugmentedReality)があります。こちらは、いわば「ポケモン・ゴー」(PokemonGo)のように、自分がいる場所を画面上で見ることができます。現実世界に仮想的な世界を重ね合わせているわけです。
複合現実(MR:MixedReality)というものもあります。MRは現実世界に仮想的な世界を重ねるのではなく、現実世界と仮想世界を完全に混在させてしまうものです。そのため、どこが現実で、どこが仮想か、ということはあまり重要ではありません。例えば、歯科治療の場合、通常、歯科医は患者の歯を見ながら削るのですが、歯には見えないところに神経があるため、何となくこの辺りに触れると患者は痛いだろう、という感覚で治療していました。ところが、複合現実のスクーンを使用すれば、見えないはずの神経が映し出されるため、歯科医はその画面を見ながら患者が痛くないように治療をすることができます。このテクノロジーはすでに実用段階にあり、実際に行っている歯科医もいるというから驚きです。

このVRやAR、MRは、既に教育研修で応用されています。冒頭でお話しした通り、ウォルマート社はVRでの研修を取り入れています。同社は全米200箇所に「ウォルマートアカデミー」という施設を設置し、VRをトレーニングに応用しています。特にカスタマーサービスなどで、従業員が遭遇すると予想される場面を映し出し、選択肢を与え、どう対処すべきかを考えさせるカリキュラムが知られています。

激化する音声ユーザーインターフェースの覇権争い

これから実現しそうなテクノロジーとしては、OKグーグルやアレクサ(Alexa)のような音声認識や音声合成があります。スマホやコンピュータを操作するユーザーインターフェース(UI)は、キーボード、マウス、タッチパネル、操作ボタン、リモコンなどですが、ここに音声が加わります。このテクノロジーがなぜ重要かというのは、現実の社会で考えていただくと分かると思います。お年寄りは機械を操作せず、代わりに対応してくれる誰かに、「テレビをつけて」「チャンネルを代えて」と頼むことが多いのではないでしょうか。つまり、道具を使わなくても必要なことを伝達するテクノロジーとして音声が有効になります。誰かに何かを依頼する方法は、お年寄りに限らず、音声が主役であることが多いのです。そのため、音声を認識する技術が、これからのUIの進化に有効であると考えられます。

この分野はAmazon社がリードしているかもしれません。しかしGoogle社、Apple社、Microsoft社などが激しく迫ってきており、日本ではLINE社も勢いがあります。これが進化していくとUIは劇的に変わるでしょう。その一例がチャットボット(chatbot)です。
chat=チャットとは、文字による会話のことです。近年では動画や画像による会話も含まれますが、特長はリアルタイム性です。チャットでは答えがすぐに返ってきますが、メールでは答えがいつ返って来るのか分からないため、つい催促をすることもあるかと思います。チャットの場合、答えが返ってこなければ、不在であるか対応できないのだということがすぐ分かるわけです。botとは、ロボットと同じ意味ですが、要はプログラムです。
特に人間と対話するロボットという意味で使われます。

チャットボットはユーザーと会話し、あたかも生身の人間と会話しているかのような答えを出します。2年ぐらい前から急速に注目され、実用化されている技術です。

注目されるセキュリティ・生体認証

最後にセキュリティの話をします。ITシステムにおけるセキュリティは、一般的にパスワード、暗証番号、場合によっては秘密の質問などが設けられています。銀行などでは取引パスワードや二段階認証を取り入れています。しかし、こうしたセキュリティは脆弱性を免れません。ユーザーが忘れてしまうリスクもあります。もう1つのセキュリティは、IDカードです。しかしこれも、紛失、盗難、偽造の危険性があります。
その中で期待されているのが、生体認証です。しかし、非常に複雑な計算が必要であるため、AI的な機能がなければなかなか実現できません。生体認証には顔、指紋、静脈、音声、声紋などを使うものがあります。中でもセキュリティレベルが高く、非常に有望な技術が、虹彩認証です。しかし、分析することが非常に難しく、これまでなかなかうまくいかなかったのですが、近年のITの進化により、実現できるようになりました。
ログインは他人でも可能ですが、生体認証は本人にしかできません。確実にパーソナライズ化できます。個人の情報としてのビッグデータを大きくしていく時、対象者が本物かどうか分からなければ怖くて使用できません。そこで、なりすますことができないセキュリティを使った上でビッグデータ化することが重要になります。
そもそも、このような技術の進化が起きる理由は、スマホを使う人々のように、多くの人間は非常に飽きっぽいため、使いにくい技術を使ってくれないためです。教育を行う時、システムがもたつき、使いにくければ、「やめた」と言われてしまいます。カスタマーエクスペリエンスを向上させなければユーザーが逃げてしまうため、セキュリティや本人確認を自動化することは非常に重要です。実現すれば、ようやく誰もがストレスなく使える、IT技術を用いた教育研修が実現できます。
駆け足でしたが、HRテックに関する様々なテクノロジーを網羅的にお話させていただきました。ありがとうございました。

Profile
平野 正信氏
サムトータル・システムズ株式会社 代表取締役社長

IBM の開発エンジニア、日経マグロウヒル社(現日経BP社)記者、ハイペリオン日本法人代表、レッドハット・アジア担当VPなどを経て現在に至る。記者としての人脈、ソフトウエア全般、会計、人事などのITソリューションなどの豊富な経験を生かし、業界のビジョナリーとして活躍。明快な説明に定評がある。

Recommend おすすめ記事
サムトータルのソリューション
人材の可能性を引き出したい!
今いる社員を大事に育て、組織を強くしたい。
サムトータルのラーニングと人材開発ソリューションで
「教育と育成によって進化する組織」を実現します。
サムトータルのソリューション詳細はこちら
ラーニングを中心とする人材育成ソフトウェア 変化する社会と仕事のためのソリューション
PAGE TOP