DX時代の人材育成の鍵は「読解力」にあり

DX時代の人材育成の鍵は「読解力」にあり

  • JBpress
  • 更新日:2021/02/22
No image

※本コンテンツは、2020年11月30日(月)~12月4日(金)に開催されたJBpress主催 「JBpress DX World 2020 第1回 デジタルの力で拓け、ポストコロナの未来」3rd weekでの講演内容を採録したものです。

国立情報学研究所 情報社会相関研究系
教授 新井 紀子氏

[JBpressの今日の記事(トップページ)へ]

過度な期待から始まった「第3次AIブーム」

本日は「DX時代にこそ求められる人材育成」というテーマでお話をさせていただきます。

2016年ごろ、ありとあらゆる新聞・雑誌に「AI」の文字が躍っていましたよね。皆さんもシンギュラリティの到来を予想する声を多く耳にされたかと思います。しかし、去年あたりから「AI」よりも「DX」というキーワードを聞くことが増えたのではないでしょうか。これは、私の予想通りの展開でした。

AI搭載のスマートスピーカーなどをご自宅で試されて、「この先にドラえもんのようなものが来るわけではないな」と感じられた方もいるはずです。多くの企業人も、家事ロボットが家事を全部代替したり、新入社員ロボットがオフィスでの仕事を丸っと代替したりすることは起こらないだろう、という印象を持ち始めたのではないでしょうか。2015~2016年に見られたAIへの「過剰な期待」が、昨今は「がっかり感」に変わってきているように感じます。

本日は、そもそも「AIはどんなものなのか?」という仕組みをご説明し、皆さんのAIに対する誤解を解きほぐしながら、AIからDXへと話題を移していきたいと思います。そして、DXによってどんな時代がもたらされるのか、そこでビジネスマンとして生き残るためにはどんなスキルが必要なのか、あるいは、どんな人材育成が必要なのか、お話しします。

No image

『コンピュータが仕事を奪う』(新井紀子著、日本経済新聞出版)

まず初めに私が指揮した「ロボットは東大に入れるか」というプロジェクトをご紹介させてください。このプロジェクトを思い立ったのは、2010年のクリスマスくらいのことでした。この年、『コンピュータが仕事を奪う』(日本経済新聞出版)というタイトルの本を出しました。

そして、その本の帯に、「ホワイトカラーの約半数は、機械代替される」という予想を書いたんです。世界で最初にその予想を書いたのは、おそらく私だと思います。しかし、その頃はまだAIというキーワードが世間に出ていなかったため、「機械がホワイトカラーの仕事を代替する」とはどのようなことか、ほとんどの方はイメージをつかめなかったのではないでしょうか。

それでも私は、2010年代に「第3次AIブーム」が来ることを確信していました。そして、そこでAIに対する誤解が生まれ、期待がバブルのように膨れ上がり、大ブームが起こった後にそのバブルが弾けるだろうと思っていたんです。

でも、バブルが弾けた後に元の世界に戻るかというと、そうではありません。私が2010年に予想したように、ホワイトカラーの仕事の50%を機械が代替する時代がやって来るはずです。そして、コロナ禍でのテレワークの広まりが、その状況の加速に拍車を掛けると思っています。

続いて、私たちが作っているAI「東ロボくん」についてです。これは一つのAIではなく、たくさんのAI処理から成り立っていて、それを「東ロボくん」と呼んでいます。まずは、この「東ロボくん」をどうやって作っているのか、ひもといていきます。

東ロボを作ると言うと、教科書や過去問、辞書から大量の知識を機械に学習させる、そういったイメージを抱かれるのではないでしょうか。2013~2014年ごろにはニューラルネットワークについてこのような説明がなされていました。

ニューラルネットワークとは、左から右に「Input Layer」、「Hidden Layer(隠れ層)」、「Output Layer」と並んでおり、「Input Layer」と書いてあるところにデータが入り、「Hidden Layer」を経て「Output Layer」に結果が出てくるものです。だからといって、「Input Layerに大量の過去問をデジタル化して入力するとポンと答えが出るのだろう」というように思った人は、おそらく今回、“5000円の羽毛布団を500万円で買った人”です。

このブームはもう一周してしまいました。銀行がコールセンターにAIを入れるところから始まり、50万円のものを500万円、場合によっては5000万円くらいで買ってしまった。しかし、なかなか精度が出ない。精度が出ないたびに言われることは「もっとデータが増えれば、精度は上がります」ということです。結果としていろいろなところでAIの活用が頓挫する、ということが起こっています。

優れたAIの定義とは?

では、どうしてAIの誤解や失敗が起きるのか、お話しします。まず、ニューラルネットワークの図ですが、これは「脳」ではありません。あくまでも「脳を模した」数学モデルであって、「脳」ではないんです。

最近、私の部下に子供ができまして、1歳1カ月になりました。初めて歩いた時のビデオを見せてもらったんですが、初めて歩いて、2歩くらい歩いて、お尻をトンとついて転ぶ。また立ち上がって、2歩くらい歩いて、バランスを崩してストンと転ぶ。でも、3回目になると、もうバランスを取るんですね。3、4歩くらい歩いて親御さんのところに到着する。

2、3回目でもう歩けるようになる、ということは衝撃でした。それがAIでは何万回、何十万回やらなければいけないということからして、「脳とは少し違うな」と感じるわけです。では、何が違うのでしょうか。

統計的機械学習とは、そもそも何か。一番簡単に、数学的に説明します。「人工知能」という名前とは無関係に、人工知能もコンピューター上で動いているプログラムの一種です。そして、コンピューター上で動くプログラムは、全て関数の一種になります。関数とは、皆さんが中学生の時に勉強した一次・二次関数のことで、実数から実数への関数を意味します。そして、デジタルの世界の関数は全て、01(ゼロイチ)列から01(ゼロイチ)列の関数から成り立ちます。

どんな関数なのか、具体的な例を挙げます。例えば、「機械翻訳」は、日本語の文字列を入力して、英語の文字列を出力するような関数です。

そして「物体検出」は、「ピクセル値行列」によって実現されています。皆さんが見ているこの放送自体もデジタルですよね。ということは、ピクセル値行列を「00110011110011・・・」というように転送して、画面のどの部分に、どの色で、いくつの輝度で表示するかを決めています。そして、そのピクセル時系列の中で「リンゴ」「みかん」「猫」というものが分かるように表示しています。

では、「良い」AIとは何か、考えていただきたいんです。ここでいう「良い」「悪い」とは、誰にとってのものなのかによって違ってきますね。でも、ある「関数F」が良い関数かどうか、その決め方は1通りしかありません。

前提として、この関数は「統計」と「確率」でつくられています。ディープラーニングやニューラルネットワーク系のAI技術でいうと、入出力のペア。FX1がY1になる(FX1=Y1)とか、FX2がY2になる(FX2=Y2)とか、FX3がY3になる(FX3=Y3)というような関数を考えていきましょう。

ここで言うXやYは、同じ頻度で出てくるわけではなく、まばらに出てきます。そして、この入出力のペアは、ある確率分布に従って出現します。入力が確率的に起こり、それに対する正解は、Xに対して確率的に定まります。

例えば、機械翻訳。「はい」という、たった2文字の言葉。これ英語で訳すと「Yes」という答えが98%くらいの確率で正しいでしょう。でも、「No」と訳さなければいけない場合もあります。それは否定疑問文で聞かれたときです。「それは状況を全部見れば分かるのではないか」という意見もあるかもしれませんが、そこまで見ると大変なので、機械翻訳によっては「Yes=はい」と訳さざるを得ません。このように、「正解はXに対して確率的に定まる」ということになります。

例えば、「キリンの首の長さ」や「象の体重」は、正規分布する傾向にあります。それでも、正規分布が見られないこともあります。このことについて東京大学名誉教授の養老孟司先生に話を聞いたところ、「栄養状態によって脱皮する回数が違うから、正規分布しないんだ」ということでした。鮭の中にも、海に行って帰ってくる鮭と川にとどまっている鮭がいるので、その体長は正規分布しないそうです。何か理由があると、必ずしも正規分布しない。AIに処理を任せるということは、これらのことを解明しないで統計的に処理しよう、ということです。このことはあらかじめ理解しておく必要があります。

AIが人間を超えられない理由

「良い」とは何か、「正解」とは何か。この問いはかなり難しいと思いませんか。一時期、国会議員や企業の社長、取締役をAIにすればいいのではないか、という論調が聞かれました。その方が正しい判断ができるし、経営効率も良くなるのではないか、という声もありました。でも、私はAIでの代替は難しいと考えています。なぜかというと、正しい経営判断を関数にすることが困難だからです。

正しい経営判断を下すためには、判断集合Xがあり、状況に対する判断があり、その状況を入れると判断の結果Yが出てこなければいけません。ここには「正解」とは何か、という学習データが無いわけです。正解データは人間が作らなければいけないわけですが、基準が揺れている限り、正解データは作れません。

例えば、人事をAIにすると、前の人事部長の考えを踏襲したAIが出来上がります。それは、これまで人事部が選んできた人たちの人事データをもとにして、100%同じ結果を再現できるようにするものがAIだからです。人間と違う判断、つまり正解データと異なる判断をするということは、その段階で精度が落ちているということになります。これでは「良い」AIとして生き残ることはできません。だからこそ、「人間を超えるAI」という言葉は定義矛盾なんです。

過去に「AIが人間を超えた」という報道がありましたが、それは普通の人よりも良い結果が出た、ということを意味します。きちんとした正解データを作り、クラウドソーシングで集めた人材と競わせて、どちらの方が高い精度が出たかを調べてみたらAIが勝利した、ということでしょう。つまり、AIの精度を超える人以外は採用されない世の中が訪れるかもしれない、ということです。

それでも、2013~2014年ごろは「AIに自動運転をさせることはできますか」ということをたびたび聞かれました。経済産業省も「日本が最初に自動運転のレベル4、5を実現するんだ」と意気込んでいましたが、それは難しいと思います。なぜかというと、レベル4、5の車を作ろうと思ったときには、東京だけではなく、愛媛の山間部やタイのバンコク、世界中のさまざまな国の文化に対応できる車を作らなければならないからです。いろいろなタイプのバイクや自転車が走っていたり、交通ルールを無視する人がたくさんいたりする地域でデータを取り続けなければ、自動運転は実現できません。

以前、あるテレビ番組でGoogleが自動運転の実現のために、地球何十周分のデータを取った、という話がありました。でもそれは、その自動運転の走行が許されている、アメリカのある地域のデータに基づくものなので、タイのバンコクのような地域でそれをすると、多くの死者が出る可能性があります。もしくは、車が一切動けないかの二択でしょう。

テスラが自動運転を取り入れるのは良いかもしれません。でも、トヨタのように安全、かつコストパフォーマンスの高い車で信頼を獲得してきた企業が自動運転を取り入れるのは、極めて危険です。日本の自動車会社はエッジの効き過ぎたところを狙うのではなく、本来あるべき自動運転の在り方を考え、その落としどころをうまく探ることが重要だと考えています。

AIは意味を考えない、正しさも保証しない

AIをうまく使っている例もあるじゃないか、とお考えの方もいるでしょう。例えば、機械翻訳の分野はうまくいっていますよね。機械翻訳の仕組みはディープラーニングによって実現されています。

「太郎は走っている」っていう文を機械翻訳してみましょう。先ほど紹介したニューラルネットワークの「Hidden Layer(隠れ層)」に「太郎」という文字から順に入力すると、最終的に「Taro is running now.」という文が出てきます。この仕組みは本当に素晴らしい成果を挙げていて、特に「Google翻訳」は世界中で多くの人に使われています。

「ボタンを上下左右の順に押してください」と入力しても、「Press the buttons up, down, left and right」と完璧な訳が出ます。しかし、ボタンを上下左右上下下下下の順に押して下さい」と入力すると、「up, down, left right up, down, down,・・・」という具合に、「down」が2つまでしか出てきません。

これはなぜでしょうか。その理由は、Google翻訳は一切文法を理解していないからです。つまり、これが統計的に処理するということです。私はこの翻訳結果を毎月スクリーンショットで保存していますが、Google翻訳がリリースされてから3年間、いまだにこの状態です。なぜ、このようなことが起きるかというと、先ほど言った教師データではめったに見られない「外れ値」や「AIが見たことがない領域」があるからです。

AI通訳機といった製品も、旅先で現地の人と話したり、買い物をしたり、レストランでオーダーする上では素晴らしい仕組みといえます。でも、ビジネスマンが商談をしたり、契約書を確認したり、英語で議論をしたりする場面での活用は難しいでしょう。

ここまででお話ししたように、AIは「意味」を考えません。正しさの保証もしてくれません。だからこそ、命にかかわるようなことはAIには任せられないし、教師データの内容を超えることができないからこそ、何かを変えなければいけないときには使えません。

しかし、ディープラーニングを使うと、職人が行う最適レベルでのチューニングくらいまでは自動でたどり着けるし、普通の人の能力を超えることはできます。それがまさに「東ロボくん」で分かったことです。

そして、「東ロボくん」と同じ頃に登場し、世界的に有名なロボットがIBM の「ワトソン」です。最近は少し苦戦しているようですが、それがなぜかをお話しします。

文章を読めなくても、クイズの正解は導ける

ワトソンは2011年、アメリカで有名なクイズ番組「ジェパディ!」でチャンピオンの2人を破り、注目を集めました。それが2011年2月だったので、まさに第3次AIブームのスタート地点だったと思います。

「ジェパディ!」で聞かれた問題の例に「MOZART’S LAST & PERHAPS MOST POWERFUL SYMPHONY SHARES ITS NAME WITH THIS PLANET」、「モーツァルトで最後の、最も力強い交響曲は、この惑星と同じ名前をしている」というものがあります。

これは穴埋め問題なので、固有名詞のキーワードを答えればよいわけです。固有名詞を探す問題であれば、今はWikipediaを検索すれば大体勝負がつきます。そして、AIは登場する単語に重みを付けて、検索を行います。すると、「モーツァルト」と「シンフォニー」に重みが付きます。では、この文章を読まなければ答えられないかというと、決してそんなことはありません。そもそも、AIは文章を読めないんです。

AIが行うことは、あくまでも「検索」です。赤い下線が付いた「モーツァルト」と「シンフォニー」に注目して、そこに出てくる「惑星(This planet)」を探すと「Jupiter」と書かれています。こうして、「Jupiter」という回答が導かれるわけです。

続いて、Siriに聞いてみましょう。「この近くのおいしいラーメン屋は?」と聞くと、GPS検索で現在地の「東京」を特定し、キーワードを抽出して、近くのラーメン屋を検索します。しかし、「おいしいラーメン屋」「ラーメン屋以外のレストラン」は検索してくれません。これは、会話の意味を理解していないからです。

もう一つ、皆さんにAIの仕組みで覚えていただきたいことが「言語モデル」です。言語モデルはスマートフォンの予測変換にも用いられる仕組みで、「次はどうなるのか」を予測します。

例えば、スマートフォンで「や」と入力すると、私の場合は「やっぱり」が変換候補に表示されます。続いて、「やっぱり」を選ぶと「、(読点)」が表示され、「、(読点)」を選ぶと何も表示されなくなります。データ量が少な過ぎるわけです。

もう一つ、「わ」と入力すると「私」と表示され、それを選ぶと「は」と表示されます。しかし、「は」を選ぶと次には「福島」と表示されます。これは先週、私が福島に出張に行って、3回くらい「福島」と入力したからですね。ここで注目すべきは、言語モデルでは「福島」が場所だということは分かっていないにもかかわらず、予測できること。しかし、残念ながら「福島」を選ぶと変換候補に「ならない」と表示されます。このあたりはAIの限界ということですね。

東ロボはなぜ、偏差値60を超えられたのか

第3次AIブームの真っ最中だった2016年、『人工知能創作小説、一部が「星新一賞」1次審査通過』という記事が日経新聞に掲載されていました。この記事には「文章の部品に相当するものを人間が用意し~」と書かれています。ここでいう「部品」とは、おそらく単語ではなく文、少なくとも文節レベルでしょう。そして、「面白い展開となったものを選んで~」とありますが、文章にしたのは人間です。これを見て、「『AI美空ひばり』が登場したように、『AI星新一』が登場するだろう」と思った方は、記事を正確に読めていませんね。

もちろん、AIで解ける問題もあるので、役に立たないわけではありません。「東ロボくん」も最初はセンター英語本試験で(200点満点中)100点を割る状態でしたが、XLNetを使ってからは150点くらいにまで伸びました。でも、これを見て「XLNetという優れた手法が出てきて、一気に精度が上がったんだな」と思ってしまう人は、やはり、“5000円の羽毛布団を500万円で買ってしまうような人”です。

No image

何が鍵になったのかというと、2016年後半に中国の高校・大学入試の問題がデータベースとしてまとめられたことです。2016年までは日本のセンター入試過去20年分を教師データとして使っていました。これでは数百くらいしかデータ量が集まらないわけです。他の私大の入試を全部集めても数千程度です。しかし、中国の英語の試験と日本のセンター入試の問題があまり変わらないことが分かり、XLNetをチューニングして使った結果、200点満点中の185点を超えて、偏差値は64.1となりました。

東ロボくんは今、偏差値60を超えているので、上位1割の大学に合格できるはずです。これであれば、人間を超えたと言ってもいいわけです。しかし、東京大学には入れない。なぜかというと、本当に意味を理解して問題を解いている人には敵わないからです。

No image

汎用AIの幻想からDXにブームが移ったのは、この「ボリュームゾーンのAI未満の人たち」をAIが代替することを意味します。つまり、私が2010年に予想した通り、コンピューターがホワイトカラーの仕事の半分を奪う、ということになるでしょう。

そして、コロナ危機によって、その状況は加速しています。それは、今や大企業も人員整理を強いられる状況にあるからです。こうした中で利潤を確保するためには、DXを進める以外にありません。AI未満の人たちが整理される時代には、一億総中流と呼ばれていた日本の分厚い中間層が上下に分かれるでしょう。そして、アメリカのように格差がさらに拡大すると思います。

AI読みをしている人は、正解にたどり着けない

今、AIばかりが賢くなる状況を私は喜んで見ていません。何とかして、人間の平均よりも下にAIを持っていきたい。でも、データが増え続ける今、AIは賢くなるばかりです。つまり、人間を賢くすることでしか、AIの偏差値は下がりません。

では、普通の人をAIよりも賢くするためには、どうすればよいのか。それを明らかにするために、文章の意味を分かっているはずの高校生が、文章の意味を分かっていないAIに負けた理由を探りました。そこで気付いたことが、県立三番手くらいに優秀といわれている学校の生徒の能力が、AIとモロ被りしているということです。この出来事は、リーディングスキルテストを作るきっかけになりました。

受験生の彼ら、彼女らは、教科書に書いてあるような普通の文章を正確に読めているのか。センター入試に書かれている問題文そのものを読めているのか。こういったことに疑問を持ち、次の問題を作りました。

No image

「Alexは男性にも女性にも使われる名前で、女性の名Alexandraの愛称であるが、男性の名Alexanderの愛称でもある。Alexanderの愛称は( )である。」

これは問題文に答えが書いてありますよね。そう、リーディングスキルテストは短い問題文があり、答えがそこに書いてあるという、世にも珍しいテストです。OECDをはじめとして、多くの人は「AI時代には、もっとクリエイティブな人材を育成しなければいけない」と信じて、PISA(OECD生徒の学習到達度調査)テストのような難易度の高い読解力の調査をしています。でも、私は逆張りをして「このあたりから読めていないだろう」と考えたところ、当たってしまいました。

このリーディングスキルテストを中学1年生に受けてもらうと、約50%が「④女性」という回答を選びます。この回答をした子の視線を調べてみると、面白いことが分かりました。まず、問題文にある括弧の部分を見るんです。それから問題文の検索に移り、女性の名前「Alexandra」に目を向けます。すると、隣に書かれている「女性」を見つけて、選択肢の「④女性」を選んでしまうわけです。これは正に「AI読み」です。文章の意味は全く伝わっていません。

No image

次の問題は「幕府は、1639年、ポルトガル人を追放し、大名には沿岸の警備を命じた」。この文章は、教科書にもよく出てくると思います。では、これは「1639年、ポルトガル人は追放され、幕府は大名から沿岸の警備を命じられた。」という文章と同じでしょうか、異なるでしょうか。この問題、中学生の正答率は57%です。高校生でも7割程度しか正解できず、3割の人は間違えています。

この文章をよく見ると、キーワードは全部一緒なんですね。だからこそ、「AI読み」で教科書が読めると思っている人は危険です。その人にホワイトカラーの仕事を任せたら、契約書でつまずくと思います。

もっと面白い「具体例同定問題」をご紹介します。「2で割り切れる数を偶数という。そうでない数を奇数という。偶数をすべて選びなさい。8、110、65、0」という問題。この問題文は、小学4年生で出てくる文です。

そして、中学1年生で出てくる文は、「2で割り切れる整数を偶数という、そうでない整数を奇数という。偶数をすべて選びなさい」というものです。皆さんはこの答えが分かりますか。

「8、110」は偶数ですよね。「65」は奇数です。では、「0」はどうでしょうか。実は、ここで「0」を選ばない人が多いんです。「0」を選ばなかった人に理由を聞くと、「0は特別な数だから」というように、問題文に書いてあることと全く関係ないことを言うんです。問題文には「そうでない数を奇数という」と書いてありますよね。

この問題では、社会人のうち7割弱の人が「0は偶数ではない」と回答します。正答率が5割を超えているのは、小学校6年生だけ。一流企業に勤めている方がこういう状況では、契約書を読ませられませんよね。

読解力がなければ、DX時代を生き抜くことはできない

最後に、言語と非言語のどれが対応しているかを選ぶ「イメージ同定問題」です。「メジャーリーグの選手のうち28%はアメリカ合衆国以外の出身の選手であるが、その出身国を見ると、ドミニカ共和国が最も多くおよそ35%である」と書いてあります。では、どのチャートが正しいのでしょうか。

No image

正解は、右上の図です。この問題では、「28%はアメリカ合衆国以外」と書いてあるので、100%から(アメリカ合衆国以外の出身の割合)28%を差し引けば「72%はアメリカ合衆国」という答えを導くことができます。この問題は先日、フジテレビ系列の『ワイドナショー』で取り上げられたんですが、「読解力の専門家」として出ていた古舘伊知郎さんと武田鉄矢さん、お二人とも間違えて右下の図を選んでいました。

これは決して意地悪をしているわけではありません。こうした問題は1問につき少なくとも1000人に解いてもらっているので、ある程度のサンプルが取れています。正答率が高いやさしい問題でも間違える人もいれば、正答率が低い難しい問題でもしっかり数多く解ける人もいます。この問題はどうか、というと、後者の能力値が高い人は8割くらい解けている。一方、中の上くらいまでの能力値の人は5割解けていない。この問題は、中の上と上を見分けるのに適した問題だったということが分かります。

私たちが考える「読解力」は、「書かれていることを、書かれている通りに、しっかり読む力」です。文章に書かれていない文脈から意図をくみ取ることや、行間を読むことや、余韻を楽しむことを求めているわけではありません。大事なことは、どの分野でも好き嫌いなく読めるか、ということ。それが、21世紀に求められる「読解力」の基礎になります。

教科書を暗記して知識を頭に詰め込んで、その翌日に全部忘れる、というような勉強法ではいけません。そうした人はAIに代替されやすく、賃金が安くなりやすい仕事にしか就けないんです。そして、そういう人をたくさん抱えた会社がDX時代を乗り切ることは、極めて難しいでしょう。

DX時代、私たちに求められているのは「特殊な能力」ではなく、「教科書をしっかり読む能力」です。教科書を読めるならば、自分一人でも勉強できます。でも、教科書を読めなければ、予習も、復習も、答え合わせもできません。貧困下でも塾に通わなければいけないので、子供を持つことがリスクになってしまうんです。

そして、教科書を読めない子供は、大人になっても勉強の仕方が分からない。会社に入っても、新しい技術を学ぶことはできないでしょう。結果として、AIとモロ被りした能力しか身に付けられず、AIに職を奪われます。新しい職種に就くこともできないので、日本では労働力不足の状態にありながら、DXを進めれば進めるほど失業や非正規雇用が増大してしまうんです。格差の拡大や内需の低下、人口のさらなる減少も、この問題に起因するのではないでしょうか。だからこそ、中学を卒業するまでに、中学レベルの教科書を読めるようにすることこそが、公教育の最重要課題です。

重要なことは、タブレットを1人1台配ることでもなければ、AIに劣るような英会話を身に付けさせることでもありません。もちろん、AIに劣るようなプログラミングを教えることでもありません。そうではなく、今、無償で配られている教科書を、1から10まで自力で読めるようにすること。そして、どの教科でも自分自身で教科書をきちんと読むことができ、自学自習ができる、中学校を卒業するまでにそんなレベルまで育て上げることが重要です。

そして今、企業にとっては、高校の教科書を正確に読めない従業員を雇わないことこそが最大のリスクヘッジと言えるでしょう。リーディングスキルテストを入社試験に使う企業が増えている背景には、このような理由があります。

皆さんは教科書が読めますか。ご清聴ありがとうございました。

JBpress

この記事をお届けした
グノシーの最新ニュース情報を、

でも最新ニュース情報をお届けしています。

外部リンク

  • このエントリーをはてなブックマークに追加