• Column
  • ネットワークから見たDXの違和感

AIのネットワーク適用が“これから”と言う違和感【第6回】

人と人をつなぐコンタクトセンターでは実用が進む

能地 將博(日本アバイア ビジネスデベロップメントマネージャ)
2021年1月7日

コンタクトセンターでのAIの3つの役割

(1)エージェントの代替

 セルフサービスの延長で考えられます。エージェントの代わりに、お客様の質問に”回答する”あるいは”聞く”、さらには”聞く”と”回答する”を同時に実行する場合もあります。

エージェントの代わりに”回答する”=チャットボット(Chatbot)

 チャットボットとは、「Chat(チャット)をするbot(ロボット)」という意味です。基本的には、テキストでの入力にテキストで回答する方式を指すことが多いです。過去の回答履歴をもとに機械学習やディープラーニング技術を用いて、最適解を検索し、対話(回答やコミュニケーション)をする仕組みです。

 Webチャットの代わりに「LINE」をフロントプラットフォームとする場合もあります。大抵の場合は、フロントをAIで処理し、顧客がセルフサービスで解決できればOK。それで解決できなければエージェントにルーティングするという仕組みが使われています。

 セルフサービスの解決率である「サクセスレート」が90%というコンタクトセンターもあるようですが、筆者の経験から言うと、そこまでは高くないような気もします。

 しかし、AI で解決できることも、ある程度はあります。対応時間外のサービス提供や、単純な質問にエージェントが応対しないですむことは利点です。『インターネット白書2019』によると、2019年のチャットボット導入率は17.3%、導入予定は25.9%になっており、今後益々導入が進むと予想されています。

エージェントの代わりに”聞く”=音声認識

 音声認識は、スマホの「Siri」や「Ok Google」で、もうお馴染みでしょう。ディープラーニング(深層学習)の進化に伴い、音声認識技術の精度が飛躍的に向上しています。SiriやOk Googleは、バックボーンではクラウド上のAIシステムと連携し音声を認識しています。この仕組みは、あまり知られていないようで、ネットワーク接続がないとSiriやOk Googleは使えません。「あれ?Siri、使えない」というのは、このためです。

 音声認識のポイントは、音声入力をした内容をAIで認識し、それをテキスト化した後に、そのテキストを色々と活用する点です。

 全く関係ありませんが、この原稿も構成をマインドマップで作成した後、セミナーでしゃべるが如く筆者が読み上げた内容を「Googleドキュメント」の音声入力で音声認識させてテキスト化。その後に文章を推敲する方法で書いています。

 音声認識のコンタクトセンターでの活用方法は、テキスト化したものの音声分析(Speech analysis)です。「分析」とついていますが、応用全般を「音声分析」と表しています。

 テキスト化は、音声認識の最終工程を示すだけですが、テキストにすることでコンタクトセンター運営には、検索しやすいなど様々なメリットを提供できます。コンタクトセンターに電話をすると、「品質向上のため通話履歴を録音します」といったメッセージが流れることがありますが、進んでいるコンタクトセンターでは、録音したデータを音声認識でテキスト化しています。顧客とエージェントを区別するための話者認識も実施します。

 音声分析は、リアルタイムとヒストリカル、両方の方法があります。リアルタイムでは、顧客とエージェントのやり取りをリアルタイムで表示し、コンプライアンスのチェックとして使用できます。以下をエージェント自身、あるいはスーパーバイザー(管理者)がPC画面上でチェックできます。

・使ってはならない禁止キーワードを発していないか(例:「必ず効果があります」など)
・説明義務がある事柄をちゃんと説明したか(例:「副作用が出るおそれがあります」など)

 面白い使い方としては、顧客の感情を表す言葉(「怒ってます」等)が頻発するなどもチェックできます。これらの事象が発生した場合、エージェントの画面にアラートを表示するとともに スーパーバイザーに通知するといった使い方もできます。少々厄介な顧客と対峙している場合、スーパーバイザーが顧客とエージェントのやり取りを素早く流し読みで把握するといった使い方も可能です。

 ヒストリカルな使い方では、テキスト化したデータはそれだけで履歴としての価値があります。履歴の中に頻発するキーワードを抽出すれば、ブームを探れます。Web検索における上位キーワードの音声版といったところです。

エージェントの代わりに”聞いて、回答する”=AIセルフサービス

 AIセルフサービスは、筆者の造語です。旧来のセフルサービスと区別するために本コラム上で使用しま。旧来のセルフサービスの発展系になります。

 AIセルフサービスは、複数技術の組み合わせで実現します。主にはチャットボットと音声認識を組み合わせ、そこに昔からある技術で脇を支える形です。すなわち、音声認識でテキスト化し、その内容をチャットボットを使って最適解を検索・表示し、その回答を音声合成(TTS:Text to Speech)で顧客に話します。なかなかイメージできないかもしれませんので、例を挙げましょう。

 顧客が航空会社のコンタクトセンターにフライト状況について問い合わせるために、電話をかけるケースを想定して下さい。AIがすべての質問に対応します。

顧客 :フライト状況を教えて下さい
AI :フライト番号を教えください

 AIは「フライト状況」という漠然とした内容では、どのフライトかを特定できず、答えられません。そのため、フライトを絞り込むための質問をするのです。

 これ以降も、回答に必要な情報を得るために、例えば「出発日を教えて下さい」といった質問を繰り返し、質問内容を特定しようとします。質問が特定できた段階で、該当フライトの状況を検索し、その結果(テキスト情報)をTTSにより音声で回答します。ここまでのシステムを導入している企業は、まだまだ少数ですが、今後は導入が進むと思われます。