Microsoft Cognitive Servicesで人工知能を体験しよう!(Emotion API編)
みなさん、ハッピーハロウィン(happy halloween)
今回も、Microsoft Cognitive Servicesで人工知能を体験しよう!と題して、使い方を簡単に紹介していきたいと思います。
それでは今宵は【Emotion API編】いってみましょう~(#^^#)
デモページのご紹介
https://www.microsoft.com/cognitive-services/
はじめに、このブログで説明している認証キーの手続きをしなくてもこちらのデモページで写真をアップロードして簡単に試すことができます。ぜひ一度ご利用ください。
Emotion API
Emotion APIは写真に写った顔の表情から感情を判断する人工知能でありAPIとして公開されているサービスになります。顔写真を提供するとその顔写真から読み取れる感情を数値化して返してくれるものです。
数値化される情報は次の通りです。
- 写真における顔の場所
FaceRectangle - 顔の感情
Anger(怒り)
Contempt(軽蔑)
Disgust(嫌気)
Fear(恐怖)
Happiness(幸せ)
Neutral(無表情)
Sadness(悲しみ)
Surprise(驚き)
8つの分類で感情分析を行うようです。余談ですが、顔文字だと種類は日々増え続けてますし、顔文字から感情を判断するのは困難になりますね・・・
APIの使い方は今回も、GitHubに既に公開されてあるCogniteive Service関連のSDKとサンプルのリポジトリを使いたいと思います。出来上がりのソフトウェアを使用しますため、プログラムを書く必要はありません。有難く利用させてもらいましょう。
https://github.com/Microsoft/ProjectOxford-ClientSDK
リポジトリの中にEmotionAPI-WPF-SamplesというVisual Studioのソリューションがあるのでそれをビルドして実行すればサンプルアプリケーションを利用可能になります。サンプルアプリケーションを利用するには別途認証キーを取得する必要があります。認証キーの取得はMicrosoft Cognitive Servicesのホームページから発行いただけます
https://www.microsoft.com/cognitive-services/
発行した認証キーをサンプルアプリケーションに登録して、準備完了です。
それでは、サンプルアプリケーションで人工知能を体験しましょう!
顔写真を分析する
左メニューの「Detect emotion using a stream」を使います。
いくつか画像をアップロードして結果を見てみましょう。
真ん中上にあるボタン「Load Image」から画像を選択します。
選択すると自動的に分析がスタートし、画面下に結果が表示されます。
◎履歴書・証明写真を分析
顔写真はお見せすることができませんが、結果は次のダントツ「Neutral(無表情)
」になりました。当たり前ですね(-ω-)/
Anger : 0.0001143625
Contempt : 0.008747905
Disgust : 2.961022E-05
Fear : 4.89776E-07
Happiness: 0.002789133
Neutral : 0.9856738
Sadness : 0.002621728
Surprise : 2.2977E-05
◎顔文字が入った写真
No emotion is detected.
顔は顔でも人の顔の特徴が検出されなかったためか分析が行えませんでした。
◎デザイン写真を分析
サンリオで作成できる自分そっくりのキャラクター写真です。
No emotion is detected.
私の画像では人の顔の特徴が検出されなかったためなのか分析が行えませんでした。
◎アニメのキャラクターや似顔絵で描かれた顔の写真
※アニメのキャラクターは色々な権利の都合でアップロードできません、ご容赦ください
「江戸川コナン」、探偵さ。
→No emotion is detected.
「孫悟空(スーパーサイヤ人1)」
→No emotion is detected.
「孫悟空(スーパーサイヤ人3)」
→No emotion is detected.
※検出されないのが悔やまれたためサイヤ人のレベルをあげてみましたが…
「USJに行ったときに描いてもらった娘の似顔絵」
→Yes!
Anger : 0.000414825
Contempt : 0.0001851532
Disgust : 0.0002937418
Fear : 0.0002962489
Happiness: 0.9650615
Neutral : 0.01778712
Sadness : 0.0001805543
Surprise : 0.0157808
似顔絵が検出されたということは人の顔の特徴点が画像に表現されていればアニメキャラクターの顔が描かれた画像でも感情を分析できる可能性があると想像されますので、今回使用した画像は検出されなかったとご理解いただければと思います。
◎動物の顔写真を分析
ついつい人のみで考えてしまいましたが、感情を持つのは人だけではなく、動物にも感情があります。
私の家にいる猫では検出されませんでしたが、サンプルの犬の画像では検出される結果になりました。
どういうメカニズムになっているのか気になるところです。
感情分析の結果をどう利活用していくか
いくつか用途を想像したいと思います。
◇相手に送る・WEB等へアップロードする写真選びの参考として
どれを送ろうか悩んだ際に最もHappinessの数字が高い写真を選ぶ参考になるかも。
◇結婚式・二次会などのゲームとして
よく入場時にチェキ写真を撮りますよね?景品をだれにあげるかをビンゴ等の代わりにし出席者のなかで最もHappinessの数字が高い人に贈るなんてことも面白いかもしれません。
◇イベント・広告の反応・満足度などマーケティングデータとして
製品をいくつか紹介するなかで顧客の最もSurpriseの数字が高い製品を推すことも顧客折衝の手法として考えられます。
◇リクルート/メンタルヘルス・マネジメントの参考として
面談や診断においての表情を記録します。例えば、給料、残業、経営方針、配属、技術の質問を投げかけた際に、それぞれの反応を表情から分析することでその人の注意がどこにあるのかを推察します。給料の話しの際にHappinessやSurpriseの数字が高ければ「満足」かもしれません。逆にSadnessの数字が高ければ処遇に「不満」を感じている可能性があるかもしれません。終始、Neutralの数字が高ければ緊張する場面でも平常心を保つことができる適正があると客観的に言えるかもしれません。
まとめ
企業における顧客サービスやタレントマネジメントで蓄積される情報のほとんどはバーバルコミュニケーション(言語的)によるものです。それは目や耳で得られたノンバーバルコミュニケーション情報(非言語的)と比較するとほんの一部に過ぎません。一説には人に影響を与える情報の割合はバーバルコミュニケーション(言語的)が2、ノンバーバルコミュニケーション(非言語的)が8とあります。例えばプレゼンテーションを評価する際に「見た目が大切」「第一印象で決まる」「内容よりも喋り方のほうが重要」などあるように、ノンバーバルコミュニケーション(非言語的)の情報は重要になります。
そんなノンバーバルコミュニケーション(非言語的)の情報はいままで個人の感情に委ねられることが多く、また残すことが難しく、客観的に第三者が評価する術や数字として持つことが困難でした。ご紹介したEmotion APIで数字化された感情データを参考に、皆さんのなにかしらのジャッジにつなげていけるのではないでしょうか。
アーカス・ジャパンは『お客様の感情をITで理解』を基に「パーソナライズドCRM(個客関係管理)」戦略を打ち立て、実践の基盤となる「EMOROCO」ソリューションをそろえ、これら両軸で企業が抱える経営戦略上の課題をCRMから支援します。
https://www.arcuss-japan.com/first
https://www.arcuss-japan.com/products/base-ai
アーカス・ジャパンへご興味・ご関心ありましたら下記からCRM事業本部へお問い合わせください
※ 記事の内容は個人発信の参考情報です。記事内容のご利用は、ご自身の判断でお願いします。