今年のオートモビリティLAで、AIについてのパネルディスカッションが行われた。パネリストはClinc社の自動車部門担当ブライアン・ライダー氏、アウディ社の製品管理担当副社長フィリップ・ブラベック氏、アマゾン社のアレクサ・オートモティブ副社長ネッド・キュリック氏、中国のNIO(上海蔚来汽車)社マシンラーニング部長タオ・リアン氏。
中心となったのは車内でのボイスコマンドによるAIの働きについての考察だ。車内のいわゆるハンズフリーでは様々なことが出来る。電話をかけたりインターネット検索をしたり、マップで道順を確認したり、IoTを使ってネットショッピングや家の様子をモニターしたり、なども可能になった。
しかし機能だけは便利になっていくが、ボイスコマンドの大きな問題点は「AIが音声を正しく認識しない」ことに利用者が不満を持っている、という点だ。米国人であってもニューヨークや南部の訛りがあり、アマゾンアレクサが正しく聞き取ってくれない、と訴える人は実は結構存在する。一緒にアレクサに話しかけても、筆者の日本語訛りの英語は聞き取っても早口のニューヨーク出身者の英語は聞き取れない、というのを実際に経験したことがある。
コメント 0