生活の中に人工知能が入り込んで来ると、その影響で人の態度も変わって来る——そんな例をイギリスのニュースメディア「Daily Mail」で読んだ。調査によれば、訛りのある地方の人たちがアレクサやグーグルアシスタントと話すとき、訛りのない標準英語を喋るようになっているそうだ。
英国北東部ニューカッスル市にある「ライフ・サイエンス・センター博物館(Life Science Centre museum)」が来館客にアンケートを取ったところ、440人がアレクサやグーグルアシスタントやiPhoneのSiri(シリ)を使っていて、そのうち79%の人が、使うときわざわざ標準語で話していると分かった。
訛りがあると人工知能が聞き取ってくれない
察しのいい人はもうお分かりと思うけど、標準語で話す理由は、そうしないと人工知能が聞き取ってくれないから。アレクサやグーグルアシスタントやSiriは(今のところ)標準的な発音にチューニングされているので、訛りがひどいと言葉を判別してくれない。
アンケート結果によると、多くの人が最初は普段通り訛りのある英語で話しかけていたが、何回も人工知能に「わかりません」と」言われるので、「苛立ちながらも仕方なく」標準語にしているそうだ。
アレクサの普及は言葉の標準化を進めるか?
こんな人工知能入りのスマートスピーカーが普及すれば、皆んなが標準語を喋るようになるんだろうか? 専門家はそうは考えていない。
ニューカッスル大学でスピーチ音声科学を教えるLaurence White教授は、「もし長い期間、近所の人とは誰とも話さず、スマートスピーカーとだけ話していれば、喋り方は変わる(標準語化する)だろう」と言う。
つまり、逆から言えば、スマートスピーカー相手にちょこちょこ標準語で喋ったくらいじゃ喋りのパターンは変わらないよ、ということ。
また、この件でDaily Mailに取材を受けたAmazonとGoogleは、人工知能(アレクサ、グーグルアシスタント)の性能をさらに高め、地方ごとの訛りを聞き取れるようにしていくつもりだ、と言っている。
僕は以前、英語版Echo/アレクサを英語の勉強に役立てていた。こっちがちゃんと発音しないと聞き取ってくれないから、発音のチェックになる。でも、Amazonが言うように、アレクサの性能がよくなって地方訛りも聞き取るようになり、すごいブロークンイングリッシュも聞き取るようになり、さらに、もしも、万が一、日本語訛りの英語まで聴き取るようになったら……発音チェックには使えないなァ。