言葉の解析で一番先端をいっているのは、音声認識技術でしょうね。
私は、パソコン入力で音声は使っていないので、お世話になるのは、Alexa、Siri、Google、Clovaあたりですが、彼ら?は人の話を分かってくれているような気になりますね。
最近は、音声のデータからその時の感情を把握するアルゴリズムもできていますね。たくさんの音声データと喜怒哀楽のデータベースと照合するようですから、独自の解析というわけではありませんが、これが発展すると逆に使われるようになるでしょうね。
逆というのは、相手にある感情を抱かせたい場合は、こういう音声を発することが効果的だという音声データが提供されるということ。
コンピュータで作り上げられた音声データが、人の実際の声を凌駕して、言霊になりえるかというのは興味深いところです。
コメント