なぜ日本語音声+日本語字幕?
小2の息子は休校中、頻繁にNetflixでアニメを見ています。
不思議なことに、日本の日本語音声のアニメなのにも関わらず、日本語字幕もつけて見ているのです。
字幕じゃまでしょ?消そうか?と私が言っても、これがいい!と字幕をつけたままにしています。
私からすると、ちゃんと日本語音声があるのにさらに日本語字幕がついてくるのは、余計に感じてしまうのですが…。
そこでふと思いました。
「私たちは『聞く力』が落ちているのでは?」
「いや、それ以前に『聞く』って脳へのインプットとして効率が悪いのでは?」
聞く力が落ちているのかもしれない
そのように思った要因はいくつかあります。
まず、今の子供たちは、小さい頃から字幕に慣れています。
テレビのバラエティ番組などは、ほぼすべてのセリフが字幕ありきです。
だから、映像=字幕があるもの(その方がわかりやすい)、なのが前提になっているのかもしれません。
実際、たとえば昔のテレビ番組を見ると、非常に理解するのが大変です。
字幕がないだけでなく、そもそもアナログテレビで音もよくないので、ものすごく聞き取りづらい。
8時だヨ!全員集合を映像配信サービスで見ると、いかりや長介は怒鳴っているばかりで、ほとんど聞き取れません。
(聞き取らなくても理解出来る、のもあるとは思いますが)
それと、最近はオンラインでの研修が盛んですが(私もやっています)、受講した方なら共感してもらえると思いますが、ものすごく疲れますよね。
オンライン研修はもちろん視覚的な要素もありますが、多くは耳から入ってくる音声の要素です。
もちろん講師の顔は見えてはいるものの、現実に目の前にいるわけではないので情報としては入ってきづらく、ほとんどが耳からの情報です。
ゆるいラジオのような「ながら聞き」なら疲れないのでしょうが、講座として耳からの情報で学ぼうとするとものすごく疲れるのだな、と気づきました。
情報はどんどん聴覚→視覚へ?
これも、私たちの「聞く」力が落ちている、もしくは「聞く」は「見る」などに比べて脳に入って行きづらいから、なのかもしれません。
外国語で会話したり、外国語の聞き取り学習をしたりするのも、ものすごく疲れます。音の処理は、目からの情報の処理に比べて集中が必要なのでしょう。
コンテンツを提供する場合は、ますます「耳」よりも「目」、「聴覚=音」よりも「視覚=文字や画像、映像」で情報を伝えなければならないな、と感じました。
コメント