4.2.3.発話コミュニケーション障害とその支援方式  本項では、感覚代行のテーマそのものではないが、コミュニケーション支援という立場から発話障害を支援するための基礎的な知識と幾つかの方法を示す。発話障害といっても多様であるが、図4.2.21に示したように、その原因により大きく3種類に分けられ、それぞれの支援方法も異なってくる。1つ目には、声の音源を作る喉頭を摘出した場合であり、2つ目は、音声器官を制御する筋肉の疾患や音声器官の形状異常によって「構音(articulation)」の機能がうまく働かない場合で、3つ目には、発話を司る脳(ブローカの言語中枢:Broca language area)が損傷されて「構音」そのものが困難になった場合である。これらの発話障害の支援技術を設計するには、まず、音声器官や中枢における発声制御のメカニズムを知る必要がある。 (1)喉頭の起源  音声器官の一つである「喉頭」の起源は魚の口から肺や食道に至る管に遡る。魚のうち陸上生活をするようになった動物は、鰓呼吸から肺呼吸に転換しなければならなくなった。そのため、食道に行くエサと肺に行く空気を分ける「弁」ができ、「喉頭」内に収められた(図4.2.21)。その一部は呼気により振動する「声帯」となり、その音源が口腔に送られるようになった。さらに、広くなった口腔の中で舌の形を自由に変えながら動かせるようになり、喉頭音源が口腔から放射されるまでに様々な共振を受け、多様な音声を作り出せるようになった。  しかし、喉頭は複雑な機構を持ったことから高齢化によりその機能が衰え、嚥下障害や喉頭障害になりやすくなった。喉頭ガンなどで喉頭を摘出すると呼吸は喉に開けた気管孔で行うので、喉頭音源を作り出せなくなる。このような喉頭摘出者の数は日本だけで約2万人で、世界では60〜70万人いるといわれている。 (2)喉頭摘出者の代用発声法 実際には、喉頭が無くても声道内に声帯音源の代わりになる音を送り込むことにより、声道形状を変えて共振成分(ホルマント)の周波数を変えることができるので、母音や有声子音の多くを表出できるし、舌をうまく使うことで幾つかの無声子音を作り出せる。現在は、図4.2.22の(a)〜(c)に示したように、喉頭原音を新たに作って発声させる3種類の「代用発声法」が利用されている。  図中(a)の「食道発声法」は、「げっぷ」をする要領で食道の中に空気をためて、空気を吐き出すときの音を利用する方法であり、(b)の「T-Eシャント発声法」は、気管と食道の部分に小さなシャントすなわち穴を開けて、呼吸のために喉に開けた「気管孔」を指で塞ぐことにより空気を食道に送り、食道の一部(新声門)を振動させて音源を作る方式をとる。(c)の「電気人工喉頭」は、顎の下に振動子を押し当てて振動音を声道内に送り込んで発声する方法である。  これらの代用発声法は、音質、訓練の容易さ、衛生面、嗅覚を使えるかどうか、などの面で一長一短があるが、電気人工喉頭は修得が簡単なことから最近とくに使われるようになった。ただし、生成された音声はブザー音的であり声質が悪いという問題が残されていたが、音声工学の進歩により大きく改良されてきた。  我が国では、ドイツ製、イタリア製、アメリカ製のものが広く使われていた。一方、日本製としては上見・伊福部らと北海道工業試験場および(株)電制の産学連携研究により開発された「ユアトーン(製品名)」が2000年頃から販売され、我が国では最も普及している。現在使われているものは全て片手で使用するタイプで、喉に当てた外部振動子を音源としている。九官鳥がヒトの声の抑揚を忠実に真似ることで極めて自然な真似声を作り出していることがヒントとなり、「ユアトーン」では気管孔で検出した呼気圧で抑揚を制御できるようにもなっている(図4.2.23)(文献4.2.26)。これは福祉用具の認定を受けており、当事者は自治体から実価格の80-85%の援助により安価で購入できるようになっている。 しかし、手を束縛することから手作業をしながら利用できないという問題も残されており、人工喉頭のハンズフリー化が求められていた。将来に向けて、橋場、藪らは装置全体を首バンド内に収め(図4.2.24)、手を使わないでも利用できるハンズフリー人工喉頭に向けて改良化を進めている。これらの過去の問題を踏まえて、橋場、藪らは、首に装着したバンドに振動子、呼気センサ、マイクロホンおよびスピーカを一体化したハンズフリー型人工喉頭を開発している(図4.2.24左図)(文献4.2.27)(文献4.2.28)。ここで、首バンドとしては、図中に示したようにバンドの弾性力のベクトルを考慮して首に負担が掛からないようにしながら、個人による首の大きさや形状の違いに合わせられるようにしている。 (3)構音障害者用の音声生成器  一方、喉頭音源は生成できるが、筋・神経疾患などにより舌、唇、顎など音声器官の複雑な制御が上手くいかない「構音障害」に対しては、別のアプローチで支援しなければならない。従来から、当事者が筆談やキイボード入力して文字にしたりしていたが、感情表現が出せないとか実時間でないことなどの理由で会話には向かないという問題点があった。  ところで、腹話術師は「舌の動き」だけで口腔内の共振(ホルマント)を制御することで、ほぼ全ての子音を生成できる。これをヒントに、藪らは、舌の動きを「指の動きに」置き換えて、PCに付属するタッチパッド面をなぞることで任意の音声を生成できる方式を開発している(文献4.2.29)。  本方式では、まず、タッチパッド上に母音の第1ホルマント周波数(F1)を横軸に、第2ホルマント周波数(F2)を縦軸に割り当て、このF1-F2平面を指やペンでなぞることにより、音声合成ソフトの「舌の位置」に相当するパラメータを制御している(図4.2.25の左図)。ホルマント遷移の制御に加えて多くの子音を生成できるようにし、それを「ゆびで話そう」というスマートホン用アプリケーション「ゆびで話そう」として製品化したことがある(図4.2.25の右図)。現在、このソフトの使い勝手を良くするための改良化が進められ取り、構音障害や失語症などにどこまで有用かを調べている。また、カラオケなどエンターテイメント用の音声楽器に生かす道を探っている。  また、音声合成器を利用する方法もその歴史は古い。最近の合成法では、悲しい声、怒った声など感情表現をだせるだけでなく、利用者の声の一部を利用することでその人の声質で合成できるようになっている。ただし、「ゆびで話そう」も音声合成器も広く普及させるためには、訓練をできるだけ要せず実時間で感情表現ができるような柔軟なユーザビリティを備えたヒューマンインタフェースを作る必要がある。 (4)失語症のためのコミュニケーション支援システム  ヒトの進化の過程でできた巧緻な大脳皮質の情報処理や記憶の機能は加齢により劣化しやすく、それが失語症や認知症の原因となる。脳血管障害などにより言語中枢の一部が働かなくなると「失語症」に陥る。とくに、「発話失行」になる運動性失語症(ブローカ失語)については病院にいる言語聴覚士(ST: Speech Therapist)」がリハビリを担うのであるが、40%位の患者は手足の機能に麻痺が残ることから通院が難しいとか、STの人数が圧倒的に少ないという問題などがある。 2000年頃日本では当時の厚労省と通産省の共幹である医療福祉機器研究所で「失語症者の在宅リハビリシステムの開発」プロジェクト(代表:伊福部)が立ち上がり、最終的に「花鼓(はなつづみ)」(図4.2.26)と呼ばれるネットワークを使った在宅医療システムとしてアニモ(株)から販売された。  しかし、当時は、医療機器の認定を受けていない検査データを何時、誰が見るのか、また、その時の診療報酬はどうなるのかが曖昧なままであり、あまり広くは普及しないままである。現在は、リモートによる見守り技術が広く普及しており、介助に関する医療制度も充実してきているので、もう一度見直されても良い時期に来ている。 (5)認知症のための音声コミュニケーション支援システム ① 認知症と軽度認知症(MCI)の実態  何らかの原因で脳細胞の働きが悪くなったことから、知能が不可逆的に低下し日常生活に支障をきたす状態がおおよそ6ヶ月以上継続したと診断されたときに認知症と診断される。その診断にはMMSE (Mini-Mental State Examination)という設問法が記憶・認知能力を短時間(5-10分)でチェックできることから、診療現場では最もよく使われる。テストの結果が30点満点の内26点以下になるともの忘れが主たる症状の軽度認知症(MCI:Mild Cognitive Impairment)であることが疑われ、21点以下だと認知症と診断される。  厚労省の2010年時の報告によると、認知症の総数は要介護認定を受けている者で約280万人であり、この人数とMCIの431万人を合わせると総数は約711万人になる。この人数は増え続けて、2025年には1000万人近くになることが予想されている。なお、認知症の中でもアルツハイマー型が50%以上を占めており、他は脳血管障害によって発症する脳血管性(約20〜30%)と脳の神経細胞に異常が起きるレビー小体型(約10〜20%)と続く。認知症移行への時期を遅らせる色々な試みが提案されており、その中でもコミュニケーションなど生活で不可欠な機能を支援したりする取り組みが重点的になされている。 ② 生活支援ロボット・システムによる支援  伊福部が領域代表となって2010年から10年にわたって進められたJST(科学技術振興機構)のプロジェクト「高齢社会を豊かにする科学・技術・システムの創成」の中の「高齢者の記憶と認知機能低下に対する生活支援ロボット・システムの開発」(文献4.2.30 )を例にとり、対話できるコミュニケーション・ロボットの有用性ついて述べる。本課題は、国立リハビリテーションセンター研究所の井上剛伸氏が中心となり、(株)NECとの連携で開始した(文献4.2.31 )。  この対話型ロボット・システムで提案した機能は、図4.2.25に示したように、まず、施設やホーム内で音声対話によりスケジュールの日時などを知らせる「記憶支援」(図中央)と適切な行動をとったかどうかチェックする「行動支援」(左図)からなる。また、ネットワークを使って、対話の状況は外の家族や健康管理センター(右図)に送られ、そこからのアドバイスはロボットを介して当事者にフィードバックされる。  まず、高齢者など124名を対象にしたインタビューから172 種類のニーズを得て、その結果から希望の多いスケジュールと服薬の管理に絞込み、それらの記憶があいまいになるのを補完する36 種類のコミュニケーション支援シナリオを作成した。ロボットとの対話では、人同士の対話の構造を参考にして、「注意喚起」、情報支援する旨を伝える「先行連鎖」、服薬などの「情報伝達」、「対話の終了」の4要素に分けた。  このロボットとの対話方式でどこまで情報を伝達できるかを、物忘れ高齢者と軽度認知症者合計20名に対して調べた結果、認知症のレベルにかかわらず、ロボット対話による情報取得率は80%以上になり、独居生活をしているMCIの高齢者5名に対しても有効性が示された。  また、この会話ロボットを利用していると生活が規則正しくること、安心感や愛着を持つことなど、心身両面で効果が認められた。また、独居ユーザは話し相手になるとか、家族の一員のようになるとか、非常に高い評価を得ている。現在、ロボットの使用料を当事者の家族、自治体、施設などステークホルダーで払える価格に設定し、持続的に運用できるビジネスモデルを作っている。このようにコミュニケーション支援技術は単に聴力の衰えを補助するばかりでなく、生活全般のQOLを高めるという重要な役割を担うようになってきている(文献4.2.32)。  以上述べてきたように、コミュニケーション支援技術は聴覚や発声だけでなく、失語症や認知症など解明されていない脳機能そのものを支援する技術へと広がっており、逆に、支援技術を適用した結果から未知の脳機能について多くの示唆が得られるようになってきている。(文責 伊福部 達) 文献 (4.2 続き) (4.2.26)上見憲弘,伊福部達,高橋誠,松島純一:“ピッチ周波数制御型人工喉頭の提案とその評価",信学誌, J78 - D -ll(3),pp.571-578 (1995) (4.2.27) 橋場参生, 須貝保徳, 泉隆, 井野秀一, 伊福部達: 「喉頭摘出者の発声を支援するウェアラブル人工喉頭の開発」, HIS2005, 7(4) pp.5-10 (2005) (4.2.28) 藪謙一郎, 伊福部達, (2016)“拡声器能を備えたウェアラブル電気式人工喉頭の設計」(日本バーチャルリアリティ学会, 21(2) pp.295-301. (4.2.29) 藪謙一郎, 青村茂, 伊福部達:“ポインティング・デバイスで操作する発話支援インタフェース”, ヒューマンインタフェース学会論文誌, 11(4) pp.135-145(2009) (4.2.30) 伊福部 達, “超高齢社会を支える情報通信技術”, 電子情報通信学会誌, 98(9), pp.810-817, (2015) (4.2.31) Inoue, T., Ishiwata, R., Suzuki, R., Narita, T., Kamata, M., Shiro. M. and Masashi Yaoita, M.,: ”Development by a field-based method of a daily-plan indicator for persons with dementia”,(Assistive Technology from Adapted Equipment to Inclusive Environments), Emiliani, P.L. et al.(Eds.), IOS Press, AAATE pp. 364-368. (2009) (4.2.32) 井上剛伸.高齢者の記憶と認知機能低下に対する生活支援ロボットシステムの     開発,日本バーチャルリアリティ学会論文誌,Vol.19, No.3, pp.12-16, 2014.