MITの新しいボイスレスインターフェイスはあなたの頭の中の言葉を読むことができる

私たちの日常生活におけるテクノロジーとの関わり合い方は、ますますシームレスになっています。スマホに文字やアドレスを入力するのが面倒なときはSiriを呼び出して検索をさせたり、道案内をしてもらうことができます。ソファから下りてリモコンを押したくない時もありますよね?また、あなたが車を車庫に停めている間に家のライトをつけたくはないですか?そんな時は、あなたのホームアシスタントであるEchoに伝えてください。すぐにライトを点けてくれます。

エンジニアは、さまざまなタイプのブレイン・マシン・インターフェースの研究を行っています。視覚野の活動を測定して画像を再現したり、または脳活動のパターンに基づき、体の麻痺した患者に代わって「発言」するようにアルゴリズムを鍛え上げることで、このシームレスさをさらに前進させようと試みています。

今年の3月に東京で開催されたAssociation for Computing Machinery’s ACM(通称:ACM)のIntelligent User Interface conference(通称:IUI)の中で、MIT Media Labのチームは、ユーザーが何も発言しなくても頭の中で考えている単語を “読みとる”ウェアラブル・インターフェースAlterEgoを発表しました。

Google Glassが不格好なものだと思う人には、AlterEgoもそれほどスマートには見えないでしょう。このウェアラブルデバイスは、耳に掛けるフック部分から、顎の下まで伸びている白色のプラスチックからなり、着用者の口の下に追加の取り付け具が配置されています。側面のプラスチックには、着用者が特定の単語を頭の中で考えた際に発せられる神経筋信号を拾う電極が含まれています。機械学習システムは、その信号を解釈し、ユーザーがどの単語を念頭に置いていたかを識別し、92%という驚くほど正確な的中率を誇ります。

AlterEgoの開発を率いた大学院生であるArnav Kapur氏は、次のように述べます。「IAデバイス(インテリジェンス拡張デバイス)を構築することがその動機となりました。私たちのアイデアは、人間と機械を何らかの形で融合し、私たちの認識力を脳内で拡張したように感じられるような、より内的なコンピューティングプラットフォームを持つことができないだろうか?というものでした。」

頭の中ですべてが処理されるわけではない

考えごとをする時、顔の特定の小さい筋肉が動くということを、知っている人はいるでしょうか?本人以外には誰も知ることができない、頭の中にある考えを知ることができたら面白いですよね。

私たちの身体には、発話の準備をするシステムがあることが分かりました。大きな声で発話していない時にも、そのシステムは作動しており、準備動作は波及して私たちの筋肉にまで到達し、その際に私たちの筋肉は、これから発話しようとしている内容に応じて筋電信号を発します。

私たちの顔のどの部分がスピーチに関連する最も強い神経筋信号を発するかを理解するために、MITのチームは被験者に単語のシーケンスを4回考え、静かに言ってもらい(「サブボーカライズ」とも呼ばれる)、その際には被験者の顔に16個の電極を毎回異なる部分に接続しました。

得られたデータを分析したところ、特定の7か所の位置につけた電極からのシグナルが、頭の中でつぶやいた単語の解読に最も役に立つことがわかりました。チームはデータをニューラルネットワークに送り、特定の単語とAlterEgoがピックアップした信号のパターンを特定することができました。

言葉だけではない

今のところ、システムの判断能力はかなり単純な言葉に限られています。研究者は簡単な数学の問題とチェスの動きを使って初期データを収集しましたが、ユーザーの語彙の範囲は約20語に制限されていました。AlterEgoの概念実証は非常に素晴らしいものの、それが人の考えすべてを理解できるようになるには、まだまだ改良が必要です。もちろん技術開発者は機能を拡張することを目指しており、今後の作業ではより複雑な言葉や会話のデータを収集することに重点を置く予定です。

どんなものに活用されるのか?

AlterEgoのようなテクノロジーは私たちの生活に利便性をもたらしますが、その利便性と引き換えに、そうしたテクノロジーの普及をどの程度許容するのかについて、立ち止まって自問しなければなりません。例えば、私が食料品の買い物をしているとき、電極に自分の考えを読ませる必要があるでしょうか。時間の節約になる?値札を読んで少しだけ早く歩けるようになる?

Kapurの論文顧問でMITのメディアアート・サイエンスの教授でもあるPattie Maes氏は、技術の有用性について論じた際、通話中に携帯電話を取り出して何かを検索しなければならないときの不便さについて言及しました。 「私と学生は、新しいフォームファクターと新しいタイプの体験を実験しています。それらは人々が、そうしたデバイスが提供するあらゆる素晴らしい知識やサービスの恩恵を受けることを可能にしますが、私たちはそれを現状を変えないような方法で行っています」 と 彼女は言いました。

Thad Starner氏はジョージア工科大学のコンピューティングカレッジの教授です。彼はAlterEgoの制作には関わっていませんが、ウェアラブル技術において多くの仕事をしており、Google Glassとは密接に関わっていました。 Starner氏は、AlterEgoを用いた実用的なアプリケーション運用について、いくつか良いアイデアを持っており、そのひとつとして、空港の滑走路、空母のフライトデッキ、発電所や印刷所などの騒音が多く通常の会話が困難な環境下でコミュニケーションを取るために、AlterEgoのようなシステムは非常に役立つと指摘しました。

Starner氏は、「上記の環境下においては、人々はすでに保護装備を身に着けているということを考えれば、なおさらそのシステムは役に立ちます。 たとえば、戦闘機のパイロットや消防士であれば、すでにマスクを着用しています」と付け加えました。彼はまた、この技術は特殊作業者や身体障害者にとっても有益だと述べました。

これらの実用的な目的に向けて、AlterEgoのような無声のインターフェースの研究を進めることで、技術への支持が高まると同時に、ジョージ・オーウェル的な読心術や精神的なプライバシー侵害への懸念が軽減されるでしょう。 この分野の進歩が進むにつれて、エンジニアの頭の中や外で、議論が勢いを増していくでしょう。

Image Credit: Lorrie Lejeune / MIT
By
This article originally appeared on Singularity Hub, a publication of Singularity University.

この記事はSingularity Hubに掲載された記事を翻訳したものです。