脳のコンピュータインターフェース(Emotiv Epoc、OCZ NIAなど)は、便利なユーザーインターフェースの設計に使用するのに十分であると思いますか。 Tnx。
たぶんfar将来、彼らがより強力で邪魔にならないようになれば。しかし、技術はまだありません。
私の友人のハードウェアクラスの最終プロジェクトの1つは、マリオの脳コントローラーでした。最初は基本的に動作しませんでした。数分後、あなたは自分自身を訓練することができました-しかし、あなたはあなたの手でよりもBCIで正確になることができませんでした。基本的に問題は、脳のマッピングがコントローラーのマッピングと同じくらい恣意的であるが、はるかに複雑であると思います。
私は、ヒューマンコンピュータインタラクションの修士号を取得するために、Brain Computer Interfacesに関する論文を書きました。
私の回答は少し長いかもしれませんが、この比較的新しいトピック(BCI)に、インタラクションデザインの分野で必要な注意を払う必要があると感じています。
そしてこれがあなたの質問に対する私の答えです:
Emotiv Epoc、OCZ NIAは、非侵襲的(埋め込まれていない)消費者ベースであると見なされます [〜#〜] eeg [〜#〜] デバイスもフィルタリング [〜#〜] emg [〜#〜] シグナル(脳内のシナプスではなく、筋肉によって生成されるアーティファクト)
非侵襲的なデバイスは、頭に取り付けられた単純な電極を使用して脳波を測定できます。信号の発信源(信号を生成する脳の部分)を特定するのは困難です。信号はバックグラウンドノイズ(外部からの干渉)によって歪められ、頭蓋骨に対して複数回跳ね返ります。つまり、電極E1からの信号には、他の背景ノイズの負荷とともに、電極E2によって既に測定された脳波が含まれ、その逆も同様です。
これにより、いくつかの練習で測定および操作できる脳のパターンが残ります。しかし、測定された信号が脳のその特定の領域から来ていると言う方法はありません。つまり、誰かの「考え」を読み取ることはできません。脳のパターンは練習すれば再現できますが、悲しみに関連しているパターンや、非侵襲的な消費者の脳波デバイスを使ったスポーツについて考えていたときの言い方はありません。
さらに難しくするために、脳のパターンはそれを生み出す人に固有のものです。そのため、デバイスは非常に個人的なものになり、パターンを認識するようにトレーニングする必要があります。
それで何ができるのですか?
ユーザーは、非常に具体的な脳のパターンを生成し、それを個人のプロファイルに保存することで、自分のパターンを認識するようにデバイスをトレーニングできます。
ユーザーは手動でコマンドを作成し、それを脳のパターンに関連付けることができるため、システムが同じパターンを再度生成したときに、システムは何らかのアクションを実行します。
Emotivの作成者は、最初のフィルタリングされていないEEG信号からのEMG信号をフィルタリングして使用するのに十分なほどスマートでした。通常、これらはアーティファクトと見なされ、破棄されます。 EMG信号は分類できます。したがって、トレーニングをしなくてもEmotiv EPOCを使用して、笑顔を検出したり(喜んで)、くいしばった顎を検出したり(欲求不満の兆候など)することができます。
しかし、それを相互作用の方法として使用する必要がありますか?
ユーザーインターフェースは、私たちにとって自然で使いやすいときに便利だと考えられています。
これについて考えてみてください:現実の世界で、自分の体以外に心で操作する物理的なものはありますか? (フィードバックをありがとうアレックス、これを逃した)
おそらくそうではない、これは[Psychokinesis]と呼ばれる
多くの人が(私も含めて)望んでいると思いますが、私が知る限り、これは人間的には不可能です。 :)
次に、自分自身に質問をします。思考だけでインターフェイスを操作することは、人間として私たちにとって自然なことでしょうか?
そうは思いません…でも、マウスとキーボードでGUIを操作するのもそうではありません。これは人間の性質です、私たちは適応します。
このストーリーには別の側面があります:
ここでは、明示的なユーザーインタラクションについて説明します。ここでは、ユーザーがコマンドを実行する意図があります。ユーザーの潜在意識を介してユーザーのニーズを分析する暗黙の相互作用を操作する方が便利です。ユーザーが実際に体験する前であっても、積極的にエンゲージメントやフラストレーションなどの感情を検出すると想像してみてください。
ユーザビリティテストの分野でそれが何をするかを考えてください!ユーザーが私たちのインターフェースと対話するときに体験することについてこれ以上推測する必要はありません。
これも非常に危険な可能性があります。欲求不満のために興味を失うことなく、十分にエンゲージメントを維持できるように難易度を動的に調整するゲームを設計しているゲーム会社について考えてください。
まだそこにいないだけです:
私たちの脳活動の原因をより正確に特定できる、現在利用可能な他のデバイスやテクニックがあります。残念ながら、それらは主に医療機関、研究施設で使用されており、消費者が使用することはできません。
私たちが利用できる消費者向けBCIデバイスは、まだそこにはありません。それは始まりであり、すぐに実験を開始する必要があります。しかし、私はBCIを実際の生活の中で有用な目的に使用することはまだ未来の一部であると信じています。私たちの生活の中で重要な役割を果たすでしょうが、潜在意識の相互作用の方法があります。
BCIについての私の回答を読んだ後、立ち止まって、アクティブまたはパッシブなインタラクションに脳のコンピューターインターフェイスを使用するときにインタラクションデザインの分野がどのように変化するかについて考えることをお勧めします。
訓練を受けていないユーザーのデモを見ましたか? Discoveryチャンネルでは、「Prototype this」と呼ばれるシリーズがあり、1つのエピソードで脳コントローラーを使ってみました。男が初めてそれを試したときのことを覚えています。
デバイスは本当にシンプルな方法で動作します。彼らは彼に特定の事柄について考えるように言い、システムはそれをコマンドのサンプルとして採用しました。そのため、画面上のボックスを移動したり、キャンディーを購入したりすることを考えていました。それは認識できるほど明確な脳活動でなければなりませんでした。
あなた自身の脳コントローラーを作りたいですか?彼らが脳の活動を監視するために使用する赤外線キャップを入手し(申し訳ありませんが、現時点でそれが何と呼ばれているかは覚えていません)、平らな画像を取得します。それを人工ニューラルネットワークに接続し、人が「特定の脳活動を生成している」間に作成された画像を認識するようにトレーニングします。以上です。
OK、つまり、これはコントローラとしては役に立たず、少なくとも10年間は役に立たないということですこれを使用して画面上のカーソルを移動するのは、カーソルキーを配置して移動するのと同じくらい快適です。行。
ありがとうございました。
いいえ。そのような楽器は、やり過ぎであり、ユーザーインターフェイス設計の基本的な原則に代わるものではありません。 IMO、少数のユーザーでUIをテストする方がはるかに効果的で安価です。
人々は手を使いたいと思っています。実際に手を使わないと、ユーザーは怒ります。人間の性質上、手を使ってタスクを実行するためです。だから、違います。これにより、物理的に触れたり操作したりするものが何もない場合、ユーザーの生活が楽しくなくなります。
英国のテレビ番組「ガジェットショー」のエディションがあり、チーム(少なくとも登場)がBCIを使用して、クレーン付きの車をピックアップし、倉庫内を移動します。
BCIで使用される最大のオブジェクトの世界記録を設定する
ここに技術へのリンクがあります:
そして、これがうまくいったことの説明です:
問題の1つは、思考を制御するのが本当に難しいことです(人間の性質です)。 「心の対話を止める」などのメンタルプラクティスはありますが、脳をコントロールすることを学ぶのは非常に難しいです。そして、自分の心をコントロールできない場合、自分の考えで他の何かをコントロールすることは非常に困難です。