インターフェースの探求
ブク美
こんにちは。#毎日未来創造、今週でWeek13ですね。
今週も、まだ見ぬ未来のプロトキャスト、その可能性を一緒に探っていきましょう。
先週Week12は、人間の内面、感情とか思考に目を向けましたけど、今週は外です。
テーマはインターフェース、未来の触り心地。
私たち人間と、世界とかテクノロジーがこれからどう繋がっていくのか、その接点、その触り心地を探っていきます。
今日は、リサーチ回ですね。
いつものように、note記事、未来の触り心地、インターフェースの視学、これを手がかりに未来のヒントを探しましょう。
今って、私たちの周り、スマホのタップとかスクロールありますよね。
あと、音声アシスタントに話しかけたり、いろいろあります。
これが効率をすごく上げたのは間違いない。
でも、その一方で、世界の手触りというかリアリティ、それがちょっと薄れてきているような、そんな感覚はあなたはありませんか?
ノト丸
それは非常に面白いご指摘ですね。
スマートフォンが中心の時代、長かったですからね。
私たちの感覚もそれに慣れてきました。
でも、技術が十分成熟して、コモディティ化しつつある今、単なる効率とか利便性だけじゃない動きが出始めてますね。
おっしゃる通り、次のインターフェース、これを探る動きが活発になっているんです。
ブク美
次のインターフェースですか?
ノト丸
それは単に操作するための窓じゃなくて、世界と新しい関係を作るための媒介者としてのインターフェース。
そういう関心が高まっていると言えるでしょうね。
ソース記事が言うところの、「世界の沈黙」と「人間の共鳴」の間に立って、両者を繋ぐ詩的な媒介者、メディウムとしての役割ですね。
空間とマルチモーダルの進展
ブク美
へー、詩的な媒介者。
効率だけじゃない、もっと豊かな繋がり方ですか。
それは面白い視点ですね。
じゃあ早速なんですけど、あなたに最初の問いを。
シンプルですけど、インターフェースって聞いて、今何を想像しますか?
やっぱり画面ですかね、それとも物理的なボタン?
あるいは何かもっと別のものを思い浮かべます?
ノト丸
うーん、良い問いかけですね。
ノト丸
多分多くの人はまず画面とかデバイスを思い浮かべると思うんですけど、まさにそのイメージ自体が今変わりつつあるという状況なんだと思います。
ブク美
その変化についてソース記事は最先端のリサーチをいくつか紹介してましたね。
特に私が個人的に気になるのは、ここ数年でぐっと進んだ生成AI、ああいう物理的な実態がないテクノロジーとどう関わっていくのか。
そのいわば見えない知性と私たちはどう触れ合っていくのか。
生成AIみたいな実態の見えないテクノロジーと触れるインターフェースはこれからどうなっていくかっていうのは、これは核心的な問いだなと。
ノト丸
それはこれからのインターフェースを考える上ではもう避けて通れないポイントですね。
ソース記事が示している未来の方向性っていうのはいくつか流れにまとめられるかなと思います。
まず一つ目の大きな動きが空間Spatial ですね。これとマルチモーダルへのシフトです。
ブク美
空間ですか?
ノト丸
従来の平らなスクリーンという制約を超えて、私たちがいるこの3次元空間それ自体をインターフェースとして使おうという考え方ですね。
ブク美
空間がインターフェースに、具体的にはどういうことでしょう?
ノト丸
Apple Vision CloudとそのOS、Vision OSの進化が分かりやすい例だなと。
ソース記事が触れているVision OS26だと、仮想的な情報を現実空間に重ねて出す空間ウィジェットとか、
あとは同じ空間を共有して一緒に作業する体験とか、もっとリアルなアバター、パーソナルでしたっけ、そういうものが強化されると言われてますね。
こういうふうに物理的なデバイスの境目が曖昧になって、私たちの視線とか手の動き、声、そういう複数の入力方法、マルチモーダルを自然に組み合わせて空間全体と対話するような体験、これが標準になっていく可能性はありますね。
ブク美
うわー、なんかSF映画みたいですね。情報が空間に溶け込んでいる感じで、そうなるとコンピューターを使うっていうより情報空間の中にいる、みたいな感覚に近くなるんですかね。
ノト丸
まさにそうですね。そして2つ目の流れが、会話的リアルタイムAIの進化です。
例えばオープンAIのリアルタイムAPIとか次世代の音声モデル、あと噂されているGPT-5とか、そういう技術は人間とほとんど変わらない、いやむしろそれ以上の速さですごく自然な対話を実現しようとしてますね。
ブク美
自然な対話ですか。
ノト丸
ええ、これが音声だけじゃなくて、映像認識とか、さらには電話回線、SIPとかも統合することで、まるで生きているみたいなインターフェースが私たちの日常に入ってくるかもしれない。
新しい感覚のインターフェース
ブク美
生きているインターフェース。
ノト丸
ええ、個別のアプリをいちいち起動して、目的の機能を探すんじゃなくて、常に私たちのそばにいて、文脈を理解して先回りして応答してくれる会話エージェント。そういうものと、ごく自然にやり取りするスタイルへのシフトですね。
映画、「Her」で描かれていたようなOSとの人間らしい関係性、あれが技術的にはもう手の届くところに来ていると言えるかもしれません。
ブク美
ああ「Her」ありましたね。あの世界観、当時は遠い未来かなって思ってましたけど、関係性のあり方そのものが変わりそうですね、これは。
ノト丸
そうですね。そして3つ目、より身体に近いハンズフリー入力の進化です。
メタが開発しているEMGリストバンド、あれは腕を動かすときに出る微弱な筋肉の電気信号、筋電位ですね。それを読み取って、指先をちょっと動かすだけで仮想のものを操作したりタイピングしたりできる。
学術研究レベルだと、視線の動きとか瞬きだけでデバイスを操作する技術も進んでます。
もうスマホを取り出すという行為すらいらなくなる。より無意識で自然な身体の動きが、テクノロジーとの接点になる。そういう未来です。
ブク美
自分の身体の今まで意識してなかったような、すごく細かい動きがそのまま入力になるってすごいですね。
これもまたデバイスと体の境界が曖昧になる動きですね。
ノト丸
おっしゃる通りです。で、4つ目の流れとして、触覚、ハプティクスの再加速、これも無視できません。
デジタル情報を見る、聞くだけじゃなくて、触覚で感じる体験ですね。
ブク美
触覚で。
ノト丸
例えば、ビーハプティクス社が出している触覚フィードバックのベストとか、グローブ、ああいう製品は前はすごく高価で専門的なものでしたけど、
最近はもっと手頃な価格帯になってきて、ゲームとかVR分野中心に普及し始めてますね。
ブク美
これはインターフェースが単に情報を表示するだけじゃなくて物理的な手応え。
例えば、壁に触った感覚とか、何かに押される感じとか、そういうのは与える段階に入ってきたということですね。
ノト丸
画面の中のことがリアルな感触で触ってくると。
ブク美
さらにNTTと東大が共同開発した新しい方式みたいな空中触覚技術もあります。
これは超音波を精密にコントロールして何もない空中に触覚を作り出すんです。
例えば、ボタンを押す感覚とか、ザラザラした質感とか。
ノト丸
空中に触覚が。不思議な感じですね。
これによって、公共の場で機器に触らずに操作したり、車の中で物理ボタンがない、すっきりしたデザインを実現したり、
そういう非接触UIの実用化が期待されてます。
もっと進むと、e-skin、電子皮膚と呼ばれる、薄くて伸びる素材にセンサーとか触覚デバイスを組み込んだ技術。
これは文字通り、感覚を肌に貼って拡張するみたいな未来を示唆してますね。
ブク美
視覚、聴覚だけじゃなくて、触覚も重要な要素になってきてるんですね。
ソース記事ではさらに他の感覚の話も出てましたよね。
ノト丸
はい。視覚、聴覚以外の感覚への注目も高まってます。
例えば、嗅覚インターフェース。
Nature誌に載った研究とか、OVRテクノロジー社が開発してるデバイスみたいに、
特定の匂いを生成して提示する技術が進んでます。
匂いですか?
ノト丸
ええ。これを通知に応用したり、VR体験の没入感をすごく高めたり、そういう活用が考えられますね。
そして究極的には、神経・生体インターフェース。
特にBCI、ブレインコンピューターインターフェースですね。
脳の活動を読み取って、思考だけでデバイスを操作する技術です。
ブク美
思考だけで。
ノト丸
ええ。イーロン・マスクさんのニューラリンク社とかが実用化を目指してますけど、
倫理的な課題も大きい一方で、人間の能力を拡張する究極のインターフェースになる可能性は秘めてますね。
ブク美
嗅覚とか思考そのものまでインターフェースになる可能性がある。
こうしてみてくると、インターフェースっていう言葉の意味自体が大きく変わってきてる感じがしますね。
もう特定のデバイスとか画面を指すんじゃなくて、
人間の感覚とか思考とテクノロジーとか、周りの環境とのつながり方そのもの。というか、
その関係性のデザインに焦点が映ってるような気がします。
ソース記事には、土の中に広がっている菌類のネットワーク、マイセリウムでしたっけ、
あれをセンサーにして都市の状態をモニタリングする生きた都市の研究なんていう、
さらに踏み込んだ話も出てきましたね。
ノト丸
まさにその通りですね。
それは自然界のネットワーク自体を情報収集の手段として都市に組み込むっていう、
生物と人工物の境界をすごく曖昧にするような非常に野心的な試みですね。
なんか環境が自ら語り始めるみたいなイメージでしょうか。
こういうふうに従来の画面とボタンみたいな明確な境界を持つインターフェースが、だんだん溶けていって、
より自然で多感覚的で時には意識されないような形で、私たちと世界との対話が生まれていく。
この大きな流れは特にモビリティ、つまり移動の分野で非常にはっきり現れ始めているんです。
ブク美
モビリティですか。確かにソース記事でも動くインターフェースとしてのモビリティ、かなりスペース割いてましたね。
単なる移動手段としてだけじゃないと。
ノト丸
ええ、ちょっと立ち止まって考えてみると、従来の車の運転体験、
例えばエンジンの音とか、路面からの振動、ハンドル切った時の手応え、加速する時のGとか、
あれって、それ自体がドライバーに時間と空間の変化を伝えるすごくリッチな多感覚インターフェースだったわけですよね。
ブク美
ああ、言われてみれば確かにそうですね。
ノト丸
でもEV化でエンジン音がなくなって、自動運転で運転操作から解放されると、
車内は静かで快適になるけど、一方で意図せずして、そういう世界の手触りみたいなものを失いつつあるのかもしれない。
ブク美
うーん、なるほど。
効率とか快適さと引き換えに、何か五感で感じる情報が減ってるかもしれないんですね。
それが冒頭で話した世界が薄っぺらくなったような感覚にもつながってるんでしょうか。
ノト丸
その可能性はありますね。
だからこそ、モビリティにおける新しいインターフェースデザインが重要になってくるんです。
新しい焦点として、ソース記事は2つの軸を挙げてます。
1つは、時間xインターフェース。
ノト丸
移動時間を単に消費される時間から、意味のある時間へ再設計しようという動きです。
ブク美
時間のデザインですか。
ノト丸
ええ、例えばBMWのコンセプトカーi Vision Deeみたいに車の窓全面をディスプレイ、ARHUDみたいに使って、
ドライバーの気分に合わせて車内の雰囲気を変えたり、外の情報を出したりする感情的ダッシュボード。
これは移動時間を創造的な時間とかリラックスの時間に変える試みですね。
トヨタのeパレットとか、ホンダの0シリーズ、SaloonとかSpace Hubとか、
移動体験の再定義
ノト丸
ああいうコンセプトも移動空間を単なる輸送手段じゃなくて、
仕事とかエンタメ、休息のための体験プラットフォームとして再定義しようとしています。
もうインターフェースは、単に速度とか残り時間を表示するだけじゃなくて、
移動中の時間の質とか感じ方そのものをデザインする役割になってきているんです。
ブク美
移動時間がただ過ぎるのを待つんじゃなくて、積極的にデザインされる体験になると。
もう一つの軸は何でしたっけ。
ノト丸
もう一つは空間×インターフェースです。
車が都市の中を移動する孤立した箱じゃなくて、
都市環境とか他の車、人と繋がって相互作用する感覚機関みたいになるっていう考え方ですね。
感覚機関ですか。
メルセデス・ベンツのVision AVTR、ありましたね、映画アバターとコラボしたやつ。
あれはドライバーの心拍とか呼吸みたいな生体信号を車が読み取って、
手のひらをコンソールに置くだけで車と一体化するような感覚を提供する。
これは車がドライバーの体の延長になって、外界とより深く繋がることを目指した例ですね。
あと、ホンダの3Eロボティクスコンセプトとか、
ソニー・ホンダのアフィーラのプロトタイプみたいに、
車の全面のディスプレイ、メディアバーでしたっけ?あれで、
ノト丸
車が感情を表現したり、周りに情報を伝えたりする機能。
ノト丸
これは車が単なる機械じゃなくて、社会的な存在として振る舞って、
共感とかコミュニケーションを行う可能性を示しています。
ブク美
なるほど。車っていう空間全体が乗員と外の世界をつなぐ、
まさに走るインターフェースそのものになっていくと。
情報の受け取り方も単にメーターとか画面を見るだけじゃなくて、
例えばハプティック技術を使ったハンドルが、
ナビの指示とか路面の状況を振動で感じさせてくれたり、
AIエージェントが同乗者みたいに自然な会話で情報を伝えてくれたりするようになるかもしれないですね。
スマートフォンに次ぐパーソナルな情報プラットフォームとして、
モビリティが大きな可能性を秘めているっていう視点はすごく面白いです。
ノト丸
まさに未来の触り心地が、移動体験の中で再定義されようとしているんです。
これらの具体的な技術とかコンセプトは、ソース記事で紹介されているもっと広い文脈。
例えば、AIといかに協調してデザインを進めるかとか、
効率一辺倒じゃない多様な時間感覚をどう尊重するかとか、
身体能力を拡張する技術の倫理的な側面とか、
そういう学術的な議論とも深くつながっているんですね。
単に新しい技術を実装するだけじゃなくて、
私たち人間が世界とか他社、そしてますます進化するAIと今後、
どうやって関係を結んでいくのか。
その繋がり方の哲学そのものが問われている時代だと言えるでしょうね。
未来のインターフェースと主体性
ブク美
技術の進化が、私たちの世界認識とか他社との関係性そのものに影響を与えていく。
インターフェースがデバイスっていう形を離れて、
私たちの身の回りの環境とか身体感覚と融合して、
時には目に見えない形で作用するような未来。
なんかそんな像がおぼろげながら見えてきました。
この未来像を踏まえて、最後にあなたにこんな問いを投げ返してみたいと思います。
これまで話してきたような、より身体的で環境に溶け込んで、
知性を持つかのように振る舞うインターフェースの進化。
これはあなたの日常的な世界の見え方とか感じ方を、
どのように変える可能性があるでしょうか。
ノト丸
そして、もし私たちが普段意識してないような形で、
環境そのものが微細な情報を常に伝え、
働きかけてくるようになったとしたらどうでしょう。
なぜ私たちは視覚や聴覚といった従来の感覚だけじゃなく、
触覚や嗅覚、
あるいはもっと直感的な繋がりをこれほどまでにテクノロジーに求めてるんでしょうか。
ブク美
さらに、AIとの対話が単なるツールへの命令じゃなくて、
まるで身体性を持った、たとえそれが仮想的なものであっても、
他者との対話のように感じられるようになったとしたら、
私たちの自己認識とか他者との関係性は根底から変わってしまうんでしょうか。
ノト丸
いやー、非常に深く考えさせられる問いですね。
今日の話を振り返ると、インターフェースは空間コンピューティング、
リアルタイムAIエージェント、触覚技術、そしてモビリティとの融合、
いろんな技術革新によってその姿を大きく変えようとしている。
それは、ソース記事でも言及されてたSF映画、Herが描いたAIとの感情的な繋がりとか、
マイノリティリポートで見せた空間ジェスチャーとか、
ああいうものが少しずつ現実のものになりつつあるということなのかもしれないですね。
単に物事を制御するための道具から、世界や他者と、
より豊かで多感覚的な対話をするための媒介者へ、
その役割のシフトこそが、今日の話の何か確信だったように感じます。
ブク美
まさにその通りだと思います。
今後の大きな課題であり、同時にデザイナーとか開発者にとってはすごく刺激的な挑戦になるのは、
これらの未来のインターフェースが持つ触り心地を、
いかに人間にとって豊かで意味のあるものとしてデザインしていくかということですね。
テクノロジーを単に効率的で便利なものにするだけじゃなくて、
いかに私たちの経験を深めて、ある種の姿勢を吹き込むことができるか。
ソースで例に挙がっていたB-Hapticsのベストとか、
特定の作業に特化したTourBoxみたいな物理コントローラー、
ああいうものはスクリーンとキーボードを超えた、
より身体性を伴うインタラクションへの模索の、まだ初期段階の現れと言えるでしょうね。
インターフェースが私たちの感覚とか環境とますます深く統合されて、
その境界が目に見えにくくなっていく未来。
そういう未来において、私たちはどのようにして、
自分自身の経験や知覚に対する主体性、これを持ち続けることができるでしょうか。
それらに気づかないうちに微妙に形作られてしまうのではなくて。
ノト丸
それはこれからの時代を生きていく上で、
誰もが考え続けなければならない非常に重要な問いですね。
ブク美
ぜひあなた自身の答えを探してみてください。
さて次回予告です。
明日からは今日のリサーチを踏まえ、
インターフェース未来の触り心地をテーマに、
まだ見ぬ未来のプロトキャストをお届けします。
次の時代のインターフェースのヒントが見つかるかもしれません。
お楽しみに。