音声によるユーザーインターフェースの可能性
水曜日は、ITを中心とした技術的な話をしています。 寒くなりましたね。札幌は先週雪が降りました。
例年、雪がしっかり積もるのは12月半ばくらいからです。
いつもホワイトクリスマスになるかならないかなんてことが話題になりますが、
クリスマスにはしっかり雪が積もっているという感じです。
そろそろしっかり雪に備えなければという時期になってきたということになります。
僕は寒い時期に生まれたせいか、寒い方が得意です。
ただ、冬に入ったらきちんと雪を見ないと体調を崩してしまいます。
雪がなくて寒いという状況に慣れていないというか、雪を見ると体が冬モードになるという感じなんですね。
人の体というのは不思議だなぁと、この時期になると思うのです。
雪は降らなくても寒くはなりました。
この時期になると困るのは、外でスマホを使うことです。
先々週の746回目の配信でも愚痴りましたが、手が冷たくてタッチパネルの操作が辛いし、
気温が低いとバッテリー持ちも悪くなりますよね。
だから、真面目に手で操作しなくてもいいユーザーインターフェースが欲しくなります。
僕はそういうユーザーインターフェースの有望株として音声に期待しています。
ただ、音声によるデバイスの操作と結果のフィードバックは、まだイメージしにくい状況だと思います。
多分、有史以来、人が話すことに適切に反応できるものが存在しなくて、
そういうユーザーインターフェースがこなれるのには時間がかかるのだろうと思います。
ただ、ここにちょっとした道筋が見えてきたのが、今流行の生成AIなのではないかと思います。
AIというと、何でもできる、任せてしまえるというイメージがありますが、
多分それは願望なのだと思います。
何十年というスパンで見たら、そういうものが生まれてくる可能性はありますが、
数年という短いスパンで見たら、そういうものが生まれてくる可能性はありますが、
何でもできるというよりは、新しいユーザーインターフェースを構成する一部の機能と捉えるのが適切な気がします。
何でもできるというよりは、新しいユーザーインターフェースを構成する一部の機能と捉えるのが適切な気がします。
何でもできるというよりは、新しいユーザーインターフェースを構成する一部の機能と捉えるのが適切な気がします。
何でもできるというよりは、新しいユーザーインターフェースを構成する一部の機能と捉えるのが適切な気がします。
何でもできるというよりは、新しいユーザーインターフェースを構成する一部の機能と捉えるのが適切な気がします。
何でもできるというよりは、新しいユーザーインターフェースを構成する一部の機能と捉えるのが適切な気がします。
現在の課題とマイクロソフトの取り組み
何でもできるというよりは、新しいユーザーインターフェースを構成する一部の機能と捉えるのが適切な気がします。
何でもできるというよりは、新しいユーザーインターフェースを構成する一部の機能と捉えるのが適切な気がします。
実際、マイクロソフトはコパイロットという形でパソコンのユーザーインターフェースを変えようとしています。
実際、マイクロソフトはコパイロットという形でパソコンのユーザーインターフェースを変えようとしています。
実際、マイクロソフトはコパイロットという形でパソコンのユーザーインターフェースを変えようとしています。
実際、マイクロソフトはコパイロットという形でパソコンのユーザーインターフェースを変えようとしています。
実際、マイクロソフトはコパイロットという形でパソコンのユーザーインターフェースを変えようとしています。
実際、マイクロソフトはコパイロットという形でパソコンのユーザーインターフェースを変えようとしています。
実際、マイクロソフトはコパイロットという形でパソコンのユーザーインターフェースを変えようとしています。
実際、マイクロソフトはコパイロットという形でパソコンのユーザーインターフェースを変えようとしています。
このようなアプローチは、結構前から始まっていました。
まずはスマートスピーカーで実験され、その機能が実はスマホにも載っています。
でも、未熟すぎてあまり使い物になっていないわけですね。
でも、未熟すぎてあまり使い物になっていないわけですね。
その原因は、人の話し言葉を解釈することと上手に回答を組み立てることの、両方がまだまだ下手くそだったからでしょう。
その原因は、人の話し言葉を解釈することと上手に回答を組み立てることの、両方がまだまだ下手くそだったからでしょう。
この下手くそだった部分を大規模言語モデルでかなり改善できるようになったんだと思うのです
ただ大規模言語モデルを運用するのには
今までとは桁違いの情報とコンピューティングパワーが必要になります
クラウド化によって情報量の問題はある程度クリアできて
次はそれを処理するコンピューティングパワーをどうするかという段階に入っています
現状はコンピューティングパワーの大部分をクラウド化になっていますが
遠からずこの部分がエッジと言われる我々の手元のデバイスに収まるようになると思われます
未来のユーザーインターフェースへの変化
もっと簡単に言うと手元のデバイスが話を聞いてくれて
必要に応じて何かを実行しその結果をうまく話してくれるようになるのです
目や手を使うものがなくなるわけではありませんが
僕たちが日頃やっている大半のことは話すことで
解決できるようになるでしょう
実際話すだけで完了することって結構あるでしょう
今はそのために会社が人を雇ったりしているのですよね
世の中の仕組みは複雑ですから
それをAIが簡単に変えてしまうのは随分先になるでしょう
でもパソコンやスマホのあり方は激変するかもしれません
今スマホを鬼のように使う若い人の中に
パソコンの操作を苦手としている人が結構いるのは
その操作が前世代の古いものであるということを示唆しているのではないかと思うのです
小さいタッチパネルで結構たくさんのことができるように
次の世代は音声でかなりのことをこなすようになるに違いありません
ただ話すだけだったら楽じゃないかと思うかもしれませんが
それは勘違いです
あなたは人が理解できる話し方をできていると思いますか?
そう言われると自信がないという人は多いのではないでしょうか
コードやタッチパネルの操作が苦手というのと同じように
音声での操作もある程度訓練をしないとうまくいかないと思うのです
人に対するときと同じように
AIが言うことをきちんと理解し
AIがわかるように伝える必要があります
それがある程度できるようになったら
多分外で画面を見る場面は劇的に減るでしょう
独り言をぶつぶつ言っているように見えるイメージは今は違和感がありますが
AIとのやりとりがしづらくなってきているのではないでしょうか?
AIが自然に近くなったらさほど気にならなくなります
多分今やっているパソコンやスマホの操作の半分以上は音声に移り
デバイスの形も見た目も全く変わってしまうでしょうね
これすごく未来の話のように感じるかもしれませんが
多分数年で起きる変化だと思います
パソコンやスマホがいつの間にか誰もが触るものになったように
AIがユーザーインターフェースになる時代のリテラシーは
より高度な知識との関係を持つことができるようになります
そうすると経験が求められるものになるでしょう
字がきれいであることが事務処理に必須ではなくなったように
今必須と思われていることの中に
いらなくなるものがいろいろ出てきます
あなたはどんなふうに変わっていったらいいでしょう?
ぜひ考えてみてください
今回はAIを使うために話す素養が必要になると分かりますか?
という話をしました
今日はここまで
読書と編集ではITを特別なものではなく
常識的なリテラシーとして広める活動をしています
ストア化でITリテラシーの基礎を学べるオンライン講座をやっています
詳しい内容については概要欄のリンクから見に行くことができます
コメントはリッスンで
文字で読みたい方はノートをどうぞ
どちらも概要欄にリンクがありますので
フォローいただけると嬉しいです
今日もワクワクする日でありますように
柴直樹でした
ではまた