1. にゃおのリテラシーを考えるラジオ
  2. #1061 【技術】AIがイヤホンに..
2024-10-02 05:32

#1061 【技術】AIがイヤホンに入る近未来

Googleから出たPixel bus pro2は本格的に音声でAIをつかうきっかけになるかもしれない。
という話。

にゃおの考える現代の基礎的なリテラシーは、ITをきちんと使えることが含まれます。
そのためにどのような問題があり、どう解決していったらよいか考えてみるPodcastです。

Google Pixel buds pro2
https://store.google.com/jp/product/pixel_buds_pro_2?hl=ja

YouTube
https://www.youtube.com/@nchiba

LISTEN版にゃおのリテラシーを考えるラジオ
https://listen.style/p/nchiba

配信書き起こし
https://note.com/nchiba

twitter @nchiba
https://twitter.com/nchiba

「読書と編集」の活動は、
https://www.nyaos.net/

ストアカの「読書と編集のITリテラシー教室」は、
https://www.street-academy.com/steachers/468576?conversion_name=direct_message&tracking_code=62e788e6ff484f6d2952151bb9c955b4
をご覧ください。

#読書と編集 #DX #IT #ITリテラシー #リテラシー #AI #podcast #YouTube #イヤホン #Google
00:09
にゃおのリテラシーを考えるラジオ、読書と編集の千葉直樹です。
このチャンネルでは、読書とIT時代のリテラシーを中心に、好きなものの話をしています。
今回お話しするのは、
AIがイヤホンに入る近未来、というものです。
水曜日は、ITを中心とした技術的な話をしています。
この夏、Googleから最新のイヤホンが発表されました。
Google Pixel Buds Pro 2です。
このイヤホンには、Tensor A1というチップが使われています。
Tensorというのは、Googleが設計しているシステムチップで、
既存の言葉で言うと、コンピューターの中心にあるCPUみたいなものだと思ってください。
GoogleのスマホのPixelシリーズには、Tensor、Tensor G2、Tensor G3というチップが使われています。
多分似たようなアーキテクチャを使って機能を減らし、
小型化したものがA1チップなのではないかと思います。
たかだかイヤホンにCPUが必要なのだろうか、思いませんか?
どんなことに使っているのかというと、
一番目立つのは、アクティブノイズキャンセリングの機能なのです。
むちゃくちゃ簡単に言うと、
イヤホンの外側の音を拾って、その音を打ち消すような音を作り出して、
内部のスピーカーから流すことで、外部のノイズを打ち消すのですが、
その計算をリアルタイムに行うわけです。
それと合わせて、外部ノイズが会話っぽいものだったら、
イヤホンで聞いている音楽のボリュームを下げて、会話の部分を際立たせるみたいなこともやるのです。
こういうことするには、結構複雑な計算をする必要があるので、
CPUみたいなものが必要になるわけですね。
イヤホンの中に、一昔前のパソコンより優秀なコンピューターが入っている感じです。
コンピューターですから、プログラムを入れ替えることで機能を変化させることもできてしまいます。
そして、スマホ側と通信して、音以外の情報をやり取りすることもあります。
最近注目されるのは、チャットAIを利用することでしょう。
GoogleにはGeminiというAIシステムがあって、
その中で音声でのチャットをサポートするのが、Gemini Live Chatという機能です。
このチャット機能の一部を、イヤホンの中のチップが担っているようです。
これ、想像をたくましくすると、スマホ本体がなくても動作するようにできるかもしれません。
スマホのスマートじゃないところは、いつも画面を見たり触ったりしなければならないことではないでしょうか。
多分今でも音楽を再生したり止めたり、ボリュームを変えたりするときには、イヤホンだけで操作することがありますよね。
これをもうちょっと拡張して、音声でも操作ができるようになっても良さそうじゃないですか。
ここから博物館まで案内して、と言ったら音声で道案内してくれたりするわけです。
画面を見ながら歩くよりずっとスマートですよね。
03:00
3番ホームの電車に乗ってください、なんて教えてくれたり、
3人で入れる居酒屋を探して、じゃあその店に席を予約して、
なんて感じで音声だけでやり取りができたら、今よりずっと手軽な感じがしませんか。
もういっそのこと、スマホを持たずに出かけられるなら最高ですよね。
そんなことない?
まあ、そうなってみないと便利なことも不便なこともわからないですからね。
ただ、今イヤホンはそんな方向に進化し始めています。
保管としてのスマホはなかなかなくならないでしょうけど、
それでもイヤホンのインテリジェント化は進んでいくでしょう。
音だけでなく、太陽みたいな体の情報を得るためにも使われるようになるかもしれません。
AppleのAirPods Pro2は、アメリカの食品医療品局から補聴器としての機能を承認されたようです。
いずれは単機能の補聴器というのはかなり特殊なものになるかもしれません。
イヤホンにCPUが入るということはそういうことです。
メガネをかけるのが割と普通であるように、イヤホンをつけているのも当たり前になるでしょう。
日常会話の通訳みたいなことができるようになるのもそれほど遠い未来ではないかもしれません。
小さくて無くしてしまいそうなイヤホンですが、実はとんでもないポテンシャルを秘めているのです。
来年あたり、AIを使う一番多いケースはイヤホンからということになるかもしれませんね。
皆さんはどう思いますか?
このラジオはYouTubeでも配信しています。
音声では表現しきれないものを映像で保管する場合があります。
ぜひチャンネル登録をお願いします。
今回は、AIがイヤホンに入る近未来という話をしました。
今日はここまで。
読書と編集では、ITを特別なものではなく、常識的なリテラシーとして広める活動をしています。
ストア化でITリテラシーの基礎を学べるオンライン講座をやっています。
詳しい内容については、概要欄のリンクから見に行くことができます。
コメントはYouTubeで、文字で読みたい方はノートをどうぞ。
どちらも概要欄にリンクがありますので、フォローいただけると嬉しいです。
今日もワクワクする日でありますように。
千葉直樹でした。ではまた。
05:32

コメント

スクロール