1. Recalog
  2. 203. 2025/02/23 ChatGPTに調..
2025-02-23 00:00

203. 2025/02/23 ChatGPTに調査機能を実装

spotify apple_podcasts youtube

以下のようなトピックについて話をしました。

01. ChatGPTに高度な調査機能『Deep Research』が登場

OpenAIは、ChatGPTの新機能「Deep Research」を発表しました。この機能は、複雑なタスクに対してインターネット上で多段階の調査を行うエージェント型の能力です。人間が何時間もかかる作業を数十分で完了させることができます。

Deep Researchは、OpenAIの次世代エージェントとして、ユーザーのプロンプトに基づいて数百のオンラインソースを検索、分析、統合し、研究アナリストレベルの包括的なレポートを作成します。ウェブブラウジングとデータ分析に最適化されたOpenAI o3モデルの一バージョンを搭載し、インターネット上の大量のテキスト、画像、PDFを検索、解釈、分析する能力を持っています。

この機能は、金融、科学、政策、エンジニアリングなどの分野で集中的な知識労働を行う人々や、車や家電製品などの慎重な調査が必要な購入に関して個別化された推奨を求める消費者向けに設計されています。すべての出力には明確な引用と思考プロセスの要約が含まれ、情報の参照と検証が容易になっています。

Deep Researchは、新しい知識を生み出すためのAGI(汎用人工知能)開発に向けた重要な一歩とされています。現在はProユーザーに提供されており、今後PlusユーザーとTeamユーザーにも拡大される予定です。

02. スーパーベルク10店舗にストアロボット導入

MUSEが開発したストアロボット「Armo One」が、スーパーマーケットチェーンのベルクの埼玉県と群馬県の10店舗に導入されました。2024年6月から2店舗で運用を開始し、残りの8店舗は2025年2月以降に導入される予定です。

Armoは、人手不足の解消と売り場活性化を同時に実現するプラットフォームです。拡張ユニットを交換することで、品出しや売り場画像の収集など複数の業務を1台でこなすことができます。収集したデータはクラウドサービス「Eureka Platform」に蓄積され、小売業者やメーカーがリアルタイムで商品棚の状況を確認できます。

この導入により、店舗では品出し作業の最大30%の工数削減が可能となり、マルチユースでの活用で5倍程度のROIを実現できるとされています。

ベルクのシステム改革部長は、Armoの導入背景として品出しや商品搬送業務の負荷軽減を挙げ、人手不足や賃金上昇への対策になると同時に、従業員の働きやすさにもつながると述べています。現在は主に品出し業務に活用していますが、今後は売場の棚画像可視化や販促業務など、多用途での活用を検討しているとのことです。

この導入拡大は、既存店舗での想定を上回る成果を受けて実現したものであり、小売業界におけるロボット活用の新たな可能性を示しています。

03. 中国の人型ロボット開発最前線:上海のAIロボットトレーニング施設

中国のロボットスタートアップ「智元機器人(Agibot)」が上海市に設立した3000平方メートルの「データ収集工場」で、革新的な人型ロボットの開発を進めています。

主要なポイント

施設の特徴

  • 家庭、小売店、サービス業、飲食業、工場の5つの環境を再現
  • 100台近いロボットが洋服たたみ、食器の配置、料理の取り分けなど日常タスクを学習

データ収集の成果

  • 稼働2ヶ月で100万以上のデータを収集
  • 1000種類以上のタスクを実施、各タスクに数百から数千の動作データを含む

技術的優位性

  • AIモデルを活用した自律的な動作の実現を目指す
  • 米国と比較して10分の1のトレーニングコストで運営
  • 部品の国内調達による効率的な生産体制

この施設は、元ファーウェイの天才エンジニア彭志輝氏が技術責任者を務め、2024年12月から量産体制に入っています[5]。同社は複数回の資金調達を経て、評価額70億元(約1400億円)を超える企業に成長しています。

04. 切削加工の騒音を心地よい音色に変換する

切削加工の騒音問題に対する新たな解決策として、不快な騒音を心地よい音色に変換する試みが提案されました。具体的には、切削加工音に倍音(ハーモニクス)を合成することで、心理的なストレスを軽減し、作業環境の改善を目指しています。この研究では、実際の加工音を分析し、それに基づいて倍音を合成する実験と、合成音が作業者に与える心理的影響を評価するためのアンケート調査が実施されました。

実験では、様々な切削条件下での加工音を収録し、それらの周波数特性を分析。特に、基音(基本となる周波数)と倍音(基音の整数倍の周波数)の関係に着目し、これらの音響特性が作業者に与える影響を調査しました。また、SD法(意味微分法)を用いたアンケート調査を通じて、異なる切削音が作業者の感情的イメージにどのように影響を与えるかを評価しました。この調査では、経験年数が異なる作業者グループ間での評価の違いも分析されました。

研究の結果、多くの作業者がハーモニクス合成音に対して好意的な印象を持つことが明らかになりました。このことは、適切な音響設計によって、作業環境における騒音の質を改善できる可能性を示唆しています。今後の課題として、実際の作業現場での実地検証や、さらに多様な音響パターンの調査が挙げられます。

この研究は、騒音問題に対する新しいアプローチを提案するとともに、作業者の心理的健康と作業効率の向上に貢献する可能性を示しています。特に、製造業などの騒音環境下での作業が多い分野において、この研究成果が実用化されることへの期待が寄せられます。


本ラジオはあくまで個人の見解であり現実のいかなる団体を代表するものではありません
ご理解頂ますようよろしくおねがいします

サマリー

チャットGPTに新たに実装されたディープリサーチ機能は、オンラインでの情報収集を大幅に効率化し、包括的なレポートを生成することが期待されています。この技術は依然として開発中ですが、様々な用途、特にプロフェッショナルな環境での影響が注目されています。オープンAIの新しいディープリサーチ機能では、情報源を科学的なものに制限し、確率を上げる推論モデルを採用しています。さらに、AIの理解力や限界についての議論が行われ、ビジネスにおける有用性が強調されています。 このエピソードでは、中国の人型ロボット「ユニコーン」と「アジボット」が、特定のタスクを遂行するための巨大なデータ収集工場の設立について紹介されます。実際に取材した様子を通じて、ロボットのトレーニングプロセスや質の高いデータセットの作成の重要性が議論されます。このエピソードでは、名古屋大学の研究を基にした騒音改善のための新手法についても議論され、切削加工音に音楽的な倍音を加えることで労働環境を快適にし、心理的ストレスを軽減するアイデアが紹介されます。また、ChatGPTの調査機能の実装についても議論し、その潜在的な利用シーンや課題を掘り下げる内容となっています。

モンハンの発売を前に
スピーカー 1
モーハンが近づいてきました。
スピーカー 2
そうです。まるでなんかこう、世界の滅亡みたいな言い方ですけど、はい。
スピーカー 1
困りましたね、ほんとね。まだ、まだどうの武器種でいくかすら悩んでるんですけど。
スピーカー 2
はい。
スピーカー 1
先日、なかなか強烈な情報を見て、めちゃくちゃ悩んじゃったんですが、
ランスとか装中コンとか、私がもともと使ってたものが、ベータ版だと結構使いづらいみたいなのがだいぶ改善されて良くなったっていうのは、
まあ、差もありなんていう感じで良かったんですけど、
スピーカー 2
はい。
スピーカー 1
ガンランスの砲撃がですね、とうとう武器の攻撃力にスケールするようになりまして、
スピーカー 2
あー、なるほど、はい。
スピーカー 1
なので、ガンランスが超楽しそうなんです。
スピーカー 2
はいはい。
今までは、
なんでそこに本気やねん。
スピーカー 1
ワカスカ砲撃撃ってて、まあ派手だけど、結局スケールしないしで、
あの、殴り武器になっちゃって、ガンランスのガン部分がちょっと勿体なくなるからっていう理由だけで、
あの、中二病頑張って抑えてたんですけど、
そこがなくなっちゃったらちょっとどうしよっかなってめっちゃ浮気しそうなんで、悩んでますね。
スピーカー 2
なるほど。
え、てか今までスケールしてなかったの?っていうところがあれなんですけど。
そうだよ。
へー。
スピーカー 1
攻撃は全部固定ダメージ。
スピーカー 2
カスダメやんけっていう話ですね。
スピーカー 1
そうっすね。
なんで、まあその点がね、改善されただけでもめちゃくちゃ良いじゃんっていう。
スピーカー 2
はい。
スピーカー 1
最終盤まで使っていける武器になりそうだから。
という感じで、ちょっとモンハンがあと1週間って控えてる中で、モンハンの勉強がちょっと足りてないから、
ちゃんと勉強して備えないといけないなと思いつつ、もう情報が増え続けていて、なかなか大変ですね。
スピーカー 2
うん。まあいいじゃない。盛り上がってることは。
スピーカー 1
めちゃくちゃ盛り上がってますね。
ベンチマークとかも登場してきてるんで、今のうちにPCのスペックのチェックとかは出力といいんじゃないかなと思います。
スピーカー 2
あれ?あー、なんか、あ、そっかベンチマークだけ動くんですね。ベータは、オープンベータは閉じちゃったけど。
スピーカー 1
そう、Steamでベンチマーク探せば公開されてるんで。
スピーカー 2
うん。了解しました。
スピーカー 1
私のGPUだと、うーん、高解像度で、で、高解像度ってどう言うんだろう。あのー、クオリティー高く見るのはちょっとギリギリっぽいって感じなので、
まあ、もう入りながら、世界観の楽しみに不足を感じたら、またGPUアップデートせんといけんなーみたいな気持ちですね。
スピーカー 2
まあいいんじゃないですか。5Xシリーズも出ましたし。
スピーカー 1
ねえ。GPUが、GPUが足りないね。もっと安く廉価版をどんどん出してほしい。
スピーカー 2
まあ、円安ですからね。なかなか難しいところもありますけど。
間違いないね。
スピーカー 1
GPU関係はね、もう本当AIも含めていろんなところで引っ張りだこなんで、安くなる理由がないからね、今んとこ。
スピーカー 2
まあでもその、あのー、NVIDIAさん的には、ゲーム向けはゲーム向けで確保したいというか、
うんうん。
その、高騰しすぎるから、ゲーム向けのGTXは、AI向けにはデチューンという機能制限がかかるようになってるらしいので、はい。
スピーカー 1
なるほど。
まあ、中国への輸出規制等々もあるんで、ちょっと落ち着いてくれればなーと思いつつ、もう半には間に合わないんで、しばらくは泣く泣く過ごすかなーって感じですね。
スピーカー 2
はい、そうですね。
はい、ということで皆さん、今週1週間はそわそわして落ち着かないと思いますけど、まあ頑張って、もう半に備えましょう。
は、はい。
スピーカー 1
なんやねんそれってね。
ディープリサーチの紹介
スピーカー 1
はい、じゃあ本編の方いきたいと思います。
スピーカー 2
はい。
スピーカー 1
1点目、チャットGPTに高度な調査機能、ディープリサーチが登場ということで、本家のOpenAIの記事からいきます。
まあ、元は英語の記事になってるので、もう日本語でざっと要約しながら喋っていくんですけれども、
ディープリサーチはOpenAIの次世代エージェントで独立した作業を行うことができます。
プロンプトを与えると、チャットGPTは何百ものオンラインソースを検索、分析、統合し、リサーチアナリストレベルの包括的なレポートを作成します。
ウェブブラウジングとデータ分析に最適化された、近日リリース予定のOpenAI O3モデルのバージョンを搭載し、
推論を活用してインターネット上の膨大な量のテキスト、画像、PDFを検索、解釈、分析し、遭遇した情報に対して必要に応じて方向転換を行います。
ということで、ジェミ内でも共有していたディープリサーチがOpenAIからも登場してきましたよという紹介です。
このディープリサーチというのがいろんなところで話題になっていて、このラジオでもちょっと取り上げざるを得ないなという感じになってきているので紹介です。
ディープリサーチ自体は先ほど言ったような、インターネットをいろいろ調べていい感じのレポートを出してくれますよというものなんですけれども、
このディープリサーチという言葉自体に定義はあまりなくて、ジェミ内でもサポートされていますし、パワープレキシティですとか、何ならオープンソースでもディープリサーチというものがあったりします。
なので、ざっくりディープリサーチという表現で言うと、インターネット上の情報をもうちょっと深く掘り下げて取りまとめますということにしかなってないです。
なので、このディープリサーチのディープはAIの文脈で言う深層学習的なディープであって、深くリサーチしてくれるという意味のディープではなかったりもするので、
この辺が言葉のややこしいところではあったりするんですけど、各社、いろんなレベル間でディープリサーチというのを導入してきているという流れです。
このディープリサーチがすごく流行りだしている一番の理由はですね、やはり人間はいろんな情報を多角的に判断して結論を出す、
といったところが人間らしい活動であると。仕事でもそういう仕事結構いっぱいあると思うんですけど、そういった中でディープリサーチはまさにそこを人間の手に頼らずそこで出せるといったところでかなり効果的だろうという見立てになっています。
本当にプロレベルのアナリストにはもちろん至ってないにせよ、自分たちで調査したりするよりかは遥かに高度なレポートが出てくるということで話題になっている状態です。
その辺の観点の網羅性だとか、まとめる上手さみたいなところで各社は違うものの、今後も情報の収集と決断におけるエビデンス作りといったところではかなり高度に使われていくんじゃないかなということで、あらゆる現場でディープリサーチを当たり前に運用していくというのが方針として取られつつあります。
ディープリサーチ、Geminiの方では観点の広さですとか、Googleスカラーはじめ論文からの引っ張り具合とか、そういったところに強く技術的に、科学的に根拠だったものっていうのを調査する上ではGeminiの方が優秀で、
チャットGPTの方は最近起きたニュースだとか、世の中のメディア関係から取ってくる情報としては優秀というような差別化ポイントがあります。
レポートがどちらも非常に長いので、オープンAIもGeminiも、その長さをさらにぎゅっと圧縮して簡潔にレポートしてくれるのがパワープレキシティみたいな形で、それぞれディープリサーチの役割分担というか、隅分けみたいなのはできているんですけれども、
今後もGoogle検索に戻ることなく、こういったツールを使って情報をモラ的に取っていくことが当たり前になってきそうだなというのがあります。
一方で懸念事項はもちろんありまして、この機能がかなり優秀で先行しているんですけれども、
実態として、そういった情報の元になっている情報源の著作権においては、そういう利用を認めているような権利として公開されているのかどうか、
クローリングがちゃんと許可されているサイトなのか、正式に提供されている情報だけで判断しているのか、といったあたりが疑問点として残るところで、
そのあたりのポリシーについて、あまりオープンAI社もGeminiのGoogleも発表がされていないというところがあるので、
このあたりの技術倫理的なところですね、懸念は一定数残るものの、今はそのディープリサーチがまとめてくれるレポートのインパクトによって、
スピーカー 2
なかなかそこまで議論が至っていないかなというのが現状です。
改めての確認ですけど、
政策決定というか、仕事をやってて、これってどうだ、この方針ってどうだっていうのを聞くのに特化しているAIみたいな認識っていいですか?
ディープリサーチの利用ケース
スピーカー 1
サーチのユースケースは一番強いのは、例えば、生成AIという技術が今後1年どういう状況になりますかっていうものを聞いたりとか、
あとは、生成AIの技術って最近どんなことが起きていて、それに対して私たちは何か備えるべきことがありますかとか聞いたり、
あとは、他業種で自分たちは知らないんだけど、宇宙業界ではどういうふうな開発スタイルが主流になってますかとか、
最近では温暖化に対してのその一番ボトルデンクになっているものを何だと分析されていますかとか、
そういった未知領域に対して、世の中に公開されている情報を網羅的に集めてきてストーリー立てて文章を作ってくれるっていうところがディープリサーチの利用ケースになっています。
スピーカー 2
なるほど。じゃあなんか、コンサルタント業みたいなことに対して非常に有用っていうことかな?
スピーカー 1
そうですね。
スピーカー 2
とか、自分の異業種との活躍できる勇気がないかみたいな、そういうことを考えるところで有用と。
スピーカー 1
そうですね。普段のサラリーマンだったら、上司に今こういうトレンドになりそうだから上司にしたいな、とか、こういうやり方やってたら負けそうだからこういうことにもアプローチしておいた方がいいだろうな、みたいに思っていることが仮にあるとしますと。
ただそれって個人の思いつきじゃないの?ってよく上司から言われて、ちゃんと調べてから持ってこいよって跳ね返されることを往々にしてあると思うんですけど、そういったときのエビデンス取りに使ったりっていうところが一番メジャーなケースだと思います。
スピーカー 2
なるほど。非常に業務上使いやすそうですねという感じの印象がありますし、オープンAI社が出してるサイト上にGPT-40との比較、同じことを聞いたときに比較が、交流出力の違いがありますっていうのが非常に分かりやすいかなと思いますけれども。
スピーカー 1
そうですね。
スピーカー 2
GPT-40は本当になんかチャットベースなんですよね。ザラザラと100文字ぐらい出して、1、2、3、4、5、6、7、8、9、10があります。他にこういうことがあります、みたいなことを過剰書きで全部出す感じ。
これに対してディープリサーチはまず現状の情報をこういう感じで表で出して、それに対して考察および注意事項をちょっと長文で出してくれると。
これはそのままPowerPointにペタッと貼って、文章を読むだけでもそれなりに何かなるとみたいな感じで、非常に使いやすく仕上がっているかなというところが良さそうですね。
スピーカー 1
そうですね。今言ってくれた通り、ユースケースに適応させるために使えるので、ディープリサーチにプロンプトを投げたときにそのまますぐ動くんじゃなくてですね、
もともとどういう目的で調査されるんですかとか、どういうことを気にして調査しようとしますかとか、そういういくつかの質問が逆にディープリサーチから返ってくるようになってます。
それに応えるとその目的とか背景に合わせたレポートが出てくるという形になっているので、そういった面でもより期待するレポートが出てきやすい仕掛け作りになってますね。
スピーカー 2
ここら辺の味付けで確かにグッと使いやすさが変わるので、こういうのが出てくるのはいいなと思う一方で、こういうのって1年半ぐらい前はこういう味付けを各社がやればいいんじゃねって言ってたところがどんどんバシバシオープンAIから出てきているのは何というか面白いなという感じですね。
スピーカー 1
そうですね。AIのモデル自体を強化していくのは、もうある程度やり方とか確立されてきて、単純進化でいいだろうという状態になってきてましたと。
ディープシークが出るまでという条件付きなんですけど、っていう方針の中でオープンAI社とかモデルを作っているところもユースケースに応えていく、実際よくあるニーズに応えていくことで市場を獲得していきたいという方針転換が行われていて、
ディープリサーチの導入
スピーカー 1
これはオープンAIに限らずあらゆるGAFAMみたいな大手IT企業が取り組んでいく方針だと思われます。
もう直近で、今日はもう話さないですけれども、先ほど言ったGemini、Googleのほうのディープリサーチの新しいバージョンとしてCoscientistっていうものが出てきています。
こちらはその収集する情報をさらに科学的なものに限ったものになっていて、中心とする情報源をGoogleスカラーとか論文ベースにすることで、余計な情報を入れずに本当に科学的に確からしいものをベースとしたディープリサーチを実現するというようなサービスを出してきていて、
そこでもまた住み分けみたいなこともされ始めています。
スピーカー 2
うーん、なるほど。どうなんですかね。
オープンAIとしてはAGI、汎用人工知能みたいなの、ほんまに人間の代わりに何でも知ってるよみたいなのをやる方向に突き進むもんだと思ってましたけど、
なんか専門家じみたことをやってるっていうのは何なんですかね。そっちの方がやっぱ需要があるからなんですかね。
それともネットの情報でAGIを作るのは難しいんじゃないか疑惑が出てるとか。どうなんでしょう。
もともとAGIは技術的に作れるものではないというか、もうオープンAIのサムアルトマン的には人々の受け止めがAGIになるかどうかっていうことに位置づけられている気がします。
スピーカー 1
技術的に今言ってるような確率的なものだけ出すとか、自発的な偶発性を持ち込むとか、そういったことはできてなくて、今言ってるこのディプリサーチの推論と呼ばれているモデルは、
以前オーアンの時にも話した通り、何回か段階を踏んで確率を上げていく。1回目の答えだけじゃなくて、2回目3回目って何回も深掘りして考えていったら最終的にやっぱこうだよねっていうことにして精度を上げていく技術ですけれども、
それも別に元々の確率って言ったところから何も変わってなくて、それの数を重ねて確率を上げていっているだけの話なので、根本的な技術がそのAGIになり得るなっていうようなブレイクスルーが起きているっていうことは特にないですと。
AGIと人間の限界
スピーカー 1
一方で人々がAGIだと感じる体験は何かっていうところで言うと、今までAさんがやってきたことと同じようなアウトプットが得られたなみたいな体験の積み重ねがAIをAGI的なものだと捉え始める文化形成だろうということにすると、このディプリサーチみたいなのはアプローチとして悪くないのかなと思います。
スピーカー 2
うーん、なるほど。何だろう。まあ真に電池である必要はないよねっていう感じがしてて。
まあその受け止め方だと結構、何だろうな。話し方が上手いだけでも、まあ良くなっちゃいそうな感じがあるんで結構どうなんだろうなという感じもありつつ。
まあでも実際使う側としては、今回のディプリサーチみたいな真に使いやすい情報を出してくれた方が、求めてるものを出してくれるという意味でいいのかなと思うので。
まあそれでもいいのかな。
うーん。
スピーカー 1
まあその辺は多分人をビートのAIに対する期待のいろんなギャップがあると思うんですけど、まあそれがどこまで埋まっていくかだけの問題なのかなと。
私も別にAGIだと特に感じないですけど、これをディプリサーチが出てくるレポートを見て、もうAGIみたいなことはできるんだって捉える人がいても不思議ではないなと思います。
スピーカー 2
うーん、なるほど。
スピーカー 1
まあそうですね。
スピーカー 2
知らない業種のことについても、その道の専門家のように何かレポートがまとまって教えてくれるって言ったら、じゃあもう専門家に聞きに行かなくてもAIに聞けばいいじゃんっていう世界観ってAGIじゃないのって言われたら、まあ抽象的には言えなくもないみたいな気持ちになるんで。
うーん、まあどうでしょう。私の中に認識としてAGIっていうのはマジで全分野を横断することが可能という認識でいたので、そういう意味で言うとこのディプリサーチは何て言うんですかね、分析データというか学術的なことに特化しているから、学術的でない話を振った時には精度が落ちると思うんですよね。
スピーカー 1
そうですね。
スピーカー 2
うん。まあその時点でAGIではないのかなという気がしていたんですけど。
スピーカー 1
そうですね。
うん。
だからその精度が落ちた時の精度の差みたいなのが気づけるかどうかですよね。
スピーカー 2
まあそうですね。
スピーカー 1
うん。気づけないんだったらAGIだし、気づけたらAGIじゃないでしょう。
スピーカー 2
まあそこは実際に完成度高いものを使ってみてどう感じるかの世界だから、まあそれでもいいのかなという気はしますかね。
スピーカー 1
そうですね。
スピーカー 2
うん。
スピーカー 1
まあもちろんこれが何か、じゃあ明日からの仕事の仕方を大きく変えていくかっていうと、そうでもなくて、この辺が人間の限界として感じるとこなんですけど。
はい。
じゃあこれで業界A、業界B、業界Cみたいなものがそれぞれリクエストかけて、まあそれぞれ1時間もたまらずにレポートが3つ出てきましたと。
スピーカー 2
はい。
スピーカー 1
じゃあ人間はそのレポートを受け取って評価できるんですかって言ったら、まあ情報の波に飲まれても無理なんですよね。
スピーカー 2
うん。
スピーカー 1
あの、そんな自分の未知の業界のレポートを何か一瞬で理解できるんだったらその業界の精通者なのでもう。
だから深く読み込んで、なるほどって思いながら読むとか、精々やるとさらに壁打ちして理解を深めていかないと、そのレポート自体も自分で解釈しきれないみたいな感じになると思うんですけど。
そういったことになるとですね、ディーブリサーチをひたすら待たせるみたいな形になるので、人間が仕事上のボトルネックになっていくから、まあ結果的に一人一人が処理できる仕事量っていうのに大きく差はないんだろうなと思います。
AIのビジネスでの利用
スピーカー 2
うんうんうん。
スピーカー 1
もちろん以前より生産性が上がること自体は間違いないんだけど、なんかAIと二人分働いたようなことになることはまあないんだろうなと思いますね。
スピーカー 2
まあ、なんかそこら辺は結構難しいですね。どこまでを一人分と換算するかもありますし。
その、なんだろう、AIを使わなくても現状の生産能力って、なんだろう、100年前の人間からするとありえないぐらい高くなってると思うので。
スピーカー 1
そうですね。
スピーカー 2
まあどこから基準とするかみたいな。本当にあなたの今の能力は生身の能力ですかって言うとそれも違う気がするしみたいな。
うん。
スピーカー 1
感覚的には、脳みその限界かな。
いやでもそれも人類が進歩したら変わるかもしれないけど。
人間、人一人が脳で処理できる量が、えっと、まあ180パーセントまでぐらいが限界かな。
150パーから180パーぐらいまでが限界で、200パーまでいかないなーっていう感覚はありますけど。
ちょっとこの辺は人によるんで。
スピーカー 2
使い倒してみてという感想ですね。
スピーカー 1
そうですね。何せよね、こういうものが出てきていること自体は非常にビジネスの中で有用だと思うので、少なからず使ってみて、自分の仕事に活かせそうかどうかとかは、味見をぜひしてもらいたいなと思っての紹介でした。
スピーカー 2
あ、そうです。最後にちょっとだけなんですけど、
オープンAIのこの記事の中で、Humanity's Last Epsomっていうスコアが良かったんですよ。ディプレイサーチがね。
言ってるんですけど、これなんかもう。
GPT-40、あれだけ洗脳が良いと言われてたGPT-40が正確か3.3%とかなんですよね。
それに対して26.6%の回答正答率があるので、非常に強力ですよということを言ってるんですけど。
なんかすごい強敵だなというか。
尺度を変えたので、今まで最強だったものがわずか戦闘力3下みたいな感じになってるのが。
スピーカー 1
はい、あの。そうだね、その点はちゃんと伝えないといけないんですけど。
AIに関するベンチマークについては、C的なものしか今存在しないので気にしなくていいです。
スピーカー 2
はい。
スピーカー 1
自分の実感を信じてください。
スピーカー 2
いろいろやってみて、ディプレイサーチが一番スコア比が高かったものがこれなのでこれを出してますみたいな話?
スピーカー 1
そうです。
スピーカー 2
なるほどね。
スピーカー 1
AIの賢さを測るものとしていろんなものが提供されてるんですけど。
例えば、AIアリーナと呼ばれているようなもので、同じ問題にAIが回答させて問題に答えられるかどうかを競っていて。
ELOというかレートスコア化するみたいな、そういうAI同士を戦わせるアリーナみたいなのがあったりするんですけど。
そのアリーナの上位とかもありますし、あとは数学的な問題とか、数学検定みたいなやつですね。
人間が特には難しいとされている問題集みたいなものを用意して、それに対する正答率で測るとかもありますし。
本当にいろんなベンチマークのアプローチっていうのはあるんですけれども、各社のAIレンダーは自分たちはこれに強くなろうっていう目標を決めてAIの開発に取り組んでいるので、
その特定のベンチマークで強くなるっていうのは当たり前の話というか、それに特化したらそれはそうでしょうという話でしかなくて。
スピーカー 2
もちろん日本語の解釈能力の高さとか、いろんな指標があるわけじゃないですか、AIに期待する指標としては。
スピーカー 1
なのでトータル賢いっていうものを私たちとしては選ぶ必要があって、そういう意味だと、
ジェミナイとかイーロンがやってたグロックとか、そういったものよりもクロードとかOpenAIのGPT-4とかO3あたりが日本人受けとしては非常に良いと言うのが今の現状だと思います。
スピーカー 2
パソコンのハードウェアのベンチマークソフトもいろいろあるし、要はそれよりも結局のところは使いたいアプリケーションでどれくらい使いやすいかって方が重要だったりするので。
スピーカー 1
ハードウェアでいうとCPUのクロック数であなた買いますか?みたいな話。
スピーカー 2
買う人もいるけれどそれだけが全てじゃないよっていう話ですね。
スピーカー 1
そうそうそうそうそうです。
スピーカー 2
はい、大変わかりました。
スピーカー 1
はい。
スピーカー 2
はい、というところで。
スピーカー 1
この目はこのもんで。
はい。
はい。
スピーカー 2
では次2本目の記事です。
ロボスターさんの記事で、スーパーのベルクが埼玉と群馬の10店舗でストアロボットアーモを動員。
アーモでいいんですかねこれ。
既存店舗では予想・想定を上回る成果というタイトルの記事になります。
MUSEは同社が開発したストアロボットの製品版を持てるアーモ1が、スーパーマーケットを運営するベルクの埼玉県及び群馬県の10店舗に導入されたと発表しました。
既存店舗である埼玉県内の和光西山都店及び北坂…。
ごめんなさいちょっと読み方間違ってるかも。
北坂都店?
違う気がしますね。
北坂都店。北坂都店においては、2020年6月から開始しており、残る8店舗については、2025年2月以降運用開始する。
ということで、店舗数を増やしています。
このアーモとは、ロボットと店内データの活用を組み合わせることで、小売店舗における人手不足の解消と売り場の活性化を同時に実現するプラットフォーム。
拡張ユニットを交換することで、品出しや売り場画像の収集など複数の業務を一台で行うことが可能。
さらに、アーモが収集した売り場データはクラウドサービスに蓄積され、小売業者やメーカーがリアルタイムで商品などの画像や欠品、棚割りの買入などの解析結果を確認することができる。
これにより、店舗営業の効率化や最適化や最適な棚割りの作成を支援する。
この結果、店舗では品出しの最大30%のコースが削減でき、さらにマルチユースで活用することによって5割程度のROAを実現することが可能となるということを言っています。
実際どういうものなのかっていう話なんですけども、スーパーでカートを置くじゃないですか、パークを置く。
あれの下の車輪の部分にルンパみたいなのがくっつきまして、そのカートごと移動することができるというのが動画で紹介されています。
これによって例えば、品出しをしている人のところに重い荷物、例えば2リットルペットボトルの1箱×6とか8とかを運んでいって、そこで人がいるだけでどんどん品出しができるとか、そういうことが紹介されていますということですね。
なかなかいいんじゃないかなっていうのが思っておりまして、どこがいいっていうと、応用なシステムを入れなくてもいいというところですね。
ロボット導入の現状
スピーカー 2
ベラボットちゃん、配線猫ロボットとかもそうなんですけど、現状の店のインフラになんとかギリギリ導入できるぐらい、でも現実的にはだいぶ人と合わせてのオペレーションが改善するという実例がありますので、そのくらいを狙っててちょうどいいのかなという印象を持ちました。
というところでの紹介です。
スピーカー 1
そうですね、これすごいどっちとも評価しづらくてすごく悩ましいんですけど、まず単純にこのロボットだけを見ると前後がすごく気になりますと。
そういうのは倉庫にある商品をカートに載せる作業は人間がやるのかっていうのと、商品の足りない部分の数とか欲しい箱数みたいなのを見定めて指示を出すのも人間がやるのか。
ここの2つがどうなってるのかがちょっと記事とか本家のみずさんのロボットのページとか見てもわかんなくてですね。
ここがもしどっちも人でやってるんだとすると、ただその運ぶのが楽になりましただけになってしまって、ちょっとロボットを導入するほどのメリットに感じないっていうところなんですけど。
スピーカー 2
先ほどの紹介されていた記事というか文章を伺うと、商品棚の画像とかそういったものもちゃんと見ますよっていうことなんで、多分私が言ってる認識がずれてるんだろうなと思うんですけど、その辺の実態がまだわかってないって感じです。
多分認識はあってて、棚に物を置くとか、アルモが持ってきてくれたものを商品棚に置くっていうのは多分人がやってると思います。
スピーカー 2
で、それが微妙かだよねと言われると、ある意味完結してないので、それは完成してないよねと言われるとそうなんですけど、個人的にはそのくらいがいいと思ってて。
スピーカー 1
なるほど。
スピーカー 2
全部ロボットにやらせると高級すぎると思うんですよ。
ロボットがやる作業が非常に難易度が高いものになりますし、それ用にロボットに合わせたお店の設計をしないといけないという感じがあると思うんですけども、できるところだけロボットにやってもらう。
ということで、導入コストが楽だし、スーパーとかはちょっとバイトしたことはないですけど、意外と搬送がめんどくさいんですよね。
実際それはそうなので、そこだけやってもらうだけでもだいぶ楽だなっていうのは感覚としては分かるところだなという感じですね。
スピーカー 1
品出しの運用がこれに合わせて変えていけるんだったら全然アリかなと思ってて、搬送ロボットが来るのを待ってる間に次の予約もしとくための調査というか、こっちの品の残数大丈夫かなって見に行ったりとか、
そういうことをしながら待って、届いたら出しながら他の様子も見とくみたいな。そういうことができるんだったら全然無駄な時間はないかなと思うんですけど、
出して段ボール詰めて返します。次のやつをぽちぽち予約して届いたらまた出しますっていうことになると、ちょっと待ちぼうけみたいな時間ができちゃうんで。
ちょっとその辺がどうなんだろうなと思うんですけど、これはでも品出ししかプロセスを考えてないからであって、現場で待ちぼうけになったら待ちぼうけになったで、それはそれでやる仕事があるっていうことだったら全然良さそうって感じですね。
スピーカー 2
そうですね。
スピーカー 1
倉庫にはただ、呼ばれたというか、リクエストされたものをこのアルモの上に乗せる作業員が1人確保され続けてるっていう状態ですよね。
スピーカー 2
どうだろうな。実際スーパーのオペレーションがどうだったかわからないけど、会員の1つとしてはそうですねと思っていて、
バックヤード側に1人いてひたすら荷物をアルモさんの棚に、カートに乗せる人と、もう1人はひたすら陳列する人。
っていうのも1つの回だと思いますし、1人オペレーションでも、例えば出さないといけないものをタブレットから見てバックヤードで3台くらいアルモ君が並んでるところにボンボンと置いていきます。
で、その売り場、端から端までだと何十メートルあるかみたいなところを歩いていって、陳列棚にひたすら詰めていく作業をするとかでも、結構人力でやったらそれはカート1つ分を持っていって乗せます。
で、段ボールを潰して、またバックヤード戻して、段ボールを捨てて、もう1回積んでみたいなことになるんで、また残りはどれだっけみたいなことになるんで、結構そういうよりはだいぶ楽になると思うんですよね。
スピーカー 1
ああ、なるほどね。だから陳列するべきものとか商品を、何を置くんだっけみたいなメモ管理と合わせて運用できる。それ自体は多分もともと倉庫管理というか、商品数管理のシステムが導入されてたと思うけど、それとガッチャンコできるんだったら結構良さそうですね。
スピーカー 2
そうですね。というところだとアリかなーって思うのと、コンビニの経験上の話なんでスーパーで提供されるかわかんないんですけど、バックヤードにいるのってフロアにいる人が少なくなるから結構お店としてはめんどくさくて、特にコンビニとかだと1人ワンオペとかしてるとバックヤードにいるとお客さん入ってくるの分かんないから、常に注目しながら裏で作業したりとかになるんですよね。
スピーカー 1
なるほど。
スピーカー 2
なのでバックヤードにいる時間をまとまってバックヤードにいて、出てきたらもうフロアの方に出てきといてほしいみたいな事情もあると思っていて。
うん。
そういう意味でもオペレーション的にわかりやすくなるんで良いのかなっていう印象がありますね。
スピーカー 1
なるほどね。
スピーカー 2
うん。
スピーカー 1
まあ、そうね。だからちょっとだけでも人が気にしないプロセスが1個増やせるだけで結構変わってくるみたいな世界だと思うから。
うん。
それで良いですね。
あと、アルモのページ見に行ったら陳列棚のスキャン用のオプションが用意されてるんですね。
スピーカー 2
はい。
スピーカー 1
まあこれがどこまで勝手が良いかはわかんないですけど。
まあまあ、こういうのと組み合わせればちょっとは変わるのかな。
スピーカー 2
まあそうですね。これがどこまでスキャンしてくれるのかわかんないんですけど。
さすがに賞味期限切れをピッキングすることは難しいと思いますけど。
まあ例えばその…
減っているところとか抜けているところの確認ぐらいですね。
抜けているところの確認、明らか抜けているとか売り切れちゃってるとかは検出できるでしょうし。
あとは結構売り場が荒れるので放っておくと。
列がぐちゃぐちゃになってるとかを検出して手で戻しに行くとかやるだけでもスーパーとか広いとかなり楽になるんじゃないかなと思いますね。
うん。なるほど。
スピーカー 1
ちなみにさっきのケースというと、スマホで呼び出して特定の場所に来てもらうとかじゃなくて、
単純に人について回るロボットだと困るんですかね。
逆に使いづらくらいかな。
スピーカー 2
なんていうの?だから3台ぐらいカルガモみたいについてくるってこと?
スピーカー 1
そうそう。1台でもいいんだけど。結局乗せるのも自分でやるんだったら、ついてきてもいいなと思ったけど。
スピーカー 2
1台だったら自分でやってもいいかなって思うけど。
スピーカー 1
それはもともと複数台運用して同じ場所に集めたりとかするっていうイメージ?違うか。
倉庫に行って乗せるのを3、4台に一気にやって、先に各現場に走らせておいて、近いところから人が順番に作業していって各拠点もあればいいのか。
スピーカー 2
ああ、そういうイメージ。
スピーカー 1
ああ、なるほどね。
通路が広けりゃまあ良さそうね。
スピーカー 2
狭いと多分商品取れなくなるから、カートが染まってる場所の。
スピーカー 1
両側をカートが通れるくらいの幅の通路のみだよね。
スーパーって通路設計ってカートがすれ違えるかどうかくらいで設計してることが多い気がするけど、どうなんだろうね。
スピーカー 2
どのくらいの規模そこに駐車してるかだと思ってて、ガチの品出しは閉店時間にやるからそれでもいいと思う。
スピーカー 1
ああ、本当だね。確かにそうだね。
スピーカー 2
緊急的に走らせるんだったら、別に1台ぐらいで2、3分だったらまあ許してくれるんじゃない?
スピーカー 1
なるほどね。ああ、そうか。
ああ、そうだね。
スピーカー 2
お客さんがいることを想定する必要は全然ないね。
スピーカー 1
なるほど。
ああ、今はだいぶ有用の方で8割くらいの方もいる気がする。
スピーカー 2
はい。
そうだね。
スピーカー 1
その上でとりあえず導入コストが最小化できている仕掛けですっていう意味で、このロボットの仕組みにするのはとてもいいと思いますね。
スピーカー 2
うん。
スピーカー 1
見た感じそんな高級なもの積んでない?まあ安めのライダーとカメラくらい?
スピーカー 2
かなあ、ちょっとハードウェア空星は拡大図があれだけど。
うーん、そうね。
そうね、うん。
スピーカー 1
だからまあレンタルかわかんないけど、ものとしてはクラウンだろうな。
1台100万はいかないくらい。
スピーカー 2
ハードウェア売りじゃないんじゃないの?ハードウェアはぶっちゃけ赤字くらいで回してサービスの収益を出すんじゃないの?
スピーカー 1
ロボットの値段としてはいくらくらいに見える?
スピーカー 2
いやあ、どうだろう。あまりちょっと、難しいですね。
スピーカー 1
難しいなあ、これ。意外となんか上にも出てるしな。
あの、衝突検知用のライダー以外にもなんか周辺の位置検出ライダーみたいなのも。
あ、これ引っ掛けるだけのやつかな、上のやつ。
スピーカー 2
上のやつはたぶん保持用だと思う。
スピーカー 1
はいはいはい。
スピーカー 2
その下にステレオのカメラがついてて、下の溝がライダーでしょ、たぶん。
スピーカー 1
でも正面の衝突検知ライダーだけだったらそんなに高くないから、
まあまあ4、50万くらいでいけるのかな。ちょっと分かんないけど。
スピーカー 2
分かんないけど?
スピーカー 1
まあまあいいと思いますね。
スピーカー 2
はい。
スピーカー 1
はい。
スピーカー 2
というところでの紹介でした。
中国の人型ロボット工場
スピーカー 2
はい。
次ですね。
ヤフーニュースから引っ張ってきました。
まるでスターウォーズの世界、ザゾの訓練工場で黙々と働く中国の人型ロボットたち。
ということで、中国の人型ロボット、ユニコーン、アジボットが
様々なタスクを実施、遂行できるよう人型ロボットをトレーニングするため、
上半身に巨大なデータ収集工場を検出し、大きな注目を集めている。
36KRは1月に稼働したこの工場を実際に訪れて取材したというところから始まってまして。
まあ開発まで話すと、
中国で人型ロボットを売り出しているベンチャーさんでいいのかな。
今すごい巨大な学術工場を作りました。
広さ3000平方メートルにひたすらロボットを並べて、
例えば寝室では器用に洋服を畳む、ライニングでは食器をテーブルに並べる、
スーパーのレジではハンドスキャナーを持って商品バーコードを読み取る、
という行為を1台につき人が1人ずつ月切りで教え込むということをやってます。
これによって何ができるかというと、
ドイツロボットでの高品質なデータセットを人海戦時で作っているということですね。
意外とこういう安定したデータ品質を持つデータセットがなくて、
それを読み込めばハイポンできるようになりましたというものではない。
ということなので、ここの会社さんはそれを教え込む工場を作りましたということを言ってます。
非常にSFで見たような、
人型ロボットに人類と一緒に働かせるために最終初期学習をさせるということをやっていて非常に面白いんですけど、
ここまでコストをかけられるというのが素晴らしいなというところでの紹介です。
スピーカー 1
まあ投資回収の回収がむずいよね、これ。理想ではあるんだけど。
スピーカー 2
いやー、これでマジでやり切るつもりだったら本当にやらないといけないことだとは思うから、
その当時資金はいくらでも市場から集めてきてどんどん投入すべきだと思うけど、
このデータセットは、
スピーカー 1
精々AIがのためにテキスト情報をかき集めてきてそこにいくら金払ってもいいみたいに言ってるのと同じではある。
スピーカー 2
そうだね。このデータセットはマジででも他に世界に同一のものがないレベルだと思うから、やり切ったら。
スピーカー 1
これが中国だとちょっとあれだけど、すごく人文地的にも価値が高いから残してほしい、
オープン化してほしい話だなと思うけど。
データセットの価値
スピーカー 2
どうでしょうね。
スピーカー 1
どうでしょうね。
スピーカー 2
これをね、例えばオープン化されたとして、
さっきのディプリサーチみたいに、これそれを元に味付けすると他のロボットにも転用できますよとかいうことになるとすごく未来があるけどね。
スピーカー 1
そうだね。
それができるような形でデータ収集をしないと意味はないかなと思ってて、
例えばここのデータ収集工場でやった業務っていうのが実際のリアルな業務で完全適用できるわけじゃないじゃん。
スピーカー 2
はい。
スピーカー 1
だから結局現場チューニング余地っていうのは多少持たせておかないと、
それは従来のロボットアームでティーチングされたプリセットを用意しておいて売れますかって言ってるのと同じだから、
それは売れないんで。
なんで、そこはそういうふうにデータ収集するんじゃないかなと、ニュースだけ聞いたら思っちゃいますけどどうなんだろう。
スピーカー 2
多分気にしてるポイントが違くて、ロボットが実環境で学習通りと全く同じ環境で動くことはないから、
そこはロボット自体がサブ音を吸収できるような挙動をするっていうのはそれはそうなんだけど、
仮にこのデータセットが売られて違うロボットに適用したとき、そのまま適用できないと思ってて、
それはロボットの構造が違うから、ハードウェアスペックが違うのもあるし、関節の挙動が違うのもあるし、
そのまま使えないと思うんだよね。
そこをチューニングできる余地があればいいんだけど、
他の形のロボットには、例えば腕が3本あるロボットには適用できませんとかいう話になったら、ちょっともったいないなっていう話。
スピーカー 1
どうなんだろうね。
スピーカー 2
これって今のCCIでいうとマルチモーダルみたいな話で、今ってテキストだけじゃなくて画像も入れられます、動画も入れられます、音声も入れられますとか言ってるわけだけど、
そういう入力インターフェースが増加する話と、ちょっと抽象度を上げ過ぎかもしれないけど似たようなもんだと思うんだけど。
どちらかっていうと、何だろう。
名前忘れちゃったけど、100万データ学習したAIというか、モデルを別の分野に転用したら1万データで同じスコアが出ましたとかいう話だと思ってて、
それができるようなデータセットにできてるといいなと思うっていう話。
スピーカー 1
それはちょっとレベル高いね。
スピーカー 2
でも、何だろう。この会社が多分それを本当はやった方がいいんじゃないかなっていうのはあって、
せっかく学習したデータでそれが適応できないと、ロボットのバリエーションが増えない。どうなんだろう。
分かる分かる。
だからその、人型ロボットで学習させたことを犬型ロボットにもやらせたいなと思っただけでできないから。
できないね。
できないなぁと思うけど、もしこの会社が、人型ロボットが人間社会の中で働くロボットとして究極にパーフェクトな形状だから、人型ロボットしかありえない。
腕は2本で身長はこのくらい、体重はこのくらいしかありえないという思想だったら、それはやらないと思う。
スピーカー 1
また先生へ例えてあれだけど、先生の場合は言葉を紡ぐっていうことに関して、ニューラルネットワークだけど確率的にこういうふうに導けば何かしらテキストは出せるっていうような言語だろうがなんだろうがその辺は置いておいて、
テキスト、文章を紡ぐっていうことに関しては抽象化されたモデル構造があって、それをどう使うかって言ってる話だから、まだいろんな用途に今転用できつつあるけど、
ロボットの物理操作とか何か掴むみたいな行為だったりとか、そういう抽象度を上げたモデルが作られた上で学習してないとあんまり役に立たないよねっていう話ですよね。
スピーカー 2
うん。って感じがするなぁとは思うけど。
まあどうなんでしょうね。
スピーカー 1
どうなんだろうね。
スピーカー 2
お金かけてるから上げてそうな気はするけど。
うーん。
まあ今までの訓練用データセットが使えんかったっていうぐらいは下地がある話だからやってそうな気はするけどとは思います。
そうだね。
スピーカー 1
なんかどうなんだろうなぁ。この辺、科学が追いついてるのかどうかが微妙な気もするなぁ。
生物における追神経系のネットワークモデルみたいなのがどこまで数学化されてるのかわかってないって感じ。俺の中で。
スピーカー 2
うん?
スピーカー 1
脳の考え方みたいなのはある程度シナプス論とか何やらかんやで、だいぶ昔からずっと研究されて、ある程度数学的なものも含めてあのモデルが作られてると思うけど。
はい。
スピーカー 2
その2、動物が動作するっていうことに対しての数学的なモデルについて聞いたことがないなと思ってて。
ちょっとまといてるかわかんないけど、どちらかっていうと筋肉の動作系の方が解析が進んでると思うけど。
スピーカー 1
筋肉がどう動くか、収縮とかの話はあるけど、それをどう動かすのがその本能的に構成されてる動かし方なのかどうなんだろう、進んでるのかな。
義習とかそっちの系でも結構進んでるんですかね。わかんない。ちょっと知識が足りなさすぎる。
スピーカー 2
気はするし、どこを向いて話すのかなって話はあるけど。
例えば義習とかでも、近伝から義習をつかむ話をやるみたいな話も、だから訓練すればできるようになるみたいな話はあるから、ある程度人間はそこを学習で乗り越えていると思うんですよね。
スピーカー 1
このロボットの学習に必要なのは、その近伝をどういう理由で動かすのかっていうことが導けるモデルがあればいいんでしょう。
どういう筋肉の動かし方をするとその目的が達成できるのかっていうことを学習できているモデルがあれば、それに対してのインプット量を加速させればモデルを成熟させられるっていうのはわかるんだけど。
スピーカー 2
今までってどうやって動いているかまでしか見てなくて、なぜそれを動かそうとしたのかっていったところまで分析がいらってるのかどうかわかってない。
ん?それはロボットの話?人間の話?
スピーカー 1
人間の話。人間というか動物の話。
スピーカー 2
動物の話?
うん。
どうなんだろう。それはランダムなんじゃない?
ランダムに動作させた結果上手くいったからそれを学習しているのでは?という気はするけれども、ちょっと話が組み合ってきたからまた後で話しましょうか。
スピーカー 1
はい。
スピーカー 2
はい。という感じです。
スピーカー 1
はい。
まあおもろいと思います。
スピーカー 2
ちょっと最後、駆け足になりますけど。
加工音のハーモニクス合成音による作業現場の騒音改善環境という名古屋大学全学技術センター工学の論文、長谷川さんの論文になります。
概要を読むと、本研究は騒音職場の労働改善環境を目指し、切削加工音に倍音を加えて心地よい音色を創出する新たな手法を提案する。
厚労省のガイドラインに従い、騒音障害防止対策が必要とされている一方で、騒音職場は若手就労者から軽減され、人材の確保が課題となっている。
そこで騒音を心地よい音色に変換し、心理的ストレスを軽減することが目的である。
これは労働環境の改善と労働者の心理的負担の軽減に寄与する可能性があり、労働問題に対する新たな視点を提供するということです。
何をしているかというと、切削って結構、やったことある人はわかるけど、金属で金属を削り取っているので、非常に大きい音が出るし、場合によっては非常に耳障りの音が出ます。
それに対して、その切削音をマイクで取得して、いい感じのハーモニーを響かせるような倍音を足した音をスピーカーから出すことで、
なんて言ったらいいんでしょうね。楽器みたいな綺麗な音と人間に認識させることで、不快感を軽減するということをやってますと。
結構視点が面白いなっていうのと、結局でも音圧は出ているので音はするんですけれど、
序論とかにも書いてあったかなと思いますけど、音をなくすことも実はできるんですよね。ノイキャンイヤホンみたいなのが流行っているので。
倍音の活用とその効果
スピーカー 2
ただそうすると異音が発生した際に気付けない。その異音を人間が尽力で検出することで成り立っているというところもあったりするみたいなところがあるので、異音っていうか加工音の変化があるので音は消したくはないというところに対しての回答となるのではないかということを言われていて、すごい面白い研究なのでの紹介です。
スピーカー 1
面白いね。最後に言ってくれたところが本当にピンポイントだと思っていて、エンジニアが普段素直に考えると音を消しちゃいけないとか平気で言いそうなところを、あえていい音を作りにいくっていうのがやっぱりおもろいなっていうのが一番ですね。
音を良くするって言ったところで、ハーモニクス的な音の作り方っていうこと自体は昔から多分ある事実なので、うまく既存技術を組み合わせてやったなと思うのが一番大きいですね。
その音自体が実際聞くとどう変わるのかはもうあんまり想像は正直ついてないんですけど、高すぎるキーみたいな音が不快なんだとしたら、それがピアノの高い音くらいの感じになるんですかね。
スピーカー 2
えーと、なんだろうな。
ちょっと例えが難しいんですけど、単音じゃなくて倍音を頂上させているので、ピアノって多分単振動なんですかね。
スピーカー 1
単音振動、うんそうだね。
スピーカー 2
どちらかっていうと、何だろう、和音的な音に聞こえるというか。
あんまり倍音が出る楽器は全然知らないからあれなんですけど、基礎の音はそのままで心地よく聞こえさせる。バランス整ってるなって聞こえさせるみたいな。
そういう感じらしいですね。
スピーカー 1
不快な音に対しての理解が浅くて分からないみたいな。
スピーカー 2
そうだね、はい。と思う。
スピーカー 1
単音だから、単音でも不快なのは、あれでしたっけな、なんか音階とかとずれてたりするから、違うか。
スピーカー 2
うーん、まあそれもあるとは思いますけど。
スピーカー 1
人間ってどうやったら不快な音になるんだ。
えーと、いろんな音が混ざって出てきたときに、それらが倍音関係になってない合成音が気持ち悪いのか。
なんかそれぞれの周波数がずれてるように聞こえるから、なんだこれってなる。
まあ、他の一番高いピークを基音として、他のやつが打ち消されるレベルに倍音を乗っけたら、人の耳にはそっちが支配的になって聞こえるから緩和されるみたいな。
スピーカー 2
うーん、打ち消されるってことはないとは思うけど。
5章には心地いい音の定義が書いてあって、倍音は楽器や声の響きや色合いを決める要素であり、倍音の強さやバランスによって同じ音向でも異なる音色に聞こえる。
倍音が多くて均衡に含まれると音色が豊かで明るく聞こえ、逆に倍音が少なくて偏って含まれると音色が貧弱で暗く聞こえる。
また倍音が整数比でなくてずれていると深い不協和感や歪みを感じる。
したがって倍音と心地よい音の関係は倍音が多くて均等で整数倍であるほど心地よい音に聞こえやすいということが言われている。
FFTの解析結果的には基本波に対して2倍波と3倍波のピークが揃うように出すという感じの音を作っているらしいですね。
はいはいはい。これが切削音の他の気音に対してもどんどんやっていく感じになるのか、一番ピークのやつだけやるのかどっちがいいんでしょうね。
一番ピークのやつに対してじゃないかなと思うけど。
基本そこさえカバーできていれば人間の耳には十分って感じかな。
スピーカー 1
いやでも実際聞いてみたいな。なんかこの論文に基づいてやってみたYouTubeとかないのかな。
スピーカー 2
どうなんだろう。意外とYouTubeで上がってたりするのかもしれないけど研究生かね。ちょっとわかんないけど。
動画にしがいがあるよね。
スピーカー 1
でもパッとYouTubeで検索しても出てこないな。まあまあまあ。
スピーカー 2
どっかで導入されたらちょっと聞いてみたいね。
うまくいけば工事現場とかでも使えるってことでしょこれ。
うーん、そうね。いや、うーん、そうね。という。
難しいのがさ、なんていうのかな。
心地よい音色に聞こえる点は不快感を減ると思うんだけど音圧は増えるんだよね。
スピーカー 1
あー耳は疲れるのか。
スピーカー 2
そう、なので耳は疲れるんじゃないのかなというところがちょっと懸念なのと、
なんだろうな。本当になんか、
いらない音だったら、この加工音を聞きたいとかいう前提がなければ、
ノイキャン技術の限界
スピーカー 2
こういう技術が使えるなら本当にノイキャンみたいにスピーカーで打ち消す音を出した方が有用だと思うので。
なるほど。
そっちでいいんじゃね感がある。
なるほどね。
ただ、開放空間だとノイキャンってできないので、
ノイキャンってできないって、位相が合ってないとノイキャンってできないから、
本当に特定の一点しかノイキャンってできないんですよね。
そこから近づいても遠のいてもノイキャンにはならない。
ってことを考えると現実的に工事現場でノイキャンを使うのは無理。
なるほどね。
っていうのがあるんで、何なら長寿をしてしまえっていう方が現実的な解になる可能性はあって、
それもそれで面白いかな。
スピーカー 1
なるほど。
スピーカー 2
って感じですかね。
そうだね。
スピーカー 2
他にも転用できそうなところはありそうなんだけどな。パッと思いつかない。
意外と開拓しがいはありそう。
スピーカー 1
ありそうだよね。
スピーカー 2
良いかなと思うところでの紹介でした。
スピーカー 1
じゃあ今日はこんなところですかね。
スピーカー 2
じゃあお疲れ様です。
00:00

コメント

スクロール