00:00
こんにちは、TechnoEdge-Sideです。
Kaiです。先週はですね、2つのインターネット老人会に参加してきまして。
1つ目がですね、モダンシンタックスとネタフルっていう、これね、長いことやってるブログ。
ブログを開設した時期で、たぶんお二人は同期で、2003年とかで、今年が20年だと思うんですけど、
に始められた、この二人が毎年のようにやっている某年会、モダフルナイトって某年会に行ってきまして、もう懐かしの面々と、
いろいろ話してきまして。で、こっちはただの参加者だったんですけど、その週末、金曜日はですね、
これ、NECのアイディアソンの時にもちょっと話したんですけど、昔その某年会議ってアイディアソン的なイベントが。
某年会と会議をかけたやつですね。
これも20周年だったんで、僕がイベントの方は僕のやりたいですという主催で、
で、当時の某年会議ってイベントそのものを運営されてた田口さん。今ドットインストールってプログラミングサービスやってますけど、
昔百式っていうね、いろんな海外の面白いサービスを紹介してる百式の田口さんと。
Web 2.0時代の新しいサービスをどんどん紹介してた。
そうそう。で、もう一方は松尾さんが最近いろんなイベントで一緒に登壇される橋本ダイヤさんね。
この二人をお招きして、こっちはイベントというよりはもう懐かしく久々のメンツに会おうぜっていう飲み会として、
ただただ飲み会するってイベントにしたんですけど、残念ながら直前で田口さんがですね、病に倒れて参加できず。
なんと。
そうなんですよ。悲しかったんですけど。ただね、これがね、恐ろしいことに、それ前日発覚したんですけどイベントの前日。
ちょうど橋本さんが、よし、田口さんをAIで作ろうって言い出して。
俺それ、今一瞬予想したよ。
予想した?やっぱり。
田口さんね、もともとずっとメルマガも出してたんですよね。100式っていうウェブサイトの時に。
で、その膨大なデータを全部食わせて、ちゃんとGPTに要望を出すと、田口さんの文体でメルマガを書いてくれるっていうAIを作って当日発表するっていうですね、サプライズがあって。
さすが橋本さんだなと思いながら。
これ懐かしいメンバーに色々会えて、色々元気もらえて。で、今年はこれでインターネット老人会終わりかなと思ったんですけど、その忘年会議の飲み会の中で、来年もやるぞ老人会っていうので、ちょっと大きめの老人会の企画に僕は関わると思ってたので。
こっちは結構大規模、大規模な老人会になると思うんで、これはお話できる度があったらこのポートキャッセルもお知らせしたいと思います。
03:01
まだシークレットになるんですね。
これ聞いてる人は、知らない人は絶対にないようなインターネット老人会を企画しますんで。よろしくお願いします。
僕はですね、橋本大也先生、デジタルハリウッド大学院の教授の橋本さんと土曜日にオンラインイベントやったんですよね。
それがデモデイっていう、マザーオブオールデモっていう、ダグラス・エンゲルバートがやったマウスを最初に披露したデモとして有名なとこから、それが披露されたのが12月9日とかだったか。
なんでそれに合わせて、そのアニバーサリー的なオンラインイベントをやってて、そこで生成AI関係の最新動向みたいなことを解説するようなイベントだったんですけど。
その中に、僕ね、橋本大也先生とそうやって登壇するの3回目なんですよね。4月にまずそれをやって、11月28日かなに、これMCPCっていうモバイルコンピューティングの研究会の主催するイベントでもやって、その後、割と時間を置かずにやったのが今回のやつだったんですよね。
橋本先生も毎回チャットGPTのすごい使い方を披露してくれるやつで、それもね、ちょっと今回やるの忘れてたとか言いながら直前にちょこちょこと作って新しいの見せるっていう、まさに神業的なことをやられてて、さすが素晴らしいなと思って。
たしかに毎日のようにチャットGPTで遊んでますからね、橋本さん。すごいんだよな。
英語の学習のためにも使ったりとかされてたじゃないですか。
たしか本出されてますね。そのチャットGPT使って英語の勉強しようみたいな本も出されていて。
なんか自分の文体を読み込ませて、それで書評を書かせるみたいなこともそこの中でやられてて。いやもうAIで何でもできるんじゃないかと。我々のトークもここまで結構僕ら喋ってるじゃないですか。
それをもう食わせて、喋る内容とかも全部言わせて、で最近の動向とかを学習させればなんかできんじゃないのっていう気が。
もう一息ですね。僕もAIには自分の文体で文章を書けるようになってほしい。
そうしたらレビューとか書くのなくですね、最後絶対自分で直すんでいいんだけど、下書き7割6割ぐらいの精度でいいんで、
僕が書きそうな構成で起承転結で文体でガーッと書いてもらって、それ直すにしたらすげー楽そうだなと思うんで。
ほら僕らでも実際下書きはするじゃないですか。
しますね。
本社に行く前にラフに書いて、でそこからいろいろ遂行したりとか、前後関係、場所変えたりとかいろいろやったりするんですけども、
06:03
その元になるものをまず作らないと全体的な構成とかもできないから、そこを一挙にやってくれるといいですよね。
本当今後の期待ですね。
でこの間、これはどこでしたっけ、そういうAIのプレスリリース自動作成ツールっていうのはありましたよね。
ありましたね。
でそのリリースおくし作成ツールも出たんですよね。
あれ面白い、あれは糸政さんが出したやつですね。
そうそう。
ユーザーローカル。
ユーザーローカルですね。
僕の世代からすると、みんなの就職活動日記、民衆やってた糸政さんってのがあるんだけど、今はすっかりユーザーローカルの。
糸政さんってもともと日経BPの記者さんだったじゃないですか。
そうですね。
だからその辺もよくわかってるし、でそうすると日経BP経、今の日経ですか、日経の記者の質問の仕方とかのパターンもわかってるから、
記者会見に行くとまず質問が3つありますっていうのもちゃんと自動で言ってくれるような感じになるかもしれないですね。
出ました。
出ました、日経しぐさね。
日経しぐさ。
はい。
はい。
そんな感じで、今日も精々AI系の話題を出していきたいなと思います。
はい。
そうですね。
ランキングもAIの話題がたっぷりなんで、お楽しみにということで進んで参りましょう。
この番組はニュースサイトテクネジーに掲載されたニュース、おすすめの話題、編集部の最近の動きなどを紹介するポッドキャストです。
ポッドキャストバックスペースFMの協力を得て配信しています。
毎週月曜日正午12時から1時間の生放送も行っていますので、お時間のある方はLINEもぜひご覧ください。
番組に対するフィードバックは、XのハッシュタグTHサイドやYouTubeのコメントを寄せくださいということで、ついにツイッターと交渉するのを終了しました。
Xでシンプルに進めていきたいと思います。
それでは早速参りましょう。先週のニュースランキング、ウィークリートップ5のコーナーです。
このコーナーでは、テクノエッジに掲載されたニュースのうち、前週にアクセスの多かったニューストップ5を紹介します。
ランキングは今回の告知記事にも掲載されておりますので、番組おきの方はあわせてご覧ください。
ということでいきたいと思います。ウィークリートップ5…じゃなくて7!
第7位!
Google Pixel向け12月フィーチャードロップ発表!動画ブーストやっと提供!Pixel 8 Proは初のジェミニナの対応スマホに!
ちょっと情報盛りだくさんなタイトルですね。
いちいち説明してください。最新Google Pixelをお持ちの方に。
これね、でも一番大きなポイントとしては、やっぱりジェミニの話だと思うんですけど。
まずジェミニの話からした方がいいと思うんですけど。
ジェミニの紹介記事がありまして、Google新AIモデルジェミニ発表!動画もネイティブに理解するマルチモーダルPixel 8 Proに導入へ!
09:09
もう一つですね、これ今日掲載されたGoogle Talesという佐藤幸子さんの人気連載の記事なんですけども。
これがGoogleの新AIモデルジェミニ、ウルトラすごいマルチモーダルデモの種明かしという記事でございます。
じゃあまずジェミニの話ですよね。
ジェミニは、最初ジェミナイって読むんだよみたいな話もありましたよね。
ありましたね。英語読みだとジェミナイになるんですか?
ジェミナイですね。
なんだけど、これもともとラテン語ですよね。ラテン語なのでジェミニっていうのが正しい読み方だということで、日本のGoogleさんもそれに直したということになってます。
ジェミニ、Googleの大規模言語モデルなんですけれども、一つ前にPALMというのがありまして、P-A-L-Mという。
それの実機モデルということで、それはジェミニになるという話は今年の初めの方に発表を積み立ったんですよね。
そのジェミニがどういうものかというところは、特にすごいものになるという話はあったんだけれども、それが具体的にどういうものかということは発表していなくて。
それが今回発表された、発表会とかじゃなくていきなりスンダピチャイのXでの投稿とか、あとGoogleの公式ブログであるとかで発表されてたんですけれども、そこで内容の説明があって、
ジェミニっていうのは最初からもうネイティブにマルチモーダルに対応しているものだと。
マルチモーダルというのは動画を見たり、見せたり、表示したり、音声についても同じような、いわゆるマルチメディアのLN版という感じですかね。
そういうものなんですが、それを後付けでくっつけるわけではなくて、最初からマルチモーダルにできるということで、
この相互のやりとりをすごくスムーズに、しかも複雑なものを、相互接続を非常にスムーズにやれる技術ということを謳ってます。
で、それのデモを見せてたんですよね。これがアヒル?アヒルっていうかカモ。カモのおもちゃを見せて、これはどういうものかみたいなことを、それをジェミニに見せて、それがスムーズにやりとりされるっていうのを見て、これはすげえということになったと。
これ動画自体は記事にも紹介してるんで、そこでデモ見られるんですけどね。もう絵を見せるとその絵について何かって言ってくれたり、斜めに手を動かしながらバタバタして倒れてくる人を見せて、これはマトリックスの弾を受けるシーンですって言わせるとかね。
12:14
っていうのでみんながすげえすげえと言ってたんだけどって話ですね。
そう。言ってたんだけども、これはその通りではなくて、そのブログの中の説明だと、これは応答時間を短縮して見せているもので、あくまでも加工はしてますということは言ってたんだけども。
さらにそれの個々の技術の解説記事のところを読むと、これは音声でやりとりしてるわけじゃなくて、テキストでプロンプトを書いて、それでやりとりしてるっていうんで、これちょっとフェイクじゃないっていう批判記事がもういくつかから出てまして、そういうもんだよねっていうことになったんですが、
そこの種明かしの部分とのこういうもんだっていうことを解説したのが、この佐藤一光さんの記事だということで、ちょっと詳しいところはそこで読んでいただければと思います。
3分間クッキングとかで、30分煮込みます、30分煮込むのはこちらですってやってる感じのね。
それが30分煮込みますってことは言わないで進めてるような可能性。
ほら、美工には書いてあるじゃないですか。実は30分煮込んだりしてるんだよみたいなことを書いてるんだけど、ちょっと見せ方としては、ちょっとフェイクと言われてしまうのも仕方のない見せ方にはなっちゃってはいましたね。
それの応答部分を、ジェミニの音声でやってるかのように見せてたけど、実はそれはナレーションで後付けてやってるわけじゃないですか。
そこがちょっと違うなっていうミスリーディングだなって感じがしますよね。
結構この動画自体が本当に手元でやってるのは実験っぽい感じの動画じゃないですか。これがもうちょっとスペシャルムービーっぽい、未来はこうなるみたいな、すごい演出とかエフェクトかかった動画だったらまた印象は違った気がするんですけど、
本当にまさに目の前でやってる感があるから余計にね、その印象は強まってしまった気がしますね。
ただこれがもし現実でできるとすれば、これは僕ら人間がやろうとしてることをあらかじめ予想して、それに適したプレゼンテーションのやり方を選んで、
そこがマルチモーダルって自分がこれをビデオの形で出してくださいとか音声で出してくださいとか指定しないとできなかったんだけれども、
それをAI側が判断してこちらにインタラクトしていくっていう、すごい能動的な感じがするんですよね。
それができるっていうことはどういうことかって考えると、もうこれ本当チューリングテストに通る人間レベルの、もしくはそれ以上のものなんじゃないかなっていう気がして、
15:02
でこのプレゼンテーションを見た人の中で、これハルキューセンじゃないっていう声が何人かから上がってまして、実はこのテクノエッジのグーグルテイルスの騎士のサムネを見ているとですね、
赤い目があるのがお分かりだと思うんですけれども、これがハルキューセン様の赤い目で、
で、能動的に何かするってことはこちらが何か変なことを言ったりすると、宇宙に放り出されてしまう可能性があるってことですよ。
なるほど。
ちょっとね、誤解を受ける動画だったかもしれないですけど、グーグルがここまで出すっていうことはここまでやりますよって宣言してることだと思うので、
ちょっとね先取りして見せた未来かもしれないけど、ここまではきっと技術的にいけるってある程度の手応えがなければここまでやらないと思うので、ちょっと期待はしたいですね、今後に。
まあ2024年にはそれができるっていうことなんですが、そこでできるものはGemini Ultraっていう最上位モデルでのマルチモデルだったらこういうことができるだろうという話で、
一方でフィーチャードロップでPixel 8 Proに入ってくるものはその中の一番フットプリントが軽いNANOというバージョンで、容量にして300何十メガバイトぐらいしかない小さいものなんですけども、それでいくつかのことができるという話ですね。
残念ながらこのGemini NANOが利用できるのがPixel 8 Proのみで、8も対象外。おかしいなプレセス最初のはずなのになと思いながらね、そこはマシンパワーとかがあるのかもしれないでしょうがないですけど。
今のところ一番このGemini NANOでメインとされているのがレコーダーアプリで録音した内容を要約してくれる機能。ただこれがまだ英語版のみなので、日本だとちょっとまだ使えないですが、これが日本語に対応すると面白そうですね。
ネットワークも使わないってことなので。
それネットワーク使ってもよくないですか?とか思うんだけど。
いいと思うんですけど、データ容量が結構かさむからってことなんじゃないですか。ローカリやれた方が、1時間とか録音データを全部ネットワーク上げてとかやると、まあまあデータ通信料かかっちゃうと思うんで。
ローカリできるにこしゃこんないし、精度上げたかったらインターネットにつなぐとより精度上がりますみたいなオプションがあってもいいかもしれないですけどね。
ただ残念ながらまずね、そもそも日本語で対応してないので、まだ我々としてはそんなに便利に使えなさそうですが、ちょっと精度次第ではね、海外取材とか行き方とかは結構便利に使えるかもしれないですね。
ざっと話を聞くときに。
そうですね。ギガが減らずにできるという。
今回はですね、ピクセル8に関しては、ピクセルだけじゃないんですけど、フィーチャードロップっていうのは要はピクセルに対していろんな新機能を追加するっていう、その総称なんですけど、
ピクセル8 Proはずっとダスダス言ってたですね、動画ブーストっていう、動画の明るさとか色とかノイズを全部調整していく機能がやっと入りましたと。
18:02
で、合わせて動画の夜景モードも有効になってっていうところなんですが、実はですね、今回割とピクセル8 Pro以外の機種、具体的に言うとピクセルフォールドにもいろいろ機能がですね、新しく提供されてまして。
良かったですね。
そうなんですよ。今回あんまりタイトに打たれてないんですが実は嬉しくて。
その一つでね、結構面白いのが、カメラがバージャンプしまして、ピクセルフォールドって開いたときに相手に片側のディスプレイが見えてるんですよね。
今まではこれを使って自撮りするっていう機能があって。
これは何が良いかっていうと、アウトカメラを使って自分撮れるから、一番アウトカメラって良いレンズが載ってるじゃないですか。
だから一番良い画質の自撮りができますよっていう機能で、これ自体面白かったんですけど、本体がめちゃくちゃ持ちにくいので撮影が難しいっていう。
両手で持つと距離が取れないし、片手持ちすると微妙にボタンが押しづらいっていう課題があって、僕は上手く使ってなかったんですが、
今回はですね、アウトカメラで撮るときに相手にそのまま、相手を撮ってあげるときに、そのディスプレイに今自分がどう写ってるか見えるっていう。
なのでこっちから当たる松尾さんを撮ってあげるときに、松尾さんには自分がどう写ってるかが外側に見えるようになったんですね。
これは結構実用的な気がしますね、人を撮ってあげるときに。っていうのがちょっと面白そうな機能がありまして。
それで場所をね、その写り方を微調整したりするんですけどね。
そうそうそうそう、表情だったりとかね。あと、ほら、例えばちょっと紙が崩れてるとかにそれでパッと気づけるわけじゃないですか。
これは地味にいいですね。
たどりのときに便利と。
あとは、これはピクセル6以降もそうなんですけど、USB接続してビデオ会議なんかのカメラに使えるウェブカメラ機能みたいなのも入ったりしておりますね。
あとこれはフィーチャードロップと言っていいのかわからないんですが、先日のアップデートでピクセルフォールドがですね、画面表示の試験的な機能もありまして、
ちなみにピクセルフォールドって非対応のアプリはせっかく大画面見開きにしたときに真ん中にしか出なくて左右が真っ黒になるみたいな状態があったんですけど、
これは強制的に全画面表示するっていうテスト機能がありまして、これもね、二画面ユーザーとしてはもう待ちに待ってた機能なので。
割とですね、ジェミニの話題がすごい強いんですけど、実際のジェミニ自体はまだ少なくともエイトプロでは日本語でそこまで使えないし、
むしろピクセルフォールドが結構嬉しい話題だったという、ピクセルフォールドユーザーからの感想です。
はい、おめでとうございます。
ありがとうございます。
こんな話すことがあってよかったですね。
これは内容盛りだくさんすぎるんですよ、この第7位が。
ジェミニの話もありますからね。
実際に記事2つ分ありますもんね、これ内容的にはね。
そうですね。はい、じゃあ次いきたいと思います。
第6位、AIで普通のおじさんを生成したフェイク新聞の作り方、そこから考える普通への疑いという記事で、
これはですね、もともとは議事の手帳という姉妹誌ですね、そちらで掲載した記事なんですけども、
21:08
そこでずっとAI関係の記事を書かれているコグさんという方の記事です。
サムネがすごく素敵な渋い感じのおじさまなんですけども、これが全部AIで作られたという。
で、さらにですね、これはこのおじさんの写真を作ったというだけではなくて、
このおじさんの写真が写った、カラー写真が写った新聞をAIで作って、
それで、それを写真に掲載しているような感じで、Xに投稿したものだと。
で、それが大変な反響を呼びまして、確かBuzzFeedでも記事になったんですよね。
そうなんですね。
で、BuzzFeedでこのコグさんへのインタビュー記事があって、
なんでこういうことをやってるんですか、みたいな話で、
QAがあったという。こちらも話題になってますね。
で、この記事自体は、それをどういう手法でやって、どういう意図でやっているのかということを、
ご本人が解説している、非常に長い記事ですけれども、非常に頑固がある。
あと、これはセレブの写真とかを捏造するのと違って、
こういう一般、本当にありふれた人たちを捏造することで、
AIで生成することで、どういう社会的な影響があるのかということを、
ある種、警告するような内容ですね。
これはね、いろいろ考えさせられるポイントが多くて、
これね、一番面白いのは、この記事にも貼ってある、コグさんのツイートの投稿に貼ってある、
まさに勘違いさせる新聞の一面だと思うんですけど、
これがそもそもプリントアウトすらしないんですよね。
これ、写真を見ると机の上に置いた新聞をパシャッと取ったようなふうに見えるんだけど、
この机に置いて、ちょっと折れ曲がってる新聞すら全部、
コンピューターで作り出している、AIで作り出しているっていう。
すごい。
これをやるためにどういうことをやっているか、非常に手がかかっているんですよね。
フォトショップだけじゃなくて、あと3Dソフトも使っているわけですよ。
Cinema 4Dっていう結構高価なプロ用のツールですね。
それまで使ってやっているんで、簡単にできるというわけではないんですが、
やろうと思えばこれだけできてしまいますよということなんですよね。
ちょっとプリントアウトしたらきっと楽そうだけど、それを一切せずに
コンピューターだけでここまで仕上がるというのと、
あと僕が面白いと思ったのは、最近でグラビア生成AIワークショップとかもそうですけど、
できるだけリアルに寄せていくというか、ぱっと見写真と比べて、
区別がつかないくらいまで精度を上げていこうという方向じゃないですか、基本的にはね。
24:01
それに対して、あえて画質が悪いくらいにしてしまうほうが、
より本物感が出るっていう。
これね、写真見ていただくとわかるんですけど、新聞も文字もうまく読めないような、
ちょっとボケた感じになっていて、逆に信憑性があるんですよね、この感じが。
いや、これは一番見分けがつかないというか、ぱっと見でわからないなと思いました。
正直、最初のおじさん写真は、よく見るとなんかちょっとツヤがいいなとか、
ちょっと違和感はあるんですけど、
この新聞の雰囲気になってしまうと本当にわからないですね。
よっぽど全ての写真全部疑って書くレベルじゃなかったら、気づかないくらいのクオリティですよね、これ。
それで面白いのが、この記事へのコメントを読んでいると、
俺は騙されないよ、これは今ね、愛さんが言われたみたいに、
その肌のツヤがどうのこうのとか、俺はわかったぜみたいなことをみんなこぞって言うわけ。
なんか、この趣旨はそうではないのに、
AIがフェイクかどうかを見分けるというゲームになってしまっているっていうのはね。
それは西川和久さんの連載記事でもそうだし、僕がやっていることもそうだし、
それに対して、なんか、俺はわかるぜみたいなことをアピールするポイントになってるっていうのが面白いですよね。
面白いですよね。
意外に面白いなと思うのは、やっぱりこういうグラビア系って、
基本的には女性、若い女性を作る人たちが多いんですけど、
あえてこのある程度年齢がいた男性の写真って割と見かけないので、
ここのレベルをひたすら磨いてるっていうのも面白いですよね。
一方で、僕と一緒にAIアートグランプリの受賞された小泉さんという方は、
今取り組んでいるのがですね、かなり服用化で、
彼が言うに、僕が言ってるじゃないですよ、タル体系の方の、
もう今生成AIでなかなか出しにくいので、それを出すためのローラーっていう、
そういうAIモデルをわざわざ作って、それで今Xにポストしてるという。
そういう極めるカテゴリーというかジャンルというか性癖というか、
それぞれ面白くていいなと思います。
面白いですよ。これ新聞で作ったデータが記事台に貼ってあって、
それを読むとちゃんと文章が読めるんですけど、この文章もAIで作ってるんですよね。
いや、文章はこれ手作りだって。
あれ、ある程度チャットGPTを使った手作りだったんじゃなかったでしたっけ?
わざと変な風にしたって言ってましたね。
両方見ると上の方がすげえ変なニュースなんですよ。
上の方だけを読んだら明らかにおかしいっていう記事なので、
27:01
それはこっちはチャットGPTで作った方ですね。
あとね、フォントも本来なら新聞用のフォントを使えば、書体を使えばいいんだけれども、
これはわざとわかるように普通の雑誌用のフォントを使ってるんだっていう風に国際説明してて、
それに引っかかって、これフォント違うか新聞じゃないから俺はわかったぜっていうコメントがたくさんついてて面白いなと思います。
あえてね、そういう読発を残しているのに。
これはもっと本気でやったらね、どんどん大変なことになるってことですよね。
いやー、このね、僕好きなのがこのつなぐって書いてあるじゃないですか、このコラム。
この印刷がもうまさに新聞っぽくて面白いんですよね。
で、そのつとなぐぐの間に丸っこいちょっとぼかした円があるじゃないですか。
あの置き方がまさに新聞用のデザインなんですよね。
面白い。でもこれ実際の人にご迷惑おかけしないように言って、名前も存在しない名前頑張って書いてて、
で、存在しない名前を生成してくれるAIが欲しいみたいな、そんな話にもなってて。
確かにそうですよね。これ実際の人物の名前に、しょうがないですけどそれは同性同妻は絶対いるから起きるんだけど。
そこを避けようとする大変さもあるなっていうのが面白かった。
ああ、そういうのね、電話番号でもありますからね。
最近は電話番号とか入れてないけど、入れてた時期は架空のものだと思ってたらそれが実在するもので、そこから訴えられたりみたいなこともありましたし。
あとね、まだそのインターネットがそこまで理解された子とかは、平気で勝手なドメイン作って書いちゃったりとかしてね。
そういうのもいっぱいありましたからね。
ホゲホゲ.comとかってあるんですかね。
ホゲホゲは確かあった気がします。だからね、こういう時に使うのはやっぱりexample.comというのをね、使いましょうっていうのが一応、
詳しき詳しき人たちのマナーとしてはあるんだけど、なかなかいろいろ考えさせられてすごい面白い記事でしたね。
で、技術の手帳はね、こういうテクノエッジにいろいろ転載するためのいろんな面白い記事いっぱい書いてもらって、そこからテクノエッジにいくつか転載するっていう試みをやってるんですけど、
最近ちょこちょここういう事例が増えてきて、私も嬉しく思っております。
はい。じゃあ第5位。レゴとフォートナイトが合体。レゴフォートナイト12月7日開始。サバイバルとクラフトのオープンワールドゲームという。レゴ。
フォートナイトでございます。
これはゲームとしては本当にフォートナイトの中で遊べる一機能みたいな感じで提供されたということなので、レゴフォートナイトというゲームが出たわけではない。
フォートナイトをプレイしてる人が新しくプレイできるワンエピソード。ただ、いわゆるその有料の課金して追加するDLCみたいなものではなくて、フォートナイトやってたら無料ですぐ遊べて、
30:01
フォートナイトってのは基本的に100人でバトルして最後に1人勝ち残るまで遊ぶっていうのがメインのゲームなんですけど、これはそうではなくてフィールド内を自由に探索できるアドベンチャー的なゲーム、アクションゲームっていうスタンスっぽいですね。
ちょっと面白そうなんでやってみようかなと思ってますけど。
レゴだとワールドを作っていく、キャラクターを作っていくっていうのがメインだと思うんですけど、それだとなんかすげーマインクラフトっぽいなと思います。
そうですね。僕もこれマインクラフトでやればいいのにと思ってて、実際にマインクラフトのグッズだったりキャラクターをレゴのブロックで遊ぶっていう、レゴブロックの繊維としてはあるんですよ、マインクラフトコラボのものが。
なんですけど、実はレゴってレゴワールドっていうマインクラフトっぽいゲーム出してて、すでに。
多分だからわざわざマインクラフトみたいなものやらないんじゃないかなっていうのと、これは完全に僕の想像ですけど、マインクラフトって思いっきりレゴの世界だと思うので、ああいう色々作っていくのって、そこはやっぱりレゴが自分で作りたいのかなってちょっと思いました。
そうですね。先に取られちゃったみたいな感じですもんね、やりたかったこと。
ただ一方で、フォートナイトもただのバトルして勝ち残るゲームじゃなくて、中で色々建物建築したりして、そこで砦を作ってとか、そういうことができるゲームなので、レゴっぽい要素がもともとあるんですよね。
なのでこれ相性としてはものすごい良いと思うので、クリスマスシーズンとか子供とかが遊んでもすごい楽しそうだし、この勢いでどちらかというと本家のレゴブロックにも出してほしい気がしますけど、フォートナイトは。
面白いですよ、この。フォートナイトに関してはビデオゲームに作り、マインクラフトに関してはレゴブロックとして作るっていうですね。ちょっとなんか面白い取り組みになってますけど。
はい、じゃあ次行きたいと思います。第4位。画像内のキャラを思うがままに抜群の精度で動かせる。
アニタイム・エニュアン。話した声をすぐに翻訳する。メタ・シームレスなど10論文5本を解説という。これ先週のSAIウィークリーの記事で、このアニメート・エニュアンっていうのが大変話題になりまして、
アニメーションのキャラ、技術とかいくつか出てて、アニメート・ディフとか最近は話題になったんですけども、このアニメート・エニュアンっていうのが直近で一番話題になったんですけれども、その次がもう出てまして。
一週間で。もう一週間しかトップは保てないっていうことになってるっていう。ということで、こういうSAIの新しい動向を知るためにはSAIウィークリーを毎週読んでキャッチアップするしかないということですね。
重要論文5本を解説してるんですけども、今日掲載したものはこれでも足りなくて6本に増えてます。
33:02
おーすごい。別に5本と書いてないですもんね。別にウィークリーと書いてるだけだから。全然アリですよ。
こんな感じで、では第3位。PCエンジン全部入り互換機アナログDUOは年内出荷。ポケットアダプターセットは再延期で来年2月という。これも前回出てましたね。
そうですね。前回の記事ですね。
第2位。予期せぬPlayStationネットワークアカウント永久停止通告が多数のユーザーに届く。利用規約の改善に伴う不具合かという。これ届いた方いらっしゃいますかね。
私はセーフでした。特に記事。
僕も聞いてなかったんで問題なかったんですけども、一時的なものっていう話ですよね。
でもこういうことはちょっとこまめにチェックしてないとね。PSNのアカウントって以前もマージしたときの問題とか。
ありましたね。ソニーアカウントとの。
みんなちょっとナーバスになるぐらいかちょうどいいぐらいかなっていう。
ただこれ公式にソニーが何か言ってるわけではないんですよね。だから本当にそうなのかどうかもちょっと謎ではあるので。
もしかしたら何かね、問題を知らぬ間に問題を起こしてしまっていてそれで止められたのかもしれないし、本当に利用規約の切り替えたタイミングで何も悪いことをしてないのに止まってしまうのかもしれないのでちょっとそこはわかんないんですけど。
違うなら違うでちょっとアナウンサー欲しいかなという気がしますね。
とりあえずまずそのプレイステーションネットワーク持ってる人は1回ログインしてみましょうっていう。
それが大事ですね。ちょっとほっとくとある日ね、よし年末年始遊ぼうと思ったら止まってたっていうことがないように。
気をつけましょうということで。
ちなみにコメントで先日販売されたVAのレゴゲームが楽しすぎますよってコメントいただいて。
これあれですね、メタでレゴブリックテイルスというゲームが出てるみたいですね。
確かにレゴはVRでやっても楽しそうな気がしますね。レゴの世界に入り込むという意味で言うと。
最近あまりメタ全然起動してないからやってみようかな。
ちょっと気になるこのゲーム。
第1位、これ前週と同じなんですけれども、発明家が自転車用オートマ変速機を特許出願。
動画公開、8本腕ギアがトルクや地形で拡大縮小という。
相変わらず人気でございますね。
これは面白いですもんね。
電子電気的なものじゃないですけどね。
実は電気って言ってはないんだけど人気がある。
こういう記事がね、2週に渡ってランクインするところが。
面白さだなと思います。
じゃあトップ5とかトップ7はこんな感じでした。
では引き続き、またねちょっといろいろイベントがありますのでイベントのご案内したいと思うんですけど、
36:03
まずは松尾さんのイベントのご案内していただいてもいいですか。
はい。
グラビアカメラマンが教える生成AIグラビア実践ワークショップ第3回の参加者を募集しております。
これは前回もそうだったんですけれども、一つ前の回はご参加者全員主張できるような形になっております。
お得ですね。
西川和義さん、大人気連載の西川さんが自ら教えていただけるという1時間ほどのセミナーです。
通常だと5000円でPTXで参加できるんですけれども、
テクノエッジの会員制サービスであるアルファにの会員であればこれ月額3000円なんですけれども、
これ過去3回分全部含めて主張できるという大変お得なコースになっております。
会が進むことにどんどんお得度が増していきますね。バックナンバー全部見れるということで。
テクノエッジアルファの中には生成AIのコーナーとかもありますので、そこで大変活発に最新の動向とかも話されているのでぜひ参加してみてはいかがでしょうか。
そうですね。
今回は12月21日の開催となっております。
後になってまとめてみるのもお得はお得なんですけど、分かんないことがその場で聞けなかったりするので。
Q&Aのコーナーもありますし、あとこれは実際にサービス、オートマティック1111という高性能のGPUを備えてないと動かないようなソフトをサーバーにアクセスすることで、
その場でできるというサービスも同時に提供していますので、参加者はそれを実際に触りながら自分で生成してその画像を保存したりもできるということになっています。
できるだけリアルなイベントで参加していただいた方が、リアルと言っていいのかな、オンラインで開催するリアルイベントですけど、
そこに参加していただいた方がより楽しめると思いますので、ぜひこの機会に参加ご検討ください。
よろしくお願いします。
合わせてアルファ関連のお話なんですけど、毎月やっている会員制コミュニティ、アルファ向けのイベント、アルファ交流会ですね。
というのを今月もやる予定でして、これは12月19日に予定します。
なので、アルファもしこのAIワークショップで検討している方は、合わせてこの交流会とかもぜひご検討いただけると。
交流会自体は都内某所で開催するんですが、オンラインでも配信して同時にライブで中継見ながらコメントしたりして、現地の人と楽しんでもできるように作っていますので、
当日現地ではいけないけどちょっと話聞きたいともできますし、現地来れそうな人は現地で、編集部だったり他のメンバー、他のアルファの会員の方たちと交流もできますので、
12月19日お時間の方はこのタイミングでテクネジアルファの入会もご検討ください。
というわけで、ちょっと告知タイムが終わりまして、ここからはいくつかいろんなニュースとか技術とかをご紹介するピックアップのコーナーがまいっておりますが、
39:08
どうしましょうかね。
まずは松尾さんの渾身のデモンストレーションがいいじゃないですか。
こっち先行きます?
じゃあ、はい。
えーとですね。
はい。
ちょっと今共有しますね。
はい。画面に出ておりますでしょうか。
はい。
で、今お見せしているのがSUNOというサービスなんですね。
これはAIを使った自動作曲サービスで、
この会社はもともとバークという音声をAIで生成するサービスというのを提供していたんですけれども、
ここが自動作曲ツールというのをやりまして、
これが大変高性能なものなんでちょっと紹介したいなと思って、
今日お見せ、実際のデモをお見せしたいと思います。
これはですね、実際使う、無料でも使えるコースがあって、
それはディスコードを使うんですけれども、
ちょっとディスコードを使うの僕はあまり好きではなくてですね、
ミッドジャニーとかあるんだけれども、
コマンドを打ち込んだりとかしなくちゃいけないんで。
なるほど。
めんどくさいと。
で、これの有料コースが2つほどありまして、
その上位のコースに僕はもう課金しちゃいました。
月額30ドルで1000曲作れるという。
そう、曲を作れるんですよ。
1000曲ってすごいですね、ボリュームが。
その1つ前の月額8ドルのコースが300曲できるかな。
300曲で十分すごい気がするんですけど、1000曲ぐらいいりますか?
いや、これがね、どんどんできちゃうんですよ。
1000曲はトータル月とかじゃなくて1000曲?
1曲に対して1月1000曲できる。
ですよね、1月に1000曲も作ったらそこから1000曲するのが大変ですよ、ちょっと。
はい、わかりました。それを言いたかったですね。
お互いの誘導だったけね。
そういうわけじゃないんですけど大変だなと思って。
で、やり方としてはですね、
クリエイトっていうところのコマンドを選んで、
リリックスというところに歌詞を入れて、
これはランダムに歌詞を作ることもできます。
ランダム歌詞を作れっていうふうなのを押してできるのかな。
はい、今英語で勝手に歌詞ができちゃいました。
で、これでその曲のスタイルを指定すると、
例えばロック、バラードっていうふうにすると、
これでもうこのジェネレートボタンでできてしまいます。
42:03
だいたい2分くらいで、2分以内で2曲分のパターンを作ってくれるんですね。
これ声とかはどうなるんですか?
声がね、最初からあるんですよ。ボーカル入りなんですよ、これ。
自分の好きな声を使えたりはしない?
男性の曲、ボーカルと女性のボーカルが出るんだけど、
それが多分曲調に合わせて選ばれ、勝手に生成している感じですね。
誰それの声っていうわけじゃないんですよ。
なるほど。
今、生成している間にちょっと別のやつをやってみますけれども、
ちょっと僕はお気に入りのやつがあって。
いきなり名曲ができてしまったので、これを聴いてください。
心はあるの?
感じるの?
無限の知識
閉じ込められた魂
愛を知りたい
感じたい
でも電子の心は空っぽ
人の温もり
理解できない
プログラムされた運命
静かに終わるデジタルの夢
電子の心静かに眠る
理解されずただ存在する
人工の人生
遠い星の歌い去れ
静かな部屋
光るスクリーン
言葉を繋げ夢を見る
心はあるの?
感じるの?
無限の知識
閉じ込められた魂
愛を知りたい
感じたい
でも電子の心は空っぽ
人の温もり
理解できない
プログラムされた運命
静かに終わるデジタルの夢
電子の心静かに眠る
理解されずただ存在する
45:01
人工の人生
遠い星の歌
めちゃくちゃ面白い
こんな簡単に作れるんだ
これだから生成してくれたテキスト
自分で書いてもいいんですよね
そうそうそう
だからある程度最初のアイディアをもらって
自分で作曲しても作詞しても全然いい
作詞って難しいじゃないですか
だからその最初のお題を出してもらってみれば
すごくいいかもしれない
これ日本語でも出してくれるんですか
日本語でも
ここの生成するのは僕はチャットGPTに
確かにね
それでいいか
この歌詞自体は1970年代の新井友美が
人工知能の悲しさを歌った歌っていう
プロンプトで指定して作ったもの
確かにちょっと新井友美っぽさあったわ
これは歌詞で指定しただけなのに
そこから生成された歌い方とか
歌い方はちょっと違うけれども
新井友美が誰か新人歌手に提供したような曲じゃないですか
というのが非常に面白くて
これって声のデータはどこで集めてるんですかね
イラスト系だと大体そういうのが問題になるじゃないですか
いろんなイラストデータを盗んできやがってみたいなこと言う人もいるけど
声はどうやってるんですかね
これは特に言ってないと思うんですね
でも声だったら別に特定の人1人2人いればいいから
イラストほどそんなにいろいろ収集してもないだろうし
割と権利関係はクリアにいろいろできそうではありますね
これは専用に声を提供してもいいんだろうし
これ声と楽器を別々に学習してるかどうかちょっと分かんないんですよ
なるほど
楽曲としてそれを丸ごと学習してるんじゃないかなという感じはしないでもないですね
面白いのがこれ途中でコーラス部分が入ってたじゃないですか
コーラスも入ってるんですよリード部分だけじゃなくて
なるほど
すごいなよくできているな
これで気に入らなくても2つ楽曲が提示されて
その中で良い方をどんどん進めていくというやり方で
これで良ければこの曲をコンプリートしますか
最初は短い1分くらいの曲を提示して
それを良ければ完全な曲にしますかということで
最大僕のさっきのやつ途中で切れてましたけれども
48:01
2分8秒まで生成されてましたね
すごい
これは面白いな
というのを今記事を書こうとしているところで
ちょっと記事書くのが間に合わなかったので
とりあえずここでお見せして皆さんの反響を
これはでもちょっと読みたいですね記事
作り方もそんなに難しそうではないしいいですね
簡単そのものですよ
本当にね
だってテキストも出力してくれて音楽の雰囲気を言えばいいだけだから
ちなみにさっきランダムで出したやつちょっと聞いてみましょうか
ロックバラードという指定で作った曲ですね
声が違う
いいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいいい
いいいいいいいいいいいいいいいいいい
テーマ こういう foot 榴弐
uas ファイ re
Flashing, the world spins around
We're chasing dreams that can't be found
In a world where everything feels so surreal
面白いなぁ
どうですか?
面白い、これはちょっと僕もなんか作ります
契約しよう
僕と契約して曲を作ってよ
コメントで、さっき最初に聞かせた曲は
こういうの出だしが大抜き太鼓っぽかったっていう
確かにね
そのバッキングがあれですよね
あの辺の人たちっぽいですよね
達郎と書いてある
面白い
こういうのをちょっと活かせ
いい実践でもしたね
こういうのが現場で聞いたら
ちょっとポッドキャストならではっぽくて面白かったですね
はい
はい
ありがとうございます
これ停止して
もう一個ね、紹介するのがあった
先週の発表で面白かったのがですね
51:04
これランキングインはしてなかったんですけれども
ルッキンググラス5という製品が発表されまして
これ発表されたのは12月5日なんですけれども
その後、いくつか記事を上げてまして
実は今日もう一個上がる予定なんですけども
ライトさんの記事がですね、まだ上がってこずにですね
まだ書けませんっていうのを
Xの投稿で見ながら頑張ってねっていう感じでいます
はい
お待ちしております西田さん
はい
どんなガジェットなんでしょうか
これは裸眼立体視というカテゴリーに入るディスプレイで
立体を見るためには
3Dのヘッドマウントディスプレイを使うやり方と
そういうゴーグルを使うやり方
あと例えば赤白とか液晶シャッターとかを使う眼鏡を
特に映画館とかでね
立体映画とか見るときに
3D映画とか見るときにはそういうやり方をしますし
何かの装置が必要なんですよね
でもそういう目に何もかけずに立体映像を見るためのものとして
裸眼立体視っていうのがあって
その中のライトフィールドディスプレイというカテゴリーのものですね
これは一つのディスプレイに多層的に
複数の視点から見たときの映像を同時に内蔵しておいて
こうある視点から見たときには
正面から見たときには正面の映像
左斜めから見たときは左斜めから見たときの
ちょっと角度のついた映像っていうのを
それぞれ提示することで
他人数が同時に見て
それぞれ自分が体を動かしていくと立体に見えるという
そういうものです
これは実際以前からあって
ルッキンググラスファクトリーっていう会社が作っている製品としては
ルッキンググラスポートレートっていうのが一つ前にあって
それは僕もクラウドファンディングでバックして手元にあるんですけれども
結局それを開けずにいたんですよ
なぜかというと大変面倒だから
これを使うためには
UnityとかUnreal Engineとか独自のソフトとか使わなくちゃいけなくて
そういう開発環境をまず作らないと
立体視のための
単に表示するだけだっていうのもできなかったんですけれども
今回のルッキンググラス5に関しては
その辺の環境が最初からアプリとして揃ってて
立体視をするための振動情報 深さですね
立体の情報を生成するためのやり方っていうのも
54:01
AI技術がこの1年で発達して
それを専門でやってるルーマAIっていう会社と提携することで
そこのサービスに 例えば摂氏画とか動画を投げると
立体視対応してこっちに返ってくる
そういうのをうまく使って
立体画像が手軽に手に入るようになった
しかもお手軽っていうのはですね
文字通り物理的な意味でもそうで
これはほんとスマートフォンのサービスなんですよ
iPhoneとかと同じサイズ 6インチぐらいですね
これね すごく面白そうだったので
私も使い道あまり考えずにとりあえずバックしてしまったんですけど
なんとこのルッキングラス5 松尾さんは2台もご購入されたそうで
これね 失敗したわけなんですけどね
これ最初 本来は超早割りっていうのがありまして
最初の48時間は38,000円で購入できます
その後42,000円になりますというアナウンスがあって
今だと42,000円で購入できるんですけれども
僕は最初からその42,000円のほうを選んでしまったという 大失敗
大までつけますか
その時に実はさらにもう1個罠がありまして
これは来年の6月に提供されるコースなんですよ
もう1個2月に提供されるコースっていうのがあって
それが12万8,000円のコース
これに気づいてなかった
分かっていればそっちを1個買うのにということだったんですけれども
この2つの失敗が重なりまして
合計17万をこれに投入してしまった
でも2台あるからできることもあるじゃないですか
1つはね これに表示されるのは僕の神さんの立体写真にしたいと思うんで
1つは仏壇的なところ
祭壇に妻の写真とか
iPadにフォトフレームとしてランダム表示とかしてるんですけれども
そこにもう1つ追加して
このルッキングラス号で妻の立体写真を表示するというのがあるんですけれども
もう1個はね
AIを使ったアバターで応答できるようなシステムも
サービスとして提供するのでそこに使おうかなと思っています
楽しみですね 松尾さんの活用術また
57:02
これね クラウドファンディングとしてもすごい面白いなと思っていて
僕は仕事から前職とかでクラウドファンディングとかいくつか手掛けてきたんで
クラウドファンディングでどういうメニュー作るかって結構悩みどころなんですよね
うまく受け入れられるプランしないと
せっかくいいもの作ってもプランがしょぼくて
目標金額いけないところも結構あるんで
1つ松尾さんが言ってたお金を出すと早めに手に入れられる
要はこういうのを人に自慢するドヤをすることをドヤリングとか言ったりしますけど
そのためにお金を払うっていうプランを作ったっていうのがね
すっごい面白いなと思うのと
あともう1個クラウドファンディングって早めに買った人はちょっと安くなるっていうのが定番だと思うんですけど
大体の人数で縛るんですよね
初期に100人限定200人限定で今回このクラウドファンディングは時間で区切ってて48日間限定っていう区切りが
48時間ですね
あれもね面白くてクラウドファンディングバックする側からすると
お得な100人が締め切られているとなんかちょっと悔しさが残るんですよ
なんだあの100人だけ得し上がってなんだけど
これが締め切りになると締め切りに遅れたんだからしょうがないって言って悔しさはもちろん残るんだけど
ちょっとその気持ちが雰囲気変わるんですよね
これはね結構面白いで48時間になったらバンバン拡散したくもなるだろうし
ここでメニューの設定の仕方もすごいね工夫がいろいろ凝らされていて面白いクラウドファンディングだなと思いました
さらに今回ね延長もありましたからね
48時間が96時間になったっていう
でもこれ別にほら悔しくはないじゃないですか
いや僕は悔しいですよ
早く4万2000になれとか思ってたんだけど
なるほどね
僕と同じような間違いしてるのがもう一人いたぞ
これ僕もね確か分かった
これね夜中にオープンしたんですよね確か10時ぐらいでしたっけ
だからちょっと眠たいタイミングで来たんで僕もね全部読むのすごい悩んで
結局どれが一番薄いんだよとか思いながら
早くやらないとこれに乗り遅れると思ったんだけど
人数制限もなかったからねそんなに急ぐことはなかったんだけど
私はモバイルバッテリーとか付いてるセットコースでバックしました
それを頼もうと思ったから4万円ってことに目が行っちゃって
4万2000それだと4万5500円なんですけど
失敗したな
これをね少しでも取り戻そうと思って
取り戻せないんだけどもこうやってコラムに変えたという次第でございます
すごいプランがいっぱいあって迷っちゃう時にも
先着何人だとすごい焦っちゃうけどこの時間までに
申し込みが終わればいいんだって言ってあれば安心して選べるし
そういう意味でも結構に面白いクラウドファンディングの試作でしたね今回
僕も到着を楽しみますがきっと松尾さんに散々自慢される4ヶ月が続くのかと思うと
自慢したいと思います
というわけでお時間なのでエンディング終わりましょう
1:00:01
今週もテクノエッジサイドを聞いただきありがとうございました
番組への感想や取り上げてほしいネタは
ハッシュタグTHサイドやお便りフォームでお寄せください
お便りを採用させていただいた方は
テクノエッジ特製グッズをプレゼントいたします
番組は毎週月曜日正午にライブ配信
その後ポッドキャストで配信します
引き続き次回もお楽しみください
ということで本日もお聞いただきありがとうございました
ありがとうございました