1. XCrossing
  2. ep86 身の回りにあふれ始めたA..
2024-06-26 29:32

ep86 身の回りにあふれ始めたAIに感情移入できる?

spotify apple_podcasts youtube

人型ロボットが感情をリアルに表現する映画やアニメ、ゲームはたくさんあるけれど、AIが身近になった今、見返してみるとちょっと違って見えてくる

ChatGPTにインターネット・ミームの意味と面白さを解説してもらう

場所の写真の推定も精度が高い

AI・アンドロイドを描いたゲーム「Detroit: Become Human」(2018年)を、AIが普通に使われるようになった今見返してみたら… 

AI/機械による人間の感情の模倣(声の抑揚、言葉使い等)と、人型の筐体による人間の本能のちょっとした所作の模倣

驚き、悲しみ、喜び、怒り、いろいろな感情を表現するアンドロイド

高度に進化したAIと人型の筐体が一体化して目の前に出てきたらどう感じるか

Ameca − 微細な顔の動きと目線で感情を表しコミュニケーションする人型ロボット

実際にAIを普通に使うようになった今、感じる課題は何か

メールやSNSを通して、現実世界である陰謀にプレイヤーが巻き込まれるゲーム

自分が登場人物の一人として扱われるという没入体験

ディズニーランドGalaxy's Edgeにいる二足歩行のドロイドがかわいすぎて、感情表現と感情移入の設計が気になりまくる

人に反応する、会話する、筐体ゆらして感情を表現する、よちよち歩く

攻殻機動隊のジェイムスン型筐体に入っている社長

1枚の写真から、自然な顔の動きで話す様子を生成するVASA-1

素粒子でできている人間と電気で出来ているAIの違いって

エピソード内で取り上げた情報へのリンク:


テック業界で働く3人が、テクノロジーとクリエイティブに関するトピックを、視点を行き交わしながら語り合います。

及川卓也  @takoratta
プロダクトマネジメントとプロダクト開発組織づくりの専門家
自己紹介エピソード ep1, ep2

関信浩  @NobuhiroSeki
アメリカ・ニューヨークでスタートアップ投資を行う、何でも屋
自己紹介エピソード ep52

上野美香  @mikamika59
マーケティング・プロダクトマネジメントを手掛けるフリーランス
自己紹介エピソード ep53

Official X: @x_crossing_
https://x-crossing.com

サマリー

AIと感情模倣、Detroit: Become Humanのアンドロイドやディズニーのドロイドなど、人工知能が感情移入できるほど人間らしい動きをしていることが注目されています。人間に感情移入するようなかわいさがあるAIの存在について話し合われています。AIの表情や声、動きなどが自然であり、将来的には人間との区別が難しくなる可能性を感じられています。

XCrossingの紹介
Mika Ueno
XCrossing、英語でスクランブル交差点を意味します。
趣味も世代も、住んできた町も違う3人が、スクランブル交差点で出会うように、
様々な話題を聞かせる、おしゃべりの交差点です。
今日のXCrossingであなたが出会うのは、どんな話題でしょう?
こんにちは、上野美香です。
マーケティングとプロダクトマネジメントをご支援している、フリーナンスです。
Nobuhiro Seki
おはようございます、関信浩です。
ニューヨークでスタートアップの投資を普段はしております。
本日は及川さんお休みです。
Mika Ueno
お休みの回です。
Nobuhiro Seki
ChatGPTを使ってひたすら写真とかに、これってどういうこと?聞きまくるっていうのはとっとくのがもったいないんで、
一応、週に1回ブログすることに決めたんですよ。
それシェアしなかったっけ?
Mika Ueno
した、スタブスタックのやつですね。
Nobuhiro Seki
そうそう。やってみて、ずっと英語のやつやってたんですけど、
今回、日本語のMemeとかってちゃんとわかるかしらって思って、
普段やってるときって日本語のやつが出てくるのってあんまりないんで、
入れることなかったんですけど、ちょっとコンテンツを意識してやってみたんですね。
2つあって日本語のMemeっていうのを調べてたら、
僕あんまり見ないからかもしれないですけど、
画像1枚のやつじゃなくて、結構動画が多いんですよ、書いたりとかして。
だからあんまり僕がMemeって調べると動画が飽きちゃって、
動画だとちゃんとGPTに今読ませられないんで、見つかんないなっていうのが一つと、
実際にやってみたらですね、例えばね、
だが断るとこをちゃんと画像でやったらですね、ちゃんとわかるんですよ。
漫画を使って漫画のコマを抜き出してそれをMemeっぽく使うみたいなやつはわかるんですね。
なんだけど、そうじゃないってやっぱりちょっとわかりが悪いみたいな感じがしていて、
ただ単に普通にそのコマを説明されることが多いんですよ。
これは例えば漫画ナルトの一場面ですとかですね、
これは漫画徐々奇妙な冒険の一場面ですとかってちゃんとわかってくれたりするんだけど、
それの吹き出しの中身はちょっと変えたりすると、
ただそれがこう書いてありますみたいな感じで終わったりとかしていて、
それに対して英語のやつはかなりこれはこういうHumorですとかっていう、
やっぱりこういう風刺画みたいなやつってハイコンテキストだから何かを知らないとわかんないんですね。
要するにこういう映画が元だったりするじゃないですか。
そういう、こういう常識があるからこのフレーズが成り立ってますよみたいなやつ。
っていうのはやっぱり英語のやつの方が異常に詳しくて、
だから僕とか知らないやつとかはちゃんと、
なんでこれ面白いんだろうと思うやつもちゃんとわかってくれたりするっていうのはあってですね。
だからそういう意味で言うと、要するにこの漫画がなぜ面白いのかを説明してくれるんです。
Mika Ueno
なんか面白さを言葉で説明されるんだ。
それは実験してるからいいと思うんだけど、説明されると面白さってどうなるんですか。面白いんですか。
Nobuhiro Seki
要するにわかんないやつがあるんですよ。
例えばちょっとパッと見るとなんか普通にこういろんなセリフをやって、
1番目のセリフはこういうふうに喋ってます。
2番目のセリフはこういうふうに喋ってます。
2番目のパンチラインのデカくなってるとか何ですかっていう時に、
例えばこれはどこどこしかやっている有名なテレビコマーシャルのパロディーなんですっていうふうに説明してくれたりするんですね。
だからそれって要するに僕とかそれを知らないとそれがわかんない。
パンチラインのなぜそれが面白いのかっていう。
そういうのを説明してくれたり。もちろんわかるやつもあるんですけど、
ちゃんと理解できるかなと思って入れると結構ちゃんと理解してるんですね。
3コマ目と4コマ目の間に4コマ目でこういうことを言ってます。
それはこういう猫の特性がこういうことかってそれを面白おかしく書いてるんですって説明してくれたり。
でもそれってまずファクトとしてそれが流行ってるとか、それが流行ってますよとかそういうのをまず知ってるのは驚きなんですね。
場合によってはコマが文字になってないケースとかでもちゃんとそれをちゃんと解釈してて。
なおかつそれがなぜ面白いのかっていう。
AIは本当に面白いと思ってるわけでもちろんないんだけど、こういうパターンは面白いんですっていう。
これはヒューモアなんですっていう知識があるわけですね。
だからこれはこういうのとこれをかけてるんで面白いんですよとかっていう。
説明できるとかそれは完全に理解してるとかじゃないですか。
説明できるぐらいには。
だからそれをやってるとすごいなっていうふうに思って。
最初はふと例えば写真を見せてこの場所知ってるかなと思って入れたら、
これはこういう特徴だから1960年代のアメリカのおそらくこの都市ですとかって結構その写真の情報だけからでも結構
説明してくれて、だからそれを知ってるっていうことと。
このままGeoGuessrみたいな感じですよね。
だからそういう知識もそうだし、その知識からこれこれこういうことじゃないかっていう類推する能力も結構高くなってるなっていうのが印象なんですよね。
Mika Ueno
今のお話聞いてて、画像を入れてChatGPTを介してミームを理解してる。
画像のコンテキストを理解してるっていうところですごいなと思うところもあるんで。
AIの感情模倣とDetroit: Become Human
Mika Ueno
ちょっとずれるんですけど、音とその人間の感情っていうのとそれを機械がどういうふうに再現するのか、
模倣できるのかみたいな話で最近感じたことがあったんで、ちょっとずれるかもだけど共有しておくと。
一つはですね、2018年に出たゲームがあって、Detroit: Become Humanっていうゲームがあるんですよ。
これソニーが出してるやつなんですけど、2038年、発売当時から言うと20年後の世界が舞台になってて、
高度に進化したAIとそれを組み込んで人型のロボットになってるアンドロイド。
アンドロイドっていうのが人間の生活で使われていて、そこで生み出される人間とアンドロイドの軋轢というか課題点とかっていうのが浮き彫りにされるドラマ形式のマルチストーリーのやつなんですけど、
これをふと思い立って、すごい好きなストーリーなんですけど、見返したんですよ。実況とかストーリーとかで見返したんですけど、
本当に進化したAIとかが今現実世界に出てきていて、チャット形式で喋れるようになっててっていう現実世界がようやく追いついたみたいなところがあったんで、
このストーリーについてちょっと会話してみたいなAIと、みたいな思いがあったのと、今この現在でデトロイトを見返したらどう感じるのかって思ったら、
人間の感情をやっぱり模倣してるんですよね、その機械がAIとかが。しかもそれが声の抑揚っていうような形とか、言葉の使い方っていうところももちろんそうな音声っていうところももちろんそうだし、
人型のロボット、人型の筐体がつくことで動作とかちょっとした所作、人間の本能って動作によられるじゃないですか、戸惑うとかびっくりするとか、
何か聞かれたときに一瞬止まるっていうような所作もあると思うんですけど、それが全部AIが模倣してるように描かれてるんですよね。
それを見たときにすごく複雑な感じになって、これは模倣なのか、本当に生命として感じるのか、人間がその人間のコピーを作ってるわけじゃないですか、
作りたいわけだから、AIに関してもロボットに関しても。そこのところすごくね、今自分で結論があるわけじゃないんだけど、
2018年のときに見た感じと、今見返してみたときの感じ方が全然違ってて、実際に関さんもチャットで使ってるわけでしょ、対話しながら。
相手を機械なんだけど、ほぼ自分たちと同等の知能を持つみたいな感じで扱ってるわけじゃないですか。
OpenAIとかのデモとかで、感情を込めたボイスっていうのもこの間発表されたでしょ。
その感情もすごい驚きとか、オッケーみたいな感じで、ほぼ人間のように自然に会話してるっていうのは驚いたと思うんですけど、
Detroit: Become Humanの中だと、悲しみ、喜び、驚き、怒り、いろんなものを表現してるんですよ、AIが。
自分たちの独立とか権利を主張していくっていうものなので、これって感情が本当に模倣なのか、
でもそれを掘っていくと全部プログラミングされてるっていうか、そういうふうに定義されてるものなわけでしょ。
そこがすごいびっくりというか、本当に何て言ってるかわかんないんだけど、複雑な思いになりましたね、すごく。
今はまだAIはこの二次元の画面で文字を追っていくだけだから、自分がどう捉えてるかだと思うんですけど、
デトロイトみたいに人型の筐体がついて、目の前に出てきたときにどう感じるのかっていうのは、自分でも想像できないみたいなとこがありました。
Nobuhiro Seki
でもチャットでも、人と人の間でもチャットってやるじゃないですか。だから会ったことない人とチャットすることあるじゃないですか。
だからそれに近い感じにはなるかなと思いますよね。つまり小説を読んだって、頭の中には結構ビジュアルとかで記憶が残ったりするじゃないですか。
だから結局こっちが保管しちゃうから、この人ってこういう人なんだろうなとか、喋ってるこの話し口で何だかこんな人だろうって想像しちゃうじゃないですか。
テキストチャットだけでやってても。で、そういう会ったことない人に惚れるとかみたいなやつもそういうことじゃないですか。
相手側が実は単なるプログラマーかもしれないんだけどそれに惚れたりするわけじゃないですか。実際映画とかでよく惚れるケースもあるから。
だからある程度人間らしい返事が返ってきちゃうと、もうあとはこっちの捉え方の問題になっちゃうよねっていう。
このデトロイトのやつも今トレーラーっていうかですね、Detroit: Become Humanで調べると一発でSteamのサイトが出てくるんで、こう開いてるんですね。
最初トレーラーでまさにそういうシーンがバンバンバンバン流れてたんですけどさっき。
だから何を言わんとしてるかもなんとなくわかるんですけど、やっぱりコンピューターCGで人っぽいものが動いてるっていう意味で言うと、
ゲームとかで出てくる、ゲームでアンドロイドみたいなやつが出てきたりすると、まさに見た目的にもちょっとパーフェクトじゃないじゃないですか。
ちょっとぎこちないところもあって。だからこれでそういうような感覚を言ったときに、実際には例えばドラクエから始まっていろんなゲームとかって、実際に感情移入するじゃないですか、結構。
こういうふうにリアルっぽい。でも実際に見ると結構、ロボットとしてまだ描こうとしてる。ロボットとして表現してるからなんかまだいいけど。
これ普通の映画みたいに、アクターさんですよみたいな感じで実際に見せていっちゃうと、喋ってる内容でこれは果たしてAIだったでしょうか。
役者だったでしょうかって、もうかなり難しいですよね。きっとその判断するの。
Mika Ueno
人間がそれに近づけていこう、いこうとするし、それを元に学習させているからスタート地点がそこになりますよね。
あとあの、人型のっていうとね、Ameca、エンジニアードアーツが作ってるリンクを送ったの。
本当に人型で、目線と表情がすごく豊かに動くっていう、前から実験が開発されてるやつで、Amecaとかなんか見ると、
デトロイトのアンドロイド
Mika Ueno
はい、みたいな話とかちょっと戸惑うときとか、目線がすごく人間っぽい動きをするんですよね。眼球が入ってるのもあるんですけど、
この見た目なんか本当にデトロイトのアンドロイドみたいな感じなんだけど、やっぱり眼球の動きとか、
その表情筋の動きのすごい細かいところを人間見てるんだなっていうのをこれ見てすごい思うんですけど、このほうれい線というか、脇とか、
その頬についている筋肉の動きとか、あと眉間の動きとかっていうその微妙なところで感情とかを察知してるんだなっていうのをこれ見てすごい思う。
それを作りたい作りたいと思って人間が作ってるから、人間のコピーが作られてるってことは感情移入も含めて、
本当に知的生命体とロボットというか、これが言ったとしても拒否できないようなそれを作ってるのは人間なんだからと思うときはすごいありますね。
Amecaのときは本当にリアルなロボットだし、YouTubeで見たときも思ったんですけど、デトロイトのストーリーね、
聞いてる人も興味あったら本当に見てほしいんだけど、このストーリーは3DCCだけど、これがロボットだと思うという、今見ると全然違うように感じるんで。
Nobuhiro Seki
これってあれですか、これも動画で見たんですか?実際ゲームやってるんじゃなくて。
Mika Ueno
動画です、そうです。
プレイじゃなくていつも見てみちゃう。
待って待って、2018年でプレイしました。一番最初にして、いろんなルートがあるんですけど、主人公死ぬっていうルートもいっぱいあるんですけどね、もう速攻死にましたね。
すっごい面白いの。
Nobuhiro Seki
やるかやらないかすごい悩ましいんですけど。
Mika Ueno
でもこれいいと思います。分岐があるんですけど、トータルでいくとそんなに時間かかんないと思うんで。
Nobuhiro Seki
割とそういう意味で言うと、分岐するアドベンチャーゲームみたいな感じですかね。
Mika Ueno
そうそうそうそう。しかもその分岐したストーリーがフローチャートで見れて、チャプターごとに分かれてるんですけど、
そのチャプターごとに自分が辿ったルートと世界の人たちがどういう選択をしたかってそのパーセントも表示されたりするんで。
1チャプターはそんなに長くないと思います。3人の主人公を切り替えながらストーリーやっていくってやつで。
Nobuhiro Seki
フルオーディオでも日本語もあるんですね。全部で10言語以上あって日本語が入ってますね。
Mika Ueno
2018年にこれがリリースされてるからその前からプランニングとかされてるわけで、そのシナリオを変えた時点、2017とか16とかだと思うんですけど、
その時点で考えられていた機械感とかAI感とか、これが起こすであろう問題点っていうこのえぐり方がなかなかすごいグッときますね。
で、現実のChatGPTとかいろんなLLMが今出てきていて、みんなが使っていて、言葉だけじゃなくて音楽も動画も画像も、
漫画も作れたりしてるようになる中でこれを見ると、のぉーって思っちゃう。
それが2038年の前に一歩、また一歩二歩進んでるなっていう感じが進んだりしますね。
で、いいなと思うところと、こういう人間の能力を拡張するんだ、可能性を広げるんだっていう部分と、
ああやっぱこういう課題出てくるよなと思うところと、でも実際使っているAIとかを自分たちで肌感覚で使ってると、
別の課題が出てくるかもしれないっていうのがいろいろ感じるところがありましたね。
Nobuhiro Seki
これをやるためにはWindowsを立ち上げなきゃいけないんだ。
Mika Ueno
いや、PSでありますよ。
Nobuhiro Seki
PSであるんだ。
Mika Ueno
うん。これまだ4の時じゃないかな。全然あります。
主人公の3人いるんだけど、革命を担うマーカスっていう役がまたかっこいいんですよ、この人。
実際に役者さんキャプチャーしてるんですけど。
Nobuhiro Seki
実際に役者さんキャプチャーしてるっていうふうに言うと、本当に現実とあれの境目が高まってきますよね。
Mika Ueno
そうなんですよ。そうなんですよね。やっぱり欧米が作るもんだから、
リアルな人にどんだけ寄せるかってとこにすごい心血注ぐじゃないですか。
日本ってアニメとか文化があるから、ちょっとフィクションというかね、そういうふうにするとかあると思うんですけど、
とにかく現実の役者さんに近づけて近づけるみたいな感じで作られてるやつですね。
Nobuhiro Seki
これもトレーラー見てると、やっぱりアンドロイドがいっぱいいる画面とかがあって、
やっぱりこのロボットの、これだけ見るとやっぱりロボットが反乱するんじゃないかと、
なんとなく想像しちゃうんですけど、言わなくていいですよ。
だからやっぱりそういうモチーフのものが多いじゃないですか、欧米のやつって。
そうですね。
反対で知能を持って、あるとき従順だったものは反旗を翻すとか、
自分たちの権利を主張するみたいな、というのもちょっと感じたりしますよね。
でもこのさっきのゲームで現実感という意味で言うと、
これ前に1回か2回ぐらい話したことあるかもしれないんですけど、
2000年くらい、2001年?2000年かな?
エレクトロニックアーツが出したゲームで、
メールとか電話とかソーシャルメディアで相手側が現実世界に、
現実世界にある陰謀に巻き込まれていくっていう体験をプレイヤーがするっていうゲームがあるんですけど、
そういう話しましたっけ?
Mika Ueno
かもしんないけど、どうぞ。
Nobuhiro Seki
例えば、いきなり電話がかかってきて、
昔なんで携帯とかコテ電話に電話がかかってきて、
取ると向こう側でいきなり、助けて何とかとか、そういうのはかかってくるっていう、そういう設定。
Mika Ueno
しましたね、はいはい。
Nobuhiro Seki
でも電話とかやると、いかにも電話取った瞬間にテープを回しましたみたいな感じで、
音質が悪いから、いかにもテープを回してますっていう感じになったりとか、
急にチャットが来たりとかしても、そのチャットが脈絡なく巻き込まれるっていう感じだから、
そんなに巻き込まれないんですよ。
そこまで思ってるほど、現実とゲームの世界っていうのは離れ、
いわばまだ一体感がないっていうかボス情感がないんですけど、
だからちょうどイマーシブシアターとかで見てる感じ、
あくまでも近くで見せてもらってるって感じなんですよ。
要するにいきなり電話かかってくるから、確かにゲームに出てくるアクターの人の声でいきなり電話かかってきたりするから、
そういう意味でのちょっとパーソナライズされてるっていうか、距離が近い感じはするんですけど、
あくまでも近くで見てますっていう感じで、
その辺の人間の考え方、これってあくまでも見させられてるだけだよねっていうのと、
AIとかのチャットするときに自分に向かって話しかけてないかと錯覚するっていう、
そこの境目っていうのもまたあるよねっていうのをちょっと最近見ていて、
自分の受け取り方次第なのかもしれないんですけど、
没入っていう感覚もあくまでも近くで見てるっていうだけなのと、
自分が登場人物一人としてカウントされてるって自分が思うかどうかって差って結構、
Mika Ueno
全然違いますね。
Nobuhiro Seki
全然違いますよね。と思ったっていうのがちょっとこのデトロイトを見てます。
Mika Ueno
デトロイトはね、リンクも概要欄に貼っておきますけど、
ストーリーだけを抜き出して一つの映画みたいに感じに見せてくれてるとかもYouTube上たくさんあるんで、
ぜひ見てもらえればと思いますが、
それもストーリーの中で1個しかなくても数百ある分岐の中の1つだと思うんですけど、
でもそれでも十分楽しめる。楽しめるのと今のこの世界で見ると考えるところがいろいろある。
今もう1個共有したのが、これまたディズニーのイマジニアリングが作ってるやつなんですけど、
これがむちゃくちゃ可愛いドロイドで、スターウォーズのギャラクシーエッジっていうディズニーパークの中にある、
スターウォーズのエリアがあるんですけど、そこでお披露目されてるものらしいんですけど、すっごい小っちゃいの。
70−80センチぐらいしかない2足歩行のドロイドがよちよち歩いてきて、
それが今トレーニングしてますみたいなテーマ出てくるらしいんですけど、
これはさっき言ったAmecaとかデトロイドと違って全然人型じゃないんですけど、
2足歩行する眼球が光ってるから目はあるよねっていわゆるめちゃくちゃロボット、ロボット筐体のロボットなんですけど、
感情移入できるぐらいように作られてる、設計されてるんですよね。まず可愛い。
とにかく見てて可愛くて、どういう風になってるか知らないんですけど、
ディズニーのドロイド
Mika Ueno
トレーナーとか人に反応するようにできてるんですよ。
音がする方に顔を向ける、そっちの方に進んでいく。
自分が何か興奮してるとか、これいいねとか、何かしら喜んでるみたいな感情を表すんですよ、筐体揺らして。
そういう風にできてて、ディズニーのイマジニアリングの途中でいくつか実験してる映像とかも出てくるんですけど、
なんかよちよち歩いているこの感じっていうのと、
人型じゃないんだけど、動作とか所作で表してる、まぁ人間らしさじゃないな。
感情移入しやすい生き物としての動作みたいなのが入っていて、言葉も発しないんですけど。
Nobuhiro Seki
これあれですよね、これペットですよね、たぶんね、目指してるものはね。
Mika Ueno
犬とか猫みたいに人間と感情をやりとりできるレベルのもの。
言葉を理解してっていう感じなんだと思うんですけど、ここも人形とか高度な会話ができなくても、何かしら感情とかを読み取れるようにできてるっていうのをすごい感じて、
これもなんか、ただ高度に進化させるだけじゃないな、これも高度なデザインだと思うんですけど、
言葉を完璧に話せるとか、やりとりできるとかじゃないところにも、いろんな感情移入があるなぁと思い出したやつですね。
人工知能の感情移入
Nobuhiro Seki
ずっと見てたんですけど、パントマイムっていうか、首とか目とかの手とか足とかの特徴的な動きで、
例えば今見てますよとか、よくわからないですよとかっていう、ちょっと特徴的な動きだけを抽出してやってるじゃないですか。
あとは日本でよくあるカルガモ一家とかですね、鳥が子供を助けてちょこちょこ歩いてるみたいな、そういう完全にモチーフがあるんだなと思って見てて。
Mika Ueno
途中で骨格が入ったような画面が出てくるんですけど、1分くらいのところに。あれも本当にそうですね、2足歩行のカルガモみたいな動きですよね。
で、ちょっとペンギン入ってるみたいな感じの。
Nobuhiro Seki
最初形だけ見ると攻殻機動隊に出てくる社長がいるじゃないですか。
Mika Ueno
ジェームスン型の社長ね。それそれ。カチャカチャ言わない感じの、かわいい版ですね。
Nobuhiro Seki
でもあれは人間っぽくしますね。これはやっぱりどっちかっていうとカルガモって感じですね。
Mika Ueno
そうですね。かわいさで言うとジェームスン型じゃなくて立ちコマをめちゃめちゃ小さくしたみたいな感じのかわいさですね。
Nobuhiro Seki
それを狙ってちゃんとやっぱり人間っていうか着物っぽさを出すために目が2つあるとか、胴体の上に首があるとか。
本当にこれは鳥に見えるんですよ、僕はね。カルガモとかダチョウとかに見えますけどね。
首の動きが多分それに近いかなって。
あと足の二足も人間とは逆じゃないですか。
人間って膝が前に出てるじゃないですか。
Mika Ueno
こうですね。後ろ足みたいな感じですね。
Nobuhiro Seki
鳥って膝が後ろに下がってるじゃないですか。
AIのかわいさと自然な動き
Nobuhiro Seki
それで多分鳥に見えるんだと思うんですけど。
人間じゃなくて子供とか小さい動物に感じるようなかわいいっていう感じがします。
Mika Ueno
そうですね。そうやって作られていて。
これが実際にパークとかに出て行って、いろんな人がいる中でデモしてるというか、つかれているので。
耐久性はそうだろうし、人を楽しませるとか、感情を引っ張るとかね。
心を引っ張り出すっていうにはすごくうまく設計されてるなと思いました。
会話とか人の顔、顔のあたりまで目線が動くじゃないですか。
どうやってやってるかわからないけど、しゃがんでる人だったらしゃがんでる人の顔の位置まで上げるんですよね。
立ってる人だったらもっと上の方を見るみたいに感じるし、すごい設計だなと思って。
Nobuhiro Seki
顔認識してそっちの方に視線を送るみたいな動作をしてるんですよね。きっとね。
Mika Ueno
多分ね、カメラとか音のする方とかしてるんだと思うんですけど。
こんな感じ。これも一つね、Androidの一つ。これは娯楽用ですけど。
Nobuhiro Seki
これでもビデオ半年ぐらい前って書いてありますけど、
これってもうこの画面だけを見てるとまだリアルじゃなくてリアルの前のお披露目っぽいんですけど、
これって実際にもうやってるのかな?
Mika Ueno
これ実際パークでユーザーというか人が撮影したのも見たと思うので、2ヶ月前に出てますね。
Nobuhiro Seki
これはプロモーションのビデオだけど、その後に実際に出てるんですね、本物がね。
Mika Ueno
そう。これイマジニアリング公式のですけど、一般の人が撮ったやつも出てる。
これ一般の人が撮ったやつかな?これかな?
Nobuhiro Seki
これディズニーランドどこですか?
Mika Ueno
これはギャラクシーエッジだからアナハイムの方じゃないですかね?アナハイムかフロリダかどっちだろう?
Nobuhiro Seki
でもなんか挨拶しろとか言われるとちゃんと挨拶してて拍手してるから、
Great day言ったらちゃんと帰ろうとしてますね。かわいい。
Mika Ueno
ほんとかわいいのこれ。
なんかこういうかわいいと思うのと、Detroit: Become Humanみたいなあのぐらい完璧なる筐体で独立型の人で出てきたりすると、
AIの存在と人間の区別
Mika Ueno
なんかかわいい、軽く飛び越えちゃうんで、こういうなんかいろいろ感じましたね。
話し声自然に生成できて、一枚の写真があればそのまぶたの動き、眉の動き、目線の動きができる動画として喋ってるし、
本当に自然に喋ってるような動画を作るところもなんかいろんなとこが出してるじゃないですか。
マイクロソフトのリサーチが出したの、読み方バーサでいいのかな?VASA-1っていうのを見たときも、
ゲームのCGキャラがね、こうリアルでこんなリアルに喋ってくれたらと思ったこともあったんですけど、
デトロイトみたいなやつも前提に考えると可能性広げてくれるところと課題と両方感じるなっていうのは思いましたね。
Nobuhiro Seki
顔の表情の動かし方って、たとえば僕らも顔の表情の作り方で日本人でもこの人は日本で生まれた日本人だな
この人はアメリカ生まれアメリカ育ちの日本人だな
顔の表情、表情筋の使い方が違うからすぐ分かるじゃないですか。
そういうところまで見分けられるくらい人間って
人間の顔とか顔の表情とかを見ることに特化しているっていうか、すごい得意なんで、それを騙すまで来ているって感じますね
Mika Ueno
ああいうものが出来てくればくるほど、自分がどこを見てるんだとか
人間がどこを見て生き物として判断しているかとか、人間らしさを感じるのかっていうのが
いろんなパターンが出てくればくるほど、あここなんだってものすごい微細なところを見ているんだって
思いますね。顔の動き、表情筋の動きとか、本当にちっちゃいところなんですよね。
声に関しても、生成された声とか、感情の乗せ方っていうとこも ああ、こういうとこなんだっていうのにすごく、本当にちっちゃいところっていうのを、生成されたものを聞くと、思う。すごくね。
そこからまあ、今、もっともっと改良されていくと思うんですけど、まあ、人間は人間のコピーを作りたがっているんだなと思うと、人間はみんな素粒子とかでできてるじゃないですか。
でもそれがプログラミングに変わっている、デジタルのゼロイチで作られてるってものと、何が違うんだろうっていうふうに、なんか結構哲学的になっちゃうかもんだけど、そこまで思うんですよね。
それ考えたらね、人間だとプログラミングと同じじゃんっていう、実際の物理的に存在してる粒子とか、組み合わさってできてるもので、今私がここで喋ってるやつも、脳とかいろんなものが作用して話してるわけだから、なんか変わらなくない?みたいに思ったりして。
Nobuhiro Seki
外から見たときに、それが人間か人間じゃないかっていうのは、かなり判別不能に近くなってますよね、とは思いますね。
Mika Ueno
そう、現実世界に存在するウェットな物理っていうか、物でできているのか、それが電気的なものでできているのか間違いない気がすごいして。
でもアンドロイドになったらなったで、あれ物理的な素粒子でできてるのって変わらなくない?と思ったりとかしたりね、しました。
尽きない話ですが、こんな感じですね。
Nobuhiro Seki
2人でやるとこんな1テーマでだいたいこういけますよね。
29:32

コメント

スクロール