2024-01-05 33:16

【第26回】2024年のテクノロジーとデザイン変化の予測

#26 2024年のテクノロジーとデザイン変化の予測


リスナーのみなさん、明けましておめでとうございます。みなさんのご支援誠に感謝いたします。これからも皆様のお役に立つ情報を届けていきます!

▽トーク概要 

・2024年のテクノロジー変化

・それに伴うデザイン会社・その他ビジネスの変化予測

・おすすめ記事: 『【さよならUXデザイナー】AIによってUXデザイナーは消滅するのか?https://blog.btrax.com/jp/ux-designer-death/

==============================================

・⁠⁠SanFrancisco Design Talkへのご意見箱⁠⁠ 

放送の感想やご質問は、こちらのご意見箱へお寄せください!

⁠btrax初の書籍『発想から実践まで デザインの思考法図鑑』⁠好評発売中!

⁠最新Ebook 『Design E-book for Business Executives グローバルで競争力を高めるブランディング3つのポイント』⁠をリスナーの方に無料プレゼント!

==============================================

【出演者】

Brandon Hill / Suzy Ito

BrandonのX : ⁠https://twitter.com/BrandonKHill⁠  

リプライやDMまでご気軽にご連絡ください。

【btrax】

btraxは「We design the future by bridging the gaps」をビジョンに、2004年に創業したサンフランシスコ発のデザイン会社です。これまで日本、アメリカなど諸外国を含め300社を超える企業様に向けてUXデザインを軸に最適なユーザー体験を生み出し新たな価値の創出に貢献してきました。

btrax HP :https://btrax.com/jp/

サマリー

2023年には、AIの発達が目まぐるしい変化を見せています。また、2024年にはAIをデザインに活用することが正式なプロセスとして定着しそうです。この際には、利用のルールや著作権の問題についても整備が進む見通しです。2024年には、テクノロジーとデザインの変化について予測します。具体的には、AI技術がデザインに与える影響やプロセスの変化について話をします。また、音声入力と音声出力に基づくUI/UXのデザインやAIを経由したボイスコマンドによるサービスの設計が注目されるでしょう。

00:09
サンフランシスコ・デザイントーク、この番組は、サンフランシスコと東京に拠点を置くデザイン会社のCEOが、日本で働くデザイナーやデザインをビジネスに取り入れたい方向けに、様々なトピックについて深く話します。
ということで、これが公開されるのは1月なので、明けましておめでとうございます。
おめでとうございます。今は年末です。
今は年末です。今回は、2023年のテクノロジーとデザインを軽くリキャップした上で、2024年のプレディクション、予測についてちょっと話していけたらなと思います。
では、2023年、いろいろ、かなりいろいろありましたが、大きな…
どんなことありました?
本当に軽く、ざっくり言うと、イーロンがTwitterを買いましたね。
ああ、確かに。
それも2023年。
確かに。
で、ChatGPT4のリリースと、最近ですけど、Googleがまた新しいLLMを公開したり、いろいろ起きていて、
それを踏まえた上で、2024年にそういったテクノロジーの進化がどういうふうにデザインに影響していくか、みたいなところを話していけたらなと思います。
わかりました。
はい。
AIの急速な進化
えっと、そうね、2023年は、もうとにもかくにも、AIの、生成AIの発達が目まぐるしかったと思うんですけど、
年始ぐらいから、すごくその実用性が上がってきて、多くの人に知られることになりましたよね。
はい。
Tの、あれは3かな、そのぐらいの時期の、2.5とか3ぐらいのリリースと、あと世の中の人が使えるようになって、一気に知名度が上がって普及したと思うんですけど、
あの、その年始ぐらいの時に僕もちょっと、あの、おかしい人に話聞いたりとかイベント行ったりとかして、
なんで急激に今までなかったようなすごいことが、
爆発したのかっていうのですごい興味があったんですよ。
なんかその、生成AIのことに関しては、
あの、普通テクノロジーって少しずつ出てきて、
で、徐々に改善してって、どんどん良くなって、使いやすくなったりするじゃないですか。
はい。
例えばインターネットの回線スピードとか、パソコンのスペックとか、
あとスマホの使いやすさとか、画面の大きさとか、
カメラの性能とかっていうのが、
なんか元々プリミティブな初歩的なものが世の中にあって、
それの改善を繰り返すことで発展していくのがテクノロジーだから、
えーと、なんだろうな。
えー、基本となるものはあって、それがすごく良くなって、急激に使いやすくなったとかってあるんだけど、
ことをそのAI、特に生成AIに関して、
プリミティブAIに関しては、それまで全然、あの、水の上っていうか水面下にいて、
世の中の人にあまり触れる機会がないようなもの、僕もあんまり詳しく知らなかったし、
もちろん一般的なテクノロジーに対してそこまで安定の張ってない人からすると、
ねみみに水っていうか、びっくりだったんですよ。
でね、それって、あの、
水面下でLLMを、あ、LLMっていうのは、その生成AIを生み出すために必要な言語データベースみたいなものなんですけど、
そこにデータの蓄積を、ここ10年とか、デジタルデータ、音声だとか文字だとか映像とかをいろいろ溜め込んで溜め込んで、
で、それを動かす、まあトランスフォーマーっていうかエンジンみたいなものとかも、
開発も、あの、水面下でじわじわじわじわやってて、
で、急激にそれが、あの、パッて世の中で使えるようになったっていう話らしいんですね。
かなり大きな、あの、オブジェクトですね。
そう、ですよね。なんかね、あの、
ジョン・マエダっていう有名な、あの、日系アメリカ人のデザインテクノロジストみたいな方がいて、
はい。
まあ、デッドトークとかに出てる方がいるんですけど、
その方って、その、テクノロジーとデザインの融合みたいなことをずっとやられている方なんですが、
その方の、その、今年初めの頃に行ってたプレゼンが僕一番わかりやすいなと思っていて、
あの、池に蓮の葉っぱを並べてって、
えー、1日足すと蓮の数が倍になる。
で、えーと、100個、えーと、蓮の葉が、
はい。
えー、100個じゃなかったかもだけど、まあ、100個蓮の葉が並ぶと、池が全部蓮で覆われる、覆わられるっていうような状況だったとしたら、
えーと、なんだっけな、その、100個になるのに、まあ、100個になる前日には蓮の葉っぱは何個ですかっていう話をしてた。何個だと。
えー、99。
毎日倍になるから、
あ、そっか、倍になるんだったら50。
50なんだっていう話をしてて、
はい。
で、そのAIの進化ってなんかそれっぽい、その、えーと、足し算とか掛け算じゃなくて、何乗っていう感じ。
はいはいはい。
あの、2の1乗、2乗、3乗っていうのが、その、指数関数的に広がる感じなので、
はい。
あの、すごく進化のグラフっていうのがギュインと伸びるようなテクノロジーらしいんですよ。
うんうん。
で、なので、今まで半分だったのが、
うんうん。
1日経つと急に、その倍になるっていうぐらいの、進化スピードのテクノロジーの種類らしいんですね。
うん。
なので、その、生成AIが世の中に出る直前までは、あまり大したことないように見えてたが、急にギュインときたっていう話をしてて、あ、そうなんだと思ったっていう。
なるほど。
で、でさ、なんだろうな、まあ、本日に至るまで、その、
その、AIをデザインに使うとか、えー、コンテンツ生成とかに使うって、もう、やってるじゃないですか。
はい。
えーっと、まあ、文字コンテンツももちろんそうだし、メールとか、文書とか、えー、画像系も、ミッドジャーニーとか、えーっと、ステーブルディフュージョンみたいなものとか。
あとは、最近だとちょっと動画もいけたりとかして。
うんうんうん。
で、で、僕も結構毎週。
うんうんうん。
AI for Designersっていうイベントに参加して見てるんですけど、まあ、プロンプト書いて生成するっていうのがあるじゃないですか。
で、これ2013年と2014年の、なんか結構違いが、今後あるなと思ってるのが、2013年って、まあ、サンフランシスコで、その、デザイナーの集まりとかで見てると、結構ね、あの、ゲリラ的にまだやってるんだよね、いろいろそういう。
うん。
あの、AIの利用っていうの。
うん。
あの、AIの利用っていうのは、えー、みんな自由に、勝手に、なんかこういうテクニックあるよとか、こういうハックがあるよとか、こんなやり方すると、あの、楽に生成できるよとか、あとなんかプロンプト、参考になるプロンプトテクニックとか、日本だったらなんか、チャットGPTプロンプトの本とかもあるぐらいだと思うんですけど、なんかね、非常にね、なんて言ったらいいんだろうな、アンオフィシャル感があるんだよね。
うんうんうん。
アンブッシュ感があるっていうか。
はい。
すごい、あの、アンダーグラウンドなやり方で、えー、やってる感じ。
うん。
結構、それはそれでまあ、面白いんですけど、テクノロジーって最初、新しいものが出たときって、テックに詳しいアーリーアダプターたちが、結構その、ハック的使い方をして、あの、ビジネスとか生活に役立てるってことをやる、やるわけよ。
うん。
なんかグレーゾーンとかもあって。
うん。
で、まあ、その、生成AIに関しては、プロセスも法律も、まだまだ、あの、整備されてないから、あの、まあ、やりたい放題であり、その、テクニックを知ってる人はできるけど、そうじゃない人はよくわかんないとか。
うんうん。
っていうのが、今年結構、その、混沌として、いろいろ、その、雑草のように出てきては消えたりとか、なんかいろんな使い方あったりとかしてたと思うんですけど。
うん。
で、あの、24年になってくると、あの、まあ、代表的なものだと、その、デザインツールを作ってる会社、AdobeとかFigmaとか、いくつかあると思うんですけど、そういうのに、あの、連動させ、連動も少しずつしてますけど。
はい。
よりそこがソリッドに入ってくるし、えっと、まあ、Googleみたいなところとかもオフィシャルで入れてくるので、えー、2023年の試行錯誤フェーズが終わって、ついになんかオフィシャル実装フェーズになってくる。
はい。
うんうん。
AIの活用の標準化
その、AIを仕事で活用するとか、デザインワークで使うっていうのが、えー、正式プロセスになってきそうな気がしていて。今、うちの会社もそうだけど、正式プロセスというよりは、便利だったら使ってみたらみたいなノリになってるんで、あの、会社のオフィシャルプロセスとして整備まだできてないじゃないですか。
うん。
そうですね。
でも、今後、多分、その、やっていいこととやっちゃダメなこととか、やるべきこととか、間違った使い方とかを。
間違った使い方とかを含めて、そこが、どんどんどんどん、あの、えー、フォーミュラ化されてくっていうか、えー、精準、精準化される、分かんない。
規律ができるみたいな。
スタンダ、スタンダライズされるっていうことですね。
はい。
スタンダード化してくと思うんですよ。えー、会社ごとにもそうだし、業界としても。
うんうん。
こう使うのが正しい使い方だっていうやり方ですね。
うんうん。
多分、あの、僕もよく分かってないですけど、その、サーチエンジンみたいなのも出たときも。
多分、入力する検索用語の書き方とか、結構、あの、ハックしながらやってた気がするんですよね。
うん。
その、ピリオド入れるとどうだ、コンマが入れるとどうだとか。
なんか、特殊記号入れるとどうなるとか。
なんか、クオーテーション入れると、その文字だけ。
入ってるやつしか出ないみたいな。
そうそうそうそう。そういうのが、最初はみんな、あの、こういう風に入れたらこういう反応するんだっていう機械と遊んでる感じで、あの、試行錯誤でやってたのが。
それがだいぶ、あの、検索エンジンの使い方っていうのがみんな分かってきた。
それに近い世界観が、その、デザインにおけるAIの活用になってくるし、えっと、政府とか、行政側も、その、著作権、コピーライトの概念とかも、だいぶ日本もアメリカも、判例みたいなのが出てきてて。
その、裁判所が、これは許すけど、これ許さないと、これはここに帰属するとか、しないとか、やっていい、悪いみたいなのが、だいぶ出てきてるので。
企業とか、デザインにおけるAIの活用になってくるし。
そういうのが、大きな、としても、何をやるとアウトなのかっていうのも、だいぶ分かってくるので。
うん。
その、生成、AIで出力したものを、え、クライアントプロジェクトに使っていいのかとか、手を入れなきゃダメなのかとか、あとはなんか、既存のアーティストのスタイルで出力したものが、そのアーティストの権利を侵害してるのかしてないかとか。
うん。
そういうのが、ちょこちょこ見てると、判例出てるんで。
うん。
そういうね、そのNG項目とOK項目が、分かってくるんじゃないかなと。
そう。
思ってますね。
なんか、最近は、最近あったケースで、そういうなんか法律のケースで、何だったかな。生成でAIはとりあえずはコピーライトはできない。
そう。
っていう決まりになったんですね。
そうですね。
生成AIの影響とデザイナーのスキル変化
なので、本とかで、生成AI使ったものを使ったら、それ、本自体はコピーライトできるけど、そのイメージはコピーライトできないみたいな。
そこが、僕もその判例とか読んだんですけど。
はい。
そこまでは理解できたんですけど、そこからちょっと、まだよく分かってないのが、それに、手を少し加えればいいんじゃない仮説っていうのがあって。
ああ。
生成されたものに対して、また、デザイナーが少しいじる。
うん。
そうすると、そのオリジナル作品になる。っていう概念があって。そこもだいぶ、2024年は分かってきそうな気が。
確かに。
していますね。
なんか、友達が、ちょっと話してて面白いなって思ったのが、その生成AIが、カメラが出てきたときに似てるなみたいな話をして、写真を撮るじゃないですか。
はいはい。
写真は、写真の中に写ってるものってコピーライトできないじゃないですか。建物とか。
そうですね。
は、なので、コピーライトはできないけど、写真にもし加工を加えたらどうなるのかみたいな。
ああ。
もう既に、ちょっと私も詳しくは知らないんですけども。
うん。
確かにそうだね。
あの、カメラはもう10年20年あるので、そこら辺の規則はできてる。けどまあ、なんかそれと似たような、AIってそれと似てる感じじゃない?みたいな話をしてました。
確かに。あの、それで言うと写真、写真撮ると基本的には、そのカメラマン撮った人の著作になるじゃないですか。
はい。
ただ、その中に人が写ってた場合は、その人の肖像権っていうのがあるから、そこの権利が発生するじゃないですか。
じゃあ、顔にモザイクかけたら、肖像権は消滅するのかとかね。それになんか近い感じだよね。
そう。その話をちょっとしてたのを思い出しました、今。
多分、まだまだケースバイケースがあるから、あの、判例とか、その、USコピーライトオフィスのオフィシャル発表とか、そういうのも気になるところではありますよね。これが一つと。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
はい。
デザイナーとかレンダリング会社に発注しなくてもできちゃうねっていう厳しい現実があって、
今後そのデザイナーのスキルとか仕事の仕方って大幅に変わるだろうなと思ってるんですよね。
特にこの前そのAI for Designersのイベントで一番衝撃を受けたプレゼンターがいて、
それがアカデミオバートユニバーシティっていうサンフランシスコの美大あるじゃないですか。
あそこで教えてる人でなおかつプロのクリエイティブディレクターをやってる人なんですけど、
彼が学校じゃなくてそのプロのプロジェクト、リアルプロジェクトをプレゼンしてくれてたんですね。
それがブランド、著名ブランドとか世の中にあるじゃないですか。
そこがクライアントで、AっていうブランドさんがうちBっていうブランドさんとコラボ商品作りたいと思ってますっていう。
ビジネス戦略があって、それの企画とモックアップを作りたいっていうので、
それを彼は一人で、アシスタントは全部生成AIでレンダリングさせるんですよ。
そのブランドのロゴとかをAIに読み込ませてロゴがきれいに表示できるようになってて、
プラスもう一個のブランドが、それアウトドアブランド、お菓子のブランドとアウトドアブランドなんですね。
はい。
そのお菓子のブランドがクライアントさんで、
で、そのアウトドアブランドのグッズにそのお菓子のロゴが載ってたりとか、
それ、あのなんだっけ、エナジーバーみたいな、
そのアウトドアブランドとお菓子のブランドのコラボなので、
日本語でなんていうのかわかんないですけど、グラノーラバーとかエナジーバーっていう、
その登山とかしたいった時に、チョコバーみたいなのを食べるじゃないですか、プロテインみたいなやつ。
はい。
AIによるデザインプロセスの変化
あれの企画とかを、そのパッケージとか商品の雰囲気とか、
あとそのブランドの名前とか、
カラースキームとかをAIで試行錯誤してどんどんジェネレートしていって、
で、例えばその登山の靴だとか、ギアとか、あとはストアの感じとか、
店員さんの雰囲気、店員さんが着けてるエプロンとか、
そういうのもイメージ図でどんどん出していくんですよ。
そうすると全体のブランドイメージっていうのはつかみやすいから、
その企画を通しやすくなるんで。
はいはいはい。
で、今まではそういうのをやると、結構な人数のデザイナーとか、
3Dアーティストとか、イラストレーターとか必要だったんですけど、
彼は一切人間を使わずに、AIだけで、
いろんな試行錯誤のプロンプトの書き方とか、アウトプット、インプットを、
彼が言うには、まともなデザインがAIが生成してくれるのは30%ぐらいの確率しかないから、
何度も繰り返すなんて試行錯誤、アジャストしたりとか、
それをしながら、いいアウトプットが出てクライアントにプレゼンして、
それが通ったら、そのクライアントもこっちのBっていうブランドさんに、
提案するみたいな、そういうのを手伝ってるって案件を見せてくれて、
いや、本当に仕事のプロセスで思いっきり変わったなって、そこで痛感したんですよね。
そうです。AIクオリティ、まだちょっとあれですけど、
プロポーザルとか、ブックアップの自体って、数が大事なので。
おっしゃる通りです。おっしゃる通りです。
そこのプロセスは確かに変わってるそうです。
パブリックには出ないんだけど、内々で企画を考えるときとか、イメージを作るときとか、
作るときに使うんであれば、全く問題ないじゃないですか。
コピーライトも気にする必要ないし。
なので、プレゼンしたりとか、上の人に理解してもらうために活用して、
イメージを持ってもらいやすくする。
文章で企画書とか、あとはパワポとか作るよりも、実はもっともっとリアリスティックに見えるし、
イメージしやすいんです。ああ、こういうのは確かにやったら面白いよねっていうのが。
ブランドコラボとか、特に、
SSAIは得意なので、AというブランドとBというブランドの画像とかを両方入れて、
それをミックスしたのを生成してみてみたのが得意だから。
そこのデザインプロセス、ブランディングのプロセスへのAIの影響は非常にポジティブな影響はありそうだなとは思っていたし、
同時に、そういうイラストレーターとか3Dモデラーとかの仕事が
危ういですね。
うん。
僕、大学行ってたときに、一時期3Dモデラーになろうかなって一瞬頭をよぎったときがあって、
3Dソフトでゴリゴリ作っていくのがすごい好きで、
でもあれって本当に、一つのモデル作るのに一週間とかかかる、非常職人的な仕事なんですね。
そういう意味で、そのスキルがあって根気よく続けられる人は、ものすごい良いポジション、トレーニングがとても重要になってくる。
そういう意味で、そのスキルがあって根気よく続けられる人は、ものすごい良いポジション、トレーニングがとても重要になってくる。
いいポジション取れるんだけど
今はもう無理だなと思って
物の数分で
人間が1週間かけて作るものをささっと出すし
もうちょっと変えてたらすぐ変えてくれるし
違う角度とかも出すんで
絵を描くっていうデザイナーの仕事は
今後結構本当に危ないなと
その案件を見て
そういう人にお金払わなくてよくなってるかなと思った
っていう話ですね
まだ今のAIのクオリティだと
必要は必要だと思うんですよ
最終的に人間が結局手を加えていかないといけないので
まだ必要ではあると思うけど
いつまで必要になるか分からない感じ
ウェブサイトのノンコーディングのビルダーが出てきてるのと同じ感じ
そうですね
そうですね
UIとUXの変化によるプロンプトの不要化
そうですね
おっしゃるとですね
いわゆるプロダクションだけをやる人のニーズが下がる
そこにストーリーをちゃんと考えたりとか
コンセプトを考案したりする能力があれば
すごく価値高いんですけど
言われたまま
それを絵にするとかアウトプットするだけをやっている仕事は
手だけ動かして頭を動かさないような仕事は結構厳しくなるかなと思って
なんとかそういう風に
そういう工夫が
できていればいいんですけど
のが一つと
あと最近ちょっと考えてて
実はAI進化すると
デジタルサービスにおける
UIとUXの概念も変わるなっていうことをちょっと思ったんですよ
どういうことかっていうと
今ってプロンプトを書いて
アウトプットみたいなのが
チャットGPDとかもちろん
プロンプトとかも書いてるんですけど
プロンプトとか質問とかそういう対話式でやってるじゃないですか
そのプロンプトのテクニックとかが
いろいろ話されてる世の中なんですけど
まず一つは
プロンプトもしかしたら
あんまりいらなくなる時代がすぐ来るかもと思ってて
それも同じイベントで違う時に見せてくれてた
そのプロンプトも入れられるけど
ほとんどGUIでできる
生成ツールを作ってるスタートアップがプレゼントしてたんですね
グラフィックユーザーインターフェース
パソコンがまさに
昔ってコマンドラインって言って
機械に文字を入れて
何々コピーとか多分
MSDOSとかそういう時代に
黒い画面に緑の文字で入れてた
ビル・ゲイツがやってたような
からいわゆるそのMacのOS
その後のWindowsとか
クリックして開くとか
人間の目でより使いやすい形になったじゃないですか
それと同じでAI系もプロンプト入力
文字入力からスライダーとか
ダイヤルとか
そういうユーザーインターフェースが
より直感的になる可能性あるなと
思ってるのが一つと
あとちょうどここ数日で見て
なるほどそうなるなと思ったのが
今って人間ってアプリとか使うじゃないですか
eコマースとかマップとか
それを
例えば
何でもいいや
牛乳をスーパーから買うのを
全部eコマースでインスタカートでやるみたいなのを
今人間が人力でやってるんですけど
音声入力と音声出力の進化
例えばそのSiriみたいなもののオーディオインプットで
明日までにミルクが届くようにしといてって言ったら
AIが
そのインスタカート立ち上げて
ミルク選んでオーダーしてっていうのを
やってくれる時代が来る
近いうちに結構来る可能性高いらしいんです
あれですかアレクサとかに
そうそうアレクサとかSiriって今
できることって非常に少なくて
スポーティファイでこの曲プレイしてたらプレイするのは
スポーティファイ立ち上げて
曲をインプットしてそれをプレイするのはできるじゃないですか
それをもっとAIが進化すると
それをプレイすると
それ以外の行動もスマホ内の動きを
AIがしてくれるようになると
今までアプリを立ち上げて文字入力して検索してとか
地図で目的地入れてみたいなものを
だいぶできるようになってきたんですけど
もっともっとできるようになると
基本的に人間が入力するものが非常に少なくていい
例えば言葉で説明できる入力をする
いわゆるアシスタントとか
友達とか子供とかに頼む
ちょっとあれ買ってきてとか
これやっといてみたいなものをやると
それに最適なアプリ経由でそれをやるっていうのが
どんどん進化すると
インプットがそういうインプットの形になるから
インターフェースっていうのも
インターフェースって人間と機械をつなぐ設置点なんだけど
そこが新しい入力方法
アウトプット方法になってくるから
UIデザインの概念も変わるし
もちろんその延長線でユーザー体験も思いっきり変わるから
アプリの設計とか
総合的なユーザー体験をデザイナーが考えるときに
人間が使うだけじゃなくて
AIが使う可能性のあるアプリみたいな
自動運転する可能性のある車みたいな感じの
設計の品干しが持ちかしたら
そのAIレディなアプリに
作っていく必要があって
人間でも使えるし
AIでも使えるアプリですっていう
すごいですね
近未来って思ってたものが
映画とかで
昔から十数年前からこういう映画ってあって
声でポッて言ったら
全部パパパパって機械がやってくれて
完了しましたみたいなのが
理論的にはすぐできるみたいなんですね
僕それこそ
CESっていうイベントに毎年
世界最大テックカンファレンスで
最新のテクノロジーを展示している
ラスベガスのショーですけど
それ2024年も行きますけど
それの下調べとかしてても
それこそ家電もそこの領域が
前から言ってたけど
最近生成AIで超やりやすくなってるらしくて
サムソンとかかなり力入れてるんですけど
本当に言葉でお願いしたら
料理ができるとか洗濯終わるとか
最小限の人間の動きで達成する
最適な結果が達成できるようになってくらしいんで
非常になんだろうな
ダメ人間製造機が
そうですね
生きやすいを通り越してダメになりそうな
そうなんですよ
AIとの対話を通じたUX設計
頑張らなくてよく
何も頑張らなくてよくなる
頑張らなくてよくなる
世の中になるかもしれない
寝転がってお願いしたら全部
映画でありませんでしたっけそれ
みんな太った人間が
勝手に動く椅子で移動する
見たことないけど
アニメーションの映画が
なりそうですね
怖いですねちょっと
映画で言うと
僕は本当に今年2023年
ずっと思ったのが
AIが完全にハーって映画を
実現したなと思ってて
ハーっていう映画
多分10年くらい前の映画で
スマホに搭載されてる
AI彼女サービスっていうのに
ハマる
オタクの男の人の話で
世界で一つの彼女
そうですね
リアルな恋愛がすごく苦手な男性が
理想の彼女が欲しいんだけど
なかなかうまくいかないんですよ
現実社会で
やっぱりちょっとオタクっぽいし
コミュ障だから
そういうときに
彼女アプリありますよっていう宣伝が
なんか見つけて
試してみたら
どんどんハマっていって
自分に最適な
受け答えをしてくれるんですね
たまに喧嘩したりとか
でも生身の人間より全然いいみたいな感じ
っていう話なんですけど
その見た当時は
いやこんな世界来たら怖いなとか
まあ来ないだろうなと思ったんですけど
2023年に入って
完全にそれはもう
既に達成している概念で
そのチャットGPTとの
対話っていうのは
普通に今できるじゃないですか
それが音声になったら
そのハーっていうのの状態なんですけども
それできるから
ありますね
音声入力音声出力って余裕じゃん
だから
音声入力音声出力を
前提としたUI UXのデザインっていうのは
今後ものすごい
注目される
特にこれ
以前に
ALEXAとかの研究したときに
アメリカは本当に音声で
入力する人がすごい多いらしいんですよ
そうですね
はい二つ理由があって
一つは車社会だから
運転中に何か検索したりとか
あの音楽プレイしたりするときに
あのALEXA Playlistとか
そういうPaySiriとか
PayGoogleみたいなやつは
よくやる
僕もたまにやるけどやるのと
と声を出すことに対しての
なんかあの抵抗があんまり少ないですよね
なんかあの抵抗があんまり少ないですよね
なんかあの抵抗があんまり少ないですよね
日本のユーザーのユーザーにさせたときに
やっぱりその
人前で声出したりとか
苦手だったりとか
電車の中で喋らないでくださいとか
エレベーターは静かにしてください
って文化あるから
人がいるとこで声を出すってことに対しての
躊躇があるから
音声入力がまだそこまで
普及してないんだけど
アメリカなんだっけな
結構前にリサーチしただけでも
AIを経由したサービスのデザイン
Googleに入力しているデータの中の
25%ぐらいは音声だっていうのがあって
結構びっくりしたんだけど
今後どんどん増えるだろうなと思って
言われてみるとそうですね
Googleとか
なんか友達と話す時とかも普通に
ボイスレコーダーみたいなのを
そのまま送っちゃうとか
はいはいありますね
それが映像にもなるかもしれないけど
なのでデザイナーの仕事として
ボイスコマンドありき
ボイスコマンドから
AIを経由して
そして何かをやって
アウトプットが届くみたいな
サービスのUX設計を
そろそろ考えていったらいいなと思っていますね
何をデザインするにしても
その間にAIを経由するっていうのは
想定しておいた方が良さそうだなと思う
AIエンジンが一回かまさるっていうか
そこはAIを搭載して
ないサービスの方が今後少なくなるはずなので
そこを念頭に置いたデザインワークを
やっていく必要がありそうだなと思ってると思うのは
2024年の予想っていうか
予想というよりもやらねばって感じ
自分たちに
自分たちがやらねばって感じ
確かにそうですね
今作ってるデザインが
AIを経由しているときに
経済してないとしても
いずれ今後AIをインテグレートするのを
見込んだ上で作るみたいなのは大事ですね
そうです
そう思います
ありがとうございました
じゃあちょっと締めます
サンフランシスコデザイントークは
番組に対する質問や
取り扱ってほしいテーマを募集しています
番組概要欄にあるGoogleフォームから
お送りいただけますので
お便りお待ちしております
最後までお聞きいただきありがとうございました
次回もお楽しみに
33:16

コメント

スクロール