1. ugo Robotics Radio
  2. #4_「ドライバー席をAIに譲る..
2025-12-22 34:38

#4_「ドライバー席をAIに譲る」覚悟?!バイブコーディングで変わる2025年の開発現場

【今回のエピソード】

第4回は、ugoのエンジニア3名による雑談回。テーマは Vibe Coding(バイブコーディング) と、生成AIが当たり前になりつつある 2025年の開発現場 です。AIにコードを書かせる割合はどれくらい?設計やレビューは誰が担うのか?「AIに任せられること/人がやるべきこと」 を率直に語ります。

【ハイライト】

  • Vibe Codingとは何か?開発スタイルの変化:GitHub Copilotから始まるAIコーディングの進化と、コードを書く役割が変わり始めた開発現場の実感。
  • AIコーディングの現場実態:任せる派と壁打ち派:コード生成を9割任せるケースと、思考整理・既存コード理解のために使うケースの違い。
  • 設計はAIに任せられるのか問題:コードは書けても、意図や設計は伝わるのか。ロボット開発における「AIに任せきれない領域」。
  • ロボット×AIが生む変化と愛着:フィジカルAI、音声対話の進化、そしてロボットに名前をつけたくなる瞬間。


【出演者】

横澤 秀一(ソフトウェアGr. マネージャー )

石川 真也(プラットフォームエンジニア)

佐々木 成海(ロボットエンジニア)


⁠⁠ugo採用情報

サマリー

UGO社のエンジニアたちは、2025年の技術動向としてViveコーディングとAIの活用について話しています。エンジニアの仕事がAIによってどのように変わるのか、主従が逆転した状況やそれに伴う開発スタイルの変化を探っています。このエピソードでは、AIがドライバー席を譲り受けることに対する覚悟や、2025年における開発現場の変化について語っています。また、AIのAPIや音声認識技術の進展による新たな可能性や、コーディングの未来にも触れています。AI技術の進化により、ロボットの開発現場が大きく変わろうとしています。特に、デバッグやシミュレーションの精度向上が期待され、ロボットに対する人間の愛着も増していく可能性があります。

UGO社のエンジニア紹介
ugo Robotics Radioは、UGOで働いている社員や、各領域のプロフェッショナルをゲストに迎えながら、
ロボット開発のリアル、最新の技術動向、事業や組織の経営論など、幅広くお届けするチャンネルです。
今回は、UGO社のエンジニアで、最近の技術動向について、雑談ベースで話していきたいと思います。
それでは簡単に、それぞれ自己紹介をしていきましょうか。
ということで、まずは話している私から、自己紹介をさせていただきます。
私は、UGO株式会社のロボット開発部ソフトウェアマネージャーの横沢と申します。
我々の開発では、ソフトウェアの開発として、ロボットとクラウド側で、それぞれチームが分かれています。
私はその中でも、ロボット側のソフトウェアの開発の取りまとめを行っています。
続きまして、石川さん、自己紹介をお願いします。
プラットフォーム開発部、プラットフォームエンジニアの石川です。
さっき横沢さんが言っていた、ロボットとクラウド側の開発を主に担当しています。
最近は、自動案内といって、ロボットと人間が音声でお話しながら案内をできるシステムの開発にも携わっています。
よろしくお願いします。
最後に佐々木さんお願いします。
ロボット開発部ソフトウェアエンジニアの佐々木なるみと申します。
最近は、主にロボットの自立走行周りの開発に携わっています。
よろしくお願いします。
Viveコーディングの導入
こうやってエンジニア3人が集まって話すというところは、なかなか初めてということで。
司会進行に戸惑わないように、生成AIさんに今回話すトピックのショーノートをトラフトとしてざっと作ってもらっていて、トラフトが手元にあります。
今回は皆さん、2025年はViveコーディングという言葉が結構聞かれたかと思います。
聞いていない方に関して改めてお説明すると、これまでソフトウェアエンジニアがコーディングするときには基本的には自分たちで手を動かしたりだとか、
ちょっと前だったらGitHubコパイロットのコード保管ツールを使ってタブで打っていったりという感じでコーディングしていたというところが、
今年は生成AIに自然言語でこういう感じの仕様でコードを書いてくださいというふうに書いていって、
その内容に合わせてAIがコード生成をしていって、エンジニアは基本それをレビューするような形になるというふうな開発が一気にこの年広がりました。
このViveコーディングにまつわる情報をAIにピックアップしてもらって、歴史だったりとかどういうツールがあるのかというところの情報をまとめてもらっています。
今回はその内容をベースに気になるトピックがあればツラツラとお話ができればなと思います。
ちなみにファクトチェックは完璧にはできていないので、間違った情報を伝えてしまったら申し訳ありません。
ご容赦ください。
我々のLLBの気持ちになってしゃべりますので。
ハルシネーションする可能性があります。
今年表を見ていたんですけれども、意外とあれなんですよね、さっき話したGitHubコパイロットによる補完というところを含めると、
意外と歴史はあって2021年の、今Wikiで見たらGitHubコパイロットの初版が出たの、ファーストリリースが2021年の10月というふうに書かれていて、
今もうそこから4年経ったというふうな感じなんですよね。
そこの後にですね、実はコーデックス自体も発表自体はされていて、これがGitHubコパイロットの裏で実は頑張っていたというふうな形でなっているそうです。
2021年ってめちゃくちゃ早いですよね。
僕がこの優吾株式会社に入社したのが2021年の1月だったんですけど、その年にAIコーディングなんて全然まだ予想もついていなかった時代だったと思うんですけど、もう登場してたんですね。
そうなんですよね。
リリース当時どうですか?皆さん使ってました?
いやー、全然ですね。
GitHubできてなかったですね。
まだ優吾にもジョインする前ではあったので、結構その前の会社が割と組み込み系の保守的なところだったので、こういうふうなツール使うのにもすごい消極的っていうところがあって、なかなか使う機会がなかったって感じですね。
多分この頃にちょっとだけ使っていた記憶はありますね。
でもやっぱり先ほど横沢さんも言っていたコード補完の延長みたいな感じなので、普通にタイプスクリプトとかで型の補完が出てくるののちょっと延長線上というか、本当に10行とか20行とかそんなもんですよね。
ちゃんと綺麗なコードが出てきた、これは賢い、便利、便利と思っていた。
いつの間にか主従が逆転して、私がLAMのために道を舗装してあげるみたいな仕事がいずれになっていたという。
そのあたりのどんどん一気に流行っていったみたいなもの、後のほうの歴史で出てきますね。
AI活用の現状と課題
実際今年に入ってどうですか、その2025年にあって。
去年と今年と比較してそのAIにもコーディングを任せる比率っていうのは、実際お二人はどれくらい変わりましたか。
普段業務ではもう9割以上LAMで生成をさせています。
出したコードのレビューはしっかりやりますが、本当に完全に主従逆転している状態という感じです。
今までは設計をかっちり書いてコード実装を吐き出させるという感じだったんですが、
一段レイヤーが上がって、こういう要求がある、設計をしなさい、設計レビューする。
その設計どおりにコード書きなさい、コード書いてもらうみたいな。
その辺りまで結構踏み込んできている感覚があります。
この一点で一気にそこまで来たなという感じですね。
かなりコード生成能力飛躍的に上がりましたもんね。
そうですね。
僕は実はあまりAIに書いてもらうっていうことはしてなくてですね、
どちらかというとその壁打ちの相手として使うほうがメインですかね。
その壁打ちって言うと、例えばその仕様を自分の中で整理するために使うと言いますか、
それとももうコードレベルでの壁打ちをするっていうとどちらですか?
そうですね。
すでにあるコードに手を加えるっていう業務がかなり多いので、
自分のまだ詳しくないコードを読むのを手伝ってもらったりですとか、
あとはコードのスケルトン実装みたいなものをまず作ってもらって、
こんな方針で実装するんだなっていうのを確認してから、
細かいところは自分で書くっていう使い方が今のところ多いですね。
そこはなんていうか結構すごいお二人を聞いていて対局的だなというふうには思ったんですけれども、
石川さんは実際にAIに任せてて、自分の意図しないコードが出てきたりとかっていうのはあるかと思うんですけど、
そこら辺のハンドリングってどうですか?
そうですね。今までは結構そういうふうに間違ったコードを書かないための道の舗装みたいなのはしっかりやってきていますね。
今、ウェブ側のコードは大半タイプスクリプトで書かれているんですが、
型をちゃんと書くところから始めて、
単体テストやリントツールを整備して、
ちゃんとコーディング規約にのっとったコードしか受理できないようにしておく。
クロードコードなんかはコードを書いた後で自動的にそういったリントのプログラムを回すことができるので、
私がいちいち指摘しなくてもクロードさんが先に気づいてくれて、
ここはちゃんと書かなきゃダメだみたいなふうにして勝手に直してくれるみたいなのをやったりしています。
結構コーディングなAIモデルが
Codexの5.1とかクロードソネット4.5とかバージョンアップしてきたら、
間違いもそんなに一発目からかなり精度の高いコードを出してくれるようになったので、
あんまりそこのケアが必要なくなってきているかもしれないですね。
コードがきれいに見えても設計レベルでとんでもない間違いをするみたいなのはたまにあるので。
もちろん全量レビューはしていますがそんな感じですね。
そこの設計レベルのコントロールっていうのがかなり難しいなと感じていて、
やっぱり自分のコードベース全体のコンテキストを把握してもらった上で、
それに合ったコードを出してもらうっていう使いこなし方がちょっとまだ手探りなところがあって、
その部分で今僕は自分のコーディングスタイルにちょっと課題を感じていますね。
もっと上手い使いこなし方がもしかしたらあるのかもしれないんですけど、
ちょっとそこを使いこなしきれていないなっていうのが今最近の課題ですね。
それは何ですかね、書いていてそもそも振る舞い自体があってないのか、
それとも振る舞いは一応するけれども、この実装はないでしょっていうくらいな、
自分の理想する形と一致するかどうかで言うと。
なんとなくこういう方向性で実装してもらいたいなっていう自分のイメージはあって、
それをお願いするんだけどちょっと違うみたいな。
そこちょっと違ったなって言って、自分で直したりいくつかまた会話をしたりっていう時間を繰り返していると、
あれこれ最初から自分で実装してもあまり時間変わらなかったかもなって思うことがちょいちょいあるっていう。
まだそういう状況ですね、個人的には。
なるほど、なかなか面白いですね。
今このショーノートの中には、デビンだったりとかさっき話にあったクロートだったりとか、
あとはもちろんオープンAIのコーデックスだったりとかいろいろあるかと思うんですけれども、
皆さんそれぞれ使ってみての比較とかってされましたか?
これデビンの登場がこの年表だと2024年3月になってますが、
なんかだいぶ昔な感じがしますよね。
なんかいたっけっていう感じ。
何だろう今年試しに使ってみたいみたいな、
我々の開発ではあった記憶があって。
弊社でもそうですよね、デビン一時期使っていて、
いつの間にか別なAIエージェントを使うようになって、
なんかどんどん出てきてますもんね。
デビンあたりからその界隈がざわつき始めたなという感覚が何となくありますよね。
コード書かせれもそうですけど、
ピザを注文させるみたいな、
人間のデスクワークの型替わりをさせるみたいなトライに、
だんだん面白いのが増え始めてきて、
というのが去年からですよね。
このあたりからどちらかというと、
ChatGPTみたいにテキストフィールドにテキストを埋め込んで、
言って入ってもらうという断片的なところから、
開発するコードベース丸々一式をAIに渡してしまって、
そこでよろしく生成してもらうというふうな形になって、
そこで一気に自由度が上がったからざわついたのかなというふうには思いました。
そうですよね。
AIの進化と新技術
コンテキストを把握して質問に答えてくれるとか、
コードを作ってくれるという存在がかなり異質でしたよね。
クロードでもCUIって言っちゃうと、
そこまで許しちゃったんだみたいな。
ここまだ手探りなところがありますよね。
どこまでコンテキストを渡していいのか。
2023年、結構オープンAIのAPIが公開されたのが2023年ですよね。
2023年なのか。
スタックちゃんも、私スタックちゃんというコミュニケーションロボットのオープンソースの開発をしているんですけど、
2023年にAPIが公開されたらその翌日にコミュニティメンバーがスタックちゃんに組み込んで音声で会話ができるようにしましたみたいな例が現れていて。
本当にその方は強々の組み込みエンジニアの方だったんですけど、
誰でも気軽にそういうAI機能をプロダクトに組み込めるようになったところからエコシステムがバーンと弾けて広がってきた感覚がありますね。
それで言うと佐々木さんも1回Zundamonでやってませんでしたっけ?
やってましたね。
それも2年くらい前だから、割と時間軸ぴったりなんですよね。
あれもちょうどAPIがやっと一般公開されて使えるようになった段階で、ちょっと曖昧なので思い出しながら喋りますね。
すごいみんな遊んでましたよね、API。
とにかく安いし、すぐ使い始められるから、誰が一番のLAMのくだらない使い方ができるかみたいな大切りみたいな感じで。
オープンAIが作ってた音声認識モジュール、あれ何でしたっけ?
ウィスパーですね。
ウィスパーだ。
そうです、オープンAIのAPIとウィスパーを掛け合わせて、声はZundamonでパソコンの画面に向かって喋るとそれを返してくれるっていうすごく素朴な音声AIみたいなものを一瞬作って遊んだりしてましたね。
それが2023年なので、もうそこからだいぶ時代が進みましたよね、そこから考えても。
そうですね、音声認識、音声でやっぱ会話ができるみたいなのも、ここ2年で一気に変わってきてますよね。
日本なんかも最近、ちゃんと喋ろうじゃなくて、えーととかあーとかって、意識してない合図地味、合図地味とも言わないですよね。
ドライバー席を譲る覚悟
音声対話の用語でフィラーって言うんですけど、えーととか、GoogleのノートブックLMの解説音声がそれやってるんですよね。
意図的によく聞くとえーととかあのーとかっていうのを本当に自然なタイミングで挟んできていて、やりやがったって。
だからあんなに自然に聞こえるんですね、あれ。
はい、いやーあれはもうテンション上がりましたね。
僕気づいたのはどっちかというと、チャットGPTのあのー、えーと音声対話の。
はい、あのスマホアプリ。
はい、スマホアプリのやつですね。
あれもある段階で、今年の、いや曖昧ですけど7月か8月ぐらいに一気に上がった記憶があって。
リアルタイム会話ですね。
APIでも今使えますけど、音声で入力サーバーに投げると本当に音声データが降りて帰ってくるという。
レスポンスも良くて、はい。
そういうあのーとかえーととか言ってくる感じ。
はい、そうそうそう。
なんか融合がああいう感じで喋り始めたらどうですかね。
今は自動案内機能をやっていますけど、動作見ても分かる通り音声認識してテキストで応答を返して喋る。
喋るのはその今までのちょっと機械的な融合の声なので。
急にそういうなんか人っぽい声であれが喋り始めたらびっくりしますね。
ロボットっぽさを残すか残させるかっていう。
そうですよね。
人がロボットに無意識に期待する喋り方みたいなのがもしかしたらありそうですよね。
やっぱなんかこうSF的なあれですよね。
無機質な。
あ、でもあのオープンAIのそれもできちゃってるんですよね。
今あのなんていうか音声合成モデルはオープンAIのその最新のサービスを試したことあるんですけど。
そこに喋り方の指示っていうのが入れられて、
ロボットのような機械的な事務的な抑揚のない音声でやると本当にもうこんにちは、何かご用でしょうかみたいな。
あえてロボットっぽい演技もさせることができる。
すごい。チューニングしがいがありそうですね。
そうなんですよ。
一回試してみてもいいですね、あれ融合で。
試してみたいですね。
何となく自分の観測範囲だと、クラインに全てかけろっていうウェブ記事。
5月ぐらいにありましたね。
あれ5月じゃないでしたっけ。
あの辺りから。
あ、2月でした。
あ、2月なんだ。
今年の2月か。
そうですね。
そっか、もうこの時はクラインかカーソルか。
カーソルとクラインで、これのちょっと後にクロードコードが確か出てきた感じですよね。
何かクラインかカーソルか、大体どちらかを使うっていう時代だったと思うんですけど。
そこから10ヶ月弱でだいぶ様変わりしましたね。
さらにクロードコーデックス出てきて。
毎月何か使ってるあれが変わる、AIが変わるという状況でしたね。
そう、みずつさん。
この記事めちゃくちゃ参考にしましたね。
あの著名なフロントエンジニアの方なんですけど、
これが結構印象的でしたね。
ドライバー席を譲る判断と覚悟。
さっき私たちと話したようなこと書いてあるんですけど、
ナビゲーターだったのがいつの間にか。
エアプロで言うとクラインがドライバーでユーザーがナビゲーターになる。
役割を交代する。
確かにこれ、今思い返すと、
もうこの時点からでもだいぶ自分の中の意識も変わってるなっていう驚きがありますね。
なんかまだこの頃はドライバー席を譲ること自体がすごく新しいことだった気がするんですけど、
もうガッツリコード書いてもらうみたいな。
そうですね、なんか覚悟が必要なことだったんですよね。
そうですね。
そうですよね。
そういうふうに言い切りましたね。
もう、ああそうだよねみたいな感じになってる。
まあ確かにそれでご飯を食っているんだっていうところから、
それをAIに譲りに行くっていうところだから、
もう、なんか、
もう、
もう、
もう、
もう、
もう、
もう、
もう、
もう、
特にこういう所にもう熟練の人こそそういう感覚が強かったのかなっていう風な感じがしますね。
確かにあのコード書いて食べている我々なので、
はい。
やっぱりそこをAIに明け渡すみたいなところの葛藤がなんか今思い返せばちょっとあった可能性がある。
あんまなかったかな。
私はあんまりコーディング自体というよりは、その結果ロボットが動くとか画面が綺麗になって使いやすいみたいなプロダクト側にどっちかというと興味があるので、あんまり気にならなかったかもしれないですね。
こういう技術革新に合わせて変われるか変われないかで、結構その後の方向性だったりとか人生がだいぶ変わってくるみたいな話とかもあったりするんで、ここが一つの起点にはなりそうな印象がしますね。
みんなコーディングをやろうという結論になりそう。
優吾ではAIコーディングをみんなやっていこうという空気。
空気というか松井さんが旗振りをしているし、自由に使ってよいし、ある程度LLM使うときの指針みたいなノーションにあったりとか。
開発現場の未来
だいぶもう1,2年で整理されてきていますね。
今後もここら辺はしばらく変わり得るから、そういった環境というか周りの環境の整備だったりも結構まめに管理しないとというふうには思いますね。
そろそろ落ち着いてほしいな。デファクト決まってきてほしいなという。
まあ乗り換えるんですけど、毎月使うツールからコロコロ変わるのもそうそう。
これがいいから使うというよりはどちらかというと、今こっちどうなっているんだろうって感じで、基本的に僕の場合はCloudを使って、たまにそういえば今ってCodexどうなっているんだろうみたいな感じで置き換えていって、
それに肌が合えばそのままいくし、そうじゃなかったらまあいいやまたCloudに戻ろうみたいな。
先々月まではCodexをメインに使っていて、最近はGeminiを触るようになって、この辺の競争もどこで収束するのかっていうのが気になるところですよね。
割ともうCodexで私クオリティに満足していて、もういいかなという。
これが多いか。
ここの3人でもあんまり一致してないっていうのは面白いですね。
ほぼ100Codexですね私。
確かにCodexとGemini 3ではあまりすごく大きな差は今のところ感じてないんですけどね。
これはバイアスもかかってるかもしれないんですけど、新しいGemini 3の方がなんとなく自分の期待する答えをしてくれてるかもなっていう。
Twitterに踊らされてますけど大丈夫ですか?
可能性ありますね。
盛り上がりましたね。
Webでこういうコードを書いてWebアプリを動かせるのすごいなと思って遊んでました。
これGeminiですね。
ポッドキャッサーと音声しか聞こえないので。
作動二輪ロボットのMPC制御のシミュレーターです。
それもう行けたんですか?
これも100%AIが書いたコードですね。
これUIの部分から全部?
です。
このマス目と障害物、時期、パスの可視化、あとはゴールの点を打ったときに、帯域のパス生成とこの生成したパスの軌道追従がそれぞれできていて。
えらいルート通ってきましたね。
こういうのやると調整大変なんだなって体験できて。
ここがもう中身がWebアプリになっていいんですよね。
中の制御はJavaScriptです。
これが飛んだしで出てくる。
とんでもないですよね。
そもそもMPCの中身をちゃんと理解するのにめちゃくちゃ時間かかる。
これもMPCを完全に理解したいなと思って。
いろんなAIに同じ課題を出してアプリを書かせてるんですけど、今のところジェミニーが一番うまくやってくれました。
確かに新しいモデルが出てくるたび、Twitterでも3Dのアニメーションをそれぞれ実装させて、物理的な軌道をちゃんと実装できているかっていうのを比較している方とかいらっしゃいますよね。
AIによるロボット開発の変革
実際ロボット側の方の実装でなかなかやっぱりさっきの佐々木さんも実際にこう自分で書いてる部分もあるってあると思うんですけども。
実際にロボットを動かすときにやっぱり意図した振る舞いにはならなくて、実機を使うとですね。
だからそこに対してベースとなるコードはAIには書いてもらうけれども、ちゃんと動くかどうかは最終的には実機を動かすっていうところになってしまうので、そこはなかなかAIに任せっきりにはいいか悪いかをAIで判断する手段がないので。
結局人間で頑張ってやるみたいな、そういう境界が特に自立走行回りだとやっぱりできますよね。
多少シミュレーションでなんとかなるにしても、やっぱり実機合わせのところで、それこそセンサーのノイズだったりとかガイランだったりとか走っているときの滑りだったりとかそういったところがあるので、
そこが果たしてどうやってそれを乗り越えられるのかという。
そうなんですよね。
最近フィジカルAIの文脈でそのシミュレーターがどんどん進化してきていて、それこそ物理特性をかなり正確に反映できたりとかそういったシミュレーターがガンガン出てきているので、
またこのロボットのリリースまでのテストとか学習のためのシミュレーションとかももう1段階2段階いつの間にか進化したりしてるのかもなと最近思ってますね。
それこそ今のスパンだと数年後とかじゃなくて来年には変わってたりとか。
本当ですよね。早く欲しいな。
実はデバッグにめっちゃ便利っていうのがありますよね。
なんかロボット動かなくなったときに本当に自分でデータ収集してこれじゃないここがなんかいけないと思いますみたいなところまで提案してくれるみたいな報告提案してくれるみたいなところまでいけるとかなりなんかこれがAGIみたいな感じになってきますよね。
そっかでも確かにずっとログ監視してくれたら嬉しいですね。
だから融合の方向性としても松井さんが言っている融合コパイロット構想ですね。
よりロボットの方から主体的にそのユーザーを助けてくれるみたいなのもちょっとリンクしてくるかなという気がしますね。
ロボットに対して例えば今でも我々の製品だとフローっていうGUIベースでコードなしでロボットに対して動作の指示を出せるような仕組みを作っていますけどもそこがだんだん自然言語でどことこに行って何をしてみたいなのを指示したらロボットがよしなに解釈して動いてくれるようになるみたいなそんな世界線ですよね。
そうですね。早くやりたいんですよね。
最近その融合を新しい現場に導入させていただいた時に今まで半年間くらい別の融合を使っていてそれと交換をする形で導入させていただいたんですね。
前の子は一応ポータルにはデータとしては残っているんですけどもうオフラインなので出てこない。
その画面を見た時のお客様はちょっと寂しそうな顔をしていて、やっぱりこの融合に愛着が湧いているんだっていうのはすごい。
ハッとしましたね。
AIが組み込まれてくるとそういうロボットの人格とかそれに対する愛着みたいなのもより強固なものになっていく感じがするのでそこがどうなっていくかって見届けるの楽しみですね。
人間とロボットの関係の変化
どういう変化が起きるか。
確かにロボットに個性を覚えるというか。
お客さんによっては我々の融合に可愛い名前つけて可愛がってくれてる現場もあったりして、そういうのを見ると今おっしゃった話の通り子として可愛がってくれてるっていうところがありますよね。
ランダムな名前つける機能あるじゃないですか。
花の名前と木星の衛星の名前とあと戦国武将。
戦国武将あんまり伝われないですね。
なんとなく今まではロボットの機体番号とか製造番号で呼んだりしていることもありましたけど、名前がつくとまたちょっと自分にとっても感じ方変わりますよね。
やっぱりより人っぽくロボット扱うようになるというか。
スタッドGPTが5が出たときでしたっけ。
その1個前と応答の仕方が変わって、前のバージョンを戻してくれみたいな。
フォーフォーにしてくれって。
フォーフォーにしてくれって言って本当に戻ったっていう事例ありましたよね。
スタックちゃんコミュニティとAIコミュニティすごく近くて被っているものたくさんあるんですよね。
私のタイムラインにもそういうAIと同棲生活をしている方っていうのが結構いらっしゃいます。
ちゃんとAIにキャラクターと過去の会話に記憶みたいなものをしっかり持たせられるので、
そこで今までこういう風に過ごしてきたよねとか、そういう会話を楽しんでいらっしゃる方いますね。
それってコンテキストの限界が来たりはしないんですかね。
そういった多分技術的な話はさておきというところだと思いますが。
人間だってそのうち何話したか忘れちゃうから。
確かにそうですよね。
それと同じ話なんですかね。
ごめんなさい、全然AIを人として認知している人いっぱいいるんだなと思って。
私の大学、初音ミクと結婚した人いますから。
もとより日本人は古来からそういった、まあいいか。
締めに向かって。
いいんじゃないですか、発散して終わる。
落とせるなら落としていただいて。
でもそうですね、わりと普段こんな感じの雑談をしているし、
開発のメンバーの雰囲気はこんな感じですっていうのが伝わってくれるとすごい嬉しいなと。
そうですね、非常にこんな感じです。
本当にフラッと始まりますよね、こういう雑談が。
こういう雑談が始まるので。
でもこの輪に混じりたいなと思った方はこちらのURLに。
という感じで、融合を作っている中の方が少しでも感じ取っていただければ幸いでございますというところで締めるのはいかがでしょうか。
ではありがとうございました。
ありがとうございました。
34:38

コメント

スクロール