バイブコーディングの紹介
皆さんこんにちは、矢野哲平です。この番組は、耳で学ぶAIをコンセプトに、初心者・中級者向けにAIを分かりやすく解説する番組です。
今回のテーマは、Google AI Studioにバイブコーディング機能が追加。ところで、バイブコーディングってなにですかについて話していきます。
はい、ということで今日は、Google AI Studioに新しく追加されたバイブコーディングについて話していきます。
皆さん、バイブコーディングしていますでしょうか。このポッドキャストでも以前、バイブコーディングについて話をしました。
第69回目のエピソードとなります。バイブコーディング、AIを使った新しいコーディングのスタイルと言えばいいでしょうか。
このバイブコーディング向けの機能が、新しくGoogle AI Studioに実装されたという話です。
これがちょうど先週の話になります。ちょっと2つ聞き慣れない単語が出てきたと思います。バイブコーディングとGoogle AI Studio。
今回のエピソードでは、これら2つのキーワードを掘り下げて話していきます。リスナーの皆さんが、バイブコーディングってこういうことだったのかと、
Google AI Studioを使うことでこういったことができるようになったのかと、こうしたことが持ち帰れるように話していきたいと思います。
今日話すポイントは主に3つです。1つ目にバイブコーディングについて、そもそもバイブコーディングって何ですかという話をしていきます。
2つ目、Google AI Studioに新しく追加されたバイブコーディングの機能について、どういったことができるようになったのか、こうしたことを話していきます。
そして3点目、実際バイブコーディングってどうなのという話を、私の経験談を交えて話していきたいと思います。
バイブコーディング機能の詳細
はい、では早速話していきましょう。今回はGoogle AI Studioに新しく搭載されたバイブコーディングの機能について話します。
Google AI Studioというのは、このポッドキャストでも何度か紹介をしたんですけど、Googleが提供する開発者向けのAIツールとなります。
開発者向けのAIツールといっても、見た目はChatGPTやGeminiのチャット画面と似ている部分があります。
開発者でない方でも便利に利用できるツールなので、まだ使ったことがない人、ぜひ使ってみることをお勧めします。非常に便利なツールです。
このGoogle AI Studioにバイブコーディング向けの機能が搭載されたという話が、ちょうど先週公開されました。
ここで言うバイブコーディング、この言葉初めて聞くという人もいると思うので、ちょっと軽くおさらいをします。
以前このポッドキャストでも紹介したんですけど、アンドレイ・カルパシーさんという元オープンAIの方、その方が提唱した新しいコーディングスタイルとなります。
バイブコーディング、バイブス、つまり雰囲気や感覚に身を任せてAIにコーディングを行ってもらうと。
人間はコードを書かずにAIにコードを書いてもらう、こうした新しいコーディングスタイルをバイブコーディングとアンドレイ・カルパシーさんは名付けました。
このバイブコーディング、初めて聞く人に説明すると、ちょっと何のことですかと、はてなマークが出てくること多いんですけど、
2025年、今年の前半ぐらいでしたかね、このバイブコーディングという言葉が出てきて、ちょっとしたバズワードになりました。
とにかくAIを使えば特に難しい作業をしなくても、AIに音声で、口頭で指示を出してプログラミングができるようになったよという話です。
もともと以前から、Google AI Studioの中の人が、こうしたバイブコーディングの機能をGoogle AI Studioにも追加しますよという話はしていました。
いつ頃実装するんだろうなと思っていたら、先週実装してきたという流れになります。
ちょっと整理をすると、もともとGoogle AI StudioにはBuild Appsという機能がありました。
これは、プロンプトからAIがアプリを作ってくれるという機能です。
プロンプト、つまりテキストからAIがアプリを作ってくれると。
このBuild Appsの機能が強化されて、バイブコーディング仕様になったという話になります。
なので、以前Google AI StudioのBuild Appsの機能を試したことがある人、そういった方は、もともとあるBuild Appsの機能が強化されたと、そういった認識となります。
具体的にどういったことが変わったのかというと、いくつかありまして、一個ずつ紹介をしていくと、まず音声による指示。
これ以前からあったような気もするんですけど、とにかくチャット欄の横にマイクボタンがついていて、そのマイクボタンを押すことで音声入力ができるようになっています。
これはGoogle AI Studioに限らず、音声入力によるAIへの指示って便利ですよね。
なぜなら、タイピングよりも音声入力の方が2倍から3倍ほど入力スピードが速くなるからです。
シンプルに、AIとのこのチャットのやり取り、そのスピードが速くなって業務効率化が図れるというものです。
ちなみにこうした機能というのは、Google AI Studioに限らず、Chat GPTやGeminiのチャット画面でも実装されています。
音声入力が気になる方はぜひ試してみてください。
チャット欄の右側にマイクのアイコンがあるので、そのマイクアイコンを押すことでAIに音声で指示を出すことができます。
音声入力って、ちょっと場所を選ぶというデメリットはあります。
例えば、カフェで作業中とか会社で業務をしているとき、環境によっては音声入力はできない場面はあります。
ただ、環境が許すのであれば、AIと音声入力は非常に相性が良いです。
Google AI StudioのViveコーディング機能の一つ目は、この音声入力となります。
二つ目は、アノテーション機能となります。
これちょっと分かりにくいので、詳しく説明すると、新しく導入された機能で、
簡単に言うと、今開発しているアプリの画面ありますよね。
そのアプリの画面のスクリーンショットを撮影して、
そのスクリーンショットをキャンバスのように文字や記号を書き足すことができる機能となります。
例えば、アプリの特定の場所、文字を別のものに変更したいとします。
こうした指示って、通常はテキストでAIに指示をしますよね。
アプリのここの場所の文字を〇〇から〇〇に変更してくださいと。
ただ、場合によってはテキストで説明するのが難しいという場面もあります。
こうした時に、このアノテーション機能が活躍してくれます。
スクリーンショットを撮影して、そこに記号や文字を書き込んで、
例えば、私が丸枠で囲んだ部分、この丸枠で囲んだ部分の文字を〇〇に変更してくださいと。
そうしたAIへの指示、それをスクリーンショットに書き込むことができます。
つまり、テキストでAIに指示を出すのではなくて、
画像で視覚的にAIに指示を出せるという機能、これがアノテーション機能となります。
これ、実際使ってみて結構便利な機能だなと思いました。
どうしてもテキストで伝えるのが難しい時ってあるんですよね。
そうした時にアノテーション機能は活躍してくれると思います。
はい、二つ目の機能はアノテーション機能となります。
では次三つ目。三つ目、これ何と言えばいいんですかね。
明確な名称がついていないんですけど、
簡単に言うと、今から作るアプリの機能に、
Googleが開発しているAIの機能を搭載することができるというものです。
Googleって色々なAI開発していますよね。
例えば画像生成AIとか、あとは動画生成AIとか、あとはそうですね、
テキストから音声を作成するスピーチのAIとか、
こうしたGoogleが開発しているAIの機能を、
ワンクリックで自分が開発したいアプリに搭載できるというものです。
結構この機能、色々用意されていまして、
例えばAI以外の機能も用意されています。
Googleマップとか、あとはGoogle検索とか、
そういった機能も自分が開発するアプリに盛り込めるというものになります。
今画面で確認すると、そういった機能が16個用意されています。
アプリを開発できるって言われても、
どういったものを開発すればいいのかわからないっていうケースあると思います。
Googleがこのように事前にこうした機能をアプリに追加できるよというものを提示してくれています。
これは開発のヒントになると思います。
例えば私、Googleの検索、この機能と組み合わせて、
検索キーワードを調査するアプリを作成しました。
今の時点で16個の機能が一覧で表示されているんですけど、
おそらくGoogleが今後、様々なAIを展開してくると思うんですけど、
こうした機能っていうのはどんどん追加されていくと思います。
これ、興味がある方、後で是非チェックしていただきたいんですけど、
結構色々なAIアプリ開発できると思います。
それぐらい種類が豊富です。
例えば、ユーザーがアップロードした音声ファイルから文字起こしをするとか、
こうしたアプリも開発できると思います。
はい、では次4つ目。
AIによる機能のレコメンドです。
これ何かっていうと、アプリを開発していくと、
AIがこの機能はどうですかと、
こんな感じで機能のレコメンド、おすすめを提示してくれると言えばいいでしょうか。
この機能便利だなと思いました。
というのが、自分の中で大まかにこうしたアプリ開発したいなと思っているケースでも、
細かい部分は決まっていないことって結構あるんですね。
AIによる機能のレコメンド
そうした時に、自分が考えているアイデアの外から、
AIが提案をしてくれると。
結構、AIからの提案って助かる場面多いんですよね。
自分の考えとは全く違う角度から、
AIが提案をしてくれる、こうした経験結構あります。
そうしたものが、このGoogle AI Studioの機能として新しく搭載されたと。
ちょっと具体的な例でお話しすると、
例えば私、Google AI Studioを使って、
キーワードリサーチというアプリを作りました。
ある特定のキーワードを入力すると、
キーワードの候補や、あとは検索のボリューム、
そうしたものを調べてくれるというアプリです。
これは内部で、Googleの検索データと連携したアプリとなります。
このアプリ、すぐできたんですけど、
ここでAIがいろいろな提案をしてくれました。
例えば、分析結果のエクスポート機能を追加してはどうでしょうかとか、
結果をわかりやすくグラフで表示してはどうでしょうか。
こんな感じで、AIがいくつかの機能の追加提案をしてくれます。
こういった機能、やっぱり助かるなと思いました。
特に、AIを使って初めて開発をする、
こうした人は、その機能いいですねと。
じゃあ、早速それを採用しましょうと。
こうした場面、結構多いと思います。
こんな感じで、アプリを開発するための嬉しい機能が、
新しくGoogle AI Studioに搭載されるようになっています。
より、バイブコーディングをしやすくなったと、
AI搭載のアプリを作りやすくなったと、
こうした環境が整った感じがします。
ただ、ここで好疑問に感じる人も多いと思います。
AIを使ったアプリ、利用量ってどうなるのと。
例えば、Google AI Studioで、
AIとのチャットアプリを開発したと。
あとは、画像生成アプリを開発したと。
そうした場合の、AIの利用量はどうなるのかという話です。
これに関して補足すると、もともとこのGoogle AI Studioには、
AIの無料の利用枠というのが設定されています。
この無料枠の中で、結構いろいろできるんですね。
仮に、この無料の利用枠を使い切った場合でも、
自分のAPIキーを追加できるようになっています。
つまり、無料の利用枠を使い切ってしまった場合でも、
利用は中断されることはなくて、
Google AI Studioの新機能
自分の課金へスムーズに移行できるというものです。
無料枠が戻った場合は、
自動的にまた無料枠を消費する、
そういった方式で設定されています。
もちろん、この自分のAPIキー、課金するためのこの鍵、
こうしたものを設定しない限り、
自分に対して課金されることはありません。
無料の利用枠の中だけで使うことになりますので、ご安心ください。
次に、実際にこのGoogle AI Studioのバイブコーディングのツールを使って、
アプリを作ってみた、ちょっと私の感想について紹介したいと思います。
そうですね、一言で言うと、やっぱり楽しいの一言に尽きると思います。
アプリを自分で開発するという選択肢、
今までなかなか取れなかったという人多いと思います。
でも、AIが出てきて、今までアプリを作ったことがなかった人でも、
アプリを作れるようになったと。
こうした経験って、やっぱりAIがないとできなかったことかなと思います。
ただ、もちろんAIは万能のツールではなくて、
メリット・デメリットももちろんあります。
ここで言うアプリ開発っていうのは、
AIを使ってiPhoneとかAndroidのアプリ、
そうしたものを開発して収益を上げるとか、
そういった方面の話ではなくて、
自分の業務のお困り事とか、課題を解決するような個人、もしくはチーム、
こうしたところで使うアプリを、自分でさっと開発する、
そういった場面でGoogle AI Studioは活躍すると思います。
例えば、実際に今使っているAIアプリってあると思います。
そうですね、例えば文字起こしのアプリを使っていると、
お金を払って使っていると、
そうしたものもGoogle AI Studioを使えば、自分で作れるようになります。
今自分がお金を払って使っているツール、
これを自分で作ってみると、
そうしたアプローチが取れるのは、やっぱりAIを使った開発ならではのアプローチかなと思います。
業務効率化に貢献するようなアプリ、
それは自分のためであったりチームのためであったり、
そうしたアプリを自分で開発して、自分たちで開発して共有すると、チームに共有する。
こうした使い方が個人的には良いのかなと思ったりします。
Google AI Studioで作ったアプリっていうのは、他の人に共有することもできますし、
アプリ開発のアプローチ
いろいろな人向けに一般公開もできます。
あとはその作成したファイル、そのファイル一式をダウンロードすることも可能です。
例えば、Google AI Studioで作ったアプリのファイル一式をダウンロードします。
開発の続きをクロードコードとか、コーデックスCLI、ジェミニCLI、いろいろありますけど、
そうしたAIツールを使ってさらにブラッシュアップする、こうしたアプローチも取れます。
例えば、ジェミニが作ってくれたアプリのデザインが気に入らないと、
そうした場合、デザイン面はクロードにお任せしようとか、こうした選択肢も取れるようになります。
ちなみに余談なんですけど、デザイン面のタスク、どのAIが使いやすいかというと、
ちょっと実験したことがあるんですよね。
ChatGPT、ジェミニ、クロード、グロックの4つのモデルで実験をしました。
その時の結果は、クロードがやっぱりデザイン面は強いなと感じました。
その後にChatGPTとジェミニが同じ順位で、一番最後がグロックという順番でした。
もちろん、新しいモデルが出る度に、こうした結果って変わってくると思います。
どのページ、どういったアプリなのか、ダッシュボードなのか、ウェブサイトなのか、
どういったページをデザインするかで、また成果の内容も変わってくると思うんですけど、
デザイン面のタスクはクロードが強いかなと思います。
クロードは結構前から有名ですよね。デザインが強いと。
なので、アプローチとしては、しっかりアプリを作り込みたい場合は、
まず、Google AI StudioのこのViveコーディングで骨組みを作っておいて、
できたファイルをダウンロードして、デザイン面はクロードにお願いをするとか、
そうした複数のAAモデルを組み合わせるという使い方もおすすめです。
開発をしていて、エラーに遭遇してなかなか解決しないなと、そういった場面よく遭遇するんですけど、
クロードで解決できないエラーは、割り切ってChatGPTかGeminiにお願いすると。
逆もまたしっかりで、Geminiで解決できないエラーは、クロードやChatGPTなど、
他のモデルに振り分けたりすることで、意外とすんなり解決するケース結構あります。
一つのモデルに絞らず、複数のAAを使い分けながら開発を進めていくと、こうしたアプローチもおすすめです。
バイブコーディングのメリットと展望
開発という話でいうと、開発したアプリを一般公開するのって結構ハードル高いんですよね。
まずどこのサーバーに公開するのかっていうのを考えないといけないです。
Google AI StudioはそのままGoogle Cloudというところに公開できるようになっています。
ただやっぱり開発したアプリを一般公開するのは結構大変な作業です。
こうした公開のタスク、これもAIを使うと割とスムーズにいきます。
具体的にはAIにアプリの公開の手順書を作成してもらうと、
これ結構助かるので、アプリの公開が初めてとか慣れない作業で戸惑っていると、
こうした方はアプリの公開の手順をAIに作成してもらうというアプローチもおすすめです。
こうした時にGoogle AI Studioが活躍してくれます。
Google AI Studioってコンテキストウィンドウが大きいんですよね。
つまり他のAIよりもたくさん会話の情報を保持してくれるという特徴があります。
アプリを公開するまで結構色々な作業を踏むので、
AIと対話をしながら公開作業を進めていくというようなシチュエーションになります。
そうした時にGoogle AI Studio、意外に使いやすいので、良ければ試してみてください。
この時に注意点として、Google AI Studioに入力した情報はAIに学習される可能性があります。
なので、大事な情報、例えばAPIキーとか何かしらの設定情報、
そうした大事な情報の入力は注意してください。
Google AI Studioを使って公開作業を進めていく、
こうしたケースでも何かエラーで引っかかってしまって先に進めないというような場面も遭遇することもあります。
ジェミニーじゃうまくいかないと。
こうしたケースは先ほどと同じように、ChatGPTやCloudにヘルプをお願いすると。
こうすると、割とエラーも解決しながら公開作業を進めることができます。
開発したアプリを公開したいという人は、ぜひこちらも試してみてください。
ここでお話ししたバイブコーディング、いろいろメリットデメリットあると思います。
デメリットでよく言われるのは、いわゆる本番環境に耐えるようなアプリを作るのは難しいとよく言われます。
例えば、Google AI Studioでメルカリのようなアプリを作りたいですとか、
そういった本格的なアプリを作るのはかなり厳しいものがあります。
というか、無理だと思います。
一方で、自分だけが使うアプリとか、こうサッと開発してちょっと検証してみたい。
そうした比較的軽めのアプリの開発では、このGoogle AI Studioのバイブコーディング、役に立つと思います。
Google AI Studioを使ったバイブコーディングの使い方。
これに関しては、ノートでいつものように記事を書きました。
興味のある方は、ぜひチェックしてみてください。
概要欄にリンクを貼っておきます。
はい、それでは今日のポイントをまとめます。
一つ目に、Google AI Studioが新しくバイブコーディング向けの仕様になりました。
より直感的にアプリ開発ができるようになっています。
二つ目に、AIによる機能の追加の提案や、アプリの画面に修正指示を書き込めるアノテーション機能が追加されています。
最後三つ目、バイブコーディングで大規模なアプリ開発は厳しいと思います。
ですが、個人やチームの業務を効率化できるような小規模なアプリ開発、これはバイブコーディングが得意とするところです。
最後にちょっと話変わるんですけど、GoogleのCEOがGemini 3について研究しましたね。
年内に予定されているGemini 3のリリースが楽しみですと。
現状Geminiの最新モデルはGemini 2.5となります。
次のモデルいつ登場するんだろうなと思っていたら、CEO曰く年内に予定しているとのことです。
もうすでに11月なので、今年も2ヶ月切っていますよね。
11月か12月どちらかにリリース予定とのことです。こちらも非常に楽しみです。
今日はこの辺ということで、本日もお付き合いいただきありがとうございました。
番組ではこのように耳で学べるAIを毎週発信しています。
通勤中や家事の合間にAI情報をキャッチアップできます。
毎週水曜朝に更新していますので、ぜひフォローをお願いします。
そしておすすめの生成AIツールをまとめた資料も配布しています。
興味のある方はこちらもぜひ概要欄にリンクを貼っておきます。
お相手は耳で学ぶAIの矢野てっぺいでした。
また次の配信でお会いしましょう。