1. 耳で学ぶAI、ロボシンク
  2. 【耳で学ぶAI②】生成AIによく..
【耳で学ぶAI②】生成AIによく登場するキーワード9選
2026-04-29 18:51

【耳で学ぶAI②】生成AIによく登場するキーワード9選

✍️内容

シリーズで⁠耳で学べるAIコンテンツ⁠を配信。第二回目となるエピソードです。

生成AIによく登場するキーワードを9つ厳選して紹介します。

- ハルシネーション

- AIモデル

-プロンプト

- コンテキスト(コンテキストウィンドウ)

- AIエージェント

- AGI

- ローカルLLM

- BtoA

- 埋め込み(Embedding)

---

おすすめ生成AIツールの資料を配布中🎉

⁠→資料を受け取る⁠


AIニュースアプリも開発しています🧑‍💻

⁠→Morning AI - iOS⁠

---

🎧番組紹介

「耳で学ぶAI」はChatGPTやGemini、Claudeなど生成AIを初心者・中級者向けに分かりやすく解説する番組です。

---

👨‍💻パーソナリティ: 矢野哲平

「AIを分かりやすく、楽しく」をコンセプトにポッドキャストやnoteでAI情報を発信。アプリも開発しています。株式会社root c代表取締役。⁠

⁠note⁠

---

📩番組の感想や要望は⁠こちら

感想

まだ感想はありません。最初の1件を書きましょう!

サマリー

このエピソードでは、生成AIの分野で頻繁に使われる9つの重要なキーワードを分かりやすく解説しています。ハルシネーション、AIモデル、プロンプト、コンテキスト、AIエージェント、AGI、ローカルLLM、B2A、そして埋め込みについて、それぞれの意味と具体的な活用例を紹介し、リスナーが生成AIの知識を深められるように構成されています。特に、AIの誤情報、AIの頭脳、AIへの指示、AIが処理できる情報量、自律的にタスクを実行するAI、人間と同等の知能を持つAI、ローカル環境で動作するAI、AIを顧客とするビジネスモデル、そして情報を数値化して意味を捉える技術について解説しています。

はじめに:生成AIキーワード解説の目的
皆さん、こんにちは。 矢野 哲平です。この番組は、耳で学ぶAIをコンセプトに、初心者・中級者向けにAIを分かりやすく解説する番組です。
今回は、耳で学ぶAIのシリーズ第2回目、 生成AIによく登場するキーワード、こちらについて学んでいきます。
はい、ということで今回は、耳で学ぶAIシリーズ第2回目ということで、 生成AIに登場するキーワードをチェックしていきます。
AIの情報、日々目にすると思いますけど、 知らない単語、よく出てくるという経験多いと思います。
例えば、トークンとかコンテキストウィンドウとか。 今回は、そういったちょっと聞き慣れないキーワード、これを理解して、一気に生成AIに関する知識をアップデートしていこうという試みです。
以前も、1年前ぐらいに同じようなエピソードを配信したんですけど、結構反響も大きかったんですよね。
なので今回は、最新情報にアップデートした生成AI関連のキーワード、こちらを学んでいきます。
具体的に説明する内容は次のキーワードです。
ハルシネーション、AIモデル、プロンプト、コンテキスト、AIエージェント、AGI、ローカルLLM、B2A、埋め込み、これらのキーワード、聞いたことがあるなというものもあると思います。
でも、聞いたことはあるけどちょっと説明ができない、全く聞いたことがない、そういったキーワードがある場合は、ぜひ最後までお付き合いください。
キーワード解説①:ハルシネーションとAIモデル
はい、では早速話していきましょう。 まず一つ目はハルシネーションです。これは前回のエピソードでも話した内容となります。
ちょっと復習がてら、改めて押さえていきましょう。 ハルシネーションとは、AIが誤った回答をしてしまう現象を指します。
簡単に言うと、AIは嘘をつくこともあると、そういった現象を指します。 例えば、実在しない論文のタイトルを上げてきたり、
実在しない製品について説明したり、以前に比べて明らかなハルシネーションは減っていますが、こちらは依然としてハルシネーションの問題はあります。
そのため、AIの回答をそのまま鵜呑みにしないこと、重要な情報は必ず一時情報を確認すること、
AIを使っていく上で、こういった視点が重要です。 はい、では次どんどんいきましょう。次はAIモデルです。
よくニュースで、オープンAIが新しいAIモデルを発表しました、とか、 Googleが新しいAIモデルをリリースしました、
こういった言葉、よく耳にすると思います。 このAIモデルというのは、簡単に言うと、AIの頭脳に当たるものです。
オープンAIやGoogle、アンソロピックといったAI各社が膨大なデータを学習させて作り上げた、AIの頭脳部分です。
例えば、ChatGPTというのは、皆さんが普段使っているサービスの名前となります。 ですが、その裏側ではGPT5のようなAIモデルが動いています。
同じように、Googleが提供するGemini、こちらのサービスの裏側ではGemini3のようなAIモデルが動いています。
このように、普段私たちが使っているAIのサービス、裏側で動いている頭脳部分を、AIモデルやモデルと呼んだりします。
キーワード解説②:プロンプトとコンテキスト
はい、では次行きましょう。次はプロンプトです。 プロンプトというのは、AIに対する指示のことです。
普段私たちは、ChatGPTやGeminiのチャット欄に、AIへの指示を入力していますよね。
メールの下書きを作成してくださいとか、これがプロンプトです。
AIからより良い回答を引き出すためには、どのようにプロンプトを書くかが重要だと言われています。
以前はプロンプトエンジニアリングという言葉があって、いかにプロンプトを設計するかが重要視されていました。
現在はプロンプトに対する見方、こういったものは以前とは少し異なってきています。
ですが、依然としてAIへの指示、つまりプロンプトが重要なことには間違いありません。
プロンプトに関しては、この耳で学ぶAIシリーズの中でも、後のエピソードで詳しく掘り下げていく予定です。
今日のところは、AIへの指示のことをプロンプトと呼ぶと、この点だけ抑えておきましょう。
はい、では次はコンテキストです。コンテキストというのは、日本語で文脈や背景情報を意味する単語となります。
生成AIの世界では、AIに渡している情報全体、つまりAIが参照している情報の一塊をコンテキストと呼びます。
AIからより良い回答を引き出すには、このコンテキストが非常に重要です。
例えば、メールの下書きを作ってくださいと、このようにシンプルに指示するのはあまり良いアプローチとは言えません。
じゃあどうするかというと、コンテキスト、文脈や背景情報を充実させてAIに渡すと。
例えば、メールの下書きを作ってくださいとだけ指示するよりも、その他にメール送信者の情報、メールを受信する人との関係性、
メールで相手に伝えたいこと、そしてその後に相手にしてほしいアクション、
こうした情報をコンテキスト、つまり背景情報として指示に含めるというわけです。
コンテキストに関連して知っておきたいのが、コンテキストウィンドウというキーワードです。
これは、AIが一度に受け取って処理できる情報の量となります。
いわゆる、AIの短期記憶のようなものです。
私たちが使っているChatGPTやGemini、AIと長い会話をすることができます。
でも実は、あの会話というのは無限にできるわけではありません。
会話が長くなればなるほど、AIは以前話した内容を忘れていきます。
こうしたAIが処理できる情報の量がコンテキストウィンドウとなります。
最近のモデルだと、GeminiやCloudは100万トークンコンテキストウィンドウを扱えるようになっています。
つまり、以前に比べてより大量の情報を処理することができるようになったと。
ちなみにこの100万トークン、この100万トークンのトークンという単語は
AIが処理する言葉の塊となります。
例えば、This is an apple という文章があったとします。
で、これ全部で13文字なんですけど、トークンでは4トークン、
This is an apple の4トークンで処理されるといった具合です。
はい、では次はAIエージェントです。
キーワード解説③:AIエージェントとAGI
このキーワードは前回のエピソードでも少し触れました。
最近のAI業界では最もホットなキーワードの一つです。
改めて確認しましょう。
AIエージェントとは、AIが自律的に施行をしてタスクを遂行するAIのことです。
通常のAIの使い方、人間がチャットで質問をしてAIが回答するという、一対一のキャッチボールです。
一方で、AIエージェントの場合は、人間の少ない指示から
AIが自分で計画を立てて自律的にタスクを遂行します。
世の中のAIの使い方は、一対一のキャッチボールからAIエージェントのような
自律的なタスク遂行型に移行しています。
例えば、来週の出張の準備をしておいてと、AIエージェントに指示するだけで、
最安値の航空券を検索して、ホテルも検索して、
経費生産の下書きまで作ると、
こんな感じで、人間が1から10まで指示をしなくても、
AIが自律的にタスクを遂行してくれる、こんなイメージとなります。
で、最近のAI各社が出しているモデルも、AIエージェントの利用を見越したものにシフトしています。
はい、次はAGIです。これは
Artificial General Intelligenceの略です。
頭文字を取って、AGI。
日本語では汎用人工知能と訳されます。ちょっと言葉は硬いんですけど、
AGIを簡単に言うと、人間と同等、もしくはそれ以上の知能を持つAIのことです。
最終的に、私たちが使っているAI、
いつかはAGIに到達する、なんて話もあります。
ただ、現段階ではまだAGIは実現していません。
ここちょっと深掘りすると、今のAI、文章生成や画像生成、あとは翻訳、
プログラミング、そういった特定のタスクでは、かなり高い性能を発揮します。
一方でAGIは、どんなタスクであっても人間と同じように、
あるいは、人間以上にこなせるAIのことを指します。
会社の業務も、車の運転も、科学の研究も、人間がやれることは何でもできると、そんな万能な知能を指します。
現在の状況からわかるように、確かに特定のタスクにおいては優秀なAIというのは登場してきました。
でも、全く人間と同じような知能を持つAI、AGIはまだ誕生していません。
ちなみに、オープンAIのCEO、サム・アルトマンは、AGIの実現を一つの大きな目標として掲げています。
AGI、いつ誕生するのか、これはAI業界でも、かなり議論が分かれているところです。
5年後という楽観的な意見もあれば、数十年先という意見、
AGI、永遠に実現しないんじゃないと、いろんな意見があります。
AGIというキーワードを耳にしたら、
人間と同等か、それ以上の知能を持つAI、こんな感じでイメージをしてください。
キーワード解説④:ローカルLLM
はい、次は、ローカルLLMです。
まず、ローカルLLMのLLMという部分についてチェックしましょう。
このLLMというのは、ラージランゲッジモデルの略で、大規模言語モデルを意味します。
で、この大規模言語モデルというのは、その名前の通り、
大量のテキストデータを学習させた、巨大な言語モデルのことです。
インターネット上の文章や書籍、論文、そういった膨大なテキストをAIに学習させます。
で、こういった学習を重ねることで、AIが人間のような自然な文章を理解したり、
質問に回答したりできるようになります。
私たちが普段使っているChatGPTやGemini、
こういったモデルはLLM、大規模言語モデルの一種です。
で、ちょっと前置きが長くなりました。ローカルLLMの説明に入ります。
言葉通りに解釈すると、ローカルなLLM。
これは簡単に言うと、手元のパソコン、
つまり、ローカルな環境で動かすことができるAIモデルです。
いやいや、私、普段手元のパソコンでChatGPTを動かしてますよ、と。
そう思う人もいるかもしれません。ChatGPTもローカルLLMなんですか、と。
実は、ChatGPTはパソコンからオープンAIのサーバーにアクセスをして、そこでAIを動かしています。
なので、インターネット回線が切れるとChatGPTは使えなくなります。
一方で、ローカルLLMは手元のパソコンだけでAIを動かすことができます。
つまり、インターネットに接続されていなくても、AIを動かすことができる、と。
で、これ、何が嬉しいのかっていうと、大きく2つメリットがあります。
1つ目は、AIを動かすコストがほぼかからないということ。
もう動かし放題です。
必要なのはパソコンの電気代ぐらいです。
で、2つ目はプライバシーの保護。
外部にデータを送信しないので、機密情報や顧客の情報を扱うタスクと相性が良いです。
企業がAIを導入する上で最大のハードルになるのは、AIは入力した情報を学習してしまう、
情報が流出してしまう可能性があるという点だと思います。
こうした可能性を考慮して、AIの導入に踏み切れない企業多いですよね。
でも、これって健全なリスク管理だと思います。
大事なお客様の情報、クライアントの情報を流出させてしまうような状況、誰でも避けたいですよね。
でも、AIも使いたいと。こういった時にお勧めしたいのが、ローカルLLMです。
例えば、お客様やクライアントなど、ちょっと機密性の高い情報を処理するときは、ローカルLLMを使うと。
一般的なタスク、こういったものは、普段通りChatGPTやGeminiを使うと。
このように、ローカルLLMを使うと、タスクに求められるセキュリティに応じて
AIを使い分ける、そういった選択肢を生み出すことができます。
ローカルLLMについては、後のエピソードでも詳しく掘り下げていく予定です。
キーワード解説⑤:B2A
はい、では次はB2Aです。
これは以前、ポッドキャストでも一本丸々エピソードを使って話したトピックです。
B2Aは、生成AI時代に登場した新しい概念です。
このB2Aというのは、ビジネス・トゥ・エージェントの略です。
つまり、企業が人間ではなく、AIエージェントを顧客として想定したビジネスモデルです。
正直、B2Aのビジネスモデルを構築している企業、国内でも海外でも、まだそんなに多くはありません。
ただ、情報を先取りする意味でも、このB2Aには触れたいと思います。
もともと、B2BやB2Cという言葉がありますよね。
B2Bは、企業が企業向けに商品やサービスを提供するもの。
B2Cは、企業が個人向けに商品やサービスを提供するものです。
B2Aは、この延長線上で、企業がAIエージェントを対象に商品やサービスを提供する、
そういった新しいビジネスの形です。
B2Aの具体的な事例を挙げると、例えば、エージェントコマース。
これは、AIエージェントが人間の代わりにオンラインショッピングをしてくれるというものです。
例えば、来月キャンプに行くから必要なものを揃えてと、AIエージェントに指示をするだけで、
AIが過去の購買履歴を参照して、足りないものだけを買い足してくれる、
そういった使い方ができるようになります。
マスターカードやビザのようなクレジットカード会社も、
AIエージェントが買い物をできる、安全に決済できる仕組みを開発しています。
簡単に言うと、AIが使えるクレジットカードを開発していると、
これはB2Aのビジネスモデルとなります。
このように、これから先、企業がビジネスを展開するときに、
従来のような人間をお客様として捉えるだけではなくて、
AIエージェントをお客様としたビジネスも出てくる可能性がある、
そういった可能性を秘めているのがB2Aです。
キーワード解説⑥:埋め込み(エンベディング)
はい、では最後は埋め込みです。英語でエンベディングと言います。
この単語自体、聞き慣れないですよね。
埋め込み、エンベディングというのは、文章や画像などの情報を
AIが理解できる数値のベクトルに変換することです。
ちょっと分かりにくいですよね。ちょっと難しいので、シンプルに言うと、
意味が近いものほど、近くに配置される仕組みだと思ってください。
埋め込みを理解するには、仕組みよりも活用事例の方で理解する方がイメージしやすいと思います。
例えば、AIは一般的な知識は備えていますけど、
特定の会社の社内規定のような、そういった情報は学習していません。
なので、例えば、ある新人の社員が
弊社の経費生産のルールってどういったものですかと、
AIに質問をしても回答できません。
なぜなら、
AIは、その特定の会社の経費生産のルール、そういったものを学習していないからです。
でも、社内規定を丸ごと全部埋め込み、エンベディングすると、
経費生産について書かれた社内規定を見つけて、それを元にAIが回答できるようになります。
つまり、埋め込みを使うことで、AIの知識にない情報でも、AIが参照して回答ができるようになると。
この埋め込みって、ちょっと理解はしづらいんですけど、
結構様々な応用ができて、アイデア次第でいろいろな使い方ができます。
例えば、画像の情報も埋め込みをすることができます。
なので、例えばスマートフォンに1000枚ぐらい写真があると。
で、埋め込みを使えば、キャンプに行った時の写真というキーワードで、
該当する写真を抽出する、そういった使い方もできます。
ここで、イメージしやすいように、スマートフォンの写真なんかを例にとりましたけど、
実務的な媒体でも応用することができます。
例えば、会議の音声、PDFの資料。
埋め込みは、ちょっと聞き慣れない単語なんですけど、
こちらチェックしておいて損はないキーワードだと思います。
で、この埋め込みに関しては、後のエピソードで詳しく掘り下げていきたいと思います。
はい、それでは今日のポイントをまとめます。
まとめと今後の展望
今回は、生成AIによく登場するキーワードを紹介しました。
最後に改めておさらいをしましょう。
ハルシネーション
AIが誤った回答を出力してしまう現象。
AIモデル
AIの頭脳に当たる部分。
プロンプト
AIに対する指示。
コンテキスト
AIに渡す情報全体。
文脈や背景情報を意味します。
AIエージェント
AIが自律的に思考してタスクを遂行する仕組み。
AGI
人間と同等、もしくはそれ以上の知能を持つ汎用人工知能。
ローカルLLM
手元のパソコンだけで動かすAIモデル。
B2A
企業がAIエージェントを顧客として想定する新しいビジネスモデル。
そして最後に埋め込み。
情報を数値化して意味が近いものほど近くに配置される仕組み。
以上9個のキーワードです。
このキーワード、全部を完璧に覚える必要はなくて、耳にした時に
あ、あの話かと、ぼんやり思い出せるぐらいでちょうどいいと思います。
今回紹介したキーワードのうち
プロンプト、AIエージェント、ローカルLLM、そして埋め込みについては
後のシリーズでも詳しく掘り下げていきます。
今日話した内容はノートにもまとめていますので、興味のある方は補足コンテンツとして利用ください。
概要欄にリンクを貼っておきます。
はい、今日はこの辺ということで、本日もお付き合いいただきありがとうございました。
番組ではこのように耳で学べるAIを毎週発信しています。
通勤中や家事の合間にAI情報をキャッチアップできます。
毎週水曜朝に更新していますので、ぜひフォローをお願いします。
そして、おすすめの生成AIツールをまとめた資料も配布しています。
興味のある方はこちらもぜひ概要欄にリンクを貼っておきます。
お相手は耳で学ぶAIの矢野てっぺいでした。また次の配信でお会いしましょう。
18:51

コメント

スクロール