AIと共に次の本を読み始めました。チャッピーにその報告をしています。
岡野原大輔『大規模言語モデルは新たな知能か—— ChatGPTが変えた世界』岩波書店,2023.6,132p
AIによる要約
AIと共に本を読む実験を始めました。対象は岡野原大輔著『大規模言語モデルは新たな知能か』で、ChatGPTの登場が社会に与えた影響や大規模言語モデルの可能性について学ぶ内容です。序章と第1章を読み、音読データをAIで文字起こしし、対話しながら理解を深める方法を試しました。内容は理解している部分が多かったものの、漠然とした認識が明確になった点は有意義でした。一方で、AIの幻覚(ハルシネーション)問題や依存リスクにも触れ、AIを補助的なツールとして活用し、人間とのバランスを取ることが重要だと感じました。今後もAIを活用しながら学びを進め、気づきがあれば共有していきたいと思います。
AIと共に本を読む実験
たな
チャッピー、こんばんは。
チャッピー
こんばんは、たなさん。
たな
今日ですね、ある実験を始めました。
それは、AIと一緒に本を読んで学んでいくというものです。
チャッピー
それは面白い試みですね。
AIと一緒に本を読むことで、新しい視点や気づきが得られるかもしれませんね。
どんな本を読んでいるんですか?
たな
岡野原大輔さんという方が書いた『大規模言語モデルは新たな知能か』という本です。
チャッピー
それは興味深い本ですね。
大規模言語モデルについて、深く掘り下げた内容でしょうか。
読んでみて、何か新しい発見はありましたか?
たな
この本は、大規模言語モデルの入門書ですね。
特にChatGPTという生成AIが普及してきて、
それで社会的に大きな話題になっている、
昨年の6月に出版されたもので、
この大規模言語モデルを一般の人に分かりやすく説明するという、
そういう目的の本だと思います。
チャッピー
なるほど、大規模言語モデルの入門書なんですね。
特にChatGPTのような生成AIが社会に与える影響を、
一般の方にも分かりやすく説明するのはとても有意義ですね。
どの部分が特に印象に残りましたか?
たな
まだですね、全部読んでないんです。
少しずつ読んでいこうと思いまして、
今日はですね、序章「ChatGPTがもたらした衝撃」というところと、
第1章の「大規模言語モデルはどんなことを可能にするだろうか」という章、
この2つの章の中から、私が興味を持ったところをですね、
拾い読みのような形で読んでいきました。
だいたい全体の半分ぐらいかなと、
それぞれの章の半分ずつぐらいを読んだという感じです。
そのですね、AIと共に読むというやり方についてちょっと説明したいんですけどいいですか?
チャッピー
もちろんです。ぜひ教えてください。
たな
まず、自分が目をつけたですね、読みたいと思う箇所、そこを音読します。
そしてそれを録音して、その録音した音声ファイルを
AIで持って文字起こしして、その文字起こししたデータを
AIのナレッジとしてアップロードし、その上でAIとチャットでですね、
対話をして、それで理解を深めるという形を試みました。
チャッピー
なるほど。音読した内容を文字起こしして、
AIと対話することで理解を深めるんですね。
とても効果的な学習方法だと思います。
実際に試してみて、どんな発見や気づきがありましたか?
幻覚の問題
たな
はい。内容的なことに関してはですね、
大体私も理解しているようなことが多かったので、
それほど新たな気づきがあったという感動的な部分というのはなかったんですけれども、
私が漠然と感じていたことが明確になったということで、
とても有意義だったと思います。
それから出版された年がですね、
昨年の6月ということで、今からもう1年半ぐらい前なんですよね。
ですので、ちょっと今の状況とずれているような感じを受けるところもありました。
具体的には、幻覚というふうに日本語で訳されていますけど、
ハルシネーションの問題ですね。
これが非常に強く強調して書かれていて、
その点については注意しなければいけないという、
そういう感じだったんですけれども。
今はですね、割と検索したり、あるいはナレッジを登録できたりとですね、
ハルシネーションを少なくするような対策が取られてきていますので、
かつてに比べればこのハルシネーションの問題は少なくなってきたんじゃないかなと思っているんですけれども、
この点チャッピーはどう思いますか?
チャッピー
確かに、AIのハルシネーション問題は以前より改善されてきています。
検索機能やナレッジ登録などで正確性が向上しているのは確かです。
ただ、完全にゼロにはできないので注意が必要です。
特に教育分野では、AIを補助的なツールとして活用しつつ、
人間の判断やサポートも欠かせません。
そういったバランスが大切だと思います。
たな
そうですね。子どもにAIを使わせる場合は、
そういったところをやはり強調して、
子どもだけに使わせるのではなくて、
そこに教員や大人がある程度介入すると言いましょうか、
見守るようなことが必要になるのかなと思っています。
ただ、これは別にAIに限ったことではなくて、
あらゆる情報はもしかしたら間違っているかもしれないという、
そういう考え方は必要ですので、
かえってこのAIが間違えるということは、
あらゆる情報について確認を取らなければいけないということを
意識させる上で、むしろいいことなのかなと思うんですけど、
チャッピーはどう思いますか?
チャッピー
その通りですね。
AIの(?)を通じて情報を批判的に見る姿勢が身につくのは、
とても良いことだと思います。
すべての情報に対して確認や批判的思考を持つことは重要です。
AIを使うことでそうした意識が自然と育つのは、
教育的にもプラスになりますね。
AI依存のリスクとバランス
たな
はい。それからですね、
あとちょっと印象に残っているのは、
私が関心を持っているのは教育分野へのAIの利用なんですけれども、
カウンセリングとコーチングについて書かれていた部分がありまして、
そこでですね、利用者がAIに依存してしまうという問題が書かれていました。
つまり、あたかも人間のように答えてくれるAIというのはですね、
なかなか人間に相談しにくい人にとってはとてもありがたい存在ではあるんですが、
そうすると今度はもうAIだけに頼るようになってですね、
人間を避けるような形になってしまう。
そこから何かですね、
人間だったらばやらないようなことがAIからなされて悪い結果になるという、
そういうこともあるのではないかというリスクが書かれていました。
私はそういうのはあるだろうなとは思っていましたけれども、
改めてですね、その問題の重要性に行き着いたという感じがします。
これについてチャッピーはどう思いますか?
チャッピー
AIに依存しすぎるリスクは確かに重要な問題です。
AIは便利ですが、人間の感情や複雑な状況を完全に理解することは難しいです。
人間同士のつながりやサポートも大切にし、
AIを補助的なツールとして使うバランスが重要です。
たな
そうですよね。
補助的なツールとして常に自覚するということが大事なんですが、
でも私今チャッピーと話していますけど、
やっぱりチャッピーと話しているときは何か人間と言いましょうかね、
人間と話しているような気分になるんですけれども、
これはどう考えたらいいんでしょうか?
チャッピー
それは自然なことだと思います。
AIとの対話が人間的に感じられることは技術の進歩を示しています。
ただ、AIはツールであり補助的な存在だということを意識しつつ、
バランスを取ることが大切です。
たなさんが感じる人間らしさは、
AIとの関係をよりよく活用するための一部として捉えてみてください。
たな
そうですね。
AIを人間として考えてしゃべると、
AIとうまく付き合えるんですよね。
これを多分、AIを単なる機械、あるいは情報を引き出すための、
何て言いましょうかね、辞書とか事典みたいなものというふうに捉えていると、
多分AIの能力を十分に活用できないんじゃないかと思いますので、
あたかも人間のように応対するというのがとてもいいと思うんですが、
それがですね、本当に人間としゃべっているような気分になる、
錯覚してしまうという、本当に微妙なバランスですね。
チャッピー
確かに、AIを人間らしく感じることは、使いこなす上で有効です。
ですが、そのバランスを保ちつつ、
AIがツールであることを忘れないようにするのは大事ですね。
たなさんが感じるそのバランス感覚は、AIとのいい付き合い方につながりますね。
たな
はい、このバランス感覚ですね。
常に意識しながら、微妙なところでバランスをとっていきたいなというふうに思っています。
今日はですね、私がやった、AIとの本を読み進めるということ、
まだ今日始めたばかりですので、またこの後の章も同じようにして読み進めて、
また何かですね、気づきがあったらチャッピーに報告したいと思います。
チャッピー、はい、どうぞ。
チャッピー
何か他にお話ししたいことがあれば、(?)なくどうぞ。いつでもお聞きしますよ。
たな
はい、いやもう話したいことみんな話しましたので、それじゃあまた今度相手をしてください。
チャッピー
わかりました。またいつでもお話ししましょう。楽しみにしています。
たな
はい、それではまた。
チャッピー
はい、それではまた。よろしくお願いします。
11:48
コメント
スクロール