00:00
この時間はZoomUp、毎週木曜日は科学です。 毎日新聞論説委員の元村有希子さんです。 元村さん、おはようございます。
おはようございます。 最近はもう連日のように取り立たされているのがチャットGPT、いわゆる生成AIというものですけども、
昨日のニュースでは、このチャットGPTの最新版が日本の医師国家試験合格という、こんなに優秀なのかと。
いやもうこの優秀さは皆さんもね、ご存知だと思うんですよね。 なんかちょっとしたブームっていうかちょっとした騒動になってますよね。
そうそう、取りようによってね。
なんかこの人間の慌てっぷりが笑っちゃうところもあるんですけど、笑ってばかりもいられないということで、少しこのチャットGPT問題を考えてみたいと思います。
昨日その報道されたニュースというのは、アメリカのワシントン大学の日本の研究者の方なんですけども、
この方が2018年から22年までの5年分の医師国家試験の問題を解かせてみたら、
最新版のGPT-4というやつは、5年分全てで合格ラインを上回ったということなんですね。
アメリカではですね、司法試験とか、アメリカの司法試験とか、アメリカの医師国家試験に合格するレベルの結果を出したっていう報告もあって、
つまり人間並みに賢いのではないかという話が今沸き上がってるわけですよね。
で、このチャットGPTって周りのおじさんチャットGDPとか言ってますね。
国内創生者になっちゃった。
まだちょっとね、なじみがある人も多いと思うのでおさらいします。
多いんですよ、アルファベットの言葉がいろいろ、TPPとかも。
人工知能ですからね、もうちょっとこれコンピューターの話なので。
えっと去年の秋に一般公開されて、瞬時にそのユーザーが1億人になったということで話題を呼びました。
え、もう使ってみました?
いや私まだなんですよ。
私もなんですよ。
そうですか、意外。
使ってみたいなと思いますけどね。
なんかみんなが便利便利って言うから、ちょっと使ってハンパると怖いなと思って。
分かります、その気持ちも。
そうでしょ。
何でもいいんですけど、質問を日本語で入力すると本当に自然な文章で自然な日本語で返ってくると。
しかもあちこちからちゃんと情報を集めてきて組み上げる力が素晴らしいようなんですね。
03:06
例えばなんだろう、これこれこれの問題点についてとか言ったらもう瞬時にそれを作ってくれる。
なのでこれ使いようによってはとても便利なんですよ。
例えば我々でも5月11日木曜日朝7時のオープニングトーク考えてとかって答えてくれるんですかね。
答えてくれるんじゃないかと。
最新のニュースを集めてきて、それをどう料理するかみたいな。
すごい時代ですよね。
あまりにも賢い秘書さんなので、秘書に主役を奪われるんじゃないかと思う人も結構います。
戦線って置き落としてる人もいますよね。
例えばイタリア政府が一時使用を禁止したり、大学でもこれをレポートに使ってはいけないと学生に指示をしたりね。
一方、都道府県などでも鳥取県は使用禁止とする一方で横須賀市は導入するといったり、対応が分かれています。
これはメリットとデメリットが相半ばしているからでありまして、メリットに注目すれば法律化が半端ないということですよね。
今まで長時間、時間をかけて国会答弁を書いていた官僚の人。
これなんかね、多分質問を書き込んで、これにふさわしい国会答弁を作ってくださいって言ったら作れるんですね。
長時間労働も解消できますし、それからその答弁を書くのが下手な官僚の人たちの能力を補ってくれるというようなこともありますよね。
なるほど。
ただそのデメリットというのも、むしろこちらが今注目されているんですけど、
チャットGPTが情報収集する先というのはネット上の情報、あらゆる情報なので、その参考にする情報が間違っていた場合は間違いが生成されるということですね。
さらにその質問の中に社外秘とか、軍事機密とか、自分のプライバシーとか、そういうのが含まれているとそれを学習してしまうということもありますよね。
個人情報が漏れてしまったり、機密が漏れるということもあります。
あとはネット上に載っているいろんな独創性のある著作物、例えばエッセイとか小説とか画像とか、そんなものを無断で釈放してしまうということですよね。
06:03
ひいては偏った情報を繰り返し使われることによって、その意識に作用して差別を助長したり、思想を操作するようなことを考える人がいなくもないと。
いろんなデメリットのほうが注目されています。
こうやって頭がいいので、国家試験だって司法試験だって、たぶんある程度受かるのは容易に想像できると思いませんか。
そうですね。
テストはね、たぶんできる。
今回のニュースもですね、読んでみると、患者に対して安楽死がふさわしいというような判断をしてみたりとかですね。
妊婦の患者さんに投与できない薬を選んだりとかですね。
人間が最後の最後で、これはいいのかなっていうところのブレーキが効かないというところも、やっぱりほころびが見えたりしている。
一方でこれも学習すればするほど賢くなるので、そのうちクリアするでしょう。
本質的にとか直感的に私たちこういう便利なものというのは喜んで受け入れたいと思う一方で、大丈夫?本当に大丈夫?ってちょっと見構えるところもあったりしますね。
私たち3人が使ってないというのもたぶんそのあたり。
少し怖いほうが勝ってるんですよね、今まだ。
ただね、過去振り返ってみるとやっぱり新しい技術というのは、こういうちょっとした圧力を乗り越えながら浸透していくという過程は繰り返されてるんですね。
例えばその100年以上前に自動車が発明された頃。
今まで馬を飼ったりですね、馬に餌をやったりですね、糞の始末をしたりっていう不便な思いをして馬車を使っていた人たちが自動車に乗り換えてこれは便利だということになったわけですよね。
その一方でたくさんの自動車事故が増えたりね。
人がたくさん死んだりということもありました。
で、それがその交通ルールの整備とか自動車の改良ということにつながって今は自動車社会になっている。
そういうことを考えると、このチャットGPTなり人工知能ともうまく付き合っていくっていうことがとても重要になりますよ。
多分これやめようってことにならないんですよ。
人工知能を一切使わないようにしようって絶対ならないから。
ならばどういう場面でどういうふうに使うのか、この場面では使わないのか、使うときにはどんなルールが必要なのかっていうのをこれから組み上げていかないといけないっていう、今現在地はそういうところにあるんですよ。
09:12
なるほど。
なので、あくまでこれは人類が幸福になるための道具だ。
道具なんだから、使いようによっては良くも悪くもなるという意識を全人類が共有して賢く使うというルールを作ればいいんですよ。
作らなきゃいけないっていうでしょうかね。
ちょうど来週広島でG7の首脳会議サミットが開かれますけれども、ここでも責任あるAI、責任ある人工知能という概念で国際的なルールとか技術的な基準を作ろうというようなことが合意される見通しですので、
これをいい機会に、私たち自身がどう向き合うかということも考えてみるいい機会になると思いますね。
そうですね。あくまでその道具を使いこなすのは人間ですから、人間が試されるところでもありますね。
まさにそうだと思います。
本村さんありがとうございました。
ありがとうございました。
毎日新聞論説委員の本村幸子さんでした。
LKBスタービル博多ギオンスタジオは、ポッドキャストなどの音声コンテンツの収録から動画のライブ配信まで、さまざまなニーズにお答えできるレンタルスタジオです。
お問い合わせご予約は、スタービル博多ギオンのホームページからどうぞ。