1. サイエンマニア
  2. 人工知能を教育に生かす!AIの..

シーズン22は「AIと教育の世界」ドイツで人工知能の研究をされている方とオンライン教育で使えるAIの取り組みや画像認識についてお話しました。


【ゲスト】

カイザースラウテルン工科大学

ドイツ人工知能研究所

渡邉 洸さん(https://twitter.com/ko_watanabe_jp)

YouTube https://www.youtube.com/channel/UCvMocqDRMWYlbgX8jRAUHzQ

【トピック】

・ドイツへ留学するまでの経緯

・AIと教育の研究とは?

・萌え声を使う!?

・オンライン会議で活躍するAI

・AIと心理学や哲学、倫理面の課題

・人工知能分野はどうやって研究している?

・AIで明石家さんまさんのような名司会は誕生するか?

・6本目の指の話→サイエンマニア エピジェネティクスとアニメの世界より

・日本と海外のエンジニアの待遇の違い


【告知】

サイエントーク1周年生配信

4/29(金)  YouTube Live (映像)

登録してお待ちいただければ幸いです → https://www.youtube.com/channel/UCn3buED4vDrWdPi3E_POGVQ


毎週月曜日配信!

ポッドキャストのフォローやレビューでご支援いただければ嬉しいです。

Twitter #サイエンマニア

SciEnMANIA公式サイト(おたよりフォーム)

姉妹番組 サイエントーク → https://scientalkclub.wixsite.com/scientalk

BGM

only a little

00:00
こんにちは、レンです。 シーズン22は、AIと教育の世界です。
人工知能についてドイツへ留学して研究している方から、専門外の僕でもわかるように、今の分野のことやドイツの生活のことまでお話ししていただきました。
それではどうぞ。 今回のゲストは、カイザースラウテルン工科大学ドイツ人工知能研究所の渡辺幸さんです。よろしくお願いします。
渡辺さんはですね、またビーストからのご紹介なんですけども、人工知能の研究ということで、おそらく今まで全く出てこなかったゲストのタイプなんですが、非常に楽しみです。
簡単に自己紹介をお願いします。 はい、ありがとうございます。渡辺幸と申します。
もう自己紹介、先ほどいただいたんですけど、ドイツのカイザースラウテルン工科大学というところで博士の、もう2年目に入ったかな、2年目で、人工知能研究所に関しては研究員としてお給料をもらっているという感じです。
人工知能といっても幅広いと思うので、ちょっとブレイクダウンすると、教育と人工知能、エドテックと呼ばれる分野に特化して研究しております。
よろしくお願いします。
はい、よろしくお願いします。これ大学生として、大学院生か、院生としてもいて、研究所にもいるという、これ場所は同じ大学の中にある研究所ということですか?
質問ありがとうございました。日本の方が聞いていることが多いかもしれないので、ちょっと例えると、なんか筑波大学とかって近くに研究所とかあって、そちらに産総研とか行ったりということがあると思うんですけど、
割とそれに近くて、カイザー・サラウテルン工科大学の近くに、今のそのDFKIと呼ばれる人工知能研究所があって、大学の所属なんだけども、主には研究所で研究をずっとしている感じですか?イメージとしては。
ああ、なるほど。所属は大学で、みたいな感じですか?
そうですね。
ああ、なるほど。今回初めて海外とつながっているということで。
嬉しい。
今、日本は夜9時なんですけど。
そうですよね。
今、ドイツ何時ですか?
今はですね、1時ですね。
午後1時です。
お昼です。
お昼の1時ですね。
はい。
めちゃくちゃ外が明るい。
最近、すごい余談というか雑談なんですけど、やっと暗い冬が越えまして、春が来ている感じがしまして。
ああ、なんかすごい冬大変なんですよね、きっと。
そうなんですよ。よく鬱病にかかる人がヨーロッパ多いっていうのが問題なんですけど、その一番の理由が日光がないっていうところが理由なので。
03:02
なるほど。めっちゃ昼短いみたいな。
いや、超短いです。朝も10時から9時まで暗くて、なかなか朝起きれない。
そうなんですよ。
それは一言はいけないですね。
僕、初越冬だったんで今回。
大体わかります。
大体こんな感じかっていうのがつかみました。
ドイツ行かれたのはどのくらい前になるんですか?
ありがとうございます。2021年3月の1日に行ったので、最近1年経ちました。
ちょうど1年くらい。
そうです。
なるほど。それより前は日本の大学にいたっていう感じですかね。
その前が2年間株式会社DNAってところでソフトウェアエンジニアをしてから。
DNAなんですね。
そうです。大学院に卒業して就職してから、今博士課程の学生をドイツでしているという感じですね。
すごい方ですよ、これは。
いやいやいや。そんな感じです。
実際に今は企業から大学に行って研究をしてるってことで、
僕自身は有機化学とかそっちのほうを専攻してたんですけど、今もやってるんですけど、
かなりジャンルが違うっていうところなので、
あとは聞いてる人ももしかしたら人工知能って結構ふわっとしたイメージしかない方とかもいるかもしれないんで、
その辺からいろいろ研究のことを聞けたらなと思っています。よろしくお願いします。
お願いします。
じゃあ実際にどういう感じの研究になるんですかね。
ありがとうございます。ざっくりいろんな方がこのポッドキャスト聞いてもらってると思うので、
分かりやすくなるべく話すと、現在って今やっぱコロナ禍になっていて、
大学と先生の間って大体オンラインでつながって、
今日もこうやってレンさんとオンライン上で話させてもらってるんですけども、
生徒さんの状態とか、大体今どういう環境で勉強してるんだろうっていうのが、
分かりにくいっていうのが課題としてあるんですけど、
そこで僕がさっき言ったエドテックをどう活用していきたいかっていうと、
先生から学生にどのぐらい話してる内容とか、
伝えてる内容が伝わってるのかってところをなるべく数値化していきたいねっていうところに僕は取り組んでまして、
具体的に言うとオンラインで参加してる学生さんと先生の状態をビデオをオンにしてもらって測って、
こういうふうに勉強のときにあなたはうまく理解ができてない可能性があって、
それはこういう理由なのかもしれないよっていうのを個人個人レポートのように返してあげるみたいなのを課題として作ってますね。
06:01
なるほど。じゃあその授業の行われている様子を先生と生徒どっちも動画で記録するみたいなことですよね。
その動画の動きとかを解析するみたいな感じですか?
おっしゃる通りで、なるべくボディジェスチャーとかが上半身しか映ってないときに減ってくるので、
顔表情だけでそのボディジェスチャーと同じような意味を持ったものってどうやって計測できるんだろうとか、
非言語情報とかを処理していくってところをまさにAIが特異なのでやっているという感じですね。
めちゃくちゃタイムリーな研究ですね。
そうですね。いい意味でも悪い意味でもやっぱり研究って未来も見つつ、
現在の社会課題とかっていうところをバランス見てやっていくっていうところが大事だと思うので、
僕の研究でいうと、今今コロナとかで問題になっていることをやりつつも将来そのビデオミーティングとかがどう変わっていって、
今僕がやっている研究を10年20年後、違った形でどうやってこの技術を渡していけるかみたいなところが面白いですね。
例えばで言うと、メタバースとか最近よく話題に上がっていると思うんですけども、
ああいうのって結局バーチャル空間に人が入っていくってところで、
じゃあ入ってくる人はどういう状態なのっていうのは、いろんなカメラだったりセンサーつけて、
その情報を知ってやっとバーチャルに入ると思うんですけど、
そのバーチャルに入る前のデータをどう処理するかみたいなところは、今僕がやっているのかなというふうに思っています。
バーチャルに入る前ってことは、実際の体の動きとかを、
あれですかね、渡辺さんがやっているのは器具的なやつをつけないような方法っていうことですか?
ないです、やってます。そうですそうです。
なるほど、じゃあ動画を見てここがちゃんと顔で、ここが手で、あと表情を読み取ったりとかそんな感じですか?
そうですそうです。
それ生徒側は結構難しいなと思ったのはボディジェスチャーって、
先生は結構やりそうですけど、受け手側、生徒側の動きってどれぐらいあるんだろうって思いますね。
ぼーっと聞いてたら動かないですよね、あんまり。
おっしゃる通りで、最近zoom疲れとかっていうワードも人によっては知ってると思うんですけども、
顔を出して動画をミーティングやるだけですごいストレスかかったりするっていうのがあるので、
それこそメタバースとかいう、自分とは違う、アバターがその空間にいる良さって、
自分じゃないのでそういったストレスが感じにくいんじゃないかっていうのもあるんですね。
なので、今考えていることとしては、そういった、やっぱり他の研究者もやってるんですけど、
09:01
アバターとして生徒が参加した時に、どのぐらいその没入感があって、
先生が話してる内容が入ってくるのかとか、やっぱりその先生の姿は先生のまんまの方がいいんだよねってところも、
研究のテーマではあります。
そこも、アバターの時と人の時みたいな、実際に差とかが出てくるっていう感じですか?
そうです。見た目のインターフェースって言うんですけど、見た目がどれぐらい変わったりとか、
それこそ今ポッドキャストでこういう声で喋ってますけど、
波長がどのぐらいの方がいいのかとか、多分人によって聞こえやすい声とかも違うので、
そういったところを中間で変換させてあげたりとかすると、数学が例えば楽しくなるとか、
そういったところはやってみたいなっていう感じです。
それって声も解析できちゃうんですか?
もちろんです。僕が専門としているのはあくまで顔画像とかそっちなんですけども、
音声認識とか音声処理やってる研究者もたくさんいて、
そういった人たちはそういった萌え声に変えてみたりとか。
分かりやすいですけどね、すごい。
そうです。極端に振ったほうがやっぱり差分が出るので、
低い声と萌え声だったらどれぐらい違うんだろうっていうのをたまに見ます。
やりすぎたら全然話入ってこなくなっちゃいそうです。
そうです。まさに本当そうなんですよ。
多分レンさん今ポッドキャストをたくさんやられてるので、
いろんな人の声聞いてると思うんですけど、
やっぱり聞こえやすい声とかきっとあると思うので、
そういったところを人の耳に応じて書いてあげたら嬉しいなとかはちょっとありますね。
そうですよね。ポッドキャストとか音の情報めちゃくちゃいっぱいあるんで、
それこそサンプルいっぱいあるみたいな。
多分渡辺さんのだと動画なんで、YouTubeとかそういうのも全部研究対象に見えちゃうというか。
そうですね。実験としてデータとして使うってなるとやっぱり倫理審査とか、
誰かの第三者が自分は実験の用途じゃなく上げた動画を、
僕らが実験として使っていいのかっていうとまた話が変わってくるので、
あんまりそこのデータに突っ込んでいくってことはないんですけども、
研究者目線でこういう話し方してる人の方が伝わりやすいなとかは、
一、配信者でもありつつそういった研究をしてるので、よく気になってそういうとこ見てますね。
目線を視聴者さんに合わせた方がいいよねってところを見たときに、
じゃあ目線でオンラインミーティングでも重要なのかなとか、
配信者やってるとそういう気づきもあったりします。
確かにオンラインミーティングだとやっぱ、
人によって画面見てる人とカメラをちゃんと見てる人みたいな、
これはやっぱりカメラ見てる方がいい印象とか、
そういうこともこういう研究から分かったりするんですか?
そうですね、おっしゃる通りで、
12:02
アイコンタクトがカメラミーティング、オンラインミーティングでも発生してるんですよ。
その人にとって写ってる対象の人の目の位置、
画面上の目の位置を見てるかどうかっていうのは計測できて、
やっぱりその目を話してる時の方が話し手がちょっと集中して話せるとか、
多分そういったことはあるので、
対象者がどういう人のどこを見てるかとかは、
オフラインもオンラインも関係なく重要かなと思います。
それすごい面白いですね。
で、そういうことを実際に教育とかに取り入れていくっていう。
そうです。
そこが結構重要なところですかね。
そうですね、僕らの分野はあくまでそういう教育とか、
あとは会社の中でのミーティングとかもそうなので、
あるとそういった会議とかで使っていきたいなっていうのはあります。
これ実際に研究する時っていうのは、
ミーティングに参加してくる人を募集して人を集めてみたいな感じでやってるんですか?
もうその通りで、やっぱり人によって端末が違ったりとかすると、
カメラの性質が違うので、最初は同じ環境でなるべくやってるんですけど、
いかに実環境で誰でも使えるような状態でやれるかっていうところも、
徐々にやってます、最近では。
そういう動画解析みたいなのって、今結構簡単にできるんですか?
やっぱり難しさみたいなのもあると思うんですけど、
どういうところが難しいとかあります?
難しさは、やっぱり毎段階の顔の表情とかの処理っていうのは進んでるんですけど、
じゃあそういった情報をどううまく実環境に活用していくかみたいなところが難しくて、
今の話でいうと、僕の場合は教育系で先生から生徒とかに何かを伝えて、
先生側から生徒にどれくらい伝わってんだろうっていうところを定量的に評価したいんですけど、
その評価ってその表情からどうやらするのとか、そういった部分っていうのはまだまだできてないんで。
確かにな、なんか数値とかにしにくいですよね。
そうなんです、そうなんです。
なので、いかにこういう今できてるAIの技術とかを使って、
そういった実環境で困っていることを解決するかっていうのが面白いですね。
それは今のところどういう形で表現してるんですか?その表情とか動きとか。
表情、動きに関しては、もうすでにいろんな会社、
例えばGoogleのAPIとか、APIっていうのはデータをあるところに渡すと、
そこが今は笑顔ですよとかって情報として返してくれるっていう、
15:02
誰でも使えるものがあるので、大体そういったものをみんな活用して、
その情報だけは何時何分笑顔でしたっていう情報は誰でもゲットできます。
だけどそれをどう見たり焼いたりするかみたいなところがやってるところなので、
認識とかはあんまり僕としては、やってはいるんですけど、
そこは飛ばしてもっとその先のことをやりたいなっていう感じですかね。
もっとアウトプットよりというか、出てきたことをどう解釈するかみたいな。
よく僕も言われるのが心理学とか人文学とか、そっちっぽいですねって言われるんですけど、
まさに僕そっちも興味がとってもらって、本とか研究者の話聞いて、
いかにそういう情報を応用するかみたいなのはやってます。
なんかそもそもめちゃくちゃ僕はネットの浅い知識の人工知能のあれで申し訳ないんですけど、
なんか結構心理学的なところも割とジャンルとしては近いみたいな聞いたことあって、
今言ってたようなのもそういうところですよねきっと。
超関係ありますね。
最近参加した会議とかでも言ってたんですけど、
やっぱりロボットが今後人と接するときに、
その接してる人がどんな状態で、どんな感情で今取り組んでるんだろうっていうのは分かんないといけないからって、
心理学というかその人がどういう感情なのかを分析するのが進んでるけど、
やっぱり結局よくある質問なんですけど、
ロボットがどこまで人のことを理解していいのかっていうのが倫理的な話であって、
要は個人情報を機械が読み取っているっていうことなので、
確かに。
そうなんですよ。
だからそういった部分で心理学と関係あるけど、
やっぱりそこでまた関わってくるのがそういう哲学とか倫理とかそっち。
うん、確かにな。
AIやる人は全員考えてますね。
やっぱりそうなんだ。
実際にそういう動きとか表情とかで、
自分が知らないようななんか癖とか特徴とかも全部分かるわけですもんね。
そうなんですよ。
それがやっぱり問題だよねっていうのが。
なんか面白くもあり怖くもあるみたいな感じがするな。
そうです。ちょうど最近もそういう話をしてきたばっかりだったんですけど、
あんまり研究者ってビビりすぎても、やっぱり先進的な技術がないと今後の面白い未来みたいなのが来ないので、
バランスだよねって言って、いかに炎上しないかみたいな講義をされてました。
炎上することってあるんですか?やっぱり実際。
ありますあります。炎上資料僕があげるとすごい。
えーどうしよっかな。
一番多いのはやっぱり人が関わる研究なんですけど、
例えばで言うと人流データとかの分析とか解析に関してのお話がこの間あったんですけど、
18:05
要は人に許可を得ずに、
例えばJRのドコドコ駅の人の流れってどうなんだろうって解析するために、
人の姿とか顔とかを防犯カメラとかで撮ったやつを使って、
大体この時間帯はこういうところが混むよねみたいなのを解析するみたいな、
実験とか研究をするっていうプレスリリースが炎上したみたいな話をしてあげていて、
それに関してどう炎上をなるべく燃えすぎないように下げていくかみたいな話をしてもらって、
あーそうなんだなっていうのを最近ちょうど考えたときに。
あーなるほどね。なんか結構今転換期な感じはありますよね。
そういうのが実際にデータとして取れちゃって、
で、使えるのはいい面もあるじゃないですか。
そういう人類のデータから実際に自分の行動を決めるときの指標にするとか、
でも割とまだギャップはあるっていう感じですよね。
すぐに一般には受け入れられないというか、それを徐々にジャブ打っとくみたいな。
そうですね。特に上の世代の方がやっぱり理解が少ないというか、
というのも僕らってYouTubeとかそれこそこういう世代なので動画に慣れているんですけど、
一般的に顔を出して動画出るとか、顔を動画上に映すとか保存するってなかなか受け入れがたい行為なんですよね、本来。
なのでやっぱりそういう人たちからすると許可なく毎回撮られていて、
もしかしたら自分があるコンビニでおにぎり買ってるとこ撮られてるんじゃないかっていうのがすごく知られたくない情報らしく、
やっぱり理解の差というか判断の差が人によって違うので、
いかにそこを考えながら研究するかっていうのは研究者としても大事だと思う。
確かにな。人によってはそれがストレスを感じちゃうっていう人もいるかもしれないですもんね。
そっか。
実際どんな感じで研究してるのかが僕は全く想像できてないんですよ。
何だろうな。実際の実験というか、でも主に解析になるんですかね。
そういう実際オンライン授業だったらその動画撮ってきたやつを。
例えばさっき言ってた動きとかってその動きをトラッキングみたいなの言うんですかね。
指の場所とか。そういうのっていろんなやり方みたいなのがあったりするんですか。
あります。ありますね。さっき言った既存のものを使う人もいれば動画を画像に切り分けて、
21:07
1秒間ごとにパラパラ漫画を想像してもらったら分かりやすいと思うんですけど、
ある瞬間の絵をいっぱいパラパラってやると動画になるじゃないですか。
動画って結局画像の連続なので、自分で画像を好きなタイミングにスナップショットしてて切り分けて、
その画像に関してどこに顔があるかとかを自分で計算式作って処理してっていう人もいます。
そっか。そういう自分で作るのもやってる人はいるっていう感じなんですね。
そうですね。います。います。自動運転の技術とかって結構そっちが多いと思いますね。
何か既存のものを使うと処理が遅すぎるから自分たちの使いやすいように位置から作るっていうケースの方が。
方がっていうのもあれですけど、ケースをよく聞きますね。
確かになんか自動運転の技術とかでよく聞くのはあれですよね。
なんか止まれっていう看板があるけど、その近くになんか止まれみたいな別なお店の看板みたいなのがあるとそれ区別できないとか。
そうですね。結構今その辺研究されてますよねきっと。
ですね。ですね。まさに。
どう人が当たり前に判断してるものを今度は機械も自分で判断するかみたいなところは簡単じゃないですね。割と。
ですよね。表情だったらまだわかるけど、手の動きとかってそのポジティブな時とネガティブな時でどう違うのかってめちゃくちゃ難しそうだなって思いますけど。
そうですね。それこそ今僕ドイツにいるんで国籍がバラバラなんですけど、やっぱり国籍が違うとですね、言語もそうですけどボディジェスチャーがやっぱり全然違くて。
面白いな。
わかりやすい例で言うと、僕はそこまで気にしたことはないんですけど、やっぱり日本からドイツに来る人は手をなるべく上げないようにするって言ってて。
やっぱりそれって昔のナチスとかのことを伝送させるような動きなので、人によっては不快に思うんじゃないかっていうところで、なるべく手を上げないとかって。
でも僕らって信号渡る時に手を上げて渡りなさいなっていう風に学んでるわけで、要は全然育ってきた、学んできたジェスチャーと違うから、同じように解釈しない方がいいとかっていうのがあります。
確かにな、一概に機械的に処理できるものでもないですよね。その人自身のバックグラウンドも考慮してってなると、難しいですね。
そうなんですよ。それこそアジア人とか日本人なのか韓国人なのか中国人なのかとかも、僕にわからないわけで。
いや、相当むずいですよね。
そうなんですよ。でもそういう研究もされてるんですけど、とはいえそこで認識したからとはいえ、例えば中国人のご両親から生まれた人が日本で育ってる可能性もあるじゃないですか。だから結局正解はないというか。
24:11
そうですよね。僕らも全然わかんないですよね、そうなってくると。
人もわからないので、ただきっとロボットとかの接客とかになってくると正確さが求められるんですよね。人って失敗できるけどロボットって完璧なイメージじゃないですか。なるべく、特に怪我なんかさせれないとかそういうのあると思うんですけど、そこがまさに難しいところかもしれないですね。
なるほど。実際にこういう研究で得られたデータを活用していくみたいな方向って、今どんな感じで進んでるんですか。
やっぱり一番活用ではないんですけど、持っていく方向としてはあくまでアカデミックで論文化して広く自分たちのやってることを他の人にも知ってもらって、いい意味で情報分野っていかにオープンにしていくか、こういうこと知れたよっていうのを他の人に伝えて、他の人がそこを踏み台にして次のことをやるっていう、なるべくスピードの速くしていきたいっていうジャンルなので、
論文化が一番多いんですけど、そこ以外で言うと、さっき言ったようなシステム自体を大学に導入したりとかして、実際に活用してもらって改善するとかいうことが多いかなと思います。
その活用ってなると多分使う、例えば今生徒はこういう状況ですよとか、多分ストレスかかってますとかが、もしかしたらデータから読み取れて、例えばそれが先生が把握できたりとか、そういう感じだったりするんですかね。
そうですね、あとはなんかこう、今ってこうミーティングのファシリテーターとかっていうのも大事になってきていて、そのファシリテーションするのはロボットに任せるとかっていうのがどれぐらいうまくいくのかとか、そういうのもありますね。
そんなのあるんですね、だからZoomの中にZoom君が司会みたいなことがあるんですかね。
まさにまさに、あなたは全然発言してなくて本当にめちゃくちゃいいアイディア持ってるっていう人を、いかにロボットは見つけれるかみたいなところの面白さではあるかもしれない。
それすごい面白いですね、実際もうあるんですか、そういうの。
企業としても結構そういうのをやっていってるベンチャー企業とかも日本にもたくさん出てきてますし、割と進んでいっているというか、あります。
でもそれイメージですけど、なんか全然発言してなかったら当てられるってことですよね。
そうなんですよ、だからそこも怪しくて、その子自身は本当に何もないのに当てられても困るので。
27:07
そうっすよね、でもそういう事態にはなりそうだ。なるべくみんな喋ってみたいな。
そう、そこの発言量の均等化が果たして正しい方向性なのかっていうのは問題です。
いやー、なんか必ずしも全員同じぐらい喋るのがいいことかっていうとそうでもないよ。
なんか考える時間がちょっとあった方がいい人もいますもんね。
おっしゃる通りですね、そう思います。
それは難しそうだな。僕らも難しいですよね、それをファシリテーターやるんだったら。
ですね、なのでやっぱりテレビとか見ててもこの司会の人はすごいなっていう人多分きっといっぱいいると思うんですけど、
ああいう人たちはそこの能力が欠けてると思うんですよ、判断する能力が。
だからそこはいかに機械も同じようなことをマネージできるかなっていうのは面白いですね。
それはすごい面白いな。人工知能でダウンタウンみたいな司会の人に選んでくれるわけですね。
サンマさんみたいな。
サンマさんみたいな。
そうですね。
めちゃくちゃ難しそうだな、そう考えると。
でもなんかこう作ってもしあったら試してみたいですよね。
その後、AI技術とかシステムの大事なところって人が選んで使えるかどうかだと思っていて、
要はいい技術はあるよって、でもそれを使いたくない人もいていいと思うんですよ。
やっぱり4人、人だけでミーティングしたい、飲み会したいだったら、変なロボット入ってきてほしくないみたいな人もいると思うんで。
だからあくまでそういう方法もうまく活用してくださいっていう、
ある種選択肢が1個増えるみたいな世界を作っていきたいなっていう感じですかね。
結構この人工知能の研究ですが、勘違いされがちだろうなっていうのはやっぱりそういうシンギュラリティ的なことをやっぱりちょっと怖いというか、
思っちゃう人とかもいると思うんですけど、実際はそういううまくどう使うかっていうことですよね。
そうですね、本当にそうで、自動運転車だって例えば自動運転車を買わなければいい話じゃないですか。
車乗らないとか。だから自動運転に全部なるんだよとかっていうのも本当なのかなっていうのがあって、
運転っていう体験が好きな人たちもいっぱい世の中にいるわけで、
じゃあ自動運転車が走るところと人が走る道路を別で作るのかなとか、いろんなことがあると思うんですけど、
きっと選択肢を減らすんじゃなくて増やす方向に進むんじゃないかなと倫理的な側面から思います。
実際にそういう選択肢が増えるっていうこと自体はいいことですよね。
いいことだと思います。すごい話また変わっちゃうんですけど、
第3手を作っている研究者の方とか、6本目の指を作っている研究者の人とかもいて。
30:04
聞いたことあります、それ。
ありますか、ありますか。そうなんですよ。
ペットボトル開けられますみたいなやつ。
ですですです。取れたとはわからないけど、ここに指があってクッと開けられるみたいな。
別な方の話でそれチラッとだけ出てきましたね。
本当ですか、そうそうそう。
あれとかも結局指装置とか手装置みたいなのつけなければ別に今の状態で生活できるわけで、
あくまでも6本目の指欲しければどうぞみたいな感じですよね。
拡張していくみたいな。拡張したい人はするみたいな。
そうですそうですそうです。
ほどそうね。
そうなんですよ。
そこは何というか、あまり騒ぎすぎない方がいいような気はしてて。
やっぱりさっきの話聞いてると、そういう炎上とかしちゃうとやっぱりちょっとやりにくくなったりそうだなみたいな。
正しく理解してもらうみたいなのもセットできっと必要ですよね、発信していくのは。
そうですね。なのでこういう機会本当にありがたくて、
自分と違う分野の人がたまに聞きに来た時に、そうなんだって思ってくれるだけで僕らは研究がしやすくなるというか、
もちろん何も考えずに研究しないっていうのは僕らは絶対ダメだなと思ってるんで、
常にこういう問いはしながら研究は進めてるんですけども、あんまり過剰になってもらうと僕らも萎縮しちゃうので、
いい塩梅で技術としてしてほしいなって思ってますね。
そうですね。僕もこうやって聞きながら自分を勉強しようと思ってるんですけど。
本当に。
実際、今そういう人工知能みたいにやられてるってことですけど、
今までも結構似たような研究というか、大学とか企業でもやってきたっていう感じなんですか?
ありがとうございます。めちゃくちゃいい質問で。
まず大前提、企業では全然、全然でもないんですけど違うことをしていて、
そうなんですか。
そうなんですよ。プログラマーでサーバーサイドエンジニアって言って、
なんて言ったらいいんですかね。
例えばアプリケーションを開く画面とかってフロントエンドエンジニアって言って、
フロントって前って言うんですけど、フロントエンドエンジニアって言うんですけど、
バックエンドエンジニアっていうのが、画面を開いた時にどんな情報を出すべきかとかを返すサーバーっていう機械があって、
その機械から情報を返すっていうところをバックエンドエンジニアっていうのが2なんですけど、
僕がまさにそういうバックエンドエンジニアを当時やっていて、
これっていうのは人工知能っていうよりはもうなんかこれやったらこれを返してって決めたことをやってあげるっていうのが仕事なんで、
自分で機械が考えてそれを変形して返すみたいなことはやらないんですね。
で、なんでこの話をしたかっていうと、僕が2年間仕事してからまた研究者に戻った理由が、もちろん研究が面白いからでもあるんですけど、
33:05
もう1個が人工知能っていうトピックを勉強サイトしたかったっていうのがでかくて、
なので全然やってない分野に飛び込むために大学に戻ったっていうのがあります。
あーすごいですね。じゃあ完全にそのドイツに行ってから人工知能とかを本格的にやってるって感じなんですか?
そうですね。大学院でもちょろっとやってたんですけど、今後仕入れてちょっと勉強したくなったのはここからですね。博士から。
もともとじゃあ大学はそういう情報系とかそっちのことをやってたって感じですか?
学部が機械システム工学科っていうハードウェアの研究とかで、大学院から情報学に移って、そこから情報に近いソフトウェアに近いことになってます。
なるほどな。じゃあその辺のやつが今人工知能をいろいろやるのにも一応生きてるって感じですよね。
かなり生きてます。かなり。
すごいな。じゃあ実際、でも人工知能作るとアプリ作るは全然違いそうですね。イメージやっぱ。やることが。
アプリとそのバックエンドとかの仕事と関連はしてるんですけど、だから最近ってAIの研究者とかエンジニアってすごい給料がアプリケーションとかバックエンドエンジニアとかよりも高かったりするんですけど、
人工知能の研究者とかエンジニアはあくまでそういうアプリケーションとかバックエンドの人ありきで仕事ができてるっていうところが多いんですよ、実情。
なので、そこを切り分けている現状って何なんだろうっていうのは結構基本システム僕は。
確かに。応用みたいなことですもんね。基礎があって応用があってみたいな応用だけやっててもみたいな。
そうですそうですそうです。なので、特に日本が露骨で海外とかだとそういうアプリケーションとかバックエンドエンジニアも一定の高めの給料もらえるんですけど、
日本の場合だとなんかAIが言葉が先に進みすぎて、AI側の人の待遇が良すぎて、そういうソフトウェアバックエンドアプリケーションやってる人の待遇がないがしろになっているっていうのがたまにあって。
そんな違うんですか?
違いますね。簡単に言うと、ソフトウェアとかのエンジニアが500万で新卒だとしたら、AIのエンジニアは700から800、1000万の人もいるみたいな倍違う世界だったりするので、
なんでそういうことが起きてるんだろうっていうのは、もちろんそういう知識とかが求められる仕事なのでそうはなるっていうのは理解はできるんですけど、あんまりそこまで差を開く理由はわからないなと。
なんか日本は国として結構人工知能系のやつを推したいからみたいなのも、なんか色々ありそうですけど事情は。結構日本特有なんですか?
36:10
アメリカの募集、ドイツもですけど見ててもあんまり差はないですね。AIをやってる。どちらかというとすごい人というか、それぐらい差が出る人っていうのが今言ったそのアプリケーション、バックエンド分かっていて、かつ人工知能がちょろっとできる人みたいな。
あくまで3つ4つ同時にできる人とかがそういう大群になっていて、それだとなんか理解できるんですよね。まるっと全部理解してる人がその脳みそ部分を作ってるとかっていうのをすごい理解できるので、一個一個分割してこの1セクションだけいい大群っていうのは不思議だなっていうのは。
確かに確かにそこそんなに差あるのはわかんないですね。じゃあ色々多分人工知能の研究とかやる場所も色々あると思うんですけど、今のドイツの場所を選んでるのって何か理由はあるんですか?
ここまでお聞きいただきありがとうございました。サイエンマニアはあらゆる分野のゲストをお呼びし世界を探求していくポッドキャストです。番組やSNSのフォロー、感想などいただけると嬉しいです。では次回もまたよろしくお願いします。
バイバイ。
37:37

コメント

スクロール