BigQueryの新機能
DEN_MC1
こんにちは。今回の情報探索へようこそ。今日はですね、primeNumber社のデータエンジニアリングニュース、2025年8月版から、
データエンジニアリング界隈のちょっと気になる動きをピックアップしていこうと思います。
DEN_MC2
よろしくお願いします。
DEN_MC1
このprimeNumber社の記事、毎月データ周りのツール、
BigQuery、Snowflake、AWS、Looker Studio、dbt、Tableau、Databricks、それに国産ETLツールのTROCCOまで幅広く最新情報をまとめてくれてるんですよね。
DEN_MC2
ええ、網羅性がすごいですよね。
DEN_MC1
ただ、情報量が多いので、どこから手をつければいいかちょっと迷うこともあって。
DEN_MC2
まあ、そうですよね。追うだけでも大変です。
DEN_MC1
ですから、今回の探索のミッションは明確です。
この豊富なアップデート情報の中から、特にこれは知っておくべきとか、あなたの業務や学習につながりそうだっていう確信部分をですね、一緒に見つけ出して理解を深めていくことです。
DEN_MC2
はい。
DEN_MC1
では、早速掘り下げていきましょうか。
DEN_MC2
はい、お願いします。データエンジニアリングの分野って本当に日進月歩で。
DEN_MC1
ですよね。
DEN_MC2
これだけのツールが一斉に進化を続けるわけですから、キャッチアップもひと苦労です。
DEN_MC1
うーん。
DEN_MC2
でも、だからこそその変化の本質というか、表面的な機能追加のその裏にある大きな流れをつかむことが大事になってくるかなと。
DEN_MC1
なるほど。
DEN_MC2
今日はそのお手伝いができれば嬉しいです。
DEN_MC1
頼もしいです。ではまず、Google BigQueryからいきましょうか。
いくつか気になるアップデートがありましたが、リソース利用率グラフが一般提供開始になったと。
DEN_MC2
ああ、はい。
DEN_MC1
これは具体的にどういう価値があるんでしょう。
DEN_MC2
はい、これがGA、General Availabilityになりました。
DEN_MC1
GAですね。
DEN_MC2
ベータ版とかじゃなくて、正式に誰でも利用できるようになったっていう意味ですね。
具体的には、BigQueryの管理画面で、インフォメーションスキーマっていうシステム情報があるんですけど、
それを元にしたダッシュボードが標準で見られるようになったんです。
DEN_MC1
へえ、標準で。
DEN_MC2
そうなんです。これまでは自分でSQL書いたりとかして確認する必要があったのが、
グラフで視覚的に今どれくらいスロット使ってるかなとかストレージどうかなとか、
どのクエリがコストを押し上げてるかみたいなのがパッとわかるように。
DEN_MC1
なるほど。
DEN_MC2
なので、コスト最適化とかパフォーマンス改善の第一歩を踏み出すハードルがぐっと下がったと言えるんじゃないでしょうか。
DEN_MC1
なるほど。標準機能として見える化が簡単にできるようになったと。
DEN_MC2
そういうことですね。
BigQueryのAI機能
DEN_MC1
SQL周りでも何か改善があったようで、With句での一時変数作成とか、
Chained function callsがGAになったとか、これは開発者にとっては嬉しい改善ですか。
DEN_MC2
ええ、これはSQLを書くときのその読みやすさと書きやすさ、これを大きく向上させるものですね。
まず、WITH句で一時変数が使えると複雑なロジックのその途中計算の結果に名前をつけて再利用できるので、
長いクエリが部品化されて理解しやすくなる。
DEN_MC1
ああ、なるほど。分割できるんですね。
ええ。
他にも、クエリ結果をクラウドストレージに直接保存できるようになったり、GA。
あと、地理空間分析の関数、ST_REGIONSTATS、GAが追加されたり。
細かいけど実用的なアップデートが続いている感じですね。
DEN_MC2
そうですね。その中でも特に注目したいのが、BigQueryのデータ準備機能、データプレップと呼ばれているものの進化なんです。
データプレップですか。
はい。GUIでポチポチとデータクレンジング操作をすると、その操作が裏側でSQLx形式とかパイプクエリ構文というコードとして表現されるようになったんです。
DEN_MC1
操作がコードになる?
DEN_MC2
そうなんです。これはつまりGUIの気軽さとコード管理の厳密さ、これを両立できるようになったってことなんですね。
なるほど。
Gitでバージョン管理したりコードレビューしたりっていうソフトウェアエンジニアリングのベストプラクティスをデータ準備のプロセスにも適用しやすくなる。
DEN_MC1
それはいいですね。
DEN_MC2
さらにGemini、GoogleのAIですね。これが重複データの特定とか集計処理の方法を提案してくれる機能もプレビューで追加されました。
AIが。
はい。AIによるデータ準備の自動化とか効率化っていう大きな流れがここでも明確に見られますね。
DEN_MC1
BigQueryがSQLの使いやすさとかデータ準備の効率化を進めている一方で、Snowflakeは特にAI活用という点でかなり大胆な一歩を踏み出した感じがしますね。
Snowflakeインテリジェンスがプレビューで登場したとのことですが。
DEN_MC2
ええ、これは非常に大きな動きだと見ています。
DEN_MC1
これは何でしょう?
DEN_MC2
Snowflakeインテリジェンスは自然言語、つまり私たちが普段話す言葉でデータに対して質問したり分析を支持したりできるAIレイヤーなんです。
DEN_MC1
普通の言葉で?
DEN_MC2
そうです。売上が急上昇した顧客セグメントは?みたいな質問を投げかけるだけで、Snowflakeが内部でSQLを生成して実行して結果を返してくれる、そんなイメージですね。
DEN_MC1
すごいですね。
DEN_MC2
重要なのが、これが単なるSQL生成ツールにとどまらなくて、構造化データ、テーブルデータと非構造化データ、例えばPDF文書とか、そういうのを横断して理解して対話できるエージェントとして機能する点なんです。
DEN_MC1
構造化、非構造化データどっちもですか?
DEN_MC2
ええ、これはこれまで技術的な壁でデータ活用からちょっと遠かったビジネスユーザーの方とかも含めて、より多くの人がより高度な分析を行えるようにやる可能性を秘めていると思います。データの民主化を一気に加速させるかもしれないですね。
Amazonのデータサービスの進化
DEN_MC1
まさにSFの世界画って感じですね。SQLで音声ファイルを文字起こしできるAIトランスクライブっていう機能もプレビューで使えるようになったとか。
DEN_MC2
そうなんです。
これも面白そうですね。
これも画期的でSQL関数を呼び出すだけで、SnowflakeにロードされたMP3とかWAVE、FLAC形式の音声ファイルをテキストデータに変換できるんです。
DEN_MC1
SQLで文字起こし。
DEN_MC2
しかも日本語を含む多言語に対応している点も実用的です。
DEN_MC1
日本語もいけるんですね。
DEN_MC2
例えば、コールセンターの通話記録を分析して顧客満足度の要因を探るとか、会議の録音データから自動で議事録の元を作るとか、そういう活用が考えられますね。
DEN_MC1
なるほど。
DEN_MC2
データウェアハウスの中で直接音声っていう非構造化データを扱えるようになるんで、分析の幅が格段に広がると思います。
DEN_MC1
音声データまでSQLで扱えるとなると、活用アイディアがどんどん湧いてきそうです。
DEN_MC2
ええ、ですね。
DEN_MC1
その他にも、基盤強化の動きとして、ダイナミックテーブルズでユニオンがサポートされたり、GA。
あと、MLops関連のML JobsがGAになったり。
はい、はい。
Snowpark Container ServicesがGoogleクラウドでもGAになったりと、着実にプラットフォームとしての完成度を高めている印象ですね。
DEN_MC2
ええ、おっしゃる通りです。
ダイナミックテーブルズのユニオンサポートは、複数のデータソースからの変更をまとめて、より新鮮なデータを効率的に扱えるようにするもので、データ統合のパイプラインをシンプルかつ高速にしますね。
うーん。
MLJobsのGAは、Snowflake内で完結する機械学習モデルの開発、学習、デプロイのサイクルを確立して、MLOpsの効率化を後押しします。
DEN_MC1
なるほど。
DEN_MC2
そして、Snowpark Container ServicesがAWS、Azureに続いてGCPでもGAしたことで、Snowflakeは、主要3大クラウド全てでコンテナベースのアプリケーション実行環境を提供できることになりました。
DEN_MC1
あっ、これで全部揃ったんですね。
DEN_MC2
そうなんです。これは、ベンダーロックインを避けたい企業にとって、Snowflakeが真のマルチクラウドプラットフォームであることを示す重要なマイルストーンと言えますね。
DEN_MC1
SnowflakeのようなDWH内部での機能強化も進んでいますが、それを支えるクラウドインフラ、AWSのデータ関連サービスにも動きがあったようです。
Amazon Athenaで、S3上のテーブルに対して、Create Table as Select、CTASがサポートされたというのは、どういうメリットがあるんでしょう?
DEN_MC2
CTASですね。これは、セレクト文で取得した結果を元に、新しいテーブルを定義しつつ、そこにデータを一気に流し込める機能です。
DEN_MC1
ふむふむ。
DEN_MC2
AthenaでS3上のデータを分析する際、例えば特定の条件で絞り込んだ中間データセットを作りたいとか、あるいは複雑なクエリ結果を一時的にテーブルとして保存しておきたいみたいなケースって結構あると思うんです。
ありますね。
Athenaでは、まずテーブルを作成して、その後にインサート文でデータを投入するっていう二度手間が必要だったのが、CTASを使えばそれが一回のSQLで済むようになる。
DEN_MC1
ああ、一発で。
DEN_MC2
ええ。データ準備とか探索的な分析の効率がかなり向上すると思いますね。
DEN_MC1
分析作業中の、ちょっとこの結果をテーブルにしときたい、が簡単にできるのは助かりますね。
DEN_MC2
そうですね。
DEN_MC1
BIツールのAmazonクイックサイトにもアップデートがあったようで、計算済フィールドの上限が増えたり、Googleシーツへの接続がGAになったり。
DEN_MC2
はい。計算フィールドの上限拡大、データセットあたり200から500、分析あたりだと500から2000ですかね。
これは特に大規模なデータとか複雑な計算ロジックをクイックサイト上で扱いたいユーザーには大きな恩恵があります。
DEN_MC1
結構増えましたね。
DEN_MC2
これまで上限に引っかかって実現できなかった、より高度な分析とかダッシュボード構築が可能になります。
DEN_MC1
なるほど。
DEN_MC2
それからGoogleシーツコネクタのGA。
これは多くのビジネス現場で手軽に使われているスプレッドシートを、正式なデータソースとして簡単にクイックサイトに取り込めるようになったということを意味します。
DEN_MC1
シーツが正式に?
Looker Studioの機能強化
DEN_MC2
部門単位での利用とか、手元のデータでの簡易分析みたいなシナリオでの活用が進みそうですね。
DEN_MC1
次はLooker Studioを見てみましょうか。
こちらは細かい改善が多いようですが、何か特に注目すべきトレンドとかありますか?
DEN_MC2
Looker Studioで特に目立つのはパートナーコネクタの追加数の多さですかね。
パートナーコネクタ?
はい。スーパーメトリクスとかパワーマイアナリティクスといったサードパーティーが提供するコネクタが本当にずらーっとリストアップされてるんですよ。
へー。
これはLooker Studioが単体で完結するんじゃなくて、
多様な外部データソースとの連携を強化することでエコシステム全体で価値を高めようとしている、そういう戦略の現れかなと。
DEN_MC1
なるほど。連携強化ですか。
DEN_MC2
特に広告系とかマーケティング系のSaaSとの連携が強化されているようで、
それらのツールを使っているユーザーにとってはデータ統合の手間が大幅に削減される可能性がありますね。
DEN_MC1
まさにエコシステムの拡大ですね。
いろいろなツールとつながることで、Looker Studioのハブとしての役割が強まっている感じでしょうか。
DEN_MC2
そういう見方もできると思いますね。
DEN_MC1
その他、グラフ表現力の向上、例えばデータラベルの背景色設定とか、
ウォーターフォールチャートの改善とか、
あとLooker本体との連携強化、
Lookerコネクタでの計算フィールド関数サポート、
GA、LookMLの割りフォーマット反映といったアップデートもあるようですね。
DEN_MC2
はい。グラフ表現力の細かな改善はレポート作成者にとっては表現の浜を広げますし、
見る人にとってはより分かりやすい示唆を得る助けになりますね。
うん。
そして、Looker本体との連携強化は、
Lookerを既に導入している企業にとっては非常に重要です。
Looker側で定義されたビジネスロジック、
つまり計算フィールドとか表示形式である割りフォーマットが
Looker Studioでも一貫して利用できることで、
データの信頼性を保ちつつ、
より柔軟なレポーティングとかアドホック分析が可能になります。
dbtのアップデートとセキュリティ
DEN_MC1
ああ、一貫性が保てるのは大事ですね。
DEN_MC2
ええ。データガバナンスとセリフサービスBIの両立を支援する動きといえるでしょうね。
DEN_MC1
データソースとの接続性が高まる一方で、
そのデータの品質とか意味を担保するデータモデリングの領域、
dbtにもアップデートがありましたね。
不具合修正と認証方式の更新があったとのことですが。
DEN_MC2
はい。まず不具合修正のほうですが、
これはdbtビルドコマンドの実行中に
dbtセマンティックレイヤーで定義した指標、
セーブドクエリと呼ばれるものをテーブルとしてエクスポートする機能が
うまく動かないという問題があったんですね。それが解消されたと。
ふむ。
セマンティックレイヤーって非常に強力なんですけど、
まだ全てのBIツールが直接接続できるわけではないんです。
DEN_MC1
そうなんですね。
DEN_MC2
ええ。なので定義した指標を一度テーブル形式で書き出して、
既存のツールで利用するっていうニーズがあったわけです。
この修正によってその連携パターンが再び安定して使えるようになったということですね。
DEN_MC1
なるほど。既存ツールとの連携を塞いでいた問題が解消されたと。
DEN_MC2
そうです。
DEN_MC1
もう一つのセマンティックレイヤーの認証で
PAT、パーソナルアクセストークンがサポートされたというのは
セキュリティに関わる話でしょうか。
DEN_MC2
まさにその通りです。
これまではセマンティックレイヤーへのアクセス権限が
比較的大きな単位、
例えばプロジェクト全体で使うサービスアカウントみたいな感じで
管理されることが多くてですね。
アクセスできるユーザーはみんな同じ権限を持つ
みたいな状況になりがちだったんです。
DEN_MC1
ちょっと雑だったんですね。
DEN_MC2
PATが導入されたことで
ユーザー個人とか特定の用途ごとに発行されるトークンに対して
アクセスできるデータの範囲、スコープですね。
これを細かく制御できるようになります。
ほうほう。
例えばこのユーザーはこの指標だけ見られるとか
このバッチ処理用トークンはこのモデルにだけアクセスできるといった具合です。
DEN_MC1
なるほど。より細かく。
DEN_MC2
はい。これにより誰が何にアクセスできるかを
より厳密に管理できて
企業レベルでのセキュリティ要件とかガバナンスに対応しやすくなります。
エンタープライズ利用を見据えた重要な機能許可ですね。
DEN_MC1
より細かい権限管理ができるようになったわけですね。
さて、タブロはどうでしょう。
カスタムドメイン機能がGAになったとのことです。
DEN_MC2
ああ、はい。これはタブロクラウド
つまりSAS版のタブロを利用している場合に
アクセスするURLをですね
デフォルトのonline.tablo.comみたいなのから
自社ブランドのドメイン、例えば
analytics.yourcompany.jpみたいな形にカスタマイズできる機能です。
DEN_MC1
あ、なるほど。自社のドメインに。
DEN_MC2
そうです。これによってユーザーはタブロを
自社のサービスの一部として自然に認識しやすくなりますし
ブランドイメージの統一とか
サービスに対する信頼感の向上につながります。
確かに。
あと、単純にURLが覚えやすくなるっていう利便性もありますね。
DEN_MC1
うん。
DEN_MC2
一見地味なアップデートに見えるかもしれませんけど
組織内での分析文化の浸透とか利用促進という観点からは
意外と効果的な施策になり得るかなと思います。
DEN_MC1
確かに。自社ドメインだと自分たちのツールっていう感覚が強まりそうです。
DEN_MC2
ですね。
DEN_MC1
そしてDatabricksもAI関連やプラットフォーム強化で活発ですね。
Databricksアシスタントが進化して
複数セルにまたがる編集指示が可能になったとか
DEN_MC2
Databricksアシスタントはノートブック内で使えるAIコーディング支援機能ですが
新たにエディットモードっていうのが搭載されました。
DEN_MC1
エディットモード。
DEN_MC2
はい。これにより単一セルのコード生成だけじゃなくて
複数のセルを選択して
この一連の処理を一つの関数にまとめてリファクタリングしてとか
このPySparkコードをPandas API on Sparkを使うように書き換えてみたいな
より高度で広範囲な指示が可能になりました。
DEN_MC1
リファクタリングまで。
DEN_MC2
そうなんです。
開発ワークフローにより深くAIが統合されて
生産性を向上させる方向性が明確ですね。
さらにオープンAIがオープンソースとして公開した
高性能なGPTモデル、GPT OSSも利用可能になって
選択肢が増えた点も注目です。
DEN_MC1
AIアシスタントが単なるコード生成だけじゃなくて
リファクタリングみたいな開発プロセス自体を支援するようになってきてるんですね。
DEN_MC2
そういう流れですね。
DEN_MC1
管理運用面ではUnityカタログでのアクセスリクエスト機能パブリックプレビューとか
あとRakeflowデクララティブパイプラインズでの実行ユーザー設定
自動リキッドクラスタリングといった改善も地味ながら重要そうですね。
DEN_MC2
おっしゃる通りです。
Unityカタログのアクセスリクエスト機能は
データカタログで見つけたデータに対して
ユーザーがこのデータを使いたいとシステム上で申請して
データオーナーとか管理者が承認するとアクセス権が付与される
というセルフサービス型のデータアクセス管理を実現します。
DEN_MC1
なるほど。申請と承認がシステムで。
DEN_MC2
これによりデータを発見してから実際に利用するまでのプロセスがスムーズになって
ガバナンスを効かせつつデータ利用のハードルを下げることを目指してますね。
DEN_MC1
それは便利そう。
DEN_MC2
Bakeflowの改善点はデータパイプラインの信頼性と効率性を高めるものです。
実行ユーザーとしてサービスプリンシパル
人間じゃなくてアプリケーション用のIDですね。
これを指定できるようになったことで
個人の認証情報に依存しないより安全な運用が可能になります。
それから自動リキッドクラスタリング
これはテーブルのデータレイアウトをバックグラウンドで自動的に最適化して
クエリーパフォーマンスを維持・向上させる機能です。
運用負荷を軽減しつつ性能を確保するというわけですね。
DEN_MC1
なるほど。裏で自動で最適化してくれるんですね。
TROCCOとBigQueryの連携
DEN_MC1
さて、最後に国産ETL、ELTツールのTROCCOです。
こちらも非常に多くのアップデートがありますね。
特にCDC変更データキャプチャの転送先として
BigQueryが追加されたのは
日本のユーザーにとってはインパクトが大きいのでは?
DEN_MC2
いや、これは間違いなく大きなニュースですね。
ですよね。
TROCCOのCDC機能は、MySQLとかPostgreSQLみたいなデータベースの更新履歴、ログですね。
これを読み取って変更があったデータだけをほぼリアルタイムに転送できる機能です。
これまで転送先がAmazon S3アイスバーグ形式だったかな。
それに限られていたので、データを活用するには
そこからさらに別のDWHにロードするみたいなステップが必要だったんですね。
DEN_MC1
ああ、ひとまかかっていた。
DEN_MC2
そうなんです。今回、BigQueryが転送先として直接サポートされたことで
特にGoogleクラウドをデータ基盤の中心に据えている企業にとっては
CDCによるリアルタイムデータ連携の構成が大幅にシンプルになって導入のハードルが下がります。
これは非常に待望されていた機能だと思いますね。
DEN_MC1
GCPユーザーにとっては大きな選択肢が増えたと。
DEN_MC2
まさに。
BigQueryの最新機能
DEN_MC1
新規コネクタもYAML、SendGrid、Zoho People、Channel Talkなど
セキュリティとかコミュニケーション系の差数が増えている印象ですね。
DEN_MC2
そうですね。
DEN_MC1
既存コネクタの改善もSAPの差分転送対応とか
ログレスでの項目絞り込み、ShopifyのMetafieldsでのフィルターなど
かなりユーザーの具体的な要望にこたれている感じがします。
DEN_MC2
ええ、TROCCOさんはコネクタの拡充と既存機能の改善を両輪で
しかも非常に早いページで進めているのが特徴ですよね。
新しい差数への対応で接続範囲を広げるだけじゃなくて
既存のコネクタについてもこの項目で絞り込みたいとか
差分だけ転送したいみたいな現場の具体的なニーズを吸い上げて
きめ細かく機能を改善している。
なるほど。
これが多くの日本企業に支持されている理由の一つかなと思います。
継続的な改善へのコミットメントが感じられますね。
DEN_MC1
そして、カスタムコネクタを作成できるコネクタビルダーや
処理フローを組むワークフロー機能も強化されているんですね。
ワークフローに条件分岐タスクが追加されたとか。
DEN_MC2
はい。コネクタビルダーの改善点。
例えば、カスタムコネクタ側の設定変更が
転送設定に反映されやすくなったりとか
API のエンドポイントパスに動的な値、パスパラメータといいますけど
それを使えるようになったりしたことで
より複雑な API 使用にも対応しやすくなっています。
まさに痒いところに手が届く改善かなと。
なるほど。
そして、ワークフローの条件分岐タスク。これは重要ですね。
前の処理が成功したら A を実行、失敗したら B を実行とか
特定の条件を満たしたら C の処理を追加みたいな
よりインテリジェントなデータパイプラインを構築可能にします。
DEN_MC1
おー、条件で処理を変えられる。
DEN_MC2
そうです。エラーハンドリングとか処理の最適化とか
複雑な要件に対応できるようになって
ワークフロー機能の実用性が格段に向上したと思います。
あと、API とかテラフォームプロバイダーみたいな
開発者向けの機能のアップデートも継続していて
自動化とかインフラストラクチャーエズコードっていう
モダンな開発スタイルにも対応しようという意欲が見えますね。
DEN_MC1
いやはや、本当に目まぐるしいですね。
今回はprimeNumber社のデータエンジニアリングニュース
8月版から特に注目すべき動きを追ってきましたが
全体を通してどのような大きな流れというか
傾向が見えてきましたか?
DEN_MC2
そうですね。いくつか明確なトレンドが見て取れるかなと思います。
はい。
第一に、やっぱり AI の本格的な統合ですね。
AI ですか?
ええ。Snowflakeインテリジェンスとか
データブリックサシスタントのように
自然言語での対話とかコード生成、編集支援が進化してますし
BigQueryでもジェミニーがデータ準備を支援するなど
AI が単なる追加機能じゃなくて
プラットフォームの中核に組み込まれ始めてるなぁと。
なるほど。
データエンジニアリングのトレンド
DEN_MC2
第二に、開発者体験
いわゆるデベロッパーエクスペリエンスの向上です。
DEN_MC1
DX ですね。
DEN_MC2
はい。BigQueryの SQL 改善とか
データ準備機能の高度化
dbt の認証強化や不具合修正
データブリックサシスタントの編集機能など
データエンジニアやアナリストが
より効率的に、より快適に、そしてより安全に
作業を進められるような改善が重視されています。
DEN_MC1
うんうん。
DEN_MC2
第三には、データ連携と統合能力の強化
DEN_MC1
連携
DEN_MC2
ええ。TROCCOの CDC 転送先追加とか
多種多様なコネクタ拡充
Snowflakeのダイナミックテーブルズユニオンサポート
Lookerスティディオのパートナーコネクタ急増など
サイロ化されたデータをつなぎ合わせて
より統合的に活用するための機能が
各社で強化されていますよね。
DEN_MC1
確かに多かったですね。
DEN_MC2
そして第四に、マルチクラウド戦略とガバナンスの強化
DEN_MC1
マルチクラウドとガバナンス
DEN_MC2
はい。Snowflakeのスノーパークコンテナサービスが
GCP 対応を完了したこととか
dbt の PAT 認証
Databricksユニティカタログのアクセスリクエスト機能なんかは
特定のクラウドに縛られない柔軟性とか
企業全体でのデータ統制、セキュリティを重視する流れを
反映していると思います。
DEN_MC1
AI 開発体験、連携、そしてガバナンス
多岐に渡りますけど、確かに大きな方向性は見えてきますね。
ええ。
それにしても、これだけ変化が早いと
どの情報を優先して追うべきか
見極めるのが本当に大変そうです。
DEN_MC2
全く同感です。
だからこそ、今日みたいに定期的に情報を整理して
単にこんな新機能が出たって知るだけじゃなくて
それがなぜ今このタイミングで出てきたんだろうとか
自分のチームとか会社の課題解決に
どう役立てられるかなっていう視点を持つことが
これからのデータ専門家には不可欠になってくるんじゃないかなと思います。
DEN_MC1
なるほど。そのなぜ、どう使うかが大事なんですね。
DEN_MC2
ええ。
技術はあくまで手段ですからね。
その目的を見失わないようにしたいですね。
DEN_MC1
ありがとうございました。
多くの刺激的なアップデートと
その背景にある大きな流れを掴むことができました。
DEN_MC2
こちらこそありがとうございました。
今回ご紹介した多くの機能は
データ活用のハードルを下げて
これまで一部の専門家しかできなかったような高度な分析を
より多くの人々にとって身近なものにしようとしてるんですよね。
技術の進化がもたらす可能性は本当に大きいなぁと感じます。
DEN_MC1
では最後にリスナーのあなたへ
思考を深める問いかけです。
今日取り上げた数々のアップデートの中で
あなたの現在の業務や
あるいはこれから学ぼうとしていることに対して
最も大きなインパクトを与えそうなものはどれだったでしょうか。
DEN_MC2
うーん、どれでしょうね。
DEN_MC1
そしてその変化を最大限に生かすために
あるいは乗りこなすために
あなたは次にどのような一歩を踏み出しますか。
今回の情報探索はここまでとしましょう。
また次回、新たな発見を求めてお会いできれば嬉しいです。