はじめに
近年では、多様なデータが存在する現代では、データの収集から加工・分析の一連のプロセスが重要になっています。データには文字や音声・画像・位置情報など、私たちの身の回りには多種多様なデータが存在しています。
データ分析プラットフォームとは、組織が持つ膨大なデータを適切に蓄積から加工・分析できるようにする、データ活用の基盤のことです。
データ分析プラットフォームは、さまざまなデータを収集→統合/管理→加工→可視化→分析→活用するための流れで分析します。この基盤は、企業や組織がデータを効率的に利用し、意思決定をサポートするために不可欠なものです。
しかし、企業で自社の競争力を高めるためにデータやAIをビジネスに活かしていきたいと考えている企業は多いですが、実際にツールやプラットフォームの活用まで至っている企業はまだまだ少ないのが課題です。
現代のIT技術が著しい時代において、大量のデータを市場環境の分析や顧客ニーズの把握などに活かしていくことは、企業にとって自社製品・サービスの改善への課題となっています。
自社でデータ分析プラットフォームを利用する上での業務でのメリットや特徴などを詳しくご紹介していきます。ここからは、データ分析プラットフォームの特徴と8つの構築のステップについて詳しくご紹介していきます。
データ分析プラットフォームとは
データ分析プラットフォームとは、ビジネスに関連するさまざまなデータを統合し、分析できる状態にするシステムのことです。企業では日々、顧客情報や売上データなどといったさまざまなデータを管理しています。
しかし、データベースに取り扱うデータ量の増加に伴って、データの時系列や送受信履歴などが散在しがちです。このような課題を解決するためにデータ分析プラットフォームを活用すると、個々のデータを必要に応じて迅速に必要なものを探しやすい状態で管理ができるようになります。
これまで散在されていた膨大なデータはデータ分析プラットフォームであれば、まとめて統合し、現場部門が速やかにデータを活用できるよう整備できます。データを分析するとき、単なるデータストレージのデータではなく、グラフやチャートに起こすことでより明確な決断が可能となります。
このようにデータ分析プラットフォームは、企業が抱える膨大なデータの統合から管理・分析を行い、さまざまなデータソースの情報を一元管理することによってより迅速なデータ分析ができるのがポイントです。
データ分析プラットフォームの導入メリット
データ分析プラットフォームは、組織の情報活用をサポートする重要な基盤です。
データ分析プラットフォームは、企業が保有するデータをより効果的に活用するための基盤となり、様々なメリットをもたらします。
これらの機能から、データの可視化業務を効率化することが可能です。このため、データ管理にデータの暗号化を通じて、企業は顧客の信頼を維持することができるのです。
ここでは、データ分析プラットフォームの導入のメリットについて詳しくご紹介していきます。
データを一元管理できる
データ分析プラットフォームのメリットの一つは、社内で散在されていたデータをまとめて一元管理ができる点です。各部門に散在するデータを統合することで、効率よくデータを活用することが可能です。
従来のデータ管理は、様々な場所にデータが分散し、必要なデータを見つけ出すのが困難でした。一方で、データ分析プラットフォームでは、必要なデータを抽出することが可能です
従業員は必要な情報に迅速にアクセスできるため、業務の属人化を防ぐことができます。
データをすばやく分析し、スムーズな意思決定ができる
データ分析プラットフォームでは、データの収集から分析するまでスムーズな意思決定ができる点です。データ分析プラットフォームは、データの収集から分析をまでの工程がスムーズに解析できます。
これまではデータを分析するのに個人の経験や勘に頼った意思決定は属人的であり、その人がいなくなると業務が回らなくなるなどのリスクがありました。
そのためには、過去の販売データから、将来の需要を予測し、適切な在庫管理を行うことができます。素早いデータ分析で、必要な情報を迅速に取得できます。
セキュリティ性が向上する
データ分析プラットフォームでは、データを高いセキュリティ機能が充実している点です。データ分析プラットフォームには独自の認証システムなどのセキュリティ技術が備わっているのが特徴です。
従来のデータ管理では、データが様々な場所に分散し、管理が煩雑になりがちでした。
企業では大量の個人情報があり、万が一流出してしまうと情報漏洩のリスクが伴います。
そこで、データ分析プラットフォームのデータへの権限付与などで機密情報へのアクセスを保護することができます。強力な暗号化技術を用いて不正アクセスのリスクを大幅に低減します。
精度の高い売上予測が得られる
データ分析プラットフォームの導入のメリットの一つが、精度の高い売上予測を実現できることです。データ分析では各データの関連性などを分析することで、高度な予測結果を得ることが可能です。
従来のデータ分析では、将来の予測に人の経験や勘に頼らざるを得ない部分がありました。一方、データ分析プラットフォームでは、過去のデータと外部データなどを統合できるようになり、より精度の高い予測が可能になります。
顧客データを用いることで、人がなかなか気付かなかった問題点が発見できる可能性があります。
データ分析プラットフォームは予測機能で顧客対応の品質を改善し、顧客満足度の向上につながるのがポイントです。
業務効率化の改善につながる
データ分析プラットフォームのメリットの一つは、業務効率化ができる点です。データ分析プラットフォームはデータ収集から分析までの業務や必要な時間を大幅に削減できます。
従来はデータは様々な場所に分散しており、必要なデータを集めるだけでも多大な時間と手間がかかっていました。
そこで、データ分析プラットフォームでは、大量のデータを迅速に処理ができるようになります。業務プロセスの自動化を向上させることができ、経営層が必要な情報を迅速に把握できるようになります。
データ分析プラットフォームを構成する8つのステップ
データ分析プラットフォームの導入プロセスは、企業が顧客データを一元管理し、マーケティング施策を最適化するための重要なステップです。まず、社内体制の整備からデータを収集することから始めます。次に、収集したデータをデータレイクに貯蔵し、必要に応じてデータを加工します。
最後にデータを可視化し、分析することで、ビジネスに有用なインサイトを得ることができます。これらのステップを通じて、データの一元管理と効率的な活用が可能となります。
現在注目されているデータ分析は、経営層とより良い意思決定を素早く下すための手段であると言えます。企業において組織や社員は、ビジネスの中で常に選択を迫られています。その都度に何を選択するかにより結果が分かれ、その経過をたどることにより最終的な成果につながるのです。
データ分析の業務を任命されたからには、正しくデータ分析を行うための環境整備が必ず必要です。データの集計方法が毎回間違ってしまうようでは分析結果の信憑性は低く、分析結果の正確さも低くなってしまいます。
データ分析プラットフォームは、データの収集から始まり、蓄積から加工・可視化・分析のステップを経て、最終的に意思決定に活用されます。データ分析を実施するためには、まずはデータを集めることから始めることが必要です。
これらのプロセスを効率化するためには、データ分析の目的を明確にすることが重要です。
どのような形でデータを蓄積するのか・データの最適な状態を想定して蓄積しておくことが質の高いデータ分析につながります。
ここからは、 データ分析プラットフォームを構成する8つのステップについて詳しくご紹介していきます。
目的を設定する
データ分析プラットフォームを行う際の最初のステップは、明確な目的を設定することです。目的設定は、問題の定義やビジネスの課題を明確にし、分析を効率的に進めるための指針となります。
データ分析は適切なビジネスの意思決定をサポートする手段であり、必ず解決したい課題や改善すべき点を事前に明確にすることで、成果を最大化することができます。現代のビジネスは、時間の流れが速く、競合他社に勝つためには一早く自社の問題となっている原因を探る必要があります。
データ分析プラットフォームで目的を決める時に意識したいことは、組織が最も求めていることを質問に落とし込み、社内で共有することです。
質問を落とし込み、アイデアを重ねることに設定した質問に答えるために必要な数値データと判断基準を決めます。数値データを分析する際には、明確な判断基準を設けることが不可欠です。例えば、売上が前年同期比で10%以上増加している場合、その施策が成功したと見なすことができるかもしれません。
アイデアでは「自社の売上状況を知りたい」・「キャンペーンBの効果を知りたい」などの最初は漠然としたもので構いません。売上を向上させたい場合、販売データに基づく分析が必要になります。
このようにデータ分析プラットフォームでは、判断基準を設定することで、分析結果を評価しやすくなります。目的が共有されることで、それぞれのメンバーが得意とする分野に応じて役割を分担し、全体としての分析能力を最大限に引き出すことができるのが大きな強みです。
社内でのデータ分析では、最初に「達成したい目標」を決め、それを実現するために必要な質問や仮説を構築します。このように社内でのデータ分析では、最初に「達成したい目標」を決め、それを実現するために必要な質問や仮説を構築します。
達成したい目的が明確にすればするほど、その後の分析がスムーズに進みやすくなり、アイデアに対する打ち手もシンプルで分かりやすくなります。データプラットフォームを構築する際は、自社が抱えている課題を把握し、最終的に何を達成したいのかを明確にすることが大切です。
仮説を洗い出す
データ分析プラットフォームで分析を行う前に、検証を行う土台となる仮説を構築することが重要です。自社でデータ分析を通して仮説を洗い出すことは、問題の根本原因を特定し、ビジネス上の意思決定をサポートする上で欠かせません。
そもそも仮説とは、結果との因果関係は分かっていないものの、課題との因果関係があると考えられるものです。企業の中にある課題に対して、原因と考えられるものを抽出することで仮説を立てることができます。
データ分析プラットフォームで仮説の洗い出しでは、データになくとも「なぜそうなるのか」という背景や前提条件を考えることも重要です。ただ仮説を一度に多数を設定しても、全て検証することが困難なこともあるかもしれません。
その場合は、仮説の中から特に重要なものをピックアップし、その仮説を優先的に検証することがおすすめです。分析の際に考慮すべき要素が増え、仮説に対する検証がより効果的になります。
データ分析プラットフォームでのデータ分析における仮説の立て方には予測型とアイデア型の2種類の立て方があります。予測型とは、ある取り組みを実施したときの結果よりも1歩先を予測し、それを課題として扱うことです。
例えば、製造業の製品販売数をテーマに仮説を立てるとします。製品販売数を今までよりも多くするとしたときに、社内で製造するリソースが不足してしまう可能性があるでしょう。そこで、「社内リソースの拡大や機械導入による人的リソースの削減を進める必要があるのではないか」という仮説が立てられます。
このように予測型は取り組みの先に生まれるであろう課題を予測し、仮説を立てていくのです。そしてアイデア型は、予測型と比べて目的が曖昧で定量的な設定が難しいときに利用する手法です。
アイデア型では、実施している施策の中でも、拡張することで得られるメリットなどを仮説として扱っていきます。例えば、特定の商品の購入時にポイントを1.5倍付与したらどうなるかなどを仮説とするのです。そこでアイデア型は、今ある施策に対する新たなアイデアを仮説として扱います。
これにより、データ収集の際には競合のプロモーション活動に関するデータも考慮に入れることが可能になります。データ分析プラットフォームで分析を成功させるために重要なのは仮説を立てて検証することです。
仮説と検証を繰り返すことで、目的に対する最適な施策を洗い出すことにつながります。
このようにデータ分析プラットフォームを構築する際のステップは、明確な目的を設定することで、分析の方向性を定め、最終的な目標達成につなげることが大切です。
データを集める
データ分析プラットフォームでデータ分析するには、データ分析に用いる素材を集める必要があります。データ分析プラットフォームにおけるデータ収集は、単にデータを集めるだけでなく、データの質を向上させるための重要なステップです。
さまざまな情報源から収集したデータはデータレイクと呼ばれるストレージシステムに元の形式のまま格納されます。そもそもデータレイク(Data Lake)とは、業務システムやデータベースといったデータソースから収集したデータを保管する役割を担う、データの湖のような存在です。
データレイクは、収集したデータをそのままの形で保存するため、後から必要に応じてデータを構造化し、分析や活用に役立てることができます。しかし、データレイクはさまざまなデータ蓄積できる半面、用途や管理方法を設けないとデータの種類が煩雑になってしまいます。
そうなってしまうと、「自身が知りたいデータになかなかアクセスできない」という悩みが発生するということが起こりえます。そのためには、データの信頼性を担保するためにデータを定期的にクレンジングして、ノイズとなる不必要なデータを削除することが大切です。
データには数値化されたExcelやCSVに加えて音声データや動画データなどのデータも含まれます。限られたリソースの中ですべてのデータを分析するわけにはいかないため、あらかじめ加工対象とするデータの精査が必要です。
データ収集の方法には、手動でのデータ入力や自動化されたデータ収集ツールの使用が含まれます。例えば、工場の危機に設置されているIoTセンサーから稼動状況を取得する、物流関係業者の施設に設置したセンサーから気象データを取得するなど、さまざまな情報源からデータを収集・蓄積します。
この段階のデータは、まだ加工などを施されていない生の状態であり、収集してきたデータはデータレイクに蓄積していきます。データ収集の際には、データの整合性や質を確保するための仕組みも重要です。データの重複や欠損を防ぐために、データクレンジングやデータバリデーションのプロセスを導入することが推奨されます。
収集されたデータは、後の加工や分析に向けて整備され、組織の意思決定に役立てられるのがポイントです。
データを加工する
データ分析プラットフォームでデータ収集した後は、データレイクに蓄積された生データを分析しやすいように加工し、データウェアハウスに保管します。データ加工は、データ分析基盤の中で「収集から蓄積・加工・分析」という一連の流れの中で中心的な役割を果たします。適切なデータ加工を行うことで、より正確で信頼性の高い分析結果を得ることができます
データウェアハウスに保管された加工データを、売上分析や顧客行動の分析といった具体的な目的な用途に沿って抽出し、保管する場がETLです。データレイクにあるデータは、ETLというツールを使って散在されているデータを用途に合わせて加工します。
そもそもETLとは、加工して他のデータベースやツールへ連携するツールのことです。
それぞれのデータマートに保管されたデータは、それぞれの分析を行う目的のために細分化されていることから、高速分析が可能となります。加工済みデータをデータウェアハウスに格納しておくことで、幅広いデータソースから分析を行う際にもスムーズな分析が可能です。
データのクレンジングする
データ分析プラットフォームでデータを収集した後は、データクレンジングを行うことが必要です。データクレンジングとは、データベースにおけるさまさまなデータを整理し、活用に支障が起きないよう最適化することです。
データクレンジングはデータ分析・可視化を行う前段階で、CSVファイルやデータベース内の不適切なデータを修正・削除・置換するプロセスを行います。
具体的には入力ミスや間違った配置・欠損値などの不正確なデータや無関係なデータなどを特定し、修正を施します。データクレンジングにおいてまずデータ領域をまず選定し、その中から重要なデータを集めることです。
従来はデータ活用は、欠損や重複があるなどノイズの多いデータをもとに分析を行うと、「データの型やフォーマットが不揃い」であったり「データ入力が徹底されず欠損している箇所がある」といった課題がありました。
データ活用においてこのような不正確なデータは信頼性が低く、意思決定に悪影響を及ぼす可能性があります。信頼性の低いデータは営業活動などに支障が出て会社の利益を損なうリスクがあるのが一つです。
このような結果にならないためにデータクレンジングを行うと、欠損や重複などの問題が解決されることができ、データ分析の精度が高まる傾向にあります。
データクレンジングではCSVやXMLなどさまざまな形式のファイルからデータだけを収集し、ひとつのデータベースにまとめます。その後クレンジング本番に移る前に、データを整え不必要な箇所を削減します。
不必要な箇所は、主に重複しているデータを修正して古いデータの更新などを行います。必要なデータを1つのデータベース上にまとめ、「名寄せ」を実行して重複しているデータがあれば削除することが必要です。
クレンジングした正確なデータは、必要に応じて抽出・リスト化などを行うことで、営業活動やプロジェクトに活用できるようになります。企業は多くのデータを取得・保有していますが、保有しているデータの中には一部が空白になっていたり、正しい値が入力されていないものが含まれます。
自社にデータ分析プラットフォームのデータクレンジングの目的は、顧客データベースの質を担保することでデータ分析精度を向上させ、マーケティングや営業施策における意思決定の正確性を高めることができます。
収集したデータをクレンジングしたら、修正したデータをグラフやチャートなどに視覚化してデータの分析精度を向上させます。
データを分析・可視化する
データマートに保管されていたデータを加工したら、次はデータを分析する段階に入ります。データマートに保管された加工データは、BIツールを用いてグラフやフローチャートなどでデータを可視化します。
データウェアハウスやデータマートに保管されている加工済みのデータは数値や言語だけでは意思決定の判断材料として扱いづらいのが現状です。可視化を通じて得られた情報を基に、さらに深い分析を行うことで、データから価値ある情報を引き出すことが可能になります。
データの分析段階は、単にデータを視覚化するだけでなく、データの質や整合性を確保することも重要です。データマートに保管されたデータに対し、数値や言語のみでは把握しづらいデータを可視化することで、視覚的に理解できるように加工します。
特にビッグデータのような膨大なデータ群の場合、視覚的な表現は複雑なデータを簡潔に理解できるようになり、異常値やトレンドを迅速に把握することが可能です。こうして可視化されたデータは、経営判断や売上予測などへの意思決定を行います。
加工したデータを分析する際に重要なのは、まず分析の目的を明確にすることです。目的が明確であれば、どのデータをどのように活用するかが見えてきます。また、データの品質を確保するために、欠損値や異常値の検出と補正を行い、データのフォーマットを統一することも大切です。
加工したデータを分析段階に入れる際は、分析結果を定期的にレビューし、必要に応じて分析手法やデータの見直しを行うことも大切です。データ環境やビジネスの状況は常に変化するため、柔軟に対応することが求められます。これにより、持続的な改善が可能となり、データ分析の効果を最大化することができます。
分析結果からビジネスに落とし込む
データ分析プラットフォームでデータの分析を終えたら、分析結果から仮説が正しかったかを確認することが重要です。データから分析した結果を客観的に捉え、正しい解釈を行うことで、意思決定に役立つ情報とすることができます。
例えば、顧客のニーズに合った商品を提供できていないことが原因で客数が減って売上減少が起こっているということであれば、取り扱い商品の見直し(種類や価格帯)などが具体的な打ち手となるでしょう。
商品ではデータ分析で特定の価格帯の商品が売上の多くを占めている場合、その価格帯に焦点を当てる戦略が有効です。これにより、低迷している価格帯の商品の見直しや、需要が高い商品群の拡充が図れます。
データ分析の結果を正確に落とし込むには、専門家とデータ分析ツールを用いて改善の正確性が向上するほか、アクションまでの時間を大きく削減できます。データ分析は表計算ソフトやBIツールを用いることで比較的容易に行える半面、分析結果を正しく理解できる方は少ないでしょう。
そのため、データサイエンティストやデータ分析のスキルを持った方を採用し、正しい観点でデータ分析をしてもらうことで分析結果を落とし込みやすくなります。このようにデータ分析では、得られた結果をもとに、どのようなアクションを取るべきかを検討し、具体的な施策に落とし込むことが必要です。
ビジネスに落とし込みを実行してもそこで終わりではなく、その落とし込みが正しかったのかどうか判断し、もし想定していたほどの効果が出なかった場合は修正していく必要があります。
フィードバックが示す改善点に基づいて具体的なアクションプランを設定し、実施することで、データ分析の成果を最大限に引き出すことが大切です。施策を実施した後は、その効果を測定することが重要です。施策がどのような結果をもたらしたのかを数値で評価し、次回のPDCAサイクルに活かします。
PDCAサイクルで効果測定を行う
データ分析プラットフォームでデータ分析結果を基にアクションを起こした後は、PDCAサイクルを回して改善を繰り返すことが大切です。そもそもPDCAサイクルとは、事業活動における管理業務を円滑に進めるための手法です。
Plan(実行)・Check(点検・評価)・Act(改善)の評価に基づき改善して次のステップへと進めて、データに基づいて戦略的な意思決定を行い、業務の改善を図ることができます。データ分析プラットフォームでは、アクション前後のデータを分析・比較することで、「目的が達成されたか」・「どの部分に課題が残っているか」などが明確になり、さらなる改善が可視化されます。
データ分析プラットフォームでPDCAを回す上でPlanでは、調べる目的は何なのかをまず知る必要があります。データを基に課題を明確化し、具体的な目標と施策を設定することです。
分析結果を活用する計画を立てる際には、課題を数値化し、達成すべき目標を定めます。その後は、DO(実行)で計画で立てた施策を迅速に実行します。実行する際には、データを記録し、結果を追跡できる仕組みを構築することが必要です。
そしてCheck(評価)では、施策を実行した後は結果を分析し、設定した目標が達成されたかを評価します。この段階では、定量的なデータだけでなく、定性的なフィードバックも活用することでより鮮明なデータが得られます。
最後にAct(改善)で評価の結果をもとに次の施策を計画します。ビジネスで成果が上がった場合は、新たな改善案を立ててPDCAサイクルを実行します。データ分析プラットフォームを使用することにより、客観的なデータに基づいた意思決定が可能になります。これにより、企業はプランニングやアクションの精度が向上し、より効果的な成果を得ることができます。
データ分析プラットフォームでのPDCAサイクルは、常に最新の実績データが意思決定できる形式に可視化され、そのデータをもとに意思決定した施策の結果が常に反映されるシステムです。
データは分析するだけではなく、そこから得た知見をマネジメントやマーケティングなどの事業領域に活用してこそ効果を発揮します。そのため、このフェーズではデータ分析の結果に基づいて具体的な施策を決定します。
このようにデータ分析プラットフォームは、PDCAサイクルを回し続ける継続的な改善を行っていくことによって、データ分析の精度が高まるとともにプロセスの最適化や業務の効率化を実現につながるのがポイントです。
データ分析プラットフォームを構築する3つの具体例
日本では、多くの企業がデータ分析プラットフォームを利用して、顧客情報を一元管理しています。ビジネスの現場では、データがさまざまな場面で活用されるようになっています。特に建築業界や製造業などの業界では、プロジェクトごとに大量のデータが生成されてきました。
これまでは別々のシステムやファイル形式で保管されることが多く、情報が断片化されるケースが多かったです。このような課題を解決するためにはデータ分析プラットフォームの活用によって、分散管理されていたデータを一元化し、リアルタイムで共有・分析できるようになりました。
ビジネスでの現場でデータ分析プラットフォームを導入することで、作業の自動化や潜在的なリスクを早期に発見し、管理者や作業者の迅速な意思決定をサポートできるのが強みです。しかし、膨大なデータから価値ある情報を見つけ出すには、適切な管理と分析が不可欠です。
企業にデータ分析を行う際は、意思決定や戦略策定に直結するため、結果をどのようにビジネスに反映させるかを明確にしておくことが求められます。企業は大量のデータから有用なインサイトを得て、戦略的な意思決定を支援しています。近年では、AIや機械学習を活用したデータ分析により、製造ラインの自動化や不良品検出などの業務改善も進められています。
ここからは、データ分析プラットフォームを構築する3つの具体例について詳しくご紹介していきます。
三井ホーム
三井ホームとは、住宅建築から不動産開発・賃貸住宅など幅広いサービスを提供する企業です。三井ホームは、Google Cloudの導入により顧客データや業務データを一元管理し、リアルタイムでのデータ分析が可能になりました。
Google Cloud Data Fusionを使ってデータ収集を自動化し、BigQueryを中央のデータ分析基盤として導入しました。 Cloud Data Fusionを利用して非構造化データを含む複雑なデータ加工を行い、 Cloud schedulerによってこれらのデータ加工タスクを定期的に実行するアーキテクチャを構築したのが一つです。
このアーキテクチャの導入により、共有指標を用いたデータ分析が可能になり、全国規模でのリアルタイムでの業務改善が実現しました。Google Cloudの導入前は、データの分散管理や分析の効率が低下しており、迅速な意思決定が難しい状況でした。従来のシステムでは、データの収集や分析に多くの時間がかかり、ビジネスの成長を妨げる要因となっていました。
顧客ニーズの変化に迅速に対応するためには、リアルタイムでのデータ分析が不可欠でしたが、既存のインフラではそれが実現できていませんでした。このような背景から、三井ホームはGoogle Cloudを活用した統合データ分析基盤の構築を決定しました。
Google Cloudを導入してからは、ダッシュボードの表示速度は4倍に向上して、大幅にデータ処理の自動化とともに大幅な工数削減が実現しました。これにより、共通指標を用いたデータ分析が可能になり、アンケートの横断分析や感情分析を通じて、顧客満足度の向上も達成したのが大きな事例です。
このように三井ホームはGoogle Cloudの導入により、リアルタイムなデータ分析と施策実行を実現し、運用負荷の削減にも成功しています。データの可視化やダッシュボードの活用により、経営陣が迅速に意思決定を行える環境が整備されている点も重要です。これらの取り組みは、三井ホームのビジネスモデルをデジタル化し、持続可能な成長を支える基盤となっています。
統合データ分析基盤の構築は、他の業界や企業にも参考になる取り組みといえるでしょう。
長谷コーポレーション
株式会社長谷工コーポレーションとは、建設や不動産事業を手掛ける大手総合建設株式会社です。同社では、建設業界のデジタル変革(DX)を推進するために、データ分析プラットフォームの導入を進めています。
株式会社長谷工コーポレーションは、テクトムと共同で新しいLLM・AIシステムの研究開発を開始しました。自動設計機能の構築を段階的に進めることで、設計者のデータ入力や図面チェックなどに要する時間の50%削減を目指します。
長谷工コーポレーションは、建築設計業務のAIソリューション企業である株式会社テクトムと協力し、長谷工版BIMと、AIプラットフォーム「Tektome」を統合した新しいLLM-AIシステムの研究開発を開始しました。
このプラットフォームは、建設現場でのデータ収集や分析を効率化し、設計から施工、品質チェックまでのプロセスを一元管理するプラットフォームです。
同社におけるデータ分析プラットフォームの背景には、新人が仕事を覚える過程で先輩の仕事を見て真似たり、熟練者に質問したりが一般的でした。しかし、こうした方法はノウハウやシステム化されていなく、社内の従業員との共有で課題が発生したのが一つです。
長期的に経験を積み重ねて熟練者が習得した技術や知見は、その熟練者のみが保有しているため、退職したとき容易に失われてしまいがちです。これらの課題に対処するために長谷工はデータ分析プラットフォームを活用することで、業務で分からない点がある若手社員は検索して必要な回答やヒントを見つけることが可能です。
もし熟練者が退職しても、データ分析プラットフォームを運用するとノウハウや知見が企業側にの故地、将来にわたって活用できます。このように長谷工は設計者が必要とする情報を迅速に引き出すだけでなく、チーム間のコミュニケーションを円滑につなげたのがポイントです。
今後はAIによる自動変換を活用したデータベースの構築が予定されており、設計者の役割が変化する可能性があります。言語指示による自動設計機能の開発も進められており、設計時間の大幅な短縮が期待されています。
株式会社LIXIL
株式会社LIXILとは、住まいの水回り製品や建材製品などといった住宅設備や建材の製造販売を行う大企業です。株式会社LIXILでは、訪問者のニーズに応じたパーソナライズされたコンテンツの提供が可能となり、コンバージョンレートと集客効率が大幅に向上しました。
LIXILは「データ活用の民主化」を目指しており、専門知識のない従業員でもデータを扱える環境を整えることが重要な目的となっています。具体的には、LIXILはGoogle CloudのBigQueryを中心とした「LIXIL Data Platform」を構築しました。
このプラットフォームはBigQueryを中心に構成されていて、 業務データを集約し、従業員がデータを容易に利用できるように設計されているのが特徴です。データ活用のとき、専門知識のない従業員でもデータを扱えるように設計されており、データの一元管理と高速な分析を実現しています。
このように株式会社LiXiL LDPの導入により、従業員はリアルタイムでデータにアクセスし、迅速に意思決定を行うことができるようになりました。他にもAIを活用したIoTサービス「LIXIL Toilet Cloud」を導入し、公共トイレの清掃業務の効率化を図っています。
このサービスは、便器のつまり検知やアプリによる一括操作が可能で、トイレの詰まりやあふれ被害を未然に防ぐ異常検知機能が搭載されているのが特徴です。LIXIL Toilet Cloudでは、LIXILの自社開発AIがトイレの使用状況を常に監視し、利用者の動向を把握します。
これにより、清掃員は便器内の水位異常を検知した際に給水を停止し、アプリで迅速に通知を受けることができます。このように株式会社LIXILはデータ分析プラットフォームを導入することで、 データドリブンな意思決定を強化し、業務の透明性を高めることが期待されています。
データ分析プラットフォームとBigQueryの連携により、メンテナンスコストを最小限に抑えられ、必要な情報を必要なタイミングですぐに取り出せる環境を整備しています。この結果、社員のデータ活用を推進し、組織全体のデータの民主化の実現につなげた事例です。
まとめ
本記事では、データ分析プラットフォームの特徴と構築のステップについて詳しくご紹介しました。データ分析プラットフォームとは、企業がデータを収集、蓄積、加工、分析、活用するための共通基盤となるシステム群のことです。
データ分析プラットフォームは、データの収集から加工や保管・分析までのプロセスをワンストップで管理できるのが特徴です。データ分析を行うにあたって、複雑な集計作業を行ったり、データの抽出をする手間が省けます。
近年、企業が保有するデータ量は増加の一途を辿り、その種類も多様化しています。これらのデータを有効活用するためには、データ基盤を構築し、データを一元的に管理・活用できる環境を整えることが不可欠です。
現在では多くのデータ分析プラットフォームが販売されているため、自社の用途に合ったプラットフォームを選ぶことが重要です。データ分析プラットフォームを選ぶとき、専門スキルを持ったデータエンジニアのみが利用するツールだと、退職や異動の引き継ぎがうまくいかず、データ分析の継続が困難になってしまう可能性があります。
そのため、自社がどのくらいのデータ量で分析したいか・専門スキルを持たない方でも分析できるデータ分析プラットフォームを選ぶことが大切です。
ビジネスでデータ分析プラットフォームを活用できるようになると、データのセキュリティ水準が向上し、スムーズな意思決定を支援できるようになります。データ分析するためのシステムやアプリケーションの設計から開発・運用には、幅広い知識と経験を持ったエンジニアが必要です。株式会社エイチビーラボでは、ベトナムに特化したオフショア開発サービスを提供しております。
DXの推進に貢献するために、専門的な知見や経験を持ったエンジニアが在籍しております。データの活用にお悩みの方は、ぜひお気軽にお問い合わせください。