
Webログ分析の実践事例
ログ設計の初手:意思決定に使える粒度を決める
Webログは「何が起きたか」を残すだけでは価値になりません。「どの意思決定に使うか」から逆算し、最初に粒度と定義を固めます。ありがちな躓きは、イベント名の乱立、セッション定義の揺れ、流入(UTM)の表記ゆれです。分析の前に、以下を最小構成で確実に揃えます。
イベント設計の実務ポイント
- イベントは5種に圧縮: page_view / view_item / add_to_cart / begin_checkout / purchase。カスタムはネーミング規約を明文化(snake_case、動詞始まり)。
- アイデンティティ: cookieベースIDに加え、ログイン時はuser_idで統合。クロスデバイスは24時間以内の同一メールハッシュで突合。
- タイムスタンプはUTCで秒精度、タイムゾーンは別フィールド。日次集計時のズレを防ぎます。
- リファラとUTMは正規化: utm_source/medium/campaignの空欄は“(not set)”で統一、cpc/paid-socialなど媒体の辞書を持つ。
- 商品属性は正規化テーブルへ(category、price、margin)。後から粗利ベースの意思決定がしやすくなります。
セッションと流入の定義を固定する
セッションは「ユーザーID×30分無操作」で区切るのが基本です。広告クリックでの再開時は新セッション扱い、ただし直前5分以内の同一キャンペーンは同一セッションに吸収すると、広告効果の二重計上を防げます。Directは上書き不可(直前の非Direct流入を尊重)。クロスドメインは計測パラメータを遷移先へ引き継ぐ設計にします。
GA4を使う場合は生データをBigQueryにエクスポートし、上記のビジネス定義でビューを切ると、UIの自動集計との差異に悩まされにくくなります。
分析の型:仮説→切り口→指標→決定
数字を見る順番を固定すると迷いが減ります。おすすめは「流入×行動×成果」を週次で回す型です。
- 仮説を1行で書く(例:検索流入の意図ずれがカート到達を阻害)。
- 切り口を決める(新規/既存、媒体、ランディングページ、デバイス)。
- 指標を揃える(セッション、CTR、ファネル到達率、CVR、LTV/CPA、読み込み指標LCP)。
- 決定案を列挙(広告停止/文言差し替え/ナビ改修/価格テスト)。
- 影響範囲×工数で優先度をつけ、A/Bテスト計画に落とす。
ファネルを見るときの着眼点
- ランディング→商品閲覧の遷移で落ちるなら、内部検索とカテゴリ回遊を強化。検索離脱はクエリログの意図クラスタで補正。
- カート→決済で落ちるなら、送料・支払い手段・フォーム摩擦(オートフィル可否、エラー文言)を点検。
- 媒体別の「粗利CVR」を出し、CPAだけで判断しない。返品率の高いキャンペーンは除外。
生成AIは補助輪として有用です。例えばChatGPTやGeminiで正規表現やクエリの雛形を出し、サンプルデータで差分検証を行えば、実装速度が上がります。
身近な企業の実践例:D2C菓子メーカーA社のやり直し
広告費を増やしたのにCVRが1.8%→1.4%へ低下。「Direct」が急増し、どの施策が効いているか不明に。さらにLPで自動再生の動画を導入した直後、直帰率が悪化しました。
失敗の構造
- UTMの付与漏れと表記ゆれ(utm_medium=paid_social/paidsocial/psが混在)。Directに吸収。
- SPA化したのにpage_viewイベントが仮想PVに未対応で、遷移が計測できず。
- LPのLCPが4.2秒に悪化(ヒーロー動画が重い)。
- Bot流入(データセンターASN)を除外せず、セッション膨張。
打ち手と実装
- イベント/流入の定義をリセット。GA4→BigQueryに出し、ビジネス定義で「セッション」「キャンペーン」を再計算。
- UTM辞書を作成し、ETLで正規化。未設定はcampaign=“(not set)”に統一し、アラートを設定。
- SPAのルーターイベントでpage_viewを送信。仮想PVにtitle/URL/前後ページを付与。
- CDNログから既知Bot/ASNを遮断。残差はUser-AgentパターンをClaudeで抽出、手動レビュー後に除外リストへ。
- LPを軽量化(動画はクリック再生、画像WebP化)。LCPを2.3秒まで改善。
- 内部検索のクエリをChatGPTとGeminiで意図クラスタリング。「ギフト/個包装/日持ち」セグメント別にカテゴリ導線を新設。
- A/Bテストを2週で3本回す:価格訴求の文言、送料の明記位置、フォームの郵便番号オートフィル。
結果(4週間)
- Direct比率40%→18%に正常化。媒体別CVRが可視化され、ROASの低い広告セットを停止。
- 全体CVR1.4%→2.4%、CPAは18%改善、粗利ベースROASは1.6→2.1。
- 商品閲覧到達率が+9pt、検索経由のCVRは+32%。
- 「ギフト」セグメントは平均注文単価が+14%で、特集LPを常設に意思決定。
重要なのは「定義の固定→ノイズ除去→小さなテストの反復」です。ツールよりも、意思決定のリズムを設計したことが、再現性のある改善につながりました。
運用のコツと落とし穴:継続して勝つために
定義は“コード化”、可視化は“1枚”
SQLビューと用語定義書をリポジトリで管理し、変更はPRでレビュー。ダッシュボードは「週次会議用の1枚」を作り、見る指標を固定します(セッション、ファネル3点、CVR、粗利ROAS、LCP)。
ノイズの管理を日課にする
社内IP・監視ツール・ステージングの除外を徹底。新規のBotは週次で検知ルールを更新。正規表現のドラフト生成はClaude等で時短しつつ、必ずサンプル照合で誤爆を確認します。
プライバシーと計測の両立
同意管理(CMP)下での計測欠損は避けられません。モデリング用に、同意ありトラフィックでの比率推定を用意して、同意なしを過度に楽観しない判断フレームを持ちます。
Webログ分析は、定義と運用の地味な積み重ねが収益を押し上げます。散在するログをつなぎ、定義を一元化し、反復可能な分析を回す基盤づくりは、データ解析プラットフォーム事業の土台そのものです。GA4やBigQueryといった既存資産、そしてChatGPTやGeminiの補助を組み合わせ、意思決定までの距離を最短にする設計が、中長期の競争力につながります。