Terry Zelen氏、Zelen Communicationsのオーナー。
AIは世界を席巻し、マーケティングから医療まで、あらゆる業界に浸透している。AIが私たちの知る世界をどのように変えるかについて多くの期待が寄せられているが、AIは本質的に、その出力を導き出すために使用されるデータの質に依存している。
ChatGPT、Perplexity、Grok、Geminiなど、現在利用可能な主要なLLM(大規模言語モデル)を探索してみると、プロンプトに対する応答に顕著な違いがあることがわかるだろう。これらの違いの理由は、LLM自体がどのように訓練され、現在も訓練が続けられているか、そしてLLM自体のコアユーザーインターフェース設計に関係している。
LLMを理解する
これらのAIツールにはそれぞれ微妙な違いがあるが、ほとんどの場合、訓練に使用されたデータはオンラインとオフラインの両方で見つかる情報コンテンツで構成されている。そのため、これらの第一階層のLLMは幅広い知性を提供し、したがって幅広い応答を提供する能力を持っている。しかし、頻繁に誤りを犯し、「ハルシネーション(幻覚)」を起こす。この不正確なフィードバックは、多くの場合、訓練プロセスにおけるデータの質の低さやデータの不足に起因する。古い格言にあるように、ゴミを入れればゴミが出る。
AIの新たなフロンティアは、ChatGPTなどの既存のLLMを特定のクライアント向けにカスタマイズし、カスタムGPTを作成することだ。これにより、代理店は自社のビジネスにとって重要かつ関連性の高い貴重なデータを活用して、より深い調査、自動化、分析を行うための独自ツールを開発できる。
マーケティング企業への影響
代理店にとって、不良データは単に時間の無駄を意味するだけではない。それは、誤った視聴者ターゲティング、パフォーマンスの低いキャンペーン、そして最終的にはクライアントにとって低いROIにつながる可能性がある。
代理店は多くの場合、CMS、POS、CRMや企業文書などのソースに保存されたデータを通じて、競合分析、販売数字、運用データを提供するようクライアントに依存している。このデータは、企業がトレンド、視聴者の特性、顧客ベースとのエンゲージメントに最も効果的なマーケティングチャネルを明確に理解するのに役立つ。
成功を確実にするための品質基準の設定
データソースには、レガシーシステム、断片化された情報、大量の重複データが含まれている可能性がある。これらはすべて、使用前にクリーニングと検証を行わなければ、結果の信頼性が低くなる。後のプロジェクトでの落とし穴を避けるために、最初に時間を投資しよう。
事前計画は最も重要な段階だ。データソースの深い調査、適切なフォーマット、重複排除が行われなければ、それに続くすべてが疑わしいものになる。
品質とは単なる正確さではなく、構造、アクセシビリティ、一貫性も含まれる。
代理店のベストプラクティス
あなたの代理店がデータを分析するためにAIをワークフローに組み込もうとしている場合、またはクライアントがAIをビジネスに導入するのを支援することを目指している場合は、目標を達成するためにベストプラクティスを活用してください:
1. データ監査から始める:ソース、フォーマット、ギャップ、不整合を特定する。
2. 早期にガバナンスルールを構築する:データの取得、クリーニング、保存方法の基準を設定する。
3. スケーリング前にテストする:展開する前に、小規模なデータセットでAI/自動化をパイロット実施して検証する。
これらのステップをプロジェクトに組み込むことで、プロジェクト全体で大幅な時間を節約し、あなたとクライアントにとって収益性のある結果を確保できるだろう。
明日の代理店は今日データに投資する
長年にわたり、当社はAI戦略を活用してデータ駆動型プロジェクトの取得、分析、自動化を行うクライアントと提携してきた。新しいPOSプラットフォームへのデータ移行から大量の言語翻訳まで、シンプルなプロジェクトを手がけてきた。また、交通事故データ用のカスタムAIスクレイパーの開発や、ブランドの声に合わせたコンテンツ開発のためのカスタムGPTの開発など、より複雑な取り組みも行ってきた。
すべてのクライアントには独自のニーズとデータソースがある。万能なソリューションというものは存在しない。
これらのベストプラクティスに従えば、代理店の能力を拡大し、クライアントが貴重なデータリソースを最大限に活用できるようAIサービスを提供することができる。これを怠る代理店は取り残されるだろう。データの品質を優先し、堅固な基盤を構築することで、幻想ではなく洞察を提供できるようになる。



