So entsteht ein KI-Agent für die Marktforschung

In diesem Artikel zeigen wir, wie wir mit der Low-Code-Plattform Dify einen Marktforschungsagenten aufgebaut haben – und welche zentralen Learnings wir dabei gewonnen haben. Wir geben Einblick in unseren Workflow und teilen konkrete Erfahrungen aus der Entwicklung.

Ai agent blogarticle 720

Möglichkeiten von KI-Agenten

Generative KI-Agenten (GenAI Agents) können komplexe Denkprozesse, Entscheidungslogiken und multimodale Aufgaben automatisieren – etwa im Kundenservice, in der Softwareentwicklung, bei der Informationsbeschaffung oder der Orchestrierung von Workflows.

Diese Agenten verfügen über Fähigkeiten wie Planung, Reflexion sowie Kurz- und Langzeitgedächtnis, um frühere Interaktionen gezielt einzubeziehen. Sie können auch externe Tools wie Taschenrechner oder Websuche einbinden, um ihre Leistung zu verbessern.

In diesem Beitrag zeigen wir anhand eines Praxisbeispiels, wie wir mit der Low-Code-Plattform Dify einen Market Research Agent aufgebaut haben. Wir stellen unseren Workflow vor und teilen zentrale Learnings aus dem Projekt.

Was ist ein Agent für Marktforschung?

Ein KI-Agent für Marktforschung ist eine spezialisierte Form eines Deep-Research-Agents – ähnlich wie sie von Unternehmen wie OpenAI, Perplexity oder Jina AI entwickelt werden.

Ein solcher Agent verarbeitet komplexe Anfragen wie:
„Analysiere die KI-Strategie und Ambitionen von Unternehmen X – mit Fokus auf Daten, ...“

Daraufhin durchsucht der Agent systematisch das Web, identifiziert relevante Informationen und erstellt einen strukturierten Marktbericht.

Textboxen, wie KI Agenten für die Marktforschung funktionieren können.

Ein leistungsfähiger KI-Agent für Marktforschung muss mehrere zentrale Aufgaben erfüllen:

  • Die Nutzeranfrage verstehen und einen strukturierten Aktionsplan erstellen
  • Relevante Informationen recherchieren – inklusive gezielter Suchanfragen
  • Ergebnisse bewerten und sinnvolle Folgefragen ableiten

Dabei bleibt entscheidend, dass der Agent stets das Ziel im Blick behält und die ursprüngliche Anfrage nicht aus den Augen verliert – nur so entsteht ein fundierter, zielgerichteter Report.
Ebenso wichtig: Alle Aussagen im Bericht sollten nachvollziehbar und durch belastbare Quellen belegt sein.

Ausgehend von diesen Anforderungen haben wir uns für einen Divide-and-Conquer-Ansatz entschieden, den wir im nächsten Abschnitt vorstellen.

Unser Divide-and-Conquer-Ansatz

Wir haben einen Divide-and-Conquer-Ansatz gewählt, bei dem wir die komplexe Aufgabe in drei klar definierte Schritte unterteilt haben:

  1. Ausarbeitung & Planung
    Basierend auf der ursprünglichen Nutzeranfrage wird diese geschärft und erweitert. Daraus entsteht eine strukturierte Liste relevanter Fragen, die für die Analyse beantwortet werden müssen.
  2. Gezielte Recherche
    Für jede dieser Fragen führen wir mithilfe verschiedener Tools mehrere Websuchen durch und sammeln Informationen aus unterschiedlichen Quellen. Daraus erstellen wir kompakte Faktenblätter mit Schlüsselzitaten und relevanten Metadaten.
  3. Zusammenführung & Bericht
    Die erarbeiteten Faktenblätter dienen als Grundlage für eine gegliederte Berichtsskizze, aus der der finale Marktforschungsreport entsteht – inklusive Quellennachweise und inhaltlicher Struktur.
Erklärung, wie KI Agenten in der Marktforschung funktionieren

Phase 1: Ausarbeitung und Planung

Ziel dieser Phase ist es, eine präzise Liste geschäftsrelevanter Forschungsfragen zu entwickeln, die die Nutzeranfrage bestmöglich abbilden. Der Ablauf orientiert sich am Prinzip reflektierter Iteration.

Zu Beginn wird die ursprüngliche Anfrage überarbeitet – mit Fokus auf Klarheit, Grammatik, Kohärenz und Lesbarkeit. So lassen sich Intention und Kontext des Nutzers besser erfassen.

Im nächsten Schritt wird die Anfrage in strukturierte, geschäftsorientierte Fragen überführt, die zentrale Themen und Konzepte gezielt aufgreifen. Diese bilden die Grundlage für die spätere Analyse.

Abschließend werden die Fragen priorisiert – je nach Relevanz für das Ausgangsziel und mit der Möglichkeit, die Liste bei Bedarf zu kürzen.

Beispielhafter Überblick der Arbeitsweise eines KI-Agenten für Marktforschung

Phase 2: Tiefgehende Recherche

In dieser Phase wird jede zuvor definierte Frage als Ausgangspunkt genutzt, um gezielt nach relevanten Informationen zu suchen. Der Ablauf umfasst drei aufeinander abgestimmte Schritte:

  1. Websuche & Datenabruf
    Die Frage wird in mehrere Web-Suchtools eingegeben. Die Inhalte der gefundenen Webseiten werden abgerufen und vorverarbeitet, um eine standardisierte Datenbasis zu schaffen.
  2. Relevanzprüfung
    Ein LLM-basierter Reviewer bewertet die Webseiteninhalte hinsichtlich ihrer Relevanz zur gestellten Frage. Irrelevante Quellen werden herausgefiltert.
  3. Faktenblatt-Erstellung
    Für jede relevante Webseite wird ein prägnantes Faktenblatt erstellt, das zentrale Informationen extrahiert und irrelevante Inhalte („Rauschen“) gezielt entfernt.
Erklärung der einzelnen Arbeitsschritte eines KI Agenten in der Marktforschung.

Phase 3: Komposition des Berichts

In der Kompositionsphase werden die Nutzeranfrage, die generierten Fragen sowie die zugehörigen Faktenblätter zusammengeführt, um einen strukturierten Marktforschungsbericht zu erstellen. Der Prozess ist in vier aufeinander abgestimmte Schritte gegliedert:

  1. Strukturierung des Entwurfs
    Zunächst entsteht ein grober Berichtsentwurf mit Abschnittsüberschriften, den wichtigsten Inhalten pro Abschnitt sowie den zu zitierenden Quellen. Wie bereits in der Planungsphase kommt dabei ein Reflexionsansatz zum Einsatz, um Entwürfe gezielt zu optimieren.
  2. Zusammenstellung der Referenzen
    Aus den vorhandenen Faktenblättern werden relevante Quellen extrahiert und in einer standardisierten Referenzliste aufbereitet.
  3. Ausformulierung der Inhalte
    Jeder Abschnitt wird mit sorgfältig formulierten Texten gefüllt, die auf den gesammelten Fakten basieren und den inhaltlichen Kern präzise wiedergeben.
  4. Finalisierung & Formatierung
    Inhalte werden zusammengefasst, eine prägnante Gesamtsynopse erstellt und der Bericht inklusive Titel, Hauptteil und Referenzliste in ein einheitliches Format überführt.
Arbeitsschritte eines KI Agenten in der Marktforschung

Auswahl der Plattform und des Frameworks

Die Auswahl des richtigen Frameworks: Herausforderungen und Strategie

In der aktuellen agentenbasierten Phase der KI-Entwicklung erscheinen Open- und Closed-Source-Tools in rasantem Tempo. Viele Frameworks durchlaufen schnelle Iterationen, was es schwierig macht, den Überblick über neue Funktionen zu behalten. Die Entscheidung für ein passendes Tool muss dabei stets mit den strategischen Zielen des Unternehmens abgestimmt sein.

Unser Ansatz: praxisnah, ressourcenschonend, offen
Um ein realitätsnahes Szenario abzubilden, haben wir bewusst unter typischen Einschränkungen gearbeitet:

  • Zeitrahmen: 4 Wochen
  • Team: 2 Entwickler
  • Technologie: ausschließlich Open-Source

Unsere Ziele:

  1. Aufbau einer vollständigen Plattform mit UI, API, Monitoring und Tracking
  2. Entwicklung einer Lösung, die wiederverwendbar, erweiterbar und auch für nichttechnische Nutzer:innen zugänglich ist – bei minimalem Supportbedarf

Unser Anspruch: Die Nutzung agentenbasierter Systeme im Unternehmen soll demokratisiert werden – durch einfache, unternehmensweite Zugänglichkeit.

Im nächsten Schritt werfen wir einen kurzen Blick auf führende Open-Source-Frameworks (Stand: 07.05.2025), die für solche Szenarien in Frage kommen.

Table AI Agent market reseach blogarticle

Warum wir uns für Dify entschieden haben

Basierend auf den zuvor genannten Anforderungen fiel unsere Wahl zunächst auf Dify – vor allem aufgrund seiner praktischen Vorteile:

  • Intuitive Oberfläche: Auch für Nicht-Programmierer geeignet
  • Integrierte Backend-APIs & UI: Ermöglicht schnelle Iterationen
  • Schneller Einstieg: Ideal, um frühzeitig ein Gesamtbild zu erhalten und die beste Richtung für den konkreten Use Case zu erkennen

Ein weiterer Pluspunkt: Dify liegt bereits in Version 1.x mit Abwärtskompatibilität vor und weist laut GitHub-Community (Sterne & Mitwirkende) die größte Verbreitung unter vergleichbaren Open-Source-Frameworks auf.

Trotz des bekannten Risikos möglicher Lock-in-Effekte haben wir uns in diesem Fall bewusst für Dify entschieden – als pragmatischen, gut zugänglichen Startpunkt.

Was wir auf unserem Weg gelernt haben

Daten entscheiden über den Erfolg – wie auch bei RAG-Anwendungen

Wie bei allen Retrieval-Augmented-Generation-(RAG)-Ansätzen hängt die Qualität der Ergebnisse stark von den verwendeten Daten ab. Unser Marktforschungsagent nutzt öffentlich zugängliche Webinhalte – und stößt dabei auf typische Herausforderungen:

  • Rauschen und Irrelevanz: Viele Webseiten enthalten Inhalte, die nicht zur gestellten Frage passen und daher gefiltert werden müssen.
  • Unterschiedliche Datenmengen: Während manche Seiten nur wenige Zeilen liefern, enthalten andere seitenlange Geschäftsberichte. Diese großen Textmengen müssen gezielt verarbeitet werden, um relevante Inhalte herauszufiltern.

Unser Ansatz:
Wir nutzen große Sprachmodelle (LLMs), um irrelevante Inhalte automatisch auszuschließen. Bei sehr umfangreichen Quellen erstellen wir kompakte Faktenblätter, die die zentralen Informationen auf den Punkt bringen – als Grundlage für fundierte und präzise Reports.

Modellleistung vs. Workflow-Komplexität

Während der Entwicklungsphase haben wir selbst gehostete LLMs über Ollama eingesetzt, um Kosten zu senken – denn Agentenlösungen erzeugen einen hohen Token-Verbrauch.

Dabei wurde schnell klar:

  •  Je weniger leistungsfähig ein Modell ist, desto stärker muss der Workflow gesteuert werden.
  • In frühen Tests zeigten schwächere Modelle die Tendenz, vom ursprünglichen Prompt abzuweichen und sich durch irrelevante Ergebnisse ablenken zu lassen. Die Wahl des richtigen LLMs beeinflusst daher maßgeblich das Design des gesamten Prozesses.

Diese Erkenntnis war ein Hauptgrund, größere Aufgaben in kleinere Teilaufgaben zu zerlegen – inklusive des Einsatzes von LLM-basierten „Kritikern“, um die Qualität in jedem Schritt zu sichern.

Automatisierte Bewertung und Transparenz von Anfang an

Je komplexer ein Agentenprozess ist, desto wichtiger ist vollständige Nachvollziehbarkeit. Viele Komponenten greifen ineinander – ein Fehler kann das gesamte System stören. Deshalb haben wir von Anfang an umfassendes Tracing im Workflow integriert.

Die Entwicklung eines Agenten eröffnet viele Gestaltungsoptionen: von der Wahl der Websuche über Prompt-Strategien bis hin zu Agenten-Patterns. Eine manuelle Prüfung jedes Berichts ist zu aufwendig – daher braucht es automatisierte Auswertungen. Wir haben dafür zwei Evaluatoren entwickelt:

  • Completeness Evaluator: Bewertet die Vollständigkeit eines generierten Reports anhand einer verifizierten Marktstudie als Referenz.
     
  • Groundedness Evaluator: Überprüft, ob Aussagen im Report durch konkrete Quellen (z. B. URLs) belegt und durch die Inhalte dieser Seiten tatsächlich gestützt werden. Diese Prüfung erfolgt durch einen weiteren Agenten mit Webzugang.

Reflexion über den Einsatz von Dify

Plattformen wie Dify haben das Potenzial, in der agentenbasierten Ära eine ähnliche Rolle einzunehmen wie Microsoft Word im Office-Bereich. Sie ermöglichen auch Nicht-Entwicklern, komplexe Aufgaben umzusetzen – ohne eigene Codezeilen schreiben zu müssen.

Doch wie bei vielen No-Code- und Low-Code-Lösungen gilt: Der einfache Zugang bringt auch strukturelle Grenzen mit sich, insbesondere für erfahrene Entwicklern. Dazu zählen:

  • Vordefinierte Module: Die feste Trennung zwischen Chatflows (Orchestrierung) und Workflows (wiederverwendbare Bausteine) schränkt die Flexibilität bei komplexeren Anwendungsfällen ein.
  • Eingeschränkte Codeblöcke: Kleine, isolierte Code-Segmente ohne IDE-Unterstützung erschweren das effiziente Arbeiten.
  • Automatisierte Prüfmechanismen: Bestimmte Designs, Datentypen oder Outputs werden automatisch blockiert – ein anderer Umgang mit Fehlern als bei klassischen Unit-Tests.
  • Kollaborationsgrenzen: Funktionen wie Versionskontrolle oder GitHub-ähnliche Zusammenarbeit sind nicht nativ integriert.
  • Framework-spezifische Einschränkungen, zum Beispiel:
    • Kein direktes Kopieren von Blöcken zwischen Workflows
    • JSON-Ausgaben müssen manuell geprüft werden
    • Verschachtelte Iterationen erfordern separate Tools

Auch für Nicht-Coder gilt: Ein Grundverständnis für Variablentypen, Kontrollstrukturen oder Iterationen ist hilfreich. Um den Einstieg zu erleichtern und die Plattform effektiv zu nutzen, empfehlen wir gezielte Onboarding-Workshops.

Sie möchten mehr über das Thema erfahren? Lesen Sie unser Whitepaper über generative KI-Agenten in Aktion.