23 KiB
Migrations-Plan: Legacy GSheets -> Company Explorer (Robotics Edition v0.8.5)
Kontext: Neuanfang für die Branche Robotik & Facility Management. Ziel: Ablösung von Google Sheets/CLI durch eine Web-App ("Company Explorer") mit SQLite-Backend.
1. Strategische Neuausrichtung
| Bereich | Alt (Legacy) | Neu (Robotics Edition) |
|---|---|---|
| Daten-Basis | Google Sheets | SQLite (Lokal, performant, filterbar). |
| Ziel-Daten | Allgemein / Kundenservice | Quantifizierbares Potenzial (z.B. 4500m² Fläche, 120 Betten). |
| Branchen | KI-Vorschlag (Freitext) | Strict Mode: Mapping auf definierte Notion-Liste (z.B. "Hotellerie", "Automotive"). |
| Bewertung | 0-100 Score (Vage) | Data-Driven: Rohwert (Scraper/Search) -> Standardisierung (Formel) -> Potenzial. |
| Analytics | Techniker-ML-Modell | Deaktiviert. Fokus auf harte Fakten. |
| Operations | D365 Sync (Broken) | Excel-Import & Deduplizierung. Fokus auf Matching externer Listen gegen Bestand. |
2. Architektur & Komponenten-Mapping
Das System wird in company-explorer/ neu aufgebaut. Wir lösen Abhängigkeiten zur Root helpers.py auf.
A. Core Backend (backend/)
| Komponente | Aufgabe & Neue Logik | Prio |
|---|---|---|
| Database | Ersetzt GoogleSheetHandler. Speichert Firmen & "Enrichment Blobs". |
1 |
| Importer | Ersetzt SyncManager. Importiert Excel-Dumps (CRM) und Event-Listen. |
1 |
| Deduplicator | Ersetzt company_deduplicator.py. Kern-Feature: Checkt Event-Listen gegen DB. Muss "intelligent" matchen (Name + Ort + Web). |
1 |
| Scraper (Base) | Extrahiert Text von Websites. Basis für alle Analysen. | 1 |
| Classification Service | NEU (v0.7.0). Zweistufige Logik: 1. Strict Industry Classification. 2. Metric Extraction Cascade (Web -> Wiki -> SerpAPI). |
1 |
| Marketing Engine | Ersetzt generate_marketing_text.py. Nutzt neue marketing_wissen_robotics.yaml. |
3 |
Identifizierte Hauptdatei: company-explorer/backend/app.py
B. Frontend (frontend/) - React
- View 1: Der "Explorer": DataGrid aller Firmen. Filterbar nach "Roboter-Potential" und Status.
- View 2: Der "Inspector": Detailansicht einer Firma. Zeigt gefundene Signale ("Hat SPA Bereich"). Manuelle Korrektur-Möglichkeit.
- Identifizierte Komponente:
company-explorer/frontend/src/components/Inspector.tsx
- Identifizierte Komponente:
- View 3: "List Matcher": Upload einer Excel-Liste -> Anzeige von Duplikaten -> Button "Neue importieren".
- View 4: "Settings": Konfiguration von Branchen, Rollen und Robotik-Logik.
- Frontend "Settings" Komponente:
company-explorer/frontend/src/components/RoboticsSettings.tsx
- Frontend "Settings" Komponente:
C. Architekturmuster für die Client-Integration
Um externen Diensten (wie der lead-engine) eine einfache und robuste Anbindung an den company-explorer zu ermöglichen, wurde ein standardisiertes Client-Connector-Muster implementiert.
| Komponente | Aufgabe & Neue Logik |
|---|---|
company_explorer_connector.py |
NEU: Ein zentrales Python-Skript, das als "offizieller" Client-Wrapper für die API des Company Explorers dient. Es kapselt die Komplexität der asynchronen Enrichment-Prozesse. |
handle_company_workflow() |
Die Kernfunktion des Connectors. Sie implementiert den vollständigen "Find-or-Create-and-Enrich"-Workflow: 1. Prüfen: Stellt fest, ob ein Unternehmen bereits existiert. 2. Erstellen: Legt das Unternehmen an, falls es neu ist. 3. Anstoßen: Startet den asynchronen discover-Prozess. 4. Warten (Polling): Überwacht den Status des Unternehmens, bis eine Website gefunden wurde. 5. Analysieren: Startet den asynchronen analyze-Prozess. Vorteil: Bietet dem aufrufenden Dienst eine einfache, quasi-synchrone Schnittstelle und stellt sicher, dass die Prozessschritte in der korrekten Reihenfolge ausgeführt werden. |
3. Umgang mit Shared Code (helpers.py & Co.)
Wir kapseln das neue Projekt vollständig ab ("Fork & Clean").
- Quelle:
helpers.py(Root) - Ziel:
company-explorer/backend/lib/core_utils.py - Aktion: Wir kopieren nur relevante Teile und ergänzen sie (z.B.
safe_eval_math,run_serp_search).
4. Datenstruktur (SQLite Schema)
Tabelle companies (Stammdaten & Analyse)
id(PK)name(String)website(String)crm_id(String, nullable - Link zum D365)industry_crm(String - Die "erlaubte" Branche aus Notion)city(String)country(String - Standard: "DE" oder aus Impressum)status(Enum: NEW, IMPORTED, ENRICHED, QUALIFIED)- NEU (v0.7.0):
calculated_metric_name(String - z.B. "Anzahl Betten")calculated_metric_value(Float - z.B. 180)calculated_metric_unit(String - z.B. "Betten")standardized_metric_value(Float - z.B. 4500)standardized_metric_unit(String - z.B. "m²")metric_source(String - "website", "wikipedia", "serpapi")
Tabelle signals (Deprecated)
- Veraltet ab v0.7.0. Wird durch quantitative Metriken in
companiesersetzt.
Tabelle contacts (Ansprechpartner)
id(PK)account_id(FK -> companies.id)gender,title,first_name,last_name,emailjob_title(Visitenkarte)role(Standardisierte Rolle: "Operativer Entscheider", etc.)status(Marketing Status)
Tabelle industries (Branchen-Fokus - Synced from Notion)
id(PK)notion_id(String, Unique)name(String - "Vertical" in Notion)description(Text - "Definition" in Notion)metric_type(String - "Metric Type")min_requirement(Float - "Min. Requirement")whale_threshold(Float - "Whale Threshold")proxy_factor(Float - "Proxy Factor")scraper_search_term(String - "Scraper Search Term")scraper_keywords(Text - "Scraper Keywords")standardization_logic(String - "Standardization Logic")
Tabelle job_role_mappings (Rollen-Logik)
id(PK)pattern(String - Regex für Jobtitles)role(String - Zielrolle)
7. Historie & Fixes (Jan 2026)
* **[CRITICAL] v0.7.4: Service Restoration & Logic Fix (Jan 24, 2026)**
* **[STABILITY] v0.7.3: Hardening Metric Parser & Regression Testing (Jan 23, 2026)**
* **[STABILITY] v0.7.2: Robust Metric Parsing (Jan 23, 2026)**
* **[STABILITY] v0.7.1: AI Robustness & UI Fixes (Jan 21, 2026)**
* **[MAJOR] v0.7.0: Quantitative Potential Analysis (Jan 20, 2026)**
* **[UPGRADE] v0.6.x: Notion Integration & UI Improvements**
14. Upgrade v2.0 (Feb 18, 2026): "Lead-Fabrik" Erweiterung
Dieses Upgrade transformiert den Company Explorer in das zentrale Gehirn der Lead-Generierung (Vorratskammer).
14.1 Detaillierte Logik der neuen Datenfelder
Um Gemini CLI (dem Bautrupp) die Umsetzung zu ermöglichen, hier die semantische Bedeutung der neuen Spalten:
Tabelle companies (Qualitäts- & Abgleich-Metriken)
confidence_score(FLOAT, 0.0 - 1.0): Indikator für die Sicherheit der KI-Klassifizierung.> 0.8= Grün.data_mismatch_score(FLOAT, 0.0 - 1.0): Abweichung zwischen CRM-Bestand und Web-Recherche (z.B. Umzug).crm_name,crm_address,crm_website,crm_vat: Read-Only Snapshot aus SuperOffice zum Vergleich.- Status-Flags:
website_scrape_statusundwiki_search_status.
Tabelle industries (Strategie-Parameter)
pains/gains: Strukturierte Textblöcke (getrennt durch[Primary Product]und[Secondary Product]).ops_focus_secondary(BOOLEAN): Steuerung für rollenspezifische Produkt-Priorisierung.
15. Offene Arbeitspakete (Bauleitung)
Anweisungen für den "Bautrupp" (Gemini CLI).
Task 1: UI-Anpassung - Side-by-Side CRM View & Settings
(In Arbeit / Teilweise erledigt durch Gemini CLI)
Task 2: Intelligenter CRM-Importer (Bestandsdaten)
Ziel: Importieren der demo_100.xlsx in die SQLite-Datenbank.
Anforderungen:
- PLZ-Handling: Zwingend als String einlesen (führende Nullen erhalten).
- Normalisierung: Website bereinigen (kein
www.,https://). - Matching: Kaskade über CRM-ID, VAT, Domain, Fuzzy Name.
- Isolierung: Nur
crm_Spalten updaten, Golden Records unberührt lassen.
16. Deployment-Referenz (NAS)
- Pfad:
/volume1/homes/Floke/python/brancheneinstufung/company-explorer - DB:
/app/companies_v3_fixed_2.db - Sync:
docker exec -it company-explorer python backend/scripts/sync_notion_to_ce_enhanced.py
17. Analyse-Logik v3.0 (Feb 2026): Quantitative Potenzialanalyse & "Atomic Opener"
Nach mehreren instabilen Iterationen wurde die Kernlogik des ClassificationService finalisiert. Dieser Abschnitt dient als "Single Source of Truth", um zukünftige Fehlentwicklungen zu vermeiden.
17.1 Das Gesamtbild: Vom Content zur fertigen Analyse
Der Prozess ist streng sequenziell und baut aufeinander auf.
1. Branchen-Klassifizierung
|
-> Erkannte Branche: "Healthcare - Hospital"
|
2. Quantitative Potenzialanalyse (Zweistufige Kaskade)
|
--> 2a. Stufe 1: Direkte Flächensuche ("Fläche in m²")
| |
| --> Ergebnis: FEHLSCHLAG
|
--> 2b. Stufe 2: Branchenspezifische Proxy-Suche
|
--> Suchbegriff (aus Branche): "Anzahl Betten"
--> Formel (aus Branche): "wert * 100"
|
-> Ergebnis: 250 Betten -> 25000 m²
|
3. "Atomic Opener" Generierung (Zwei getrennte Personas)
|
--> 3a. Opener 1 (Primär): Fokus auf Infrastruktur-Entscheider
| |
| --> Produkt-Kontext: Nassreinigungsroboter (Primärprodukt)
| --> Pain-Kontext: Hygiene-Audits, Keimbelastung
|
--> 3b. Opener 2 (Sekundär): Fokus auf Operativen Entscheider
|
--> Produkt-Kontext: Serviceroboter (Sekundärprodukt, da "ops_focus_secondary" aktiv)
|
--> Pain-Kontext: Personalmangel, Entlastung der Pflegekräfte
|
4. FINALES COMMIT
17.2 Quantitative Potenzialanalyse im Detail
Ziel: Für jedes Unternehmen einen standardized_metric_value in m² zu ermitteln.
-
Stufe 1: Direkte Flächensuche (Direct Hit)
- Das System sucht immer zuerst nach direkten Flächenangaben (Keywords: "Fläche", "m²", "Quadratmeter").
- Findet der
MetricParsereinen plausiblen Wert, wird dieser direkt instandardized_metric_valuegeschrieben und der Prozess ist für diese Stufe beendet.calculated_metric_valueist in diesem Fall identisch.
-
Stufe 2: Proxy-Metrik-Suche (Fallback)
- Nur wenn Stufe 1 fehlschlägt, wird die branchenspezifische Logik aus den
industries-Settings angewendet. - Suchbegriff:
scraper_search_term(z.B. "Anzahl Betten", "Anzahl Passagiere"). - Extraktion: Der
MetricParserextrahiert den Rohwert (z.B.250). Dieser wird incalculated_metric_valuegespeichert. - Standardisierung: Die Formel aus
standardization_logic(z.B.wert * 100) wird auf den Rohwert angewendet. Das Ergebnis wird instandardized_metric_valuegeschrieben.
- Nur wenn Stufe 1 fehlschlägt, wird die branchenspezifische Logik aus den
17.3 "Atomic Opener" Generierung im Detail (Zweistufiger Prozess, Feb 22, 2026)
Ziel: Zwei hoch-personalisierte, schlagkräftige Einleitungssätze (2-3 Sätze) zu generieren, die eine operative Herausforderung als wertschätzende Beobachtung formulieren.
Um die Qualität der Ergebnisse zu maximieren und "Rauschen" aus den Website-Texten zu eliminieren, wurde ein zweistufiger Generierungsprozess implementiert.
Schritt 1: Das Website-Dossier (Extraktion & Komprimierung)
Zunächst analysiert die KI den Rohtext der Website und erstellt ein strukturiertes Dossier. Dieser Zwischenschritt dient dazu, die wesentlichen Informationen über das Geschäftsmodell und das Reinigungspotenzial (Hygieneanforderungen, Flächengröße) zu isolieren.
Prompt (Website-Dossier - Fokus Reinigung):
**Rolle:** Du bist ein erfahrener B2B-Marktanalyst mit Fokus auf Facility Management und Gebäudereinigung.
**Aufgabe:** Analysiere den Website-Text des Unternehmens '{company_name}' und erstelle ein prägnantes Dossier.
**Deine Analyse besteht aus ZWEI TEILEN:**
**TEIL 1: Geschäftsmodell-Analyse**
1. Identifiziere die Kernprodukte und/oder Dienstleistungen des Unternehmens.
2. Fasse in 2-3 prägnanten Sätzen zusammen, was das Unternehmen macht und für welche Kunden.
**TEIL 2: Reinigungspotenzial & Hygiene-Analyse**
1. Scanne den Text gezielt nach Hinweisen auf große Bodenflächen, Publikumsverkehr oder hohe Hygieneanforderungen (Schlüsselwörter: Reinigung, Sauberkeit, Hygiene, Bodenpflege, Verkaufsfläche, Logistikhalle, Patientenversorgung, Gästeerlebnis).
2. Bewerte das Potenzial für automatisierte Reinigungslösungen auf einer Skala (Hoch / Mittel / Niedrig).
3. Extrahiere die 1-2 wichtigsten Sätze, die diese Anforderungen oder die Größe der Einrichtung belegen.
**Antworte AUSSCHLIESSLICH im folgenden exakten Format:**
GESCHÄFTSMODELL: <Deine 2-3 Sätze über das Kerngeschäft des Unternehmens.>
REINIGUNGSPOTENZIAL: <Hoch / Mittel / Niedrig / Kein Hinweis>
HYGIENE-BEWEISE: <Die 1-2 aussagekräftigsten Sätze als Bullet Points (* Satz 1...)>
Schritt 2: Formulierung des Openers (Scharfsinnige Beobachtung)
Basierend auf dem Dossier aus Schritt 1 und den branchenspezifischen Pains/Gains wird der finale Opener formuliert.
Prompt (Finaler Opener - Optimiert Feb 22, 2026):
Du bist ein scharfsinniger Marktbeobachter und Branchenexperte. Formuliere eine wertschätzende Einleitung (genau 2-3 Sätze) für ein Anschreiben an das Unternehmen {company.name}.
DEINE PERSONA:
Ein anerkennender Branchenkenner, der eine scharfsinnige Beobachtung teilt. Dein Ton ist wertschätzend, professionell und absolut NICHT verkäuferisch.
STRATEGISCHER HINTERGRUND (Nicht nennen!):
Dieses Unternehmen wird kontaktiert, weil sein Geschäftsmodell perfekt zu folgendem Bereich passt: "{product_name}" ({product_desc}).
Ziel des Schreibens ist es, die Branchen-Herausforderungen "{relevant_pains}" zu adressieren und die Mehrwerte "{relevant_gains}" zu ermöglichen.
DEINE AUFGABE:
1. Firmenname kürzen: Kürze "{company.name}" sinnvoll (meist erste zwei Worte). Entferne UNBEDINGT Rechtsformen wie GmbH, AG, gGmbH, e.V. etc.
2. Struktur: Genau 2 bis 3 flüssige Sätze.
3. Inhalt:
- Satz 1: Eine wertschätzende Beobachtung zum Geschäftsmodell oder einem aktuellen Fokus des Unternehmens (siehe Analyse-Dossier).
- Satz 2-3: Leite elegant zu einer spezifischen operativen Herausforderung über, die für das Unternehmen aufgrund seiner Größe oder Branche relevant ist (orientiere dich an "{relevant_pains}").
4. STRENGES VERBOT: Nenne KEIN Produkt ("{product_name}") and biete KEINE "Lösungen", "Hilfe" oder "Zusammenarbeit" an. Der Text soll eine reine Beobachtung bleiben.
5. KEINE Anrede (kein "Sehr geehrte Damen und Herren", kein "Hallo").
KONTEXT (Analyse-Dossier):
{context_text}
- Regel: Das Produkt selbst wird nicht im Opener genannt. Der Satz fokussiert sich rein auf die Formulierung der Herausforderung. Die Auflösung erfolgt in den nachfolgenden, persona-spezifischen Textbausteinen.
17.8 Erweiterte Matrix-Multiplikation: Primary vs. Secondary (Update Feb 24, 2026)
Konzept:
Die Marketing-Matrix wurde verfeinert, um strikt zwischen [Primary Product] und [Secondary Product] zu unterscheiden. Dies verhindert logische Brüche (z.B. "Security Roboter putzt Öl weg") und ermöglicht eine laser-scharfe Ansprache unterschiedlicher Personas im selben Unternehmen.
Vorgehen bei neuen Verticals: Wenn neue Branchen in Notion angelegt werden, muss der folgende Prozess ("Deep-Dive Analyse") durchlaufen werden, um die Pains/Gains zu definieren.
- Produkt-Fit Check: Welches Problem löst das zugewiesene Primary Product technisch wirklich? (Keine "Wunschdenken"-Funktionen).
- Persona-Split:
- Infrastruktur-Entscheider (GF/FM): Fokus auf Primary Product (meist Cleaning/Security).
- Operativer Entscheider (Pflege/Logistik): Fokus auf Secondary Product (meist Service/Transport) ODER operative Vorteile des Primary Products.
- Prompting: Nutzung der "Chain of Thought" Analyse (siehe
ANALYSIS_AND_PROPOSAL.md), um echte Schmerzen (Emotion/Risiko) statt Features zu formulieren.
Matrix-Generierung (ToDo):
Die Engine (generate_matrix.py) muss angepasst werden, um die strukturierten Textblöcke aus Notion ([Primary Product: ...]) zu parsen und nur den passenden Block an das LLM zu übergeben, je nachdem, welche Persona gerade generiert wird.
17.4 Debugging & Lessons Learned (Feb 21, 2026)
Die Implementierung der v3.0-Logik war von mehreren hartnäckigen Problemen geprägt, deren Behebung wichtige Erkenntnisse für die zukünftige Entwicklung lieferte.
-
"Phantom"
NameErrorfürjoinedload:- Problem: Trotz korrekter
import-Anweisung wurde einNameErrorausgelöst. - Lösung: Ein erzwungener Neustart des Containers (
--force-recreate) ist nach kritischen Code-Änderungen (besonders Imports) unerlässlich.
- Problem: Trotz korrekter
-
Die "Krankenhaus-Schlacht" (Proxy-Metriken & Parser-Interferenz):
- Problem: Bei Kliniken wurde oft der Wert "100" extrahiert (aus "100%ige Trägerschaft"), anstatt der korrekten Bettenanzahl. Zudem scheiterte die Standardisierung an Resten von Einheiten in der Formel (z.B.
wert * 100 (m²)). - Lösung 1 (Targeted Matching): Der
MetricParserwurde so umgebaut, dass er einen "Hint" (erwarteter Wert vom LLM) priorisiert. Er sucht nun im Volltext exakt nach der Ziffernfolge, die das LLM identifiziert hat, und ignoriert alle anderen plausiblen Zahlen. - Lösung 2 (Aggressive Formula Cleaning): Die
_parse_standardization_logicentfernt nun konsequent alles in Klammern und alle Nicht-Rechenzeichen, bevor siesafe_eval_mathaufruft. Dies verhindertSyntaxErrordurch Datenbank-Reste.
- Problem: Bei Kliniken wurde oft der Wert "100" extrahiert (aus "100%ige Trägerschaft"), anstatt der korrekten Bettenanzahl. Zudem scheiterte die Standardisierung an Resten von Einheiten in der Formel (z.B.
-
Persona-spezifische Pains:
- Erkenntnis: Damit die Opener wirklich zwischen Infrastruktur und Betrieb unterscheiden, müssen die
painsin der Datenbank mit Markern wie[Primary Product]und[Secondary Product]versehen werden. Die Logik wurde entsprechend angepasst, um diese Segmente gezielt zu extrahieren.
- Erkenntnis: Damit die Opener wirklich zwischen Infrastruktur und Betrieb unterscheiden, müssen die
-
Backend-Absturz durch
NoneType-Fehler:- Problem: Während der Analyse stürzte der Backend-Worker ab (
AttributeError: 'NoneType' object has no attribute 'lower'), weilcalculated_metric_unitin der DatenbankNULLwar. - Lösung: Robuste Prüfung auf
Nonevor der String-Manipulation ((value or "").lower()) implementiert. - Test: Ein vollständiger E2E-Test (
test_e2e_full_flow.py) wurde etabliert, der Provisioning, Analyse und Opener-Generierung automatisiert verifiziert.
- Problem: Während der Analyse stürzte der Backend-Worker ab (
Diese Punkte unterstreichen die Notwendigkeit von robusten Deployment-Prozessen, aggressiver Datenbereinigung und der Schaffung von dedizierten Test-Tools zur Isolierung komplexer Anwendungslogik.
17.5 Lessons Learned: SuperOffice Address Sync (Feb 22, 2026)
Die Synchronisation von Stammdaten (Adresse, VAT) erforderte ein tiefes Eintauchen in die API-Struktur.
- Field Naming: Die REST-API verlangt strikt
OrgNrfür die Umsatzsteuer-ID, nichtOrgNumberoderVatNo. - Nested Updates: Adressen müssen tief verschachtelt übergeben werden (
Address.Postal.City), nicht flach (PostalAddress). - Atomic Strategy: Getrennte Updates für UDFs und Standardfelder führen zu Race Conditions. Nur ein gebündelter PUT-Request auf den Haupt-Endpunkt garantiert, dass keine Daten (durch veraltete Reads) überschrieben werden.
17.6 Lessons Learned: Full E-Mail Simulation & Persona Hardening (Feb 22, 2026)
Der End-to-End-Test der E-Mail-Simulation im SuperOffice-Kalender deckte subtile UI-Herausforderungen auf.
-
Die "42-Zeichen-Falle" (Appointment Title):
- Problem: Das
MainHeader-Feld in der SuperOffice-Listenansicht ist auf ca. 42 Zeichen begrenzt. Längere Betreffzeilen werden abgeschnitten, und der Überhang wird oft als erste Zeile in den Textkörper verschoben. - Lösung: Strikte serverseitige Kürzung des Titels auf 40 Zeichen. Zusätzlich wird der vollständige Betreff als allererste Zeile in die Description geschrieben, gefolgt von zwei Newlines. Dies stellt sicher, dass SuperOffice den Betreff "stiehlt" und die Anrede ("Hallo...") sicher im Body bleibt.
- Problem: Das
-
Rollen-Dynamik & "Sticking":
- Problem: Wenn ein Nutzer den Jobtitel ändert, blieb oft die alte Persona (z.B. "Infrastruktur") aktiv, wenn für den neuen Titel kein exakter Match vorlag.
- Lösung: Implementierung eines Rollen-Resets. Bei jeder Namens- oder Funktionsänderung wird die Persona im Company Explorer gelöscht und basierend auf den neuesten Mappings (z.B. neue Regeln für "Geschäftsleitung" -> "Wirtschaftlicher Entscheider") neu berechnet.
-
Kaskadierung & Loop-Schutz:
- Problem: Änderungen am Unternehmen (Contact) müssen alle Personen aktualisieren. Dies triggerte jedoch Endlosschleifen, da SuperOffice nach jedem Update einen eigenen Webhook sendete.
- Lösung: Implementierung einer Deep-Filter-Logik. Der Worker ignoriert nun Felder wie
updated,updated_associate_idundregistered. Nur inhaltliche Änderungen (Name, Branche, Funktion) lösen die Verarbeitungslogik aus.
17.7 Marketing Matrix Schärfung (v3.2 - Feb 22, 2026)
Die Qualität der Marketing-Matrix (Subject, Intro, Social Proof) ist entscheidend für den Erfolg des Outreachs. Daher wurde die Generierungslogik in generate_matrix.py massiv geschärft.
Kern-Konzept: Der Strategische Brückenschlag Die KI agiert nicht mehr als reiner Copywriter, sondern als scharfsinniger B2B-Strategieberater. Der Prompt erzwingt die Verknüpfung von drei Ebenen:
- Persönlicher Druck (Persona): Was hält den Entscheider nachts wach? (Pains der Rolle)
- Strategische Notwendigkeit (Branche): Welchen externen Anforderungen muss das Unternehmen gerecht werden? (Pains/Gains der Branche)
- Technologischer Enabler (Produkt): Wie genau löst die spezifische Robotik-Kategorie (Cleaning, Service, etc.) diesen Konflikt?
Prompt-Anforderungen (Matrix):
- Betreff: "Finger in die Wunde" (Max. 6 Wörter).
- Einleitung: Sofortiges Gefühl von "Verstanden-Werden" durch Verbindung von Rollen-Verantwortung und Branchen-Herausforderung.
- Social Proof: Quantifizierbare Effekte statt leerer Versprechungen, abgestimmt auf die Branche.
- Produkt-Kontext: Nutzung der offiziellen Kategorie-Beschreibungen aus der Datenbank zur Vermeidung von generischen Floskeln.
18. Next Steps & Todos (Post-Migration)
Nach Abschluss der Kern-Migration stehen folgende Optimierungen an:
Task 1: Monitoring & Alerting
- Dashboards: Ausbau des Connector-Dashboards (
/connector/dashboard) um Fehler-Statistiken und Retry-Logik. - Alerting: Benachrichtigung (z.B. Slack/Teams) bei wiederholten Sync-Fehlern.
Task 2: Robust Address Parsing
- Scraper: Derzeit verlässt sich der Scraper auf das LLM für die Adress-Extraktion. Eine Validierung gegen Google Maps API oder PLZ-Verzeichnisse würde die Datenqualität ("Golden Record") massiv erhöhen.
Task 3: "Person-First" Logic
- Aktuell: Trigger ist meist das Unternehmen.
- Zukunft: Wenn eine Person ohne Firma angelegt wird, sollte der CE proaktiv die Domain der E-Mail-Adresse nutzen, um das Unternehmen im Hintergrund zu suchen und anzulegen ("Reverse Lookup").