sync_manager.py aktualisiert

This commit is contained in:
2025-08-28 09:15:48 +00:00
parent d4f1791455
commit e4419b6baa

View File

@@ -109,8 +109,7 @@ class SyncManager:
def run_sync(self):
"""Führt den gesamten Synchronisationsprozess aus."""
if not self._load_data():
return
if not self._load_data(): return
self.target_sheet_name = self.sheet_handler.get_main_sheet_name()
if not self.target_sheet_name:
@@ -121,13 +120,8 @@ class SyncManager:
gsheet_ids = set(self.gsheet_df[self.gsheet_df['CRM ID'] != '']['CRM ID'].dropna())
new_ids = d365_ids - gsheet_ids
# --- LOGIK-KORREKTUR START ---
# Die 'deleted_ids' Logik ist nur korrekt, wenn der D365-Export ein VOLLSTÄNDIGER
# Export aller aktiven Accounts ist. Da wir hier mit Stichproben arbeiten,
# deaktivieren wir diesen Schritt, um fälschliches Archivieren zu verhindern.
deleted_ids = set() # Wir setzen es auf ein leeres Set.
deleted_ids = set()
self.logger.info("Archivierungs-Schritt wird übersprungen (Teil-Export angenommen).")
# --- LOGIK-KORREKTUR ENDE ---
existing_ids = d365_ids.intersection(gsheet_ids)
self.logger.info(f"Sync-Analyse: {len(new_ids)} neue, {len(deleted_ids)} zu archivierende, {len(existing_ids)} bestehende Accounts.")
@@ -135,7 +129,6 @@ class SyncManager:
updates_to_batch, rows_to_append = [], []
if new_ids:
# ... (Rest der Funktion bleibt exakt gleich) ...
new_accounts_df = self.d365_df[self.d365_df['CRM ID'].isin(new_ids)]
for _, row in new_accounts_df.iterrows():
new_row_data = [""] * len(COLUMN_ORDER)
@@ -145,24 +138,19 @@ class SyncManager:
new_row_data[col_idx] = row[gsheet_col]
rows_to_append.append(new_row_data)
if deleted_ids: # Dieser Block wird nun nie mehr betreten
for crm_id in deleted_ids:
row_indices = self.gsheet_df[self.gsheet_df['CRM ID'] == crm_id].index
if not row_indices.empty:
row_idx = row_indices[0]
updates_to_batch.append({ "range": f"{COLUMN_MAP['Archiviert']['Titel']}{row_idx + 2}", "values": [["TRUE"]] })
# 'deleted_ids' Block bleibt leer
if existing_ids:
# Wir arbeiten direkt mit dem GSheet DataFrame, um den korrekten Index zu behalten
gsheet_updates = self.gsheet_df[self.gsheet_df['CRM ID'].isin(existing_ids)]
d365_indexed = self.d365_df.set_index('CRM ID')
gsheet_indexed = self.gsheet_df.set_index('CRM ID')
for crm_id in existing_ids:
for row_idx, gsheet_row in gsheet_updates.iterrows():
crm_id = gsheet_row['CRM ID']
if crm_id not in d365_indexed.index: continue
d365_row = d365_indexed.loc[crm_id]
gsheet_row = gsheet_indexed.loc[crm_id]
row_updates = {}
conflict_messages = []
needs_reeval = False
row_updates, conflict_messages, needs_reeval = {}, [], False
for gsheet_col in self.d365_wins_cols:
d365_val = str(d365_row[gsheet_col])
@@ -187,9 +175,11 @@ class SyncManager:
if needs_reeval: row_updates["ReEval Flag"] = "x"
if row_updates:
row_idx = gsheet_indexed.index.get_loc(crm_id)
# KORREKTUR: Wir nutzen 'row_idx' direkt, das ist der Original-Index aus dem DataFrame
# Und addieren die Anzahl der Header-Zeilen + 1 (weil 1-basiert)
sheet_row_number = row_idx + self.sheet_handler._header_rows + 1
for col_name, value in row_updates.items():
updates_to_batch.append({ "range": f"{COLUMN_MAP[col_name]['Titel']}{row_idx + 2}", "values": [[value]] })
updates_to_batch.append({ "range": f"{COLUMN_MAP[col_name]['Titel']}{sheet_row_number}", "values": [[value]] })
if rows_to_append:
self.logger.info(f"Füge {len(rows_to_append)} neue Zeilen zum Google Sheet hinzu...")