From e4419b6baae157892fdaeeb19ed0941782feb8fa Mon Sep 17 00:00:00 2001 From: Floke Date: Thu, 28 Aug 2025 09:15:48 +0000 Subject: [PATCH] sync_manager.py aktualisiert --- sync_manager.py | 36 +++++++++++++----------------------- 1 file changed, 13 insertions(+), 23 deletions(-) diff --git a/sync_manager.py b/sync_manager.py index ec5824fe..2d1b4938 100644 --- a/sync_manager.py +++ b/sync_manager.py @@ -109,8 +109,7 @@ class SyncManager: def run_sync(self): """Führt den gesamten Synchronisationsprozess aus.""" - if not self._load_data(): - return + if not self._load_data(): return self.target_sheet_name = self.sheet_handler.get_main_sheet_name() if not self.target_sheet_name: @@ -121,13 +120,8 @@ class SyncManager: gsheet_ids = set(self.gsheet_df[self.gsheet_df['CRM ID'] != '']['CRM ID'].dropna()) new_ids = d365_ids - gsheet_ids - # --- LOGIK-KORREKTUR START --- - # Die 'deleted_ids' Logik ist nur korrekt, wenn der D365-Export ein VOLLSTÄNDIGER - # Export aller aktiven Accounts ist. Da wir hier mit Stichproben arbeiten, - # deaktivieren wir diesen Schritt, um fälschliches Archivieren zu verhindern. - deleted_ids = set() # Wir setzen es auf ein leeres Set. + deleted_ids = set() self.logger.info("Archivierungs-Schritt wird übersprungen (Teil-Export angenommen).") - # --- LOGIK-KORREKTUR ENDE --- existing_ids = d365_ids.intersection(gsheet_ids) self.logger.info(f"Sync-Analyse: {len(new_ids)} neue, {len(deleted_ids)} zu archivierende, {len(existing_ids)} bestehende Accounts.") @@ -135,7 +129,6 @@ class SyncManager: updates_to_batch, rows_to_append = [], [] if new_ids: - # ... (Rest der Funktion bleibt exakt gleich) ... new_accounts_df = self.d365_df[self.d365_df['CRM ID'].isin(new_ids)] for _, row in new_accounts_df.iterrows(): new_row_data = [""] * len(COLUMN_ORDER) @@ -145,24 +138,19 @@ class SyncManager: new_row_data[col_idx] = row[gsheet_col] rows_to_append.append(new_row_data) - if deleted_ids: # Dieser Block wird nun nie mehr betreten - for crm_id in deleted_ids: - row_indices = self.gsheet_df[self.gsheet_df['CRM ID'] == crm_id].index - if not row_indices.empty: - row_idx = row_indices[0] - updates_to_batch.append({ "range": f"{COLUMN_MAP['Archiviert']['Titel']}{row_idx + 2}", "values": [["TRUE"]] }) + # 'deleted_ids' Block bleibt leer if existing_ids: + # Wir arbeiten direkt mit dem GSheet DataFrame, um den korrekten Index zu behalten + gsheet_updates = self.gsheet_df[self.gsheet_df['CRM ID'].isin(existing_ids)] d365_indexed = self.d365_df.set_index('CRM ID') - gsheet_indexed = self.gsheet_df.set_index('CRM ID') - for crm_id in existing_ids: + for row_idx, gsheet_row in gsheet_updates.iterrows(): + crm_id = gsheet_row['CRM ID'] + if crm_id not in d365_indexed.index: continue d365_row = d365_indexed.loc[crm_id] - gsheet_row = gsheet_indexed.loc[crm_id] - row_updates = {} - conflict_messages = [] - needs_reeval = False + row_updates, conflict_messages, needs_reeval = {}, [], False for gsheet_col in self.d365_wins_cols: d365_val = str(d365_row[gsheet_col]) @@ -187,9 +175,11 @@ class SyncManager: if needs_reeval: row_updates["ReEval Flag"] = "x" if row_updates: - row_idx = gsheet_indexed.index.get_loc(crm_id) + # KORREKTUR: Wir nutzen 'row_idx' direkt, das ist der Original-Index aus dem DataFrame + # Und addieren die Anzahl der Header-Zeilen + 1 (weil 1-basiert) + sheet_row_number = row_idx + self.sheet_handler._header_rows + 1 for col_name, value in row_updates.items(): - updates_to_batch.append({ "range": f"{COLUMN_MAP[col_name]['Titel']}{row_idx + 2}", "values": [[value]] }) + updates_to_batch.append({ "range": f"{COLUMN_MAP[col_name]['Titel']}{sheet_row_number}", "values": [[value]] }) if rows_to_append: self.logger.info(f"Füge {len(rows_to_append)} neue Zeilen zum Google Sheet hinzu...")