This commit is contained in:
2025-04-09 08:26:50 +00:00
parent 66a9b82d79
commit ee96102424

View File

@@ -1157,10 +1157,10 @@ class DataProcessor:
self._process_single_row(i, row) self._process_single_row(i, row)
rows_processed += 1 rows_processed += 1
def _process_single_row(self, row_num, row_data, process_wiki=True, process_chatgpt=True): def _process_single_row(self, row_num, row_data, process_wiki=True, process_chatgpt=True):
# Hole den Firmennamen aus Spalte B # Hole den Firmennamen aus Spalte B (Index 1)
company_name = row_data[1] if len(row_data) > 1 else "" company_name = row_data[1] if len(row_data) > 1 else ""
# Hole die CRM-Website (Spalte D). Wenn diese leer ist, führe den SERP-API Lookup durch. # Hole die CRM-Website aus Spalte D (Index 3). Falls keine Website vorhanden, führe den SERP-API Lookup durch.
website_url = row_data[3] if len(row_data) > 3 else "" website_url = row_data[3] if len(row_data) > 3 else ""
if website_url.strip() == "" or website_url.strip().lower() == "k.a.": if website_url.strip() == "" or website_url.strip().lower() == "k.a.":
new_website = serp_website_lookup(company_name) new_website = serp_website_lookup(company_name)
@@ -1174,7 +1174,7 @@ def _process_single_row(self, row_num, row_data, process_wiki=True, process_chat
else: else:
debug_print(f"Zeile {row_num}: Keine Website gefunden für {company_name}.") debug_print(f"Zeile {row_num}: Keine Website gefunden für {company_name}.")
# Unabhängig vom process_wiki-Flag: Führe Website-Scraping durch, sofern eine Website vorliegt # Unabhängig vom process_wiki-Flag: Führe Website-Scraping durch, sofern eine Website vorliegt.
website_raw = "k.A." website_raw = "k.A."
website_summary = "k.A." website_summary = "k.A."
if website_url.strip() != "" and website_url.strip().lower() != "k.a.": if website_url.strip() != "" and website_url.strip().lower() != "k.a.":
@@ -1183,7 +1183,7 @@ if website_url.strip() != "" and website_url.strip().lower() != "k.a.":
# Erstelle eine Zusammenfassung des Website-Contents # Erstelle eine Zusammenfassung des Website-Contents
website_summary = summarize_website_content(website_raw) website_summary = summarize_website_content(website_raw)
# Debug: Ausgabe der Länge und eines Ausschnitts des Rohtexts # Debug-Ausgabe: Ausgabe der Länge und eines Ausschnitts des gescrapten Textes
debug_print(f"Zeile {row_num}: Gescrappter Website-Rohtext Länge: {len(website_raw)}; erster Ausschnitt: {website_raw[:100]}") debug_print(f"Zeile {row_num}: Gescrappter Website-Rohtext Länge: {len(website_raw)}; erster Ausschnitt: {website_raw[:100]}")
debug_print(f"Zeile {row_num}: Website-Zusammenfassung: {website_summary}") debug_print(f"Zeile {row_num}: Website-Zusammenfassung: {website_summary}")
@@ -1205,7 +1205,6 @@ if website_url.strip() != "" and website_url.strip().lower() != "k.a.":
else: else:
debug_print(f"Zeile {row_num}: Kein gültiger Website-URL vorhanden, Website-Scraping wird übersprungen.") debug_print(f"Zeile {row_num}: Kein gültiger Website-URL vorhanden, Website-Scraping wird übersprungen.")
# Weiterer Verarbeitungsteil: Wikipedia-Verarbeitung (falls process_wiki True) # Weiterer Verarbeitungsteil: Wikipedia-Verarbeitung (falls process_wiki True)
wiki_update_range = f"L{row_num}:R{row_num}" wiki_update_range = f"L{row_num}:R{row_num}"
dt_wiki_range = f"AN{row_num}" dt_wiki_range = f"AN{row_num}"
@@ -1297,6 +1296,7 @@ else:
time.sleep(Config.RETRY_DELAY) time.sleep(Config.RETRY_DELAY)
# ==================== ALIGNMENT DEMO FÜR HAUPTBLATT UND CONTACTS ==================== # ==================== ALIGNMENT DEMO FÜR HAUPTBLATT UND CONTACTS ====================
def alignment_demo_full(): def alignment_demo_full():
alignment_demo(GoogleSheetHandler().sheet) alignment_demo(GoogleSheetHandler().sheet)