From 9aba6bbcb2aceb8ed12b6600a76073840eebcdcd Mon Sep 17 00:00:00 2001 From: Floke Date: Tue, 8 Jul 2025 09:23:20 +0000 Subject: [PATCH] bugfix --- dealfront_enrichment.py | 55 +++++++++++++++++++---------------------- 1 file changed, 25 insertions(+), 30 deletions(-) diff --git a/dealfront_enrichment.py b/dealfront_enrichment.py index 1e13f5e1..e0694c3d 100644 --- a/dealfront_enrichment.py +++ b/dealfront_enrichment.py @@ -228,48 +228,43 @@ class DealfrontScraper: def extract_current_page_results(self): """ - Extrahiert Firmennamen und Webseiten direkt von der Seite - mithilfe der präzisen, von Ihnen verifizierten CSS-Selektoren. + Extrahiert die Firmennamen und Webseiten. Wenn keine Zeilen gefunden werden, + wird der komplette Seitenquelltext für die Analyse gespeichert. """ try: - logger.info("Extrahiere Ergebnisse mit direkten CSS-Selektoren...") + logger.info("Extrahiere Ergebnisse von der aktuellen Seite...") results = [] - # Warten, bis das erste Element, das wir suchen, vorhanden ist. - # Das ist ein guter Indikator, dass die Liste geladen ist. - company_name_selector = ".sticky-column a.t-highlight-text" - self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, company_name_selector))) - time.sleep(3) # Kurze Pause, um sicherzustellen, dass alle Elemente gerendert sind. + # Warten, bis ein stabiles Element der Seite geladen ist, z.B. die Tabellenüberschrift. + header_selector = (By.XPATH, "//th[normalize-space()='Firma']") + self.wait.until(EC.visibility_of_element_located(header_selector)) + logger.info("Tabellen-Header gefunden. Warte kurz, damit die Datenzeilen rendern können...") + time.sleep(5) # Großzügige Wartezeit für das Rendern der Daten - # === DIREKTE EXTRAKTION MIT IHREN SELEKTOREN === - company_elements = self.driver.find_elements(By.CSS_SELECTOR, company_name_selector) - website_elements = self.driver.find_elements(By.CSS_SELECTOR, "a.text-gray-400.t-highlight-text") + # Wir versuchen es erneut mit dem präzisesten Selektor für die Zeilen. + rows_selector = (By.CSS_SELECTOR, "table#t-result-table tbody tr[id]") + rows = self.driver.find_elements(*rows_selector) - logger.info(f"{len(company_elements)} Firmennamen und {len(website_elements)} Webseiten-Elemente gefunden.") - - # Wir gehen davon aus, dass die Anzahl der Elemente übereinstimmt und iterieren - # über die kürzere der beiden Listen, um Fehler zu vermeiden. - num_results = min(len(company_elements), len(website_elements)) - if num_results == 0: - logger.warning("Keine Firmen oder Webseiten mit den angegebenen Selektoren gefunden.") + if not rows: + logger.warning("Keine Ergebniszeilen (tr[id]) gefunden. Speichere den kompletten Seiten-Quelltext für die Analyse.") + # RUFE DIE DEBUG-FUNKTION AUF, UM DEN FEHLER ZU FINDEN self._save_debug_artifacts() + logger.warning("HTML-Dump wurde erstellt. Breche die Extraktion ab.") return [] - for i in range(num_results): + logger.info(f"{len(rows)} Firmen-Datenzeilen zur Verarbeitung gefunden.") + + # (Der Rest der Extraktionslogik bleibt wie zuvor) + for i, row in enumerate(rows, 1): try: - company_name = company_elements[i].get_attribute("title").strip() - website = website_elements[i].text.strip() - - if company_name and website: - results.append({'name': company_name, 'website': website}) - else: - logger.warning(f"Element {i+1}: Unvollständige Daten.") - - except Exception as e: - logger.warning(f"Fehler bei der Verarbeitung von Element {i+1}: {e}") + company_name = row.find_element(By.CSS_SELECTOR, ".sticky-column a.t-highlight-text").get_attribute("title").strip() + website = row.find_element(By.CSS_SELECTOR, "a.text-gray-400.t-highlight-text").text.strip() + results.append({'name': company_name, 'website': website}) + except NoSuchElementException: + logger.warning(f"Zeile {i}: Konnte Name oder Webseite nicht extrahieren. Überspringe.") continue - logger.info(f"Extraktion abgeschlossen. {len(results)} Firmen erfolgreich zugeordnet.") + logger.info(f"Extraktion abgeschlossen. {len(results)} Firmen gefunden.") return results except Exception as e: