diff --git a/dealfront_enrichment.py b/dealfront_enrichment.py index f7ce861e..eb307671 100644 --- a/dealfront_enrichment.py +++ b/dealfront_enrichment.py @@ -116,43 +116,35 @@ class DealfrontScraper: return False def extract_current_page_results(self): - """ - Extrahiert Daten mit einem schnellen, direkten Ansatz, der Geister-Zeilen ignoriert. - """ try: - logger.info("Extrahiere Ergebnisse mit dem finalen, direkten Selektor-Ansatz...") + logger.info("Extrahiere Ergebnisse zeilenweise...") results = [] - - # 1. Warten, bis die erste Daten-Zelle (Firmenname) sichtbar ist. - # Das ist unser einziger Wartepunkt und bestÃĪtigt, dass die Daten geladen sind. - first_company_link_selector = (By.CSS_SELECTOR, "td.sticky-column a.t-highlight-text") - self.wait.until(EC.visibility_of_element_located(first_company_link_selector)) - - # 2. Finde ALLE Firmen-Links und ALLE Website-Links auf der Seite auf einmal. - # Das ist extrem schnell, da es nur zwei Suchbefehle an den Browser sind. - company_elements = self.driver.find_elements(By.CSS_SELECTOR, "td.sticky-column a.t-highlight-text") - website_elements = self.driver.find_elements(By.CSS_SELECTOR, "a.text-gray-400.t-highlight-text") + # Warte auf das Laden der Tabelle + table_rows = self.driver.find_elements(By.CSS_SELECTOR, "table#t-result-table tbody tr[id]") + logger.info(f"{len(table_rows)} Tabellenzeilen gefunden.") - logger.info(f"{len(company_elements)} Firmennamen und {len(website_elements)} Webseiten-Elemente gefunden.") + for row in table_rows: + # Firmenname extrahieren + try: + company_elem = row.find_element(By.CSS_SELECTOR, "td.sticky-column a.t-highlight-text") + company_name = company_elem.get_attribute("title").strip() + except NoSuchElementException: + company_name = "N/A" - # 3. Ordne die Ergebnisse anhand ihrer Reihenfolge im DOM zu. - if not company_elements: - logger.warning("Keine Firmen mit dem angegebenen Selektor gefunden.") - self._save_debug_artifacts() - return [] + # Webseite extrahieren (kann fehlen) + try: + website_elem = row.find_element(By.CSS_SELECTOR, "a.text-gray-400.t-highlight-text") + website = website_elem.text.strip() + except NoSuchElementException: + website = "N/A" - for i in range(len(company_elements)): - company_name = company_elements[i].get_attribute("title").strip() - # Wir ordnen die Webseite anhand des Indexes zu. - # Wenn es weniger Webseiten als Firmen gibt, fangen wir das ab. - website = website_elements[i].text.strip() if i < len(website_elements) else "N/A" results.append({'name': company_name, 'website': website}) - + logger.info(f"Extraktion abgeschlossen. {len(results)} Firmen verarbeitet.") return results - + except Exception as e: - logger.error(f"Schwerwiegender Fehler bei der Extraktion: {type(e).__name__}", exc_info=True) + logger.error(f"Fehler bei der zeilenweisen Extraktion: {type(e).__name__}", exc_info=True) self._save_debug_artifacts() return []