dealfront_enrichment.py aktualisiert

This commit is contained in:
2025-07-03 20:02:22 +00:00
parent 844424d036
commit 625de084aa

View File

@@ -152,20 +152,23 @@ class DealfrontScraper:
def extract_current_page_results(self):
"""
Extrahiert die Firmennamen und Webseiten von der aktuellen Ergebnisseite
unter Verwendung der verifizierten CSS-Selektoren.
unter Verwendung der verifizierten HTML-Struktur.
"""
try:
logger.info("Extrahiere Ergebnisse von der aktuellen Seite...")
results = []
# 1. Finde alle Zeilen der Tabelle. Ein `tr` mit einer ID ist ein sehr guter Anker.
rows_selector = (By.CSS_SELECTOR, "tbody > tr[id]")
# 1. Finde alle Zeilen der Tabelle.
# Jede Zeile ist ein `<tr>`-Element mit einer ID innerhalb des `<tbody>`.
rows_selector = (By.CSS_SELECTOR, "table#t-result-table tbody > tr[id]")
# Wir warten explizit, bis mindestens eine Zeile geladen ist.
self.wait.until(EC.presence_of_all_elements_located(rows_selector))
self.wait.until(EC.presence_of_element_located(rows_selector))
time.sleep(2) # Kurze zusätzliche Pause, um sicherzustellen, dass JS die Tabelle vollständig rendert.
rows = self.driver.find_elements(*rows_selector)
if not rows:
logger.warning("Keine Ergebniszeilen auf der Seite gefunden, obwohl darauf gewartet wurde.")
logger.warning("Keine Ergebniszeilen (tr[id]) auf der Seite gefunden.")
self._save_debug_artifacts()
return []
@@ -176,15 +179,16 @@ class DealfrontScraper:
company_name = ""
website = ""
try:
# Firmenname extrahieren
# Selektor: .sticky-column a.t-highlight-text
company_name_selector = (By.CSS_SELECTOR, ".sticky-column a.t-highlight-text")
# Firmenname extrahieren:
# Wir suchen nach dem Link innerhalb der Zelle mit der CSS-Klasse 'sticky-after-checkbox'
company_name_selector = (By.CSS_SELECTOR, "td.sticky-after-checkbox a.t-highlight-text")
company_name_element = row.find_element(*company_name_selector)
company_name = company_name_element.text.strip()
# Webseite extrahieren
# Selektor: td a.text-gray-400.t-highlight-text
# Wir suchen nach der dritten Tabellenzelle (td) und dann dem Link darin
# Webseite extrahieren:
# Wir suchen nach dem Link in der Zelle, die direkt auf die 'countryCode'-Zelle folgt.
# Dies ist eine Annahme basierend auf der Spaltenreihenfolge. Eine bessere Methode wäre, die Spalten dynamisch zuzuordnen.
# Fürs Erste probieren wir es mit der Spaltenposition (dritte td).
website_selector = (By.CSS_SELECTOR, "td:nth-of-type(3) a")
website_element = row.find_element(*website_selector)
website = website_element.text.strip()
@@ -196,8 +200,6 @@ class DealfrontScraper:
except NoSuchElementException:
logger.warning(f"Zeile {i+1}: Ein erwartetes Element (Name oder Webseite) wurde nicht gefunden. Überspringe diese Zeile.")
# Optional: HTML der problematischen Zeile ausgeben für tiefere Analyse
# logger.debug(f"HTML der fehlerhaften Zeile: {row.get_attribute('outerHTML')}")
continue
logger.info(f"{len(results)} Firmen erfolgreich extrahiert.")