dealfront_enrichment.py aktualisiert

This commit is contained in:
2025-07-03 20:35:37 +00:00
parent b815d8cc7d
commit dc481c1786

View File

@@ -25,6 +25,11 @@ class DealfrontScraper:
def __init__(self): def __init__(self):
logger.info("Initialisiere DealfrontScraper und Chrome WebDriver.") logger.info("Initialisiere DealfrontScraper und Chrome WebDriver.")
chrome_options = ChromeOptions() chrome_options = ChromeOptions()
# NEU: Lade-Optimierungen
prefs = {"profile.managed_default_content_settings.images": 2}
chrome_options.add_experimental_option("prefs", prefs)
chrome_options.add_argument("--headless") chrome_options.add_argument("--headless")
chrome_options.add_argument("--no-sandbox") chrome_options.add_argument("--no-sandbox")
chrome_options.add_argument("--disable-dev-shm-usage") chrome_options.add_argument("--disable-dev-shm-usage")
@@ -41,8 +46,8 @@ class DealfrontScraper:
self.driver = None self.driver = None
raise raise
self.wait = WebDriverWait(self.driver, 30) # Timeout auf 30s erhöht für mehr Stabilität self.wait = WebDriverWait(self.driver, 30)
logger.info("WebDriver erfolgreich initialisiert.") logger.info("WebDriver erfolgreich initialisiert (Bild-Laden deaktiviert).")
def _load_credentials(self): def _load_credentials(self):
# (Diese Methode bleibt unverändert) # (Diese Methode bleibt unverändert)
@@ -81,50 +86,33 @@ class DealfrontScraper:
def login_and_navigate_to_target(self): def login_and_navigate_to_target(self):
""" """
Führt den Login durch und navigiert zur Target-URL. Führt Login durch und navigiert direkt zur Target-URL.
Dieser kombinierte Ansatz wartet nach jeder Aktion explizit auf den Erfolg.
""" """
if not self.driver: if not self.driver: return False
return False
username, password = self._load_credentials() username, password = self._load_credentials()
if not username or not password: if not username or not password: return False
return False
try: try:
# --- SCHRITT 1: LOGIN-SEITE LADEN --- # SCHRITT 1: LOGIN
logger.info(f"Navigiere zur Login-Seite: {DEALFRONT_LOGIN_URL}") logger.info(f"Navigiere zur Login-Seite: {DEALFRONT_LOGIN_URL}")
self.driver.get(DEALFRONT_LOGIN_URL) self.driver.get(DEALFRONT_LOGIN_URL)
# --- SCHRITT 2: DATEN EINGEBEN UND KLICKEN --- self.wait.until(EC.visibility_of_element_located((By.NAME, "email"))).send_keys(username)
logger.info("Warte auf Login-Formular und fülle es aus...") self.driver.find_element(By.CSS_SELECTOR, "input[type='password']").send_keys(password)
email_field = self.wait.until(EC.visibility_of_element_located((By.CSS_SELECTOR, "input[name='email']"))) self.driver.find_element(By.XPATH, "//button[normalize-space()='Log in']").click()
email_field.send_keys(username) logger.info("Login-Befehl gesendet.")
password_field = self.driver.find_element(By.CSS_SELECTOR, "input[type='password']")
password_field.send_keys(password)
login_button = self.driver.find_element(By.XPATH, "//button[normalize-space()='Log in']")
login_button.click()
logger.info("Login-Button geklickt.")
# --- SCHRITT 3: AUF ERFOLGREICHEN LOGIN WARTEN (Dashboard) --- # SCHRITT 2: DIREKTE NAVIGATION (robuster als auf Dashboard zu warten)
logger.info("Warte auf Dashboard nach dem Login...") # Eine kurze, feste Pause nach dem Klick, bevor wir die URL wechseln.
verification_dashboard_selector = (By.XPATH, "//input[@data-cy='header-search-input']") time.sleep(3)
self.wait.until(EC.visibility_of_element_located(verification_dashboard_selector))
logger.info("Dashboard erfolgreich erreicht.")
time.sleep(2) # Eine kleine Pause, damit alle Hintergrund-Skripte laden können.
# --- SCHRITT 4: DIREKTE NAVIGATION ZUR TARGET-URL ---
logger.info(f"Navigiere direkt zur Target-URL: {Config.DEALFRONT_TARGET_URL}") logger.info(f"Navigiere direkt zur Target-URL: {Config.DEALFRONT_TARGET_URL}")
self.driver.get(Config.DEALFRONT_TARGET_URL) self.driver.get(Config.DEALFRONT_TARGET_URL)
# --- SCHRITT 5: ERFOLG DER NAVIGATION VERIFIZIEREN --- # SCHRITT 3: NAVIGATION VERIFIZIEREN
logger.info("Warte auf Bestätigung der Target-Seite...") verification_selector = (By.XPATH, "//button[normalize-space()='+ Neue Suche']")
verification_target_selector = (By.XPATH, "//button[normalize-space()='+ Neue Suche']") self.wait.until(EC.visibility_of_element_located(verification_selector))
self.wait.until(EC.visibility_of_element_located(verification_target_selector)) logger.info("'Target'-Seite erfolgreich geladen.")
logger.info("'Target'-Seite erfolgreich und vollständig geladen.")
return True return True
except Exception as e: except Exception as e:
logger.critical(f"Login- oder Navigationsprozess fehlgeschlagen: {type(e).__name__}", exc_info=True) logger.critical(f"Login- oder Navigationsprozess fehlgeschlagen: {type(e).__name__}", exc_info=True)
self._save_debug_artifacts() self._save_debug_artifacts()
@@ -157,13 +145,9 @@ class DealfrontScraper:
logger.info("Extrahiere Ergebnisse von der aktuellen Seite...") logger.info("Extrahiere Ergebnisse von der aktuellen Seite...")
results = [] results = []
# 1. Finde alle Zeilen der Tabelle.
# Jede Zeile ist ein `<tr>`-Element mit einer einzigartigen ID.
rows_selector = (By.CSS_SELECTOR, "table#t-result-table tbody > tr[id]") rows_selector = (By.CSS_SELECTOR, "table#t-result-table tbody > tr[id]")
# Wir warten explizit, bis mindestens eine Zeile geladen ist.
self.wait.until(EC.presence_of_element_located(rows_selector)) self.wait.until(EC.presence_of_element_located(rows_selector))
time.sleep(3) # Kurze zusätzliche Pause, um sicherzustellen, dass JS die Tabelle vollständig rendert. time.sleep(3)
rows = self.driver.find_elements(*rows_selector) rows = self.driver.find_elements(*rows_selector)
if not rows: if not rows:
@@ -173,36 +157,28 @@ class DealfrontScraper:
logger.info(f"{len(rows)} Ergebniszeilen zur Verarbeitung gefunden.") logger.info(f"{len(rows)} Ergebniszeilen zur Verarbeitung gefunden.")
# 2. Iteriere durch jede Zeile und extrahiere die Daten.
for i, row in enumerate(rows): for i, row in enumerate(rows):
company_name = "" company_name, website = "", ""
website = ""
try: try:
# --- KORRIGIERTER FIRMENNAMEN-SELEKTOR --- # --- IHR SELEKTOR FÜR FIRMENNAMEN ---
company_name_selector = (By.CSS_SELECTOR, ".sticky-column a.t-highlight-text") company_name_element = row.find_element(By.CSS_SELECTOR, ".sticky-column a.t-highlight-text")
company_name_element = row.find_element(*company_name_selector)
# Wir holen uns das 'title'-Attribut, da der Text abgeschnitten sein könnte.
company_name = company_name_element.get_attribute("title").strip() company_name = company_name_element.get_attribute("title").strip()
# --- KORRIGIERTER WEBSEITEN-SELEKTOR --- # --- IHR SELEKTOR FÜR WEBSITES ---
website_selector = (By.CSS_SELECTOR, "a.text-gray-400.t-highlight-text") website_element = row.find_element(By.CSS_SELECTOR, "a.text-gray-400.t-highlight-text")
website_element = row.find_element(*website_selector)
website = website_element.text.strip() website = website_element.text.strip()
if company_name and website: if company_name and website:
results.append({'name': company_name, 'website': website}) results.append({'name': company_name, 'website': website})
else:
logger.warning(f"Zeile {i+1}: Unvollständige Daten (Name: '{company_name}', Webseite: '{website}').")
except NoSuchElementException: except NoSuchElementException:
logger.warning(f"Zeile {i+1}: Ein erwartetes Element (Name oder Webseite) wurde nicht gefunden. Überspringe diese Zeile.") logger.warning(f"Zeile {i+1}: Name oder Webseite nicht gefunden. Überspringe.")
continue continue
logger.info(f"{len(results)} Firmen erfolgreich extrahiert.") logger.info(f"{len(results)} Firmen erfolgreich extrahiert.")
return results return results
except Exception as e: except Exception as e:
logger.error(f"Ein schwerwiegender Fehler ist bei der Extraktion der Ergebnisse aufgetreten: {type(e).__name__}", exc_info=True) logger.error(f"Schwerwiegender Fehler bei der Extraktion: {type(e).__name__}", exc_info=True)
self._save_debug_artifacts() self._save_debug_artifacts()
return [] return []