dealfront_enrichment.py aktualisiert
This commit is contained in:
@@ -236,62 +236,62 @@ class DealfrontScraper:
|
|||||||
return False
|
return False
|
||||||
|
|
||||||
def extract_current_page_results(self):
|
def extract_current_page_results(self):
|
||||||
"""
|
"""
|
||||||
Extrahiert Firmennamen und Webseiten direkt von der Seite
|
Extrahiert Firmennamen und Webseiten direkt von der Seite
|
||||||
mithilfe der verifizierten, präzisen CSS-Selektoren.
|
mithilfe der verifizierten, präzisen CSS-Selektoren.
|
||||||
"""
|
"""
|
||||||
try:
|
try:
|
||||||
logger.info("Extrahiere Ergebnisse von der aktuellen Seite...")
|
logger.info("Extrahiere Ergebnisse von der aktuellen Seite...")
|
||||||
results = []
|
results = []
|
||||||
|
|
||||||
# Warten, bis das erste Element, das wir suchen (ein Firmenname), vorhanden ist.
|
# Warten, bis das erste Element, das wir suchen (ein Firmenname), vorhanden ist.
|
||||||
# Das ist ein stabiler Indikator, dass die Liste geladen ist.
|
# Das ist ein stabiler Indikator, dass die Liste geladen ist.
|
||||||
company_name_selector = ".sticky-column a.t-highlight-text"
|
company_name_selector = ".sticky-column a.t-highlight-text"
|
||||||
logger.info(f"Warte auf das erste Firmenelement mit Selektor: '{company_name_selector}'")
|
logger.info(f"Warte auf das erste Firmenelement mit Selektor: '{company_name_selector}'")
|
||||||
self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, company_name_selector)))
|
self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, company_name_selector)))
|
||||||
|
|
||||||
# Kurze, feste Pause, damit alle Elemente vollständig gerendert werden können.
|
# Kurze, feste Pause, damit alle Elemente vollständig gerendert werden können.
|
||||||
time.sleep(3)
|
time.sleep(3)
|
||||||
|
|
||||||
# === DIREKTE EXTRAKTION ALLER ELEMENTE MIT IHREN SELEKTOREN ===
|
# === DIREKTE EXTRAKTION ALLER ELEMENTE MIT IHREN SELEKTOREN ===
|
||||||
company_elements = self.driver.find_elements(By.CSS_SELECTOR, company_name_selector)
|
company_elements = self.driver.find_elements(By.CSS_SELECTOR, company_name_selector)
|
||||||
website_elements = self.driver.find_elements(By.CSS_SELECTOR, "a.text-gray-400.t-highlight-text")
|
website_elements = self.driver.find_elements(By.CSS_SELECTOR, "a.text-gray-400.t-highlight-text")
|
||||||
|
|
||||||
logger.info(f"{len(company_elements)} Firmennamen und {len(website_elements)} Webseiten-Elemente gefunden.")
|
logger.info(f"{len(company_elements)} Firmennamen und {len(website_elements)} Webseiten-Elemente gefunden.")
|
||||||
|
|
||||||
if not company_elements:
|
if not company_elements:
|
||||||
logger.warning("Keine Firmen mit dem angegebenen Selektor gefunden. Speichere Debug-Artefakte.")
|
logger.warning("Keine Firmen mit dem angegebenen Selektor gefunden. Speichere Debug-Artefakte.")
|
||||||
|
self._save_debug_artifacts()
|
||||||
|
return []
|
||||||
|
|
||||||
|
# Wir iterieren über die gefundenen Firmen-Elemente
|
||||||
|
for i, company_element in enumerate(company_elements):
|
||||||
|
try:
|
||||||
|
# Firmenname aus dem 'title'-Attribut extrahieren (verhindert abgeschnittenen Text)
|
||||||
|
company_name = company_element.get_attribute("title").strip()
|
||||||
|
|
||||||
|
# Zugehörige Webseite finden, indem wir von der Zeile (tr) des Firmen-Elements ausgehen
|
||||||
|
row = company_element.find_element(By.XPATH, "./ancestor::tr")
|
||||||
|
website_element = row.find_element(By.CSS_SELECTOR, "a.text-gray-400.t-highlight-text")
|
||||||
|
website = website_element.text.strip()
|
||||||
|
|
||||||
|
if company_name and website:
|
||||||
|
results.append({'name': company_name, 'website': website})
|
||||||
|
else:
|
||||||
|
logger.warning(f"Zeile {i+1}: Unvollständige Daten (Name: '{company_name}', Webseite: '{website}').")
|
||||||
|
|
||||||
|
except NoSuchElementException:
|
||||||
|
logger.warning(f"Zeile {i+1}: Konnte Webseite für Firma '{company_name}' nicht finden. Überspringe.")
|
||||||
|
continue
|
||||||
|
|
||||||
|
logger.info(f"Extraktion abgeschlossen. {len(results)} Firmen erfolgreich zugeordnet.")
|
||||||
|
return results
|
||||||
|
|
||||||
|
except Exception as e:
|
||||||
|
logger.error(f"Ein schwerwiegender Fehler ist bei der Extraktion der Ergebnisse aufgetreten: {type(e).__name__}", exc_info=True)
|
||||||
self._save_debug_artifacts()
|
self._save_debug_artifacts()
|
||||||
return []
|
return []
|
||||||
|
|
||||||
# Wir iterieren über die gefundenen Firmen-Elemente
|
|
||||||
for i, company_element in enumerate(company_elements):
|
|
||||||
try:
|
|
||||||
# Firmenname aus dem 'title'-Attribut extrahieren (verhindert abgeschnittenen Text)
|
|
||||||
company_name = company_element.get_attribute("title").strip()
|
|
||||||
|
|
||||||
# Zugehörige Webseite finden, indem wir von der Zeile (tr) des Firmen-Elements ausgehen
|
|
||||||
row = company_element.find_element(By.XPATH, "./ancestor::tr")
|
|
||||||
website_element = row.find_element(By.CSS_SELECTOR, "a.text-gray-400.t-highlight-text")
|
|
||||||
website = website_element.text.strip()
|
|
||||||
|
|
||||||
if company_name and website:
|
|
||||||
results.append({'name': company_name, 'website': website})
|
|
||||||
else:
|
|
||||||
logger.warning(f"Zeile {i+1}: Unvollständige Daten (Name: '{company_name}', Webseite: '{website}').")
|
|
||||||
|
|
||||||
except NoSuchElementException:
|
|
||||||
logger.warning(f"Zeile {i+1}: Konnte Webseite für Firma '{company_name}' nicht finden. Überspringe.")
|
|
||||||
continue
|
|
||||||
|
|
||||||
logger.info(f"Extraktion abgeschlossen. {len(results)} Firmen erfolgreich zugeordnet.")
|
|
||||||
return results
|
|
||||||
|
|
||||||
except Exception as e:
|
|
||||||
logger.error(f"Ein schwerwiegender Fehler ist bei der Extraktion der Ergebnisse aufgetreten: {type(e).__name__}", exc_info=True)
|
|
||||||
self._save_debug_artifacts()
|
|
||||||
return []
|
|
||||||
|
|
||||||
def close(self):
|
def close(self):
|
||||||
if self.driver:
|
if self.driver:
|
||||||
logger.info("Schließe den WebDriver.")
|
logger.info("Schließe den WebDriver.")
|
||||||
|
|||||||
Reference in New Issue
Block a user