Validierung Wiki URLs von ChatGPT

This commit is contained in:
2025-07-18 12:32:52 +00:00
parent c471b48186
commit b127e2f440

View File

@@ -1501,50 +1501,42 @@ def scrape_website_details(url):
return f"k.A. (Fehler: {str(e)[:100]}...)" return f"k.A. (Fehler: {str(e)[:100]}...)"
def is_valid_wikipedia_article_url(url_to_check, lang=None): def is_valid_wikipedia_article_url(url):
""" """
Prueft, ob eine gegebene URL zu einem gueltigen, existierenden Wikipedia-Artikel fuehrt. Prüft, ob eine Wikipedia-URL auf einen tatsächlich existierenden Artikel verweist.
Erkennt "red links" (nicht existierende Seiten), die trotzdem Status 200 zurückgeben.
""" """
logger = logging.getLogger(__name__) logger = logging.getLogger(__name__)
if not url_to_check or not isinstance(url_to_check, str) or "wikipedia.org/wiki/" not in url_to_check.lower(): if not url or not "wikipedia.org/wiki/" in url.lower():
logger.debug(f"is_valid_wikipedia_article_url: Ungueltige URL-Struktur: {url_to_check[:100]}...")
return False return False
original_lang = None headers = {"User-Agent": random.choice(USER_AGENTS)}
if lang:
try:
original_lang = wikipedia.get_lang()
wikipedia.set_lang(lang)
logger.debug(f"Temporaer Wikipedia-Sprache auf '{lang}' gesetzt für Validierung.")
except Exception as e_lang:
logger.warning(f"Konnte Wikipedia-Sprache nicht auf '{lang}' setzen für Validierung: {e_lang}")
is_valid = False
try: try:
title_part = url_to_check.split('/wiki/', 1)[1].split('#')[0] # GET-Request ist nötig, um Weiterleitungen zu folgen
title = unquote(title_part).replace('_', ' ') response = requests.get(url, timeout=7, allow_redirects=True, headers=headers)
logger.debug(f"Validiere Wikipedia-Artikel: '{title[:100]}...' (URL: {url_to_check[:100]}...)")
page = wikipedia.page(title, auto_suggest=False, preload=True) # 1. Primär-Check: Prüfe die finale URL auf den 'redlink=1' Parameter
is_valid = True if 'action=edit&redlink=1' in response.url:
logger.debug(f" -> Artikel '{title[:100]}...' scheint valide zu sein (Seite geladen).") logger.warning(f"URL-Check fehlgeschlagen (redlink=1): {url[:100]}")
except wikipedia.exceptions.PageError: return False
logger.debug(f" -> Seite '{title[:100]}...' nicht gefunden (PageError).")
is_valid = False # 2. Sekundär-Check: Prüfe auf Status-Code und typische "Seite existiert nicht"-Texte
except wikipedia.exceptions.DisambiguationError: if response.status_code == 200:
logger.debug(f" -> Seite '{title[:100]}...' ist eine Begriffsklaerungsseite.") content_lower = response.text.lower()
is_valid = False # Deutsche und englische Phrasen für nicht-existente Seiten
except Exception as e: if "diese seite existiert nicht" in content_lower or "wikipedia does not have an article with this exact name" in content_lower:
logger.error(f" -> Unerwarteter Fehler bei Validierung von '{title[:100]}...': {type(e).__name__} - {e}") logger.warning(f"URL-Check fehlgeschlagen (Text 'Seite existiert nicht' gefunden): {url[:100]}")
logger.debug(traceback.format_exc()) return False
is_valid = False
finally: logger.debug(f"URL-Check erfolgreich (200 OK, kein Redlink): {url[:100]}")
if original_lang: return True
try: else:
wikipedia.set_lang(original_lang) logger.warning(f"URL-Check fehlgeschlagen (Status {response.status_code}): {url[:100]}")
logger.debug(f"Wikipedia-Sprache zurueck auf '{original_lang}' gesetzt.") return False
except Exception as e_lang_reset:
logger.warning(f"Konnte Wikipedia-Sprache nicht zurueck auf '{original_lang}' setzen: {e_lang_reset}") except requests.exceptions.RequestException as e:
return is_valid logger.warning(f"URL-Check fehlgeschlagen (Request-Fehler): {url[:100]} - {e}")
return False
# ============================================================================== # ==============================================================================
# 12. ALIGNMENT DEMO UTILITY # 12. ALIGNMENT DEMO UTILITY