tel durchsuchen

Recent Posts

Mittwoch, 15. Dezember 2021

SCREAMING FROGE SEO SPIDER 2021 V16.1

SCREAMING.FROGE.SEO.SPIDER.2021.V16.1-TEL

 
SCREAMING | 2021 | EXE | RAR | 566 MB | WINDOWS

Der branchenführende Website-Crawler für Windows, macOS und Ubuntu, dem Tausende von SEOs und Agenturen weltweit für technische SEO-Site-Audits vertrauen.



Der Screaming Frog SEO Spider ist ein Website-Crawler, der Ihnen hilft, die Onsite-SEO zu verbessern, indem er Daten extrahiert und auf allgemeine SEO-Probleme prüft. Laden Sie herunter und crawlen Sie 500 URLs kostenlos, oder kaufen Sie eine Lizenz, um das Limit zu entfernen und auf erweiterte Funktionen zuzugreifen.

Was können Sie mit dem SEO Spider Tool tun?

Der SEO Spider ist ein leistungsstarker und flexibler Website-Crawler, der sowohl kleine als auch sehr große Websites effizient crawlen kann und es Ihnen gleichzeitig ermöglicht, die Ergebnisse in Echtzeit zu analysieren. Es sammelt wichtige Onsite-Daten, damit SEOs fundierte Entscheidungen treffen können.

Defekte Links finden

Crawlen Sie eine Website sofort und finden Sie defekte Links (404s) und Serverfehler. Exportieren Sie die Fehler und die Quell-URLs in großen Mengen, um sie zu beheben oder an einen Entwickler zu senden.

Umleitungen prüfen

Finden Sie temporäre und permanente Weiterleitungen, identifizieren Sie Weiterleitungsketten und -schleifen oder laden Sie eine Liste von URLs hoch, um sie bei einer Website-Migration zu prüfen.

Analysieren von Seitentiteln und Metadaten

Analysieren Sie Seitentitel und Meta-Beschreibungen während eines Crawls und identifizieren Sie zu lange, zu kurze, fehlende oder doppelte Seitentitel auf Ihrer Website.

Entdecken Sie doppelte Inhalte


Erkennen Sie exakte doppelte URLs mit einem md5-Algorithmus, teilweise doppelte Elemente wie Seitentitel, Beschreibungen oder Überschriften und finden Sie Seiten mit geringem Inhalt.

Daten mit XPath extrahieren

Erfassen Sie beliebige Daten aus dem HTML-Code einer Webseite mit CSS Path, XPath oder Regex. Dazu können soziale Meta-Tags, zusätzliche Überschriften, Preise, SKUs und vieles mehr gehören!

Überprüfung von Robots & Direktiven

Zeigen Sie URLs an, die durch robots.txt, Meta-Robots oder X-Robots-Tag-Direktiven wie 'noindex' oder 'nofollow' blockiert sind, sowie Kanoniken und rel="next" und rel="prev".

Erzeugen von XML-Sitemaps


Erstellen Sie schnell XML-Sitemaps und Image-XML-Sitemaps, mit erweiterter Konfiguration über einzuschließende URLs, letzte Änderung, Priorität und Änderungshäufigkeit.

Integrieren mit GA, GSC & PSI

Stellen Sie eine Verbindung zu den APIs von Google Analytics, Search Console und PageSpeed Insights her und holen Sie Nutzer- und Leistungsdaten für alle URLs in einem Crawl ab, um einen besseren Einblick zu erhalten.

JavaScript-Webseiten crawlen

Rendern Sie Webseiten mit dem integrierten Chromium WRS, um dynamische, JavaScript-reiche Websites und Frameworks wie Angular, React und Vue.js zu crawlen.

Site-Architektur visualisieren

Bewerten Sie die interne Verlinkung und die URL-Struktur mithilfe von interaktiven Crawl- und verzeichnisgesteuerten Diagrammen und Baumdiagramm-Site-Visualisierungen.

Audits planen

Planen Sie Crawls in bestimmten Intervallen und exportieren Sie Crawl-Daten automatisch an einen beliebigen Ort, einschließlich Google Sheets. Oder automatisieren Sie vollständig über die Befehlszeile.

Crawls & Staging vergleichen

Verfolgen Sie den Fortschritt von SEO-Problemen und -Chancen und sehen Sie, was sich zwischen Crawls geändert hat. Vergleichen Sie Staging- und Produktionsumgebungen mithilfe des erweiterten URL-Mappings.

BETRIEBSSYSTEM:

WINDOWS

.TEL\VERLASSEN

0 Kommentare:

Kommentar veröffentlichen