S: Aus vielen html Files einen Link graph / Abhängigkeitsdiagramm erstellen
Viper780 18.05.2025 - 13:57 1042 18
Longbow
Here to stay
|
„Ja eh“ worauf ich hinaus wollte: Wenn er bei /home anfängt und dann immer weiter crawlt auf link basis (<a href=„/foo“> clickme…), bleiben die natürlich ignoriert Was du dir eher (coden ^^) erprompten solltest wäre eben der graph + eine liste an besuchten filehandles. in schritt 2 gehst du dann nochmal das dir durch und gibst alle files aus die negativ/positiv egal wie herum, aber vom crawler nicht besucht worden sind. Spannend wirds natürlich wenn du auch einen bidirektionalen Graph möchtest für die backlinks
Bearbeitet von Longbow am 19.05.2025, 17:58
|
Viper780
ElderEr ist tot, Jim!
|
Mir ist schon klar dass ein crawler das nicht kann. Im Grunde auch nicht tragisch, da es ein rascher Vergleich zweier Listen ist (wäre das Encoding nicht kaputt!) Also genau dein Vorschlag. Backlinks wären auch cool aber das können nicht viele sein und kann ich dann händisch angehen. Mal schauen wie ob es ein 300€ Problem ist oder nicht
|
Tosca
Here to stay
|
Der screaming frog kann das schon, du musst nur statt Spider-Modus List-Modus nehmen und ihm eine textdatei mit allen URLs geben.
|
Viper780
ElderEr ist tot, Jim!
|
Danke, den hab ich nicht gesehen, ein Problem für morgen.
|