Website nach URL auslesen

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Website nach URL auslesen

    Huhu,

    ist es möglich eine Komplette Website - nicht nur index.php beispielsweise, sondern auch alle Verzeichnise etc - nach einer Url zu durchsuchen und die Anzahl dann anzeigen zu lassen?
    Oder wie oft eine Url auf der kompletten Website verwendet wurde?
    Alles natürlich nicht auf meiner eigenen, sondern auf einer anderen.

    MFG Qcon
  • de facto: nein.
    Du kannst per HTTP nur Anfragen auf bestimmte Dateien machen, dir aber nicht ein Verzeichnis listen lassen, solange sich eine default-datei (index.*, home.*,...) darin befindet. Es muss auch vom Webserver eingestellt sein, dass, wenn sich keine default-datei in einem Verzeichnis befindet, er als Antwort eine Auflistung der Dateien des Ordners zurücksendet. Wenn nicht, bekommst du einfach einen 403 Forbidden Request Fehl sper. Eine Möglichkeit wäre, (aber eher unwahrscheinlich), dass wenn die Webpräsend einen Annonymus FTP-Zugang anbietet und dieser nicht zu weit "gechrootet" ist, also das Wurzelverzeichnis mit dem Verzeichnis domain.tld/ übereinstimmt, einfach auf die Ordner nurgreifen könntest. Aber ich habe bisher noch nicht so einen (sicherheitsunbewussten) Administrator gesehen, der so etwas zuließe.
    Anders sieht es aus, wenn du zum Beispiel eine komplette Site speichern willst. Da gibt es Tools wie HTTrack, die jedem Verweis einer Seite folgen. Beispielsweise:
    domain.tld/index.html
    -->verweis1.html
    -->verweis2.html
    -->keinverweis.html
    So würde HTTrack den beiden links von der index.html auf verweis1.html und verweis2.html folgen und die seiten ebenfalls speichern. Und wäre auf diesen Seiten wieder weitere Links, die noch zur Domain gehören, würden diese auch gespeichert. Und so geht es immer weiter, bis alle _verlinkten_ Seiten gespeichert wurden.
    Allerdings werden Seiten, die auf keiner anderen Seite verlinkt werden auch nicht gespeichert, da man nicht über deren Existens herausfinden kann.
    Open Source --> Programmieren aus Leidenschaft :!:

    Ich stehe weder für privaten Support per PM noch über einen IM zur Verfügung. Danke.
  • Huhu Toter Mann,

    das mit den HTTrack trifft es schon sehr gut. Ich kann ja auch mal meine Absicht verraten um es deutlicher zu machen: es gibt da so ein Weihnachtsgewinnspiel, wo man alle Tannenbäume zählen muss, die es auf der Seite gibt. Und da es ein Shop ist, gibt es ca. Fünftausend Seiten, wo sich so ein Weihnachtsbaum befinden könnte ;)
  • Die Marketing Idee find ich Klasse!

    Was hältst du von der Idee: Firefox Add on, das die komplette Seite inklusive aller Unterverzeichnisse runterlädt (gibts glaube ich, mir fällt nur der Name nicht mehr ein) - dann z.B. Weaverslave öffnen - Erweiterte Suche - kompletten Ordner durchsuchen nach ichhabgewonnen.de

    Viel Glück;)

    ah hab was: WinHTTrack chip.de/downloads/c_downloads_10534482.html

    Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von student2312 ()

  • Ich habs nun so gemacht: Die Komplette Seite runtergeladen und durchsucht mit irgendson Desktop-Search. Nur 2 Ergebnisse für die Weihnachtsbaum Datei bekommen. Das Blöde war, die haben z.b. beim Artikel 2000 den Weihnachtsbaum zum Produktbild hinzugefügt - sah dann so aus: /images/produkte/2000_1.jpg das war dann der Weihnachtsbaum. Beim Artikel 3000 z.b. wars dann 3000_1. Aber auch easy, einfach in den Ordner gegangen und per Hand gezählt :P