Zeige Ergebnis 1 bis 6 von 6
  1. #1
    hybrid
    Gast
    Hi, ich wollte mir http://www.hardforum.com/showthread.php?t=802808 und auch die folgenden (dazugehoerigen Seiten 2, 3, ..., x) lokal Spiegeln. Ich hab mir man wget durchgeguckt und nach 'wget examples' gegoogelt und lese mir also Seite um Seite durch, aber so wirklich krieg ichs einfach nicht raus. Der mirrort immer alles Moegliche noch mit und blah, ich bin gerade nervlich am Ende. Kann mir wer helfen?

    Weil mit 'wget -m -c -p -r -np -l 0 -k URL' scheint der immernoch in die hoehergelegenen Ebenen zu gelangen (trotz -np), trotz -l 0 zieht der bis zu einer Tiefe von schieszmichtot und ueberhaupt, ich bin gerade einfach nur am Ende. Kann ganz schoen anstrengend sein.

    edit: Falls es wem hilft, wie aus dem ersten Post im obigen Thread geschrieben, ist der Thread auf http://www.thebestcasescenario.com/p...oom3log_1.html und den folgenden Seiten gemirrort (nunja, nicht ganz, die Seitenaufteilung ist eine vollkommen andere). Die Bilder liegen auch auf http://www.thebestcasescenario.com, insofern, falls es einem hilft.
    Wen dieser Absatz nur verwirrt hat, bitte diesen vergessen und den ersten nochmal lesen.

    Sry, aber das Teil (wget) ist so komplex und in mehreren Stunden hab ich es noch immer nicht geschafft, das Teil zu baendigen.


  2. #2
    1337 gamestar-kiddie
    Gast
    Eine direkte lösung hätte ich zwar nicht, aber vielleicht hilft es wenn du die urls mit einer schleife übergibst, etwa so:

    x=1;
    while test $x -le 17; do
    wget http://www.thebestcasescenario.com/p...om3log_$x.html
    x=`expr $x + 1`;
    done


    €: ich glaub ich hab falsch gelesen

  3. #3
    hybrid
    Gast
    Nunja, eigtl ging es mir darum, dass er mir entweder nur die Seite ohne Bilder (auf die kommts mir ja hauptsaechlich an), oder das gesamte Forum (scheint so als wenn er alles ziehen will, dass sich in dem php3-script finden laesst). Aber auch dann ohne Bilder glaube ich, ich habe das aber nicht weiter getestet.

  4. #4
    edgewalker
    Gast
    Vergiss einfach nur die Rekursion. wget -p $url

    Original erstellt von Gronau
    x=`expr $x + 1`;
    let x=x+1

    Ausserdem kannst du den ganzen Kram viel einfacher schreiben

    seq 1 17 | while read i ; do
    wget http://www.thebestcasescenario.com/projects/doom3/doomlog/doom3log_$i.html
    done


    Damit vermeidest du auch "Eins-Daneben-Fehler" durch falsche Wahl des Vergleichsoperators in der Bedingung.

  5. #5
    hybrid
    Gast
    Klappt nicht, das Problem liegt darin, dass wget die Seite nicht vollstaendig runterlaedt. Auch nur mit -p. Entweder zieht er nur eine 404-Seite, oder er zieht die Seite, aber ohne Bilder. Daher hatte ich mit -r und -l 2 usw rumgespielt, aber alles ohne Erfolg. Wie auch immer ich das versuche, ich krieg die Seite(n) nicht vollstaendig auf meinen Rechner.
    Ich glaub ich bin wget vorerst leid und seh mir mal curl an, vielleicht stellt sich das ja geschickter an. Auch wenn ich immernoch hoffe, dass einer von euch mir zeigt, dass ich mich nur geschickter anstellen musz.

    Danke schonmal fuer die Hilfe soweit.

  6. #6
    edgewalker
    Gast
    curl hat mit Rekursion überhaupt garnichts am Hut.

    Vielleicht hast du mit w3mir mehr Glück.

Forumregeln

  • Es ist dir nicht erlaubt, neue Themen zu verfassen.
  • Es ist dir nicht erlaubt, auf Beiträge zu antworten.
  • Es ist dir nicht erlaubt, Anhänge hochzuladen.
  • Es ist dir nicht erlaubt, deine Beiträge zu bearbeiten.
  •