AdamP
20.05.04, 15:41
Hallo!
So sieht es aus:
Ich habe an unserer Universität einen Account, der allerdings durch eine quota beschränkt wird (~15mb).
Entweder kann ich die PCs in der Uni benutzen oder mich mittels ssh einloggen (RedHat 9 ist installiert).
Mein Problem:
Es gibt eine Webseite, die ich mittels "wget" speichern will, damit ich mir sie auch offline anschauen kann.
Diese Seite ist aber nur von authorisierten Rechnern, oder Unis aus NRW zugänglich.
Leider ist die gesamte Seite zu groß, um sie lokal auf meinem Uni-Account zu speichern (>30mb)
Hat jemand vielleicht eine Idee?
Wenn ich mich per ssh an dem Uni-Server einlogge und dort wget starte, wird es ja auf dem Uniserver gespeichert.
Kann ich es irgendwie "umbiegen", dass wget auf dem Uni-Server ausgeführt, aber die Dateien, bei mir auf dem Rechner zuhause gespeichert werden?
Oder ist es möglich, eine 100mb RamDisk anzulegen, die Seite dort zu speichern und anschließend mit "scp" auf meinem Privatrechner zu speichern?
Bin für jede Hilfe dankbar!
So sieht es aus:
Ich habe an unserer Universität einen Account, der allerdings durch eine quota beschränkt wird (~15mb).
Entweder kann ich die PCs in der Uni benutzen oder mich mittels ssh einloggen (RedHat 9 ist installiert).
Mein Problem:
Es gibt eine Webseite, die ich mittels "wget" speichern will, damit ich mir sie auch offline anschauen kann.
Diese Seite ist aber nur von authorisierten Rechnern, oder Unis aus NRW zugänglich.
Leider ist die gesamte Seite zu groß, um sie lokal auf meinem Uni-Account zu speichern (>30mb)
Hat jemand vielleicht eine Idee?
Wenn ich mich per ssh an dem Uni-Server einlogge und dort wget starte, wird es ja auf dem Uniserver gespeichert.
Kann ich es irgendwie "umbiegen", dass wget auf dem Uni-Server ausgeführt, aber die Dateien, bei mir auf dem Rechner zuhause gespeichert werden?
Oder ist es möglich, eine 100mb RamDisk anzulegen, die Seite dort zu speichern und anschließend mit "scp" auf meinem Privatrechner zu speichern?
Bin für jede Hilfe dankbar!