Har du tillgång till ett Unix-operativsystem kan du kopiera en hel hemsida med wget-kommandot:
- Kod: Markera allt
wget -r http://example.com/
Detta laddar ned hela domänen example.com. r-flaggan står för 'recursive', och betyder att alla undersidor också hämtas.
Vissa sidor gillar inte att man gör såhär. De kan t.ex. ha en inställning som inte tillåter automatiska verktyg som wget att komma åt innehållet. Då kan man luras att man är en webbläsare med U-flaggan:
- Kod: Markera allt
wget -r -U Mozilla http://example.com/
Det kan även finnas begränsningar på hur många sidor som serveras inom en viss tid. Då kan man lägga till en väntetid (här 10 sekunder) mellan varje sidoförfrågan:
- Kod: Markera allt
wget -r -U Mozilla --wait=10 http://example.com/
Resultatet sparas i en mapp med samma namn som domänen. I mappen ligger en index.html-fil, vilken kan öppnas i valfri webbläsare. Sidan bör se ut precis mer eller mindre som den gör online, men beroende på hur mycket externa JavaScript-beroenden som finns kan den eventuellt se lite konstig ut.