Como fazer download de um site inteiro para uso off-line Existem algumas maneiras diferentes de baixar um site inteiro para uso offline. O melhor método para você dependerá do tamanho do site, do tipo de conteúdo que ele contém e de seu conhecimento técnico.
1. Use uma extensão do navegador Existem várias extensões de navegador que podem ser usadas para baixar sites inteiros. Algumas das extensões mais populares incluem:
- [
WebCopy ](https://webcopy.io/)
- [
HTTrack ](https://www.httrack.com/)
- [
SiteSucker ](https://www.sitesucker.com/)
- [
Teletransporte Pro ](https://www.teleportpro.com/)
Essas extensões funcionam rastreando recursivamente um site e baixando todo o seu conteúdo, incluindo texto, imagens, vídeos e scripts. Assim que o download for concluído, você poderá navegar no site offline usando seu navegador.
2. Use um downloader de site dedicado Existem também vários downloaders de sites dedicados que você pode usar para baixar sites inteiros. Alguns dos downloaders de sites mais populares incluem:
- [
Explorador off-line ](https://www.offexp.com/)
- [
WebCopier ](https://www.webcopier.com/)
- [
WinHTTrack ](http://www.httrack.com/page/2/)
- [
WSGet ](http://www.wsget.com/)
Esses downloaders de sites geralmente oferecem mais recursos do que extensões de navegador, como a capacidade de baixar arquivos específicos, definir limites de download e agendar downloads.
3. Use um arquivo em lote Se você se sentir confortável em usar a linha de comando, também poderá usar um arquivo em lote para baixar um site inteiro. Um arquivo em lote é um arquivo de texto simples que contém uma série de comandos. Você pode criar um arquivo em lote para baixar um site usando as seguintes etapas:
1. Abra um editor de texto.
2. Digite os seguintes comandos:
```
cd C:\Usuários\SeuNomedeUsuário\Downloads
inicie "IE" "http://www.example.com"
taskkill /IM iexplore.exe
iniciar cmd.exe
cd "C:\Usuários\Seunome de usuário\Downloads\www.example.com"
wget -r -np -nd -e robôs=off http://www.example.com
```
3. Salve o arquivo como ``download-website.bat``.
4. Clique duas vezes no arquivo em lote para iniciar o download.
Este arquivo em lote abrirá o Internet Explorer e navegará até o URL especificado. Em seguida, ele encerrará o processo do Internet Explorer e abrirá uma janela de prompt de comando. O arquivo em lote será então alterado para o diretório de download e usará o comando wget para baixar o site recursivamente.
4. Use um script Python Se você estiver familiarizado com Python, também poderá usar um script Python para baixar um site inteiro. Existem várias bibliotecas Python que podem ser usadas para essa finalidade, como:
- [
solicitações ](https://requests.readthedocs.io/en/master/)
- [
belasopa4 ](https://beautiful-soup-4.readthedocs.io/en/latest/)
- [
wget ](https://packages.python.org/wget/)
Você pode criar um script Python para baixar um site usando as seguintes etapas:
1. Abra um editor de texto.
2. Digite o seguinte código:
```píton
solicitações de importação
importar bs4
importar wget
def download_website(url):
resposta =solicitações.get(url)
sopa =bs4.BeautifulSoup(response.text, "html.parser")
para link em sopa.find_all('a'):
href =link.get('href')
se href e href.startswith('http'):
wget.download(href)
se __nome__ =='__principal__':
url ='http://www.example.com'
download_site(url)
```
3. Salve o arquivo como ``download-website.py``.
4. Execute o script usando o seguinte comando:
```
site de download python.py
```
Este script Python usará a biblioteca de solicitações para buscar o HTML do URL especificado. Em seguida, ele usará a biblioteca BeautifulSoup para analisar o HTML e extrair todos os links. Em seguida, ele usará a biblioteca wget para baixar cada link.
5. Use um serviço de terceiros Existem também vários serviços de terceiros que podem ser usados para baixar sites inteiros. Esses serviços normalmente cobram uma taxa, mas oferecem uma maneira fácil e conveniente de baixar sites. Alguns dos serviços de terceiros mais populares incluem:
- [
Arquivo da Internet ](https://archive.org/)
- [
WebCite ](https://webcite.org/)
- [
Congelador de páginas ](https://pagefreezer.com/)
Esses serviços normalmente funcionam rastreando um site e capturando todo o seu conteúdo