@saviodev777

eu estou usando a versão 7 do php, e o sunra\PhpSimple\HtmlDomParser não funciona, tem que usar o KubAT\PhpSimple\HtmlDomParser  para o php 7
https://github.com/Kub-AT/php-simple-html-dom-parser

@romulodeoliveiraazevedo

Amigo, como faço para colher o link quando ele encontra-se no elemento "< a" com o atributo href="....."? poderia disponibilizar o vídeo 5 com a paginação?

@Mercio2

Valeu!

@rafaeldias8671

É importante notar que ao decorrer desse desenvolvimento pode ocorrer alguns erros e eu vou descrever o mais comum. É que ao contrário da situação de uma conexão HTTPS através de um navegador, uma solicitação CURL não obtém o certificado do servidor. Para resolver esses erros o programador terá que baixar o certificado ( cacert.pem ) manualmente no link ( https://curl.haxx.se/ca/cacert.pem ) e criar uma pasta qualquer no lugar de sua preferência e no php.ini o programador terá que adicionar uma nova linha ( curl.cainfo = "pastaescolhida\cacert.pem"). Isso só serve se ocorrer algum erro.

@joaocerqueira3805

Poderiam disponibilizar codigo fonte?

@portaldonegocioonline8796

Gostaria de saber como fazer para que a página que irei capturar os dados carregue toda a informação, visto que existem informações que somente são carregadas se abrir a URL e rolar a mesma. Fiz o programa para buscar os dados das divs porém, só carrega alguns dados, visto que quando abro a página inicialmente a informação não está toda carregada. Gostaria de saber se é possível que a página requisitada force o scrool até o fim para que seja possível coletar todos os dados.

@soliveiraiago

Bom dia, e se eu tivesse que efetuar um login antes de extrair os dados da página? Poderia tirar essa dúvida?

@nokiu22

Salve um arquivo [composer.json] com o conteúdo abaixo e então rode >> composer install <<


{
    "require": {
        "guzzlehttp/guzzle": "^6.3",
        "kub-at/php-simple-html-dom-parser": "^1.9"
    }
}