В новой записи я вам покажу PHP библиотеку для парсинга (скрапинга) сайтов. С помощью данной библиотеки вы сможете забирать любую информацию со стороннего сайта, переходить по ссылкам, автоматически отправлять формы.

Подключение библиотеки Goutte и создание запроса на сайт

В качестве примера я буду использовать свой сайт. В самом начале нужно сделать запрос на главную страницу, далее мы будем забирать с неё элементы, поэтому код ниже будет использоваться в каждом запросе, просто я его не буду дублировать.

/* подключаем файлы полученные через Composer */
require __DIR__ . "/vendor/autoload.php";
use Goutte\Client;
use Symfony\Component\HttpClient\HttpClient;
/* создаём объект и делаем запрос на сайт Prog-Time */
$client = new Client();
$crawler = $client->request('GET', 'https://prog-time.ru/');

Получение текстовой информации с помощью Goutte

Используя метод filter вы можете указать селектор для выборки элементов. Так как на данной странице используется несколько элементов с классом home_heading_post мы будем использовать метод each.

$crawler->filter('.bottom_list_last_posts .home_link_post .home_heading_post')->each(function ($node) {
    var_dump($node->text());
});

Получение атрибута href ссылки

$crawler->filter('.bottom_list_last_posts .home_link_post')->each(function ($node) {
    var_dump($node->attr("href"));
});

Получение атрибута src изображения

$crawler->filter('.bottom_list_last_posts .home_link_post img')->each(function ($node) {
    var_dump($node->attr("src"));
});

Фильтрация выборки (выборка элементов через один)

Используйте метод reduce для указания функции для фильтрации выборки. В моём примере указана функция которая задаёт порядок «через 1» и «каждый десятый элемент».

$newListLinks = $crawler
    ->filter('.home_link_post .home_heading_post')
    ->reduce(function ($node, $i) {
	return ($i % 2) == 0;
	// return ($i % 10) == 0;
    })
    ->each(function ($node) {
	var_dump($node->text());
    });

Получение элемента указанного порядка

С помощью метода eq вы можете указать номер элемента. Нумерация идёт с 0, поэтому в моём примере и мы получим 4 элемент с классом «home_heading_post».

$itemPost = $crawler->filter('.home_link_post .home_heading_post')->eq(3);
var_dump($itemPost->text());

Получение первого и последнего элемента

first() — возвращаем первый элемент.
last() — возвращает последний элемент.

$firstItem = $crawler->filter('.home_link_post .home_heading_post')->first();
$lastItem = $crawler->filter('.home_link_post .home_heading_post')->last();
var_dump(lastItem->text());

Получение соседнего элемента на уровне в дереве DOM

siblings() — возвращает соседние элементы в дереве DOM.

siblingsItem->text());

Получение ссылки по тексту и нажатие на ссылку

С помощью метода selectLink() получаем ссылку, в качестве параметра передадим текст внутри ссылки.

С помощью метода link() переходим по ссылке и получаем новую страницу.

С помощью метода getUri() получаем URI ссылки.

$linkPost = $crawler->selectLink('Парсинг на PHP с формированием данных в Excel');
$link = $linkPost->link();
vardump($link);
uri);

Получение объекта изображения

$imagesPost = $crawler->selectImage('Парсинг на PHP с формированием данных в Excel');
$image = $imagesPost->image();
var_dump($image);

Получение дочерних элементов

$childrenItems = $crawler->filter('.header_post_list')->children();
vardump($childrenItems);

Отправка формы с помощью Goutte

/* получаем страницу с формой */
$crawler = $client->request('GET', 'https://prog-time.ru/test_form.php');
/* находим кнопку для отправки формы */
$form = $crawler->selectButton('Отправить')->form();
/* передаём параметры формы и отправляем запрос */
form, [
'name' => 'Илья',
'phone' => '+7(999)999-99-99',
]);

Комментарии (2)


  1. ionicman
    06.04.2022 10:36
    +1

    Если сайт простой, то все делается элементарно с помощью CURL и XPath/Regexp (что в разы мощнее того, что предлагается в статье) — и данная библиотека не нужна вообще.

    Если сайт сложный, имеет защиту или собирается динамически через JS и т.д. — то все делается через headless browser-ы, и тоже самое — данная библиотека не нужна вообще.


    1. Prog-Time Автор
      06.04.2022 12:48
      -3

      Я знаю что можно работать с CURL и XPath/Regexp и что это в разы лучше!
      Но если обратишь внимание на заголовок, то тут не написано "Лучшие способы парсинга", тут речь идёт конкретно про эту библиотеку и спорить что лучше или хуже в данной записи не совсем уместно.

      Но я принял твои рекомендации, спасибо!