В новой записи я вам покажу PHP библиотеку для парсинга (скрапинга) сайтов. С помощью данной библиотеки вы сможете забирать любую информацию со стороннего сайта, переходить по ссылкам, автоматически отправлять формы.
Подключение библиотеки Goutte и создание запроса на сайт
В качестве примера я буду использовать свой сайт. В самом начале нужно сделать запрос на главную страницу, далее мы будем забирать с неё элементы, поэтому код ниже будет использоваться в каждом запросе, просто я его не буду дублировать.
/* подключаем файлы полученные через Composer */
require __DIR__ . "/vendor/autoload.php";
use Goutte\Client;
use Symfony\Component\HttpClient\HttpClient;
/* создаём объект и делаем запрос на сайт Prog-Time */
$client = new Client();
$crawler = $client->request('GET', 'https://prog-time.ru/');
Получение текстовой информации с помощью Goutte
Используя метод filter вы можете указать селектор для выборки элементов. Так как на данной странице используется несколько элементов с классом home_heading_post мы будем использовать метод each.
$crawler->filter('.bottom_list_last_posts .home_link_post .home_heading_post')->each(function ($node) {
var_dump($node->text());
});
Получение атрибута href ссылки
$crawler->filter('.bottom_list_last_posts .home_link_post')->each(function ($node) {
var_dump($node->attr("href"));
});
Получение атрибута src изображения
$crawler->filter('.bottom_list_last_posts .home_link_post img')->each(function ($node) {
var_dump($node->attr("src"));
});
Фильтрация выборки (выборка элементов через один)
Используйте метод reduce для указания функции для фильтрации выборки. В моём примере указана функция которая задаёт порядок «через 1» и «каждый десятый элемент».
$newListLinks = $crawler
->filter('.home_link_post .home_heading_post')
->reduce(function ($node, $i) {
return ($i % 2) == 0;
// return ($i % 10) == 0;
})
->each(function ($node) {
var_dump($node->text());
});
Получение элемента указанного порядка
С помощью метода eq вы можете указать номер элемента. Нумерация идёт с 0, поэтому в моём примере и мы получим 4 элемент с классом «home_heading_post».
$itemPost = $crawler->filter('.home_link_post .home_heading_post')->eq(3);
var_dump($itemPost->text());
Получение первого и последнего элемента
first() — возвращаем первый элемент.
last() — возвращает последний элемент.
$firstItem = $crawler->filter('.home_link_post .home_heading_post')->first();
$lastItem = $crawler->filter('.home_link_post .home_heading_post')->last();
var_dump(lastItem->text());
Получение соседнего элемента на уровне в дереве DOM
siblings() — возвращает соседние элементы в дереве DOM.
siblingsItem->text());
Получение ссылки по тексту и нажатие на ссылку
С помощью метода selectLink() получаем ссылку, в качестве параметра передадим текст внутри ссылки.
С помощью метода link() переходим по ссылке и получаем новую страницу.
С помощью метода getUri() получаем URI ссылки.
$linkPost = $crawler->selectLink('Парсинг на PHP с формированием данных в Excel');
$link = $linkPost->link();
vardump($link);
uri);
Получение объекта изображения
$imagesPost = $crawler->selectImage('Парсинг на PHP с формированием данных в Excel');
$image = $imagesPost->image();
var_dump($image);
Получение дочерних элементов
$childrenItems = $crawler->filter('.header_post_list')->children();
vardump($childrenItems);
Отправка формы с помощью Goutte
/* получаем страницу с формой */
$crawler = $client->request('GET', 'https://prog-time.ru/test_form.php');
/* находим кнопку для отправки формы */
$form = $crawler->selectButton('Отправить')->form();
/* передаём параметры формы и отправляем запрос */
form, [
'name' => 'Илья',
'phone' => '+7(999)999-99-99',
]);
ionicman
Если сайт простой, то все делается элементарно с помощью CURL и XPath/Regexp (что в разы мощнее того, что предлагается в статье) — и данная библиотека не нужна вообще.
Если сайт сложный, имеет защиту или собирается динамически через JS и т.д. — то все делается через headless browser-ы, и тоже самое — данная библиотека не нужна вообще.
Prog-Time Автор
Я знаю что можно работать с CURL и XPath/Regexp и что это в разы лучше!
Но если обратишь внимание на заголовок, то тут не написано "Лучшие способы парсинга", тут речь идёт конкретно про эту библиотеку и спорить что лучше или хуже в данной записи не совсем уместно.
Но я принял твои рекомендации, спасибо!