Всем привет! 

Хочу поделиться своим опытом программирования с помощью чат GTP. У меня была коммерческая задача - нужно было собрать контактную информация с сайта yelp.com по выборке рестораны и бары. Это была часть процесса лидогенерации. Парсер должен был состоять из двух частей: Первый — собрать URL-адреса всех компаний, которые появляются в результатах поиска. 

Затем он просматривает каждую страницу и собирает данные, как название компании, веб-сайт, описание, адрес, контактную информацию и вертикаль.

Скажу сразу, я не разработчик, писать парсеры и скреперы не умею. Прошла базовый курс JavaScript, но честно говоря, мой 12-летний сын, знает об этом больше, чем я :) 

Просить помощи программистов было сложно, нужно было быстро, а вы сами знаете, какие у них очереди в разработке. Поэтому в большинстве случаев я прибегаю к старому доброму ручному “copy - paste”. 

Но сейчас я решила попробовать что-то новое. Я посмотрела кучу видеороликов на YouTube о парсинге веб-страниц и по рекомендации решила попробовать двух поставщиков готовых платформенных решений:

Начну со второго, так как с ним у меня не получилось закончить проект.

Вооружившись чатом GPT, даже немного его обучив (я предоставила документацию серсисов) и объяснив каждый шаг парсера, я взялась за работу. 

С первого взгляда (не профессионального) мне показалось все просто. Типа прописываешь команды, запускается браузер и скрепер делает свою работу. Но я застрала на шаге перехода от сбора ссылкок при определенном запросе (типа все рестораны в Лондоне) к шагу захода на кажду ссылку и сбор определенных параметров страницы. В общем, я отложила Selenium и решила попробовать второй вариант. 

Bright Data IDE с первого мне показался очень сложным, так как там нужно было реально писать код на Java Script. Но это и оказалось преимуществом. Можно было использовать готовые куски кода и Chat GPT помог его написать. В этом отношение Bright Data дает определенную гибкость и вариативность. Но при этом все находится внутри самой платформы и результаты парсинга можно получить в прямом смысле по электронной почты (если у вас нет настроенных серверов, как не было у меня).

Ок, переходим к результатам. Возможно, вы ожидаете, что я крикну: «Вуаля!» Но не так просто... Я сделала рабочий парсер и собрала нужные мне страницы. НО! По факту задание было очень легкое. Если бы сложнее, я бы не совладала с ИИ.

Наверное основная проблема была в том, что мне приходись постоянно удерживать его в рамках документации и команд используемыми Bright Data. Он постоянно уходил в сторону и начинал использовать какие-то левые команды, по факту нужна тонкая настройка и заточенность под конкретную платформу.

Итак, ваши мысли? Как вы думаете, этот подход может сработать при более качественном исполнение или ИИ не сможет заменить реальных программистов? 

Комментарии (1)


  1. DonStron
    26.06.2023 09:58
    +17

    Примерно так выглядит пост, когда очень хочется разместить статью на ресурсе поваров:

    Короче, захотел поесть, была конкретная задача поесть. По сути готовка делится на два этапа, собрать продукты в холодильнике и приготовить их.

    В общем, жена была на работе и я не хотел её отвлекать.Решил попробовать что-то новое. Пересмотрел кучу роликов на ютюбе и выяснил, что даже школьницы на уроке труда готовят лучше, чем я.

    По рекомендации решил попробовать два варианта готовки в готовых платформенных решениях: сковорода и кастрюля.

    Попросил ChatGPT помочь приготовить. С первого взгляда, обращаться со сковородкой вроде бы не сложно, но я застрял на шаге разбивания яиц об край. В общем отложил сковородку в сторону.

    С кастрюлей было попроще. В этом отношении она дает определенную гибкость и вариативность. Но яичница в кастрюле тоже не получилась.

    Итак, ваши мысли? Как вы думаете, этот подход может сработать при более качественном исполнение или ИИ не сможет заменить реальных поваров?