Решили на днях поучаствовать в одном Хакатоне, который мы, конечно же, не выиграем. И одной из задач было создание датасета из социальной сети Вконтакте. Долго не думая, я сказал товарищам по команде, что беру эту часть на себя. Но оказалось все не так просто. Хочу поделиться с Вами какие проблемы встретились и как я их по ходу решал.
Задача
Нужно пройтись по 650 000 000 пользователям ВК и вытащить только тех, кто живет в Москве. Затем отдельно обработать уже полученные айдишники.
Решение
Ну чтож задача понятна, нужно ее как-то решать. Писать код будем на языке Python и сразу подумал, что на своем компе это обрабатывать не стоит, а будем использовать мощности Google Colab. Ссылка на полный код проекта гугл колаб будет в конце.
Вк апи
Чтобы получить данные пользователя есть два путя:
Парсить веб-страницу пользователя и вытаскивать нужную информацию
Использовать vk api и обрабатывать json
Оба вариант имеют свои подводные камни. В первом варианте слишком много лишней информации, что замедляет в разы обработку. Во втором варианте проблема в токенах и ограничениях. Я все-таки решил пойти вторым путем.
Токены
Главная и первая проблема в ограничениях вк апи: 5 запросов в секунду для одного токена.
'error': {'errorcode': 6, 'errormsg': 'Too many requests per second'}
Для того чтобы обойти это ограничение, нам понадобится много токенов. Есть три варианта как их получить:
Ручками регистрировать новых пользователей и получать токен
Купить токены
Сгенерировать токены с помощью библиотеки vk (pip install vk)
В итоге я сгенерировал 1000 токенов, используя библиотеку. Не буду тут выкладывать код генерации токенов (это и так толстая подсказка), если все-таки не догадаетесь, то напишите в личку скину скрипт.
Сохраняем токены в txt файл, каждый токен с новой строчки.
Время говнокодить
Когда файл с токенами получен, можем приступать к коду. Загружаем в гугл колаб файл.
Считываем файл tokens.txt и добавляем токены в лист:
list_token=[]
with open('tokens.txt', 'r') as f:
for line in f:
list_token.append(str(line).rstrip('\n'))
len(list_token)
Сделать 650 000 000 запросов быстро без асинхронности мы никак не сможем. Я перепробовал много разных библиотек и максимальную скорость мне удалось выбить, используя библиотеку aiohttp.
Устанавливаем библиотеки для асинхронных запросов:
!pip install asyncio
!pip install aiohttp
!pip install nest_asyncio
А вот и сам сборщик:
import asyncio
from aiohttp import ClientSession
import json
import nest_asyncio
nest_asyncio.apply()
# Доступ к гугл диск
from google.colab import drive
drive.mount('/content/gdrive')
list_data=[]
async def bound_fetch_zero(sem,id,session):
async with sem:
await fetch_zero(id,session)
async def fetch_zero(id, session):
url = build_url(id)
try:
async with session.get(url) as response:
# Считываем json
resp=await response.text()
js=json.loads(resp)
list_users=[x for x in js['response'] if x != False]
# Проверяем если город=1(Москва) тогда добавляем в лист
for it in list_users:
try:
if it[0]['city']['id']==1:
list_data.append(it[0]['id'])
except Exception:
pass
except Exception as ex:
print(f'Error: {js}')
# Генерация url к апи вк, 25 запросов в одном
def build_url(id):
api = 'API.users.get({{\'user_ids\':{},\'fields\':\'city\'}})'.format(
id * 25 + 1)
for i in range(2, 26):
api += ',API.users.get({{\'user_ids\':{},\'fields\':\'city\'}})'.format(
id * 25 + i)
url = 'https://api.vk.com/method/execute?access_token={}&v=5.101&code=return%20[{}];'.format(
list_token[id%len(list_token)], api)
return url
async def run_zero(id):
tasks = []
sem = asyncio.Semaphore(1000)
async with ClientSession() as session:
# Значение 3200 зависит от вашего числа токенов
for id in range((id - 1) * 3200, id * 3200):
task = asyncio.ensure_future(bound_fetch_zero(sem,id, session))
tasks.append(task)
responses = asyncio.gather(*tasks)
await responses
del responses
await session.close()
# Запускаем сборщик
for i in range(0,17):
for id in range(i*500+1,(i+1)*500+1):
print(id)
loop = asyncio.new_event_loop()
asyncio.set_event_loop(loop)
loop.run_until_complete(run_zero(id))
# Сохраняем айдишники в файл на гугл диске и очищаем лист
with open(f'/content/gdrive/My Drive/data_main{i}.txt', 'w') as f:
for item in list_data:
f.write(f'{item}\n')
print(len(list_data))
list_data.clear()
Разберем по блокам, чтобы было понятнее что тут происходит.
Начнем с метода def build_url(id)
У вк апи есть фича execute, которая позволяет делать 25 запросов в одном
Execute - универсальный метод, который позволяет запускать последовательность других методов, сохраняя и фильтруя промежуточные результаты
# Генерация url к апи вк, 25 запросов в одном
def build_url(id):
api = 'API.users.get({{\'user_ids\':{},\'fields\':\'city\'}})'.format(
id * 25 + 1)
for i in range(2, 26):
api += ',API.users.get({{\'user_ids\':{},\'fields\':\'city\'}})'.format(
id * 25 + i)
url = 'https://api.vk.com/method/execute?access_token={}&v=5.101&code=return%20[{}];'.format(
list_token[id%len(list_token)], api)
return url
Вот так выглядит итоговый запрос:
Если вам нужно вызывать другие методы вк апи, то просто замените 'API.users.get({{\'user_ids\':{},\'fields\':\'city\'}})' на нужный метод и данные.
Вот такой json мы получаем при вызове всего одно запроса:
{"response":[[{"first_name":"Павел","id":1,"last_name":"Дуров","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Александра","id":2,"last_name":"Владимирова","can_access_closed":false,"is_closed":true}],[{"first_name":"DELETED","id":3,"last_name":"","deactivated":"deleted"}],[{"first_name":"DELETED","id":4,"last_name":"","deactivated":"deleted"}],[{"first_name":"Илья","id":5,"last_name":"Перекопский","can_access_closed":true,"is_closed":false,"city":{"id":1,"title":"Москва"}}],[{"first_name":"Николай","id":6,"last_name":"Дуров","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Алексей","id":7,"last_name":"Кобылянский","can_access_closed":true,"is_closed":false,"city":{"id":295,"title":"London"}}],[{"first_name":"Аки","id":8,"last_name":"Сепиашвили","can_access_closed":true,"is_closed":false,"city":{"id":314,"title":"Киев"}}],[{"first_name":"Настя","id":9,"last_name":"Васильева","can_access_closed":false,"is_closed":true,"city":{"id":8162,"title":"Лобня"}}],[{"first_name":"Александр","id":10,"last_name":"Кузнецов","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Михаил","id":11,"last_name":"Петров","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"DELETED","id":12,"last_name":"","deactivated":"deleted"}],[{"first_name":"DELETED","id":13,"last_name":"","deactivated":"deleted"}],[{"first_name":"Андрей","id":14,"last_name":"Городецкий","can_access_closed":true,"is_closed":false,"city":{"id":295,"title":"London"}}],[{"first_name":"Сергей","id":15,"last_name":"Васильков","can_access_closed":false,"is_closed":true}],[{"first_name":"Виктория","id":16,"last_name":"Беспалова","can_access_closed":false,"is_closed":true,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Александр","id":17,"last_name":"Беспалов","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Симон","id":18,"last_name":"Кречмер","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Светочек","id":19,"last_name":"Аленький","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Илья","id":20,"last_name":"Турпиашвили","can_access_closed":true,"is_closed":false,"city":{"id":1,"title":"Москва"}}],[{"first_name":"Михаил","id":21,"last_name":"Равдоникас","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Семен","id":22,"last_name":"Воронин","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Андрей","id":23,"last_name":"Столбовский","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Рамми","id":24,"last_name":"Цицуашвили","can_access_closed":true,"is_closed":false,"city":{"id":2,"title":"Санкт-Петербург"}}],[{"first_name":"Анастасия","id":25,"last_name":"Ведущенко","can_access_closed":false,"is_closed":true,"city":{"id":2,"title":"Санкт-Петербург"}}]]}
Метод def fetch_zero(id, session)
В этом методе происходит сама обработка данных:
async def fetch_zero(id, session):
url = build_url(id)
try:
async with session.get(url) as response:
# Считываем json
resp=await response.text()
js=json.loads(resp)
list_users=[x for x in js['response'] if x != False]
# Проверяем если город=1(Москва) тогда добавляем в лист
for it in list_users:
try:
if it[0]['city']['id']==1:
list_data.append(it[0]['id'])
except Exception:
pass
Считываем json, проходим по всем пользователям из запроса и проверям поле город, можно заменить на любой другой город (1 - Москва, 2 - Питер и тд) и вытащить айдишники всех пользователей своего города. Тут https://vk.com/dev/database.getCities все айдишники городов.
Запускаем сборщик
# Запускаем сборщик
for i in range(0,17):
for id in range(i*500+1,(i+1)*500+1):
print(id)
loop = asyncio.new_event_loop()
asyncio.set_event_loop(loop)
loop.run_until_complete(run_zero(id))
# Сохраняем айдишники в файл на гугл диске и очищаем лист
with open(f'/content/gdrive/My Drive/data_main{i}.txt', 'w') as f:
for item in list_data:
f.write(f'{item}\n')
print(len(list_data))
list_data.clear()
Вот тут уже начинается математика)
Два цикла, первый с 0 по 16 включительно, второй 500 итераций + эти 3200:
for id in range((id - 1) * 3200, id * 3200):
task = asyncio.ensure_future(bound_fetch_zero(sem,id, session))
tasks.append(task)
Если у Вас не 1000 токенов, а 10 например, то значение 3200 нужно заменить на 40 максимум, этот цикл отвечает сколько сразу будет сделано асинхронных запросов, и если указать больше, то будет выскакивать то самое ограничение в 5 запросов в секунду.
В итоге 16 * 500 * 3200 * 25 (в 1 запросе 25 id)= 640 000 000 айдишников мы пройдем с id1 по конечный.
Зачем вы наверн подумаете столько циклов, а это нужно чтобы запустить обработку параллельно. Я запустил 5 сеансов в google colab с разным range(0,4), range(4,8) и тд в первом цикле. В итоге за полтора часа я смог обработать всех пользователей вк.
with open(f'/content/gdrive/My Drive/data_main{i}.txt', 'w') as f:
for item in list_data:
f.write(f'{item}\n')
И на каждой итерации мы сохраняем полученные айдишники в файл, всего получится 16 файлов, которые потом нужно объединить в один.
Итоги
За полтора часа работы сборщика на 5 сеансах гугл колаб можно вытащить любые открытые данные пользователей Вк (У vk api есть и другие ограничения, так что к некоторым методам нужно будет придумывать новые законные обходы). Вот ссылка на код проекта в Google Colab:
И вот ссылка на датасет всех москвичей из всего вк, которые я вытащил, написав этого сборщика, можете себя найти там, если указывали москву в вк)
Из 650 млн. пользователей официальных москвичей 24 593 238.
Что ж, надеюсь кому-то будет интересна данная статья и мои наработки будут полезны.
Меня в декабре забирают в армию, так что видимо это последняя статья. Хотел еще пару своих проектов описать на Хабре, но видимо уже не успею. Всем позитива и удачи.
UksusoFF
А кто-нибудь встречал способ забрать по апи все события по городу? Раньше работало q=* но видимо это было не запланировано и теперь перестало.