Информационно-статистический сервер Московской Биржи (ИСС или ISS) – это сервис, предоставляющий разнообразную биржевую информацию в режиме реального времени, а также итоги торгов и статистические данные.

Основные возможности ИСС:

  • Получение потоковых данных о ходе торгов.

  • Просмотр и экспорт итогов торгов.

  • Доступ к историческим данным по итогам торгов, ценам и прочим показателям.

  • Выгрузка списков всех инструментов, режимы торгов и их группы.

  • Мониторинг рыночной информации в различных разрезах.

    Данные о ходе торгов в режиме online и итоги торгов доступны только по подписке, естественно платной.

На сайте мосбиржи есть специальный раздел «Программный интерфейс к ИСС», на котором выложено Руководство разработчика (v.1.4), Описание метаданных и Описание методов.

С этих документов и надо начинать изучать ИИС. Кстати говоря Правила использования биржевой информации Московской Биржи четко определены и наглядно представлены в презентации.

Запросы к ИСС для получения информации формируются в виде URL с параметрами (или без), список всех доступных URL перечислен на странице Описание методов.

Получать информацию можно в форматах: XML, CSV, JSON, HTML

И давайте решим задачу по получению, к примеру:

красной рамкой выделен первый блок “engines”.

Давайте посмотрим эту страницу с расширением xml:

В ответах в форматах XML, HTML и JSON каждый блок информации отделен тегом data и содержит две секции: метаданные (описывают тип и длину полей с данными) и непосредственно рыночную информацию. Мы будем загонять эту информацию в табличный вид, где секция метаданные определит колонки, а секция с информацией заполнит ряды таблицы.

Ниже я предлагаю для внимания и использования листинг программы, благодаря которой можно спарсить информацию почти по любой ссылке на странице методов ISS Queries.

Общая идеология программы такая:

  • Загрузка данных

  • Парсинг XML

  • Формирование DataFrame (таблицы)

  • Сохранение в БД SQLite

  • Сохранение (дублирование) в CSV файле с расширением txt.

    В программе используем библиотеки:

os – работа с файловой системой – создание директорий, получение путей к файлам и т.д.

sqlite3 – работа с базами данных SQLite – подключение, выполнение SQL-запросов, transaction и т.д.

xml.etree.ElementTree (ET) – парсинг и конвертация XML в древовидную структуру элементов для удобного доступа в коде Python.

pandas (pd) – работа с табличными данными, их обработка и анализ – DataFrame. Загрузка/запись данных в CSV и другие форматы.

requests – отправка HTTP запросов и получение ответов от веб-ресурсов. Используется для веб-скрейпинга и работы с API. Веб-скрейпинг – получения веб-данных путём извлечения их с веб-страниц. 

import os  # модуль для работы с файловой системой
import sqlite3  # модуль для работы с SQLite базами данных
import xml.etree.ElementTree as ET  # модуль для парсинга XML

import pandas as pd  # модуль для работы с данными
import requests  # модуль для HTTP запросов

url = "https://iss.moex.com/iss/index.xml"  # url источника данных XML - глобальные справочники ISS
# url = "https://iss.moex.com/iss/securities/SBER/indices.xml"  # url - Список индексов в которые входит бумага SBER.
# url = "https://iss.moex.com/iss/securities/IMOEX.xml"  # url - Получить спецификацию инструмента индекс Мосбиржи.

response = requests.get(url)  # запрос данных по url

root = ET.fromstring(response.content)  # парсинг XML из ответа

dfs = {}  # словарь для хранения dataframe

for data in root.findall("./data"):  # поиск всех элементов data
    id = data.attrib["id"]  # получение атрибута id

    columns = [
        c.attrib["name"] for c in data.findall("./metadata/columns/column")
    ]  # список колонок
    df = pd.DataFrame(columns=columns)  # создание пустого dataframe с определёнными колонками
    rows = data.findall("./rows/row")  # поиск строк

    for row in rows:
        data = dict(
            zip(columns, [row.attrib.get(c) for c in columns])
        )  # словарь данных строки
        df = pd.concat(
            [df, pd.DataFrame([data])], ignore_index=True
        )  # конкатенация строк

    dfs[id] = df  # сохранение dataframe в словаре

# далее код сохранения данных в БД и CSV
if not os.path.exists("moexmetadata"):
    os.mkdir("moexmetadata")

conn = sqlite3.connect("moexmetadata.db")

for id, df in dfs.items():
    df.to_sql(id, conn, if_exists="replace", index=False)
    # Проверка наличия колонки id в датафрейме
    if "id" in df.columns:
        cursor = conn.cursor()

        # Проверяем наличие индекса
        cursor.execute(f"PRAGMA index_info('index_name')")
        index_info = cursor.fetchall()

        if not index_info:
            # Создаем индекс в таблице по колонке id
            cursor.execute(f"CREATE INDEX index_name ON {id} (id)")
            conn.commit()

    # данные дублируем в файл
    filename = f"{id}.txt"
    path = os.path.join("moexmetadata", filename)
    df.to_csv(path, sep="\t", index=False)

conn.close()

Запускаем программу, она отрабатывает за несколько секунд. Можем в программе закомментировать первый url и раскоментировать второй, снова запустить, и т.д. при необходимости.

В каталоге с программой появилась папка “moexmetadata” с многочисленными файлами.

вот пример содержания

также у нас создалась БД с таблицами

и если совсем погружаться.., то теоретически можно между таблицами настроить логичные связи. Если конечно Вы сможете сначала разобраться во всем этом “хаосе” информации. Надо ли только это?

Идем далее

Согласно Руководства разработчика для некоторых запросов в конце файла также доступен специальный блок данных “cursor”.

например здесь http://iss.moex.com/iss/history/engines/stock/markets/shares/securities/MOEX он выглядит так

здесь INDEX – начало текущего набора данных в выдаче (номер строки), в запросе
задаётся параметром start; TOTAL – общий объём данных (количество строк), доступных по этому запросу;
PAGESIZE – объём текущего набора данных в выдаче (количество строк), в
запросе задаётся параметром limit (по умолчанию – 100, возможны значения 50,
20, 10, 5, 1).

Т.е. чтобы загрузить полный (очевидно, что большой) объём данных, нужно последовательно производить загрузку:
http://iss.moex.com/iss/history/engines/stock/markets/shares/securities/MOEX
http://iss.moex.com/iss/history/engines/stock/markets/shares/securities/MOEX?start=100
http://iss.moex.com/iss/history/engines/stock/markets/shares/securities/MOEX?start=200
и т.д.пока (INDEX + PAGESIZE) < TOTAL.

Кстати говоря также можно выгрузить все новости сайта мосбиржи со страницы https://iss.moex.com/iss/sitenews/ – порядка 43тысяч штук, только здесь каждый шаг будет содержать PAGESIZE=”50” записей.

Этот механизм вполне понятен и логичен, реализовать можно.

Но не все так однозначно, и как оказалось самый же первый URL на странице ISS Queries для получения списка всех бумаг торгуемых на московской бирже не имеет этого блока “cursor”. И очевидно, что на странице https://iss.moex.com/iss/securities выгружен далеко не полный список.

выгружать его надо также последовательно:

https://iss.moex.com/iss/securities.xml?start=0

https://iss.moex.com/iss/securities.xml?start=100

https://iss.moex.com/iss/securities.xml?start=200 и так далее. Только вот значения TOTAL у нас нет…, т.к. отсутствует раздел «cursor».

Уже после написания второй версии программы я обратил внимание, что в описании метода /iss/securities есть аргументы start и limit. По моему мнению необходимо было либо помещать раздел “cursor” везде, где подразумевается цикличный парсинг больших объемов – все как описано в руководстве, либо в руководстве предусмотреть все эти нюансы и упор делать на проверку наличия у метода аргументов start и limit.

Наверняка на мосбирже есть еще и другие подобные адреса с большим объемом данных и без указания общего объема TOTAL в блоке «cursor».

Итак, чтобы сильно не усложнять задачу для этого случая, я решил просто немного модифицировать программу. Мы принимаем, что нас интересует только один первый блок данных data (для таких больших страниц без блока «cursor» блок data будет единственным) и крутим цикл до тех пор, пока значение в не будет пустым.

Вот измененный код программы:

import os
import sqlite3
import xml.etree.ElementTree as ET

import pandas as pd
import requests

start = 0 # начальное значение
step = 100 # шаг парсинга 

while True:
    url = f"https://iss.moex.com/iss/securities.xml?start={start}"
    # url = f"https://iss.moex.com/iss/sitenews.xml?start={start}"
    response = requests.get(url)
    root = ET.fromstring(response.content)
    rows = root.findall("./data/rows/row")
    if not rows: # если нет строк - прерываем цикл
        break

    start += step
    print(start)
    dfs = {}  # словарь для хранения dataframe

    for data in root.findall("./data"):  # поиск всех элементов data
        id = data.attrib["id"]  # получение атрибута id
        columns = [
            c.attrib["name"] for c in data.findall("./metadata/columns/column")
        ]  # список колонок
        df = pd.DataFrame(columns=columns)  # создание пустого dataframe с определёнными колонками
        rows = data.findall("./rows/row")  # поиск строк

        for row in rows:
            data = dict(
                zip(columns, [row.attrib.get(c) for c in columns])
            )  # словарь данных строки
            df = pd.concat(
                [df, pd.DataFrame([data])], ignore_index=True
            )  # конкатенация строк

        dfs[id] = df  # сохранение dataframe в словаре

    # далее код сохранения данных в БД и CSV

    if not os.path.exists("moexmetadata"):
        os.mkdir("moexmetadata")

    conn = sqlite3.connect("moexmetadata.db")

    for id, df in dfs.items():
        df.to_sql(id, conn, if_exists="append", index=False)

        # Проверка наличия колонки id

        if "id" in df.columns:
            cursor = conn.cursor()

            # Проверяем наличие индекса

            cursor.execute(f"PRAGMA index_info('index_name')")

            index_info = cursor.fetchall()

            if not index_info:
                # если индекса нет, то создаем индекс в БД в таблице по колонке id

                cursor.execute(f"CREATE INDEX index_name ON {id} (id)")
                conn.commit()

        # данные дублируем в файл
        filename = f"{id}.txt"
        path = os.path.join("moexmetadata", filename)
        with open(path, "a", encoding="utf-8") as f:
            df.to_csv(f, sep="\t", index=False)

conn.close()

Запускаем, программа работает часа 3. В итоге получены внушительные данные

В базе данных «Список бумаг торгуемых на московской бирже» состоит из 595 тысяч записей.

На этом все. Первый результативный опыт получен. Есть общее понимание того, как устроена ISS MOEX. Получен опыт парсинга, get запросов, записи в файлы и БД.

А на очереди теперь у меня изучение алгопака Мосбиржи.

ВИДЕО по теме:

Комментарии (6)


  1. SGordon123
    16.12.2023 08:27

    То же самое через апи тинька получится? И небось бесплатно?


    1. UnknownUser
      16.12.2023 08:27

      Я недавно нашел для себя систему OS Engine.

      Открытые исходники на c# , скачивание истории и тестирование есть уже из коробки, есть коннекторы к различным биржам (в том числе к moex через Тинькофф апи).

      Но эта статья тоже неплохой вариант, если хочется разобраться как все работает или любит делать все своими руками.


    1. Pampolet
      16.12.2023 08:27

      На Тинке есть ограничения по запросам и некоторую информацию проще получить у MOEX. Лучше использовать их вместе


  1. Lexsus333
    16.12.2023 08:27

    Мне для анализа было удобнее делать через json. А что бы выгрузить все данные из большого массива, каждый раз при получении нового блока проверял его размер - если меньше 100 (максимальное количество строк, которое грузится к тому же по умолчанию), значит дальше будет пустой блок. И на сколько я понимаю, для трейдинга эти данные не особо подойдут, скорее для исторического анализа, т.к. для бесплатного доступа данные доступны либо исторические, либо с задержкой.


  1. DX28
    16.12.2023 08:27

    Совет - попросите ChatGPT написать парсер мосбиржи с использованием aiohttp/scrapy и asyncpg, удивитесь насколько порядков будет работать быстрее.


  1. sixxio
    16.12.2023 08:27

    Неплохо в качестве первого приближения к теме, но лучше все же работать с json'ами, тем более, что pandas позволяет без проблем создавать датафреймы на основе json.
    Да и данные, тем более, потенциально большие объемы хранить в .csv в 2023 году как будто бы не стоит, есть форматы, которые позволяют использовать сжатие и сохраняют типы данных, например .parquet, да, такой файл не получится открыть в блокноте и посмотреть, но операции чтения/записи при этом на порядок быстрее.