Последний год я активно работал в проектах, связанных с обучением и использованием больших языковых моделей (LLM). В какие-то темы углублялся сильнее, а какие-то изучал поверхностно для общего развития. По отдельным интересным мне направлениям я написал обзоры или сделал семинары, но потом мне захотелось как-то агрегировать весь накопленный багаж опыта и знаний в одном докладе. Сделать его не супер подробным, зато очень полным и понятным для людей, которые в теме ML и DL, но не сильно вовлечены в область языковых моделей.

Собранный материал, на мой личный взгляд, с этой задачей справляется, и я с удовольствием поделился им с коллегами в МФТИ, Сколтехе, SberDevices и сообществе YNDX Family. Последний рассказ получился самым полным и подробным, его запись я решил презентовать на Хабре. Приятного погружения в мир обучения LLM:)

Заметки на полях:

  1. Доклад был принят в качестве туториал на замечательную конференцию OpenTalks.ai, но она, к всеобщему сожалению, в этом году не состоялась

  2. Презентация доклада доступна по ссылке

  3. Видеоматериал подготовлен на основе совместной онлайн-встречи YNDX Family (неофициального сообщества текущих и бывших сотрудников Яндекса) и UnionVK (сообщества выпускников группы VK). Если ты работал в этих компаниях - вступай в комьюнити)

Комментарии (1)


  1. Reversaidx
    20.04.2024 17:00
    +2

    Большое спасибо за работу