Человечество не умеет жить без мечты. Глобальной, размашистой, такой — чтобы всё или ничего. Люди мечтали летать, как птицы, видеть, как звери, обгонять самых быстрых, создавать золото из олова, не болеть, лечить рак, чинить гены, жить вечно, летать в космос, дотронуться до Луны… Что-то получается, что-то не сразу, что-то — и вовсе нет. Вторую половину XX и пока весь XXI век человечество мечтает…научиться думать. Только не головами, которые как раз мечтают и воплощают мечты в конкретные решения, а железными мозгами: создать компьютеры, обрабатывающие информацию по тому же принципу, что и люди, а то и способные к абстракции и воображению, — обучить машину думать. Это весьма практичная мечта, которая по задумке должна сделать мир лучше и перевернуть медицину, психологию, культуру, искусство, инженерию и почти всё, где мы используем мысль и речь. Догадались, о чём речь?
Конечно, о машинном обучении и нейросетях — об этом же прямо написано в заголовке. Кто-то уже сейчас заявляет, что всё, мечта сломалась, несите новую: нейросети и машинное обучение свернуло не туда, кругом одни картинки, странные тексты и вообще нейронки нас заменят, но не всех. А на самом деле у технологий машинного обучения сейчас период роста, период поиска способов применения и оптимизации разработки, создания инфраструктуры и обеспечения вычислительных мощностей под самые нетривиальные и серьёзные задачи.
ML активно будоражит интернет в течение последних лет десяти — я помню огромную IT‑конференцию в 2017 году, на которой рассказ о принципах работы свёрточной нейросети был хитом и событием (на той секции сидели даже на полу), потому что настолько подробно проблему рассматривали не часто. А уже в 2021 году ML и нейросети стали такой же обыденной и обширной темой, как СУБД или разработка нагруженных систем.
При этом нейросети и машинное обучение берут своё начало аж в 50-х гг XX века, но их путь был прерывист, поэтому суммарный «возраст» не так велик.
Если очень коротко, то всё началось с мозга: учёные ещё в сороковых задумались о создании модели нейрона. Первую успешную работу проделали Уоррен Мак‑Каллок и Уолтер Питтс, которые предложили математическую модель нейрона. Но это было скорее умозаключение, а первый нейрокомпьютер увидел мир значительно позже: в 1960 году был явлен миру «Марк-1», работающий на основании понятия перцепторна — базовой модели машинного обучения, придуманной нейрофизиологом Фрэнком Розенблаттом.
Позже интерес к нейросетям и машинному обучению подугас, коротко вспыхнул в 70-х и буквально до 2000-х находился в не особо активном состоянии. Причин было много, среди которых главная — недостаток сперва маасивов для тренировки, а потом вычислительных мощностей. Сейчас у нас есть практически всё — разве что не хватает каких‑то супермощностей для отдельных вычислительных задач. Нейросети проникли во все сферы жизни: от моды и косметики до космоса, медицины, инфраструктуры. И похоже, что эта тенденция продолжится.
А вот и ответ на вопрос из заголовка
За весь 2013 год и 2,5 месяца 2014-го на тему машинного обучения было написано 11 статей, из них две — в черновиках, и мы с вами можем увидеть только девять.
Применение машинного обучения в построении ИИ для игры в японские шахматы (сёги)
Как заработать $500K на машинном обучении и высокочастотном трейдинге — Часть 1
Как заработать $500K на машинном обучении и высокочастотном трейдинге — Часть 2
Машинное обучение и анализ данных. Лекция для Малого ШАДа Яндекса
Введение в анализ текстовой информации с помощью Python и методов машинного обучения
Ранжирование в Яндексе: как поставить машинное обучение на поток (пост #1)
Ранжирование в Яндексе: как поставить машинное обучение на поток (пост #2)
Ранжирование в Яндексе: как поставить машинное обучение на поток (пост #3)
А теперь перенесёмся в наши годы и посмотрим, сколько было написано за весь 2023 год и 2,5 месяца 2024-го. Ну раз в 10-20 больше, как минимум? Думаю, никто даже и не предположил такие незначительные величины, потому что только статей (без постов и новостей) было написано 1405!
Десять самых рейтинговых
Настоящее предназначение OpenAI SORA: как и зачем симулировать «Матрицу» для ChatGPT
Как я сделал ремастер всех серий Том и Джерри в 2к всего за пару месяцев
GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Как работает ChatGPT: объясняем на простом русском эволюцию языковых моделей с T9 до чуда
Десять самых полезных
Именно эти статьи пользователи больше всего добавляли в избранное, чтобы не потерять и обращаться к ним в учебных и рабочих вопросах (ну как минимум, так хочется думать).
Вкатываемся в Machine Learning с нуля за ноль рублей: что, где, в какой последовательности изучить
ChatGPT — лучший помощник программиста. Примеры реальных задач. Плагины и инструменты
Запуск аналогов ChatGPT на домашнем ПК в пару кликов и с интерфейсом
GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
Как работает ChatGPT: объясняем на простом русском эволюцию языковых моделей с T9 до чуда
Лучшие туториалы
Практически учебники, а то и лучше!
Вкатываемся в Machine Learning с нуля за ноль рублей: что, где, в какой последовательности изучить
Запуск аналогов ChatGPT на домашнем ПК в пару кликов и с интерфейсом
Бонус-трек: Введение в машинное обучение
Среди этих статей немало участников конкурса «Технотекст 2023», в котором есть номинация AI & ML. И у нас две новости:
Приём заявок во все номинации продляется до 14 апреля 2024 года.
Номинацию AI & ML поддерживает компания Яндекс. Кстати, именно разработчики Яндекса опубликовали почти половину всех статей об ML в 2013 году, когда у нас ещё и хаба такого не было. Благодаря их поддержке, победители в номинации AI & ML получат не только подарки от Хабра, но и Станции Дуо Макс. Если вы не знаете, как она выглядит, есть обзор с подробностями. А мы в свою очередь благодарим Яндекс за поддержку инициативы сообщества!
«Современные технологии из области машинного обучения развиваются во многом благодаря открытому обмену знаниями. Во всём мире исследовательские команды, компании и просто энтузиасты делятся опытом друг с другом. В результате создаются новые методы и инструменты, помогающие в решении ещё более сложных задач.
В России одной из наиболее популярных площадок для обмена опытом стал Хабр. Интересных и полезных статей на тему машинного обучения здесь становится больше с каждым годом. И в этом, безусловно, заслуга всего сообщества. Надеюсь, что вместе мы сможем сохранить этот тренд.»
Пётр [@couatl] Ермаков
ML Brand Director, Яндекс
К счастью, пока мы читаем статьи, созданные людьми и, кажется, пока не рискует потерять воображение, способность к синтезу и анализу, речь. Хотя кто знает, что будет дальше. Остаётся надеяться на стабильное превосходство биологических нейросестей над логическими.
? А значит, пока можно смело подавать заявку на «Технотекст».
Комментарии (11)
MAXH0
21.03.2024 20:00По поводу опроса, стоит добавить пункт: Думаю, что знаю, что такое менторстово, но мне интересен ваш взгляд на эту тему ;)
Уж больно инфоцыгане термин затаскали...
Exosphere Автор
21.03.2024 20:00Это опрос, по-моему был запущен к проекту экспертов на Хабр Карьере, но его никак не отключат :-)
Если моё-моё частное мнение, то я всеми руками за менторство и его частную форму - наставничество. Когда вы в 1-3 лица учитесь у профессионалов, которые вас не швыряют, а поддерживают, вы в несколько раз быстрее растёте, минуя многие стандартные шишки и спотыкания (и попадаясь на нестандартные). Но, конечно, если не золотить ручку инфоцыганам, а находить "своих".
Ivan-suanin
21.03.2024 20:00Нейросети - это хорошо (наверное). В интернете миллионы сайтов, где рецепт манной каши переписан миллионы раз (на каждый сайт надо написать уникальный текст, где ложки заменяются на ложечки, а манка на манную крупу из твердейших сортов пшеницы, а впереди ещё предыстория о том, как бабушка варила манную кашу маме, мама мне, а я вот дочери варю). Вот мне интересно, как относятся поисковые системы к нейроконтенту? В плане топ-10, естественно. Есть ли место сайтам с генерёнкой в выдаче?
1dNDN
21.03.2024 20:00Судя по тому, что даже сайты-зеркала Stackoverflow в выдаче чуть ли не выше самого Stackoverflow, нейронки точно должны быть
Flokis_guy
21.03.2024 20:00Сами по себе нейросети, а в будущем потенциально ИИ вполне можно сравнить с открытием и созданием парового двигателя, он так же начинался с самого простого, был не особо популярен, развивался на протяжении века, а потом опять два лагеря — те кто видел угрозу и те кто видел будущее. И это подарило дальше нам атом, полеты в космос, потом и интернет, ну, а теперь эпоха ИИ плавно движется к нам. И опять же, без всего предыдущего не было бы успеха у ИИ, а у всего предыдущего без его предыдущего. Нужно признать, что мы находимся в начале новой эпохи.
Apoheliy
21.03.2024 20:00Вопрос немного в сторону методики: чем обусловлено использование не одного года (2013 / 2023), а приплюсовка ещё 2,5 месяцев? Подозрение, что за эти 2,5 месяца в 2024 году выпущено больше статей, чем пропорционально в 2023 году. Так?
Exosphere Автор
21.03.2024 20:00Ничем, просто считала на текущую дату два одинаковых периода, никаких подгонок и теорий заговора. Посмотрела по вашему вопросу: эти 2,5 месяца в 2023 - 236 статей, 2024 - 256.
Osaka
Какие ваши доказательства?
Exosphere Автор
Среди конкурсных - точно. А на самом деле, глаз, читающий около 150 статей в сутки, уже уверенно отсекает откровенные поделия нейронок, видит отредактированные за нейронкой тексты и не разоблачит разве уж только опытного автора, который использует ИИ как инструмент, а не как основу. Хотя, не скрою, всегда есть опасения, что этот наш скилл обойдут :-)
sim31r
Натренируйте нейронку определять тексты такие и все, проблема решена ))
n0isy
В 2022 у openai было открытое решение (нейронка да/нет). В 2023м его закрыли. Причина: нейронки стали умнее до степени смешения. Определить человек это или машина стало сложнее.