Можноли уже сейчас заменить команду разработчиков на нейросеть и шесть промпт‑инженеров? Почему крупные компании до сих пор платят программистам по $4000, когда есть ChatGPT за $20? На острой дискуссии топ‑менеджеры российских IT‑компаний неожиданно разошлись во мнениях о будущем индустрии. Пока одни утверждают, что LLM способны писать код лучше людей, другие приводят неочевидные причины, почему полная автоматизация разработки невозможна. Но главный вопрос — действительно ли программисты сознательно тормозят внедрение ИИ, чтобы сохранить свои рабочие места, или есть объективные причины, по которым даже Google использует нейросети только для генерации 25% кода? Разбираемся вместе с экспертами, что на самом деле происходит на передовой борьбы человека и машины в IT.

Полную версию обсуждения, организованного нашей компанией Artezio, можно посмотреть на канале Ai4Dev на Youtube. А еще у нас появился Telegram‑канал для разработчиков, которые используют ИИ. В нем уже больше 2 тыс. разработчиков с которыми можно обмениваться мнениями и реальными кейсами.
Революция или эволюция: как ChatGPT меняет разработку ПО
Эксперты сходятся во мнении — искусственный интеллект уже меняет индустрию разработки, но масштаб и скорость этих изменений оценивают по‑разному.
«Искусственный интеллект активно развивается, и практически в каждой компании есть свое направление, которое развивается наиболее активно», — отмечает Павел Куликовский, управляющий партнёр «Эффективные цифровые продукты». При этом он предостерегает от чрезмерного оптимизма: «Сейчас есть определенный хайп, и много продуктов делается по принципу 'прикрутили ChatGPT и называем это AI‑продуктом'. Такие продукты тоже имеют право на существование, можно хорошо попасть в рынок и заработать. Но это будет недолгоиграющая история, потому что их легко повторить. А вот компании и команды, которые делают фундаментальные разработки с обучением моделей, несомненно, будут развиваться дальше и брать на себя всё больше базовых, рутинных задач практически во всех сферах».

Ратибор Секиров, CEO Aspirity, рассматривает текущие изменения в историческом контексте: «Если взять историю разработки, то когда‑то нужно было хорошо понимать, как работает память компьютера. Потом появились операционные системы, потом браузер. И с каждым шагом разработчики становятся как будто менее глубоко понимающими, как работает программное обеспечение и компьютер. Сейчас у нас есть куча готового кода в open source, есть Google, где можно найти нужные вещи. Но это не значит, что разработчики не нужны. Они просто занимаются задачами более высокого уровня и будут решать их в дальнейшем. Просто появился классный инструмент Copilot, который уже достаточно долго используется в компаниях, в том числе у нас».
«В текущей реализации технологии трансформеров я в автономность не верю, это подтверждается моей практикой», — продолжает Секиров. «Автономность — скорее нет, копилот — да, но копилот — это очень широко. Может быть, 95% будет делаться копилотом, 5% — человеком».
Михаил Шахмурадян, основатель группы компаний по разработке ИИ, предлагает конкретный критерий для оценки возможностей ИИ в разработке: «Показателем возможности замены программистов на LLM будет следующее: когда компания, полностью создавшая свой софт с помощью LLM, станет публичной, привлечет серьезный капитал и станет миллиардной — тогда мы можем говорить, что эта история возможна. Пока все публичные компании используют разработчиков и LLM как копилот. Когда мы увидим, что компания с нуля сделала продукт с помощью LLM, используя только промпт‑инженеров, этот продукт стал массовым и вышел на публичный рынок — это будет доказательством возможности такого подхода».
Матвей Пак, CEO Metamentor, видит в этом новый этап эволюции профессии: «Люди просто изменятся. То есть будут не программисты, а будут люди, которые понимают верхний уровень — кто с кем общается, как общается бэкенд с фронтендом, какие пакеты друг другу нужно пересылать. И очень хорошо пишет какие‑то конкретные скрипты. То есть если я хочу написать одну страницу сайта, то он хорошо это сделает. Но если я хочу сделать какое‑то более сложное приложение, то я должен сам прописывать архитектуру, кто должен с кем общаться, а конкретные блоки может генерировать ИИ».

Почему автономные ИИ-агенты проваливаются, а Copilot взлетает
Несмотря на впечатляющие демонстрации возможностей ИИ в программировании, практика показывает, что полностью автономная разработка пока остается недостижимой целью. Эксперты делятся реальным опытом использования ИИ в разработке и объясняют, почему даже простые задачи не всегда можно доверить искусственному интеллекту.
«У меня был партнер на конференции TechCrunch Disrupt в Сан‑Франциско, и в основном сдуваются или хуже себя чувствуют в плане новых раундов финансирования стартапы, которые обещают именно автономных агентов, работающих без человека», — делится наблюдениями Ратибор Секиров. «А те, кто говорят 'у нас copilot, человек перепроверяет, мы помогаем человеку' — эта рабочая история будет развиваться однозначно в ближайшие годы».
Павел Куликовский приводит конкретный пример из практики: «Пару месяцев назад я решил изучить Python и начал писать простые скрипты с помощью ChatGPT. Когда проект вырос до тысячи строк кода и примерно десяти классов, уже стало быстрее писать самому, потому что нужен очень большой промпт. При внесении изменений ChatGPT не только меняет запрошенный фрагмент, но и переписывает уже существующий код, хотя фактически тот остается без изменений. И когда у нас есть версионирование кода, получается, что каждое маленькое изменение превращается в то, что весь класс показан как переписанный. Это неудобно и непонятно другим разработчикам и промпт‑инженерам».

«Наверное, можно сравнить генерацию кода искусственным интеллектом с фреймворком Spring в Java, который уже порядка 20 лет используется», — продолжает Куликовский. «Он предоставляет много готовых библиотек, которые за 5 минут можно поднять в своем проекте — использовать коннекты к базе, внешние интеграции. И дальше уже сам разработчик настраивает чисто бизнес‑логику. ИИ делает что‑то похожее. В Google 25% кода — это, скорее всего, такие готовые библиотеки, которые можно использовать. Можно, например, тесты написать на метод, класс — ИИ с этим хорошо справится. Можно написать один тест, а она напишет еще 10 тестов с разными кейсами. Но это тоже код, просто не основной».
При этом Куликовский подчеркивает, что сложность современной разработки часто преувеличивают: «С точки зрения объема кода начинающий мидл это спокойно все разберет за полчаса, весь код, и сможет дальше расширять и дописывать. И он будет делать это быстрее, чем LLM. Он может использовать LLM и увеличить свою скорость. Бывает, забываешь, как какой‑то метод работает, ловишь ошибку. Вот что мне нравится — ловишь какую‑нибудь ошибку, кидаешь ее прямо в ChatGPT и получаешь подробное описание, почему эта ошибка возникла и как ее можно пофиксить. Это реально круто, потому что вычитывание логов занимает большое время».
Даже в простых задачах автономность ИИ оказывается под вопросом. «Вот простая задача — сделать landing page, одностраничник», — рассуждает Секиров. «Есть куча конструкторов, которые с помощью ИИ генерируют одностраничники. Наверняка видели видео, где 'я написал промпт, сделал страничку, и уже что‑то продаю в интернете'. Мы сейчас дали задачу дизайнерам протестировать эти конструкторы, готовим большой материал. Но исходя из этого материала — не работает всё из коробки. Не получается сделать классный одностраничник просто с помощью промпт‑запроса, и это нормально. То есть большое количество работы действительно убирается — можно получить какую‑то заготовку, но нужно потом доработать с дизайнером, чтобы это было адекватно».
Программист за $4000 против ChatGPT за $20: почему бизнес не спешит экономить
Вопрос экономической эффективности использования ИИ в разработке оказался одним из самых острых в дискуссии. Почему компании продолжают платить разработчикам тысячи долларов, когда есть доступные ИИ‑решения?
«Думаю, вопрос не в сокращении сотрудников — сейчас же дефицит кадров», — отмечает Ратибор Секиров. «Вопрос, как этот дефицит можно снизить за счет повышения эффективности существующих сотрудников. Я оцениваю этот эффект не в 25%, конечно. Самый большой эффект получается, когда ты понимаешь задачу на верхнем уровне, но работаешь с технологией, которую не очень хорошо знаешь. Это больше всего ускоряет, потому что самому писать действительно долго».
При этом некоторые компании уже нашли способы оптимизации затрат, не прибегая к полной автоматизации. «У нас был большой дефицит кадров разработчиков. Мы просто наняли их в Индии, в Пакистане, и это на 30–40% дешевле», — делится опытом Владислав Костицын. «То есть с точки зрения бизнеса и финансов можно архитекторов взять в России, а кодеров — на рынках, где они стоят существенно дешевле. Тем самым решить эту задачу».

«Правда в золотой середине», — подчеркивает Михаил Шахмурадян, основатель группы компаний по разработке ИИ. «В текущих условиях мы не можем полностью заменить разработчиков, но можем сэкономить на найме новых, усилив эффективность текущих с помощью ИИ. Это наиболее рабочая стратегия. А когда мы говорим про то, что Google публикует новость о том, что 25% кода генерируется с помощью ИИ, тогда следующий логичный шаг — это новость о том, что 25% разработчиков Google должны быть уволены. Однако этого не происходит. Поэтому здесь все просто — никто в мире не отказался от разработчиков на 100%, они есть, и они еще какое‑то время будут».

По мнению Владислава Костицына, главная проблема — это ответственность: «Здесь психологическая проблема, потому что это ответственность. Кто готов взять на себя такую ответственность? То есть в плане генерации идей — это классно, и контент, и код. Но в плане эффективности можно взять наш кейс и нанять разработчиков в той же Индии. А взять ответственность как CEO за продукт, который сгенерировал ChatGPT, и потом тебе прилетит — тут такие себе риски».
При этом Ратибор Секиров опровергает мнение о том, что разработчики сопротивляются внедрению ИИ: «Нет, конечно. Мы, наоборот, главные пропагандисты прихода LLM в индустрию, внедрения LLM в бизнес‑процессы. Мы этим занимаемся уже достаточно давно. И у нас есть кейсы реальных внедрений и за рубежом, и в России. Поэтому я говорю не с позиции человека, который просто смотрел информацию или выступал на конференциях, а того, кто конкретно делает. И я не хочу занимать роль скептика, я супер вдохновлен технологиями, с которыми сталкиваемся».
Дешевый ИИ или дорогой программист: что выберет бизнес в 2025?
Возможно, дело не в технологических ограничениях, а в том, что сами разработчики не спешат отдавать контроль искусственному интеллекту? Этот вопрос становится особенно актуальным на фоне последних достижений: GitHub сообщает, что более 40% нового кода уже пишется с помощью Copilot, а исследование Stack Overflow показывает, что 83% разработчиков используют ИИ‑инструменты в своей работе. При этом лишь 16% компаний имеют четкую стратегию внедрения ИИ в процессы разработки.
По словам Ратибора Секирова, разговоры о замене программистов искусственным интеллектом во многом мотивированы желанием сэкономить на высоких зарплатах разработчиков: «Сколько существует индустрия, столько идут разговоры о том, как бы заменить дорогостоящих программистов. Четыре тысячи долларов за разработчика против двадцати долларов за ChatGPT — такое сравнение звучит заманчиво, но оно слишком упрощает реальность».
«Будем говорить, что с этого момента у нас нет разработчиков, только промпт‑инженеры», — продолжает Секиров. «Но по большому счету работа людей с текстом — будь то разработчики или контент‑мейкеры — сейчас и так не предполагает много ручного написания. Используется куча готовых библиотек, которые стыкуются между собой, API‑сервисы и так далее. Много времени уходит на исследования».

«Вопрос не только в стоимости разработки, но и в рисках», — объясняет Павел Куликовский. «Можно взять любой агрегат — механический, информационный. Если у него качество 90% для чего‑то, это будет приемлемо. Если это качество связано с жизнью человека, там даже 99% будет неприемлемо. То же самое с полной заменой разработчиков на ИИ. Допустим, у нас есть небольшое развлекательное приложение, люди заходят бесплатно, читают анекдоты. Если такая штука не работает час‑два в день — всем без разницы. А если у нас платежный шлюз с гарантией качества 'пять девяток' и простой может быть всего 2 часа в год... Если я возьмусь сделать такой проект только силами ИИ, без команды разработчиков, я просто разорюсь на успокоительных. Слишком высока цена ошибки — все LLM имеют право на ошибку. Вероятность ошибки можно снижать, но она существует».
Цифры действительно впечатляют: стоимость месячной подписки на ChatGPT сопоставима с дневной зарплатой разработчика. При этом нейросеть не устает, не берет отпуск и не просит повышения. Google уже генерирует четверть своего кода с помощью ИИ, а точность нейросетей в решении алгоритмических задач приближается к человеческой.
Так что же сдерживает массовый переход на ИИ в разработке — реальные технологические ограничения или нежелание индустрии расставаться с привычными зарплатами? Заменит ли подписка на ChatGPT за $20 программиста с зарплатой $4000, или это очередной пузырь, который лопнет, как и предыдущие попытки автоматизировать разработку? Поделитесь своим опытом в комментариях.
Комментарии (265)
CrazyElf
06.02.2025 14:51На самом деле и до массового использования ИИ программисты далеко не только программировали. Хороший программист умеет:
Собрать требования
Изучить источники данных
Формализовать задачу
Написать код
Протестировать и отладить его
Оформить этот код в виде отдельного микросервиса, либо куска монолита
Написать документацию к этому коду
Ну и там ещё какие-то неявные шаги могут быть. С какими-то этапами ИИ может помочь, но в целом пока до полной замены хорошего программиста ещё очень далеко. Хороший программист гораздо больше думает над задачей в целом, чем пишет собственно для неё код.
И даже с кодом, насколько я понимаю, задача в таком виде, как ставится программисту: "вот тебе исходники, вот тебе задача, подумай, как добавить/изменить эту функциональность так, чтобы не сломать всё остальное" - ну, она вряд ли хорошо решается ИИ. Её программист то должен хорошо подумать как сделать, если это вообще возможно.
panzerfaust
06.02.2025 14:51вот тебе исходники, вот тебе задача, подумай, как добавить/изменить эту функциональность так, чтобы не сломать всё остальное
Да это целая простыня требований. Моей последней задачей была таска с пустым телом и названием "Implement new approach to xxxx". Дальше сам. Думаю, дойдем и до более компактных постановок.
CrazyElf
06.02.2025 14:51Ну да, я ж синьор, плюс у нас прожект менеджера нет, поэтому всё сам. Ну, за это и платят хорошие деньги синьорам, собственно. Не за то, что они умный код только генерят, а за то, что по короткой постановке могут задачу целиком сделать на автономном ходу. Сами всё выяснят, уточнят, напишут, проверят...
Wesha
06.02.2025 14:51Однако при этом надо помнить, что джун — это личинка синьора.
CrazyElf
06.02.2025 14:51Я помню, как был джуном, хотя это и было 30 лет назад. Тебе чётко ставят задачу, твоё дело только её закодить. Все вопросы как это должно выглядеть снаружи и внутри за тебя решают аналитики и ПМ. Чуть что непонятно - можно спокойно курить бамбук, пока тебе этот вопрос не прояснят. Не жизнь, а малина.
Ard33
06.02.2025 14:51Сейчас нет ещё слишком рано. Но о1 и о3-mini уже кое-что коряво могут написать. Вот когда выйдет полная о3 появиться реальная конкуренция. И люди ее быстро проиграют новым моделям которые пойдут после о3 pro.
Habr4687544
06.02.2025 14:51Осталось доказать, что сравнимый по качеству результат за месяц работы этой нейросети будет стоить дешевле 4 тыс.
Ard33
06.02.2025 14:51о3 mini сколько там стоит? Что даже слабую версию бесплатно дали. Возможно Open AI и поднимут до 500-1000 за месяц. А возможно и вообще включат в пакет за 200.
lorc
06.02.2025 14:51Написать - это хорошо. А отдебажить? Я вот тут сейчас дебажу интересный race condition между кодом на Rust и кодом на C. В проекте на полторы миллиона строк кода (QEMU). Когда o3 pro сможет сделать это за меня?
SwingoPingo
06.02.2025 14:51Все может быть несколько хуже. Код, написанный ИИ будет так же в репозитариях. И кода, созданного ИИ который никто не ревьювил и который далек от понятного человеческого формата, будет все больше и он будет основанием для следующего ИИ кода. И тогда уже если задача по дебагу ляжет на человека, то она уже может оказаться неподъемной. Мы будем иметь черный ящик кода, доступный нам только через промпты и через его интерпретацию для нас тем же ИИ.
ktim8168
06.02.2025 14:51Управлять то этим все равно квалифицированные кадры будут, разве что зп может уменьшиться.
AllexIn
06.02.2025 14:51Да вот не выглядит так, что там нужны квалифицированные кадры.
Я думал что оператору нужно хотя бы более менее нормальное ТЗ давать инструменту. А по факту я сейчас половину слов не пишу, когда даю задание, потому что и так понимает чё я хочу.un1t
06.02.2025 14:51Это работает пока проект совсем крохотный и логика простая. Зачастую проще самому написать, чем продираться через итерации неработающего когда.
SwingoPingo
06.02.2025 14:51И тут все сложнее ибо существует еще вариант постановки ТЗ называемый: "пойдем покажу".
un1t
06.02.2025 14:51Покажу, это еще ладно, зачастую ТЗ выглядит, "ну сам там разберись, что нам надо, походи по отделам, повыясняй".
CrashLogger
06.02.2025 14:51Тут есть принципиальная проблема. Вот нейросеть написала код. Кто даст гарантию, что в нем нет ошибок ? Нейросети имеют свойство галлюцинировать и рисовать 6 пальцев на картинках. Но если на картинке это сразу заметно, то чтобы найти ошибку в коде, нужно проверить его весь, строчка за строчкой, при этом понять, что именно этот код делает. Это не сильно проще, чем написать его самому. Возможно даже сложнее. То есть, все равно нужен живой программист, который будет проверять за нейросетью, но тогда зачем нам нейросеть ?
bak
06.02.2025 14:51А кто даст гарантию что в коде который человек написал нет ошибок? Баги кто по вашему делает?
sensem
06.02.2025 14:51Это лечится code review и рефакторингом. Кто за LLM проверять будет? Другая LLM?
NetInstant1100
06.02.2025 14:51Ни рефакторинг, ни ревью не дают таких гарантий. Чего уж там, даже мануальное тестирование и регресс продукта 100% гарантий не дают.
А ревьюить код за нейронкой может человек, а то и другая нейронка, это все же не писать с нуля
SwingoPingo
06.02.2025 14:51точно не с нуля? Вы даете LLM код, результаты тестирования другой LLM и просите новый продукт, избавленный от этих багов. Вот LLM будет вычитывать предыдущий код, предыдущий промт или генерить весь код заново?
unC0Rr
06.02.2025 14:51А за человеком кто проверять будет? Другой человек? Ха-ха-ха, какая нелепая мысль.
un1t
06.02.2025 14:51Когда пишешь код, обычно достаточно глубоко погружается, а code review это поверхностный взгляд. Я пару раз уже ловил ошибки в сгенерированном коде, который я ревьювил, но если бы я его писал сам, то этих ошибок бы не допустил.
Spyman
06.02.2025 14:51Как часто вы встречали художников которые неосознанно рисуют 6 пальцев на руках, две сросшиеся головы, руки вместо ног или глаз с парой зрачков?
А diffusion сетки и их аналоги делают такое частенько.
Ошибки людей прогнозируемы и предсказуемы, мы уже хорошо умеем с ними работать, а вот ошибки llm нам ещё долго предстоит изучать, и нужен ревьювер с особым скилом чтобы их видеть.
vvzvlad
06.02.2025 14:51Живые художники таааак лажают с рисованием тел, вы не представляете. Невероятные углы в суставах, отсутствие важнейших мыщц, и так далее.
tester12
06.02.2025 14:51Живого художника можно оценить по одной-двум картинам, а живого программиста - по одной-двум задачам на испытательном сроке. Рост квалификации живого художникам или программиста - более-менее линеен и предсказуем. Нейросеть же может нарисовать шесть пальцев, а в следующий раз пять пальцев, а потом снова шесть пальцев. И к разумной самооценке, к объяснению окружающим своего решения ("сустав нарисован вот с таким углом потому что...") нейросеть не способна.
AllexIn
06.02.2025 14:51В работе всегда делаю именно так как вы говорите - строгое код ревью построчное.
А вот для себя "заказал" несколько достаточно сложны инструментов(экранов так на 20 и строк тысяч на 5). Ничего не проверял в коде, только тестировал результат и вносил правки на основе тестирования. Получилось очень быстро и результаты меня удовлетворяющие.
Когда вместо меня придет кто-то кому нужен софт - он сделает также. И всё будет работать с вероятностью не сильно меньше, чем если он закажет тоже самое на апворке.
И это сейчас, когда инструменты только-только стали пригодными для использования. Через полгода год, когда их подкрутят ситуация будет еще более впечатляюще/удручающая.
nikolz
06.02.2025 14:51Все просто. Когда вдруг ChatGPT за 20$ завалит проект, то фирма заплатит заказчику неустойку раз в 100 больше, чем зарплата программиста( 4000$X 12 месяцев) и потеряет свой имидж и клиентов от слова НАВСЕГДА.
А еще прикольнее будет, если ChatGPT вдруг отключат НАВСЕГДА. Тогда фирма и за 10000$ не найдет программистов. Оно Вам надо? Вопрос риторический.
Уже даже не смешно читать страшилки про замену программистов за 4000$ сначала на "инженеров", которых учат программированию на курсах "молодого бойца по программированию", а теперь на ChatGPT за 20$.
AllexIn
06.02.2025 14:51ChatGPT не лучший программист. В курсоре периодически переключаюсь между chatgpt/claude-sonnet/deepseek - вполне пригодны все варианты. Дипсик по ощущениям даже получше за счет способности переваривать контекст большего объема.
В интернете есть инструкции как настроить курсор на работу с оффлайн моделями. Тот же дипсик просто развернут и всё.
Проблема надуманная.R0uT3r
06.02.2025 14:51Та хрень это все. И дипсик и другие LLM. Недавно писал проект на flutter. Нужно было простенькую функцию реализовать, которая шлёт запрос на веб и получает json по http. Думаю: "ну дам задачку дипсику, вроде не сложно, должна справиться". По итогу час доказывал нейросети, что её код не работает (буквально не компилируется). Проще было бы самому написать, хотя казалось бы "ура, нейросети скоро будут за меня работать". Да и технология не такая уж ноунейм, чтобы нейронка такие галлюны ловила.
Wesha
06.02.2025 14:51В очередной раз напишу:
Все программисты в мире делятся на две категории:
— Те, кто считает, что ChatGPT кодит на порядок лучше их;
— Те, кто считает, что ChatGPT кодит на порядок хуже их.
И первые, и вторые абсолютно правы.nikolz
06.02.2025 14:51Предположу, что те , кто получает 4000$ в месяц кодит лучше , чем ChatGPT, а те, кто мечтает получать 4000$, кодит хуже.
Все верно?
-----------------------
Но, проблема не в том, кто как кодит, а в том, что качество и достоверность этой кодировки оценивает человек, а не ChatGPT.
---------------------
Если кодит ChatGPT, то авторство принадлежит ChatGPT, так как все, что ChatGPT накодил находится изначально в облаке.
NeoNN
06.02.2025 14:51Чтобы использовать нейросеть в разработке, нужно самому обладать хорошей квалификацией, чтобы её проверять, иначе вероятностная природа ответов сослужит плохую службу. Я всегда это сравниваю с мультиком, где были "двое из ларца".
AllexIn
06.02.2025 14:51Вы пробовали сами? Во многих задачах не надо ничего проверять. ПРосто кормишь её описанием проблем после тестирования и она их правит.
Она таким образом полностью переписала мне вебсервис с современного JS на древний, чтобы он смог запускаться на старом iPad. Я вообще не в зуб ногой, что там в JS изменилось, я вообще не веб программист. И просто описывал ей проблемы, а она исправляла.NeoNN
06.02.2025 14:51Да, пробовал, такие циклы правок могут занимать от 2 до 10 итераций, для небольшого кусочка специализированного кода. При этом, если знать предмет и внутренности платформы/языка, можно получить результат гораздо быстрее, и отсечь галлюцинации еще на первом этапе.
vvzvlad
06.02.2025 14:51Я пробовал. Даже писал про это: https://habr.com/en/articles/868790/
Результат бездумного кормления непригоден к сопровождения от слова совсем.
HSerg
06.02.2025 14:51Какую-то из предыдущих новостей про Google и 25% прокомментировал разработчик из Google, что значительная часть в составе этих 25% - это обычное автодополнение в IDE.
un1t
06.02.2025 14:51Если автопополнение считать то еще до ии ide писали 80% кода. Максимум 2-3 буквы вводишь, а дальше из автопополнение выбираешь.
Source
06.02.2025 14:51Так они ещё и язык специальный придумали, где можно побольше избыточного бойлерплейта генерировать, Golang называется xD
Теперь понятно зачем он такой невыразительный. Чтоб красивые проценты по достижениям нейросетей рисовать.
Kriptman
06.02.2025 14:51У всех этих примеров успешности разработки через ЛЛМ есть одна общая черта. Это всегда небольшой новый проект. Хоть бы один рассказал как он успешно взял легаси-проект на пару мегабайт исходников и добавил в него новую функциональность, сэкономив при этом кучу времени. Ну, для разнообразия примеров эффективности ЛЛМ в разработке.
AllexIn
06.02.2025 14:51Не корректно говорить что это LLM. Инструмент для программирования это более сложная конструкция, там LLM плюс достаточно большая надстройка над ней.
Именно поэтому "программируя" напрямую в чате с ChatGPT/DeepSeek или включив их в курсоре - вы получите сильно разные результаты по качеству.Вы, конечно, правы что контекста у модели не хватит чтобы переварить мегабайты исходников. Именно поэтому парадигма разработки с ИИ-инструментами совершенно другая, а именно - модульность. Чтобы модель работала с исходниками одного модуля, а остальные видела через API. Тогда ей хватает размера контекста чтобы не теряться. К слову, вообще-то, и человеческий код должен также писаться. Но у нас любят размазывать зависимости по всему коду. Жаловаться что ИИ-инструмент плохо разбирается в говнокоде и поэтому он плох - как минимум странно.
-
Нет никаких проблем использовать ИИ-инструменты для программирования в легаси проектах. Кормишь ему конкретные куски проекта и просишь в них разобраться - он вполне разбирается. Да, безусловно, при работе с большим легаси требуется больше внимания к инпуту и выхлопу, чтобы получить хороший результат.
un1t
06.02.2025 14:51Нет никаких проблем использовать ИИ-инструменты для программирования в легаси проектах. Кормишь ему конкретные куски проекта и просишь в них разобраться - он вполне разбирается. Да, безусловно, при работе с большим легаси требуется больше внимания к инпуту и выхлопу, чтобы получить хороший результат.
Если эти куски разбросаны по всему проекту, то это очень сложно компактно собрать все. И бизнес требования бывают сложные, а не просто отдать значение из базы. А легаси это еще всякие хитрые костыли.
ИИ помогает конечно и с легаси, но довольно слабо. Стартуешь проект с нуля первые несколько дней может быть буст х10, пока это не превратиться в неподдерживаемые говно, тогда уже понадобиться вникать и переписывать, а в старом проекте дай бог 10% к производительности добавит.
AlexIzimov
06.02.2025 14:51Меня поражает, как люди минусят ответы даже если они написаны по факту.
О чем-то это да и говорит.
Wesha
06.02.2025 14:51О чем-то это да и говорит.
«Ты говоришь то, что мне неприятно слышать, поэтому заткнись, заткнись, ЗАТКНИСЬ!!!»
antsam
06.02.2025 14:51Только есть нюанс. Программист тоже пользуется всеми этими инструментами. То есть сравнивать надо не программиста и chatgpt, а {программист + chatgpt} (за $4000) и просто chatgpt (за $20).
Пока что это как заменить водителя гужевого транспорта на автомобиль. Автомобилю тоже нужен водитель и притом ещё большей и квалификации.
konst90
06.02.2025 14:51Пока что это как заменить водителя гужевого транспорта на автомобиль. Автомобилю тоже нужен водитель и притом ещё большей и квалификации.
Да, но водитель грузовика может обеспечить сильно больше тонно-километров, чем водитель кобылы.
SwingoPingo
06.02.2025 14:51пока находится на автобане между двумя логистическими центрами и вопрос не доходит до "последней мили", где иногда и на лошадь перегрузить может быть дешевле. И цена автобана и его поддержания тоже ж не бесплатна и вся эта авто-инфраструктура. Лошадь же гораздо более автономна. Но лошадь не лучший пример. Вот собаки как охранник уже получше.
antsam
06.02.2025 14:51да, но грузовик без водителя не сможет ничего.
konst90
06.02.2025 14:51Точно так же, как ChatGPT или IDE без программиста (или человека, идентифицирующего себя как программиста).
Интересно, кстати, кого с нуля научить проще - водителя грузовика или лошади с телегой.
Newbilius
06.02.2025 14:51Интересно, кстати, кого с нуля научить проще - водителя грузовика или лошади с телегой.
А фиг знает. С одной стороны - живое существо с не особо детерминированным поведением, с другой - управляя фурой можно случайно угробить горааааааздо больше людей и чужой собственности, ибо размеры и скорости сильно иные.
Dhwtj
06.02.2025 14:51в коде где больше 1000 строк победит человек
а может и раньше
но для такого соревнования нужен день, вряд ли кто захочет проверять
whitehorsespb
06.02.2025 14:511000 правильных строк gpt пишет меньше чем за 5 минут легко. Чего тут проверять? Вопрос немного про другое
nikweter
06.02.2025 14:51Написать то и я могу. Вопрос в другом-вот есть код на 1.000 строк и он что-то делает. Сможет ли чат гпт добавить ещё сколько-то строк, чтобы код делал ещё что-то, не сломав при этом предыдущую функциональность?
AllexIn
06.02.2025 14:51Да, сможет. Сможет ровно столько строк на сколько ей хватит контекста. Вопрос расширения контекста это вопрос эволюционного развития, так что там проблем не будет.
Сейчас 1000 строк это и не близко к верхней границе возможностей.lowkeypriority
06.02.2025 14:51*Сможет ровно столько, на сколько модель обучили. Когда ИИ спрашиваешь что-то обывательское (а-ля наклепай сервис на Node.js и чтобы отдаваемый фронт поддерживался IE и т.п.), то всё гуд, но чуть в сторону и он начинает бред нести, пытаясь собрать в кучу что знает и что "созвучно" с описаным промптом. Как ребёнка заставить рассказать про тему, которую слышал, но вообще не знает — расскажет вроде осмысленную, но всё-таки отсебятину :) Да и сидишь как с каким-то ребёнком "не, вот в этой строчке ошибка", "не работает", "не компилится" и т.д.
ИИ не волшебная пилюля, без данных очень тяжело воспроизводить и генерировать что-то. В интернете, откуда и берут на чём тренировать модельки, очень много про то, как написать сайт, седелать babel обёртку или инициализировать новый-фреймворк-100500, но никто не пишет статьи о том, как "я переписал специфичный сервис" или "пофиксили баги в переписанном мной сервисе", в таком же количестве как вопросов о типизации JS на StackOverflow
Без данных ИИ ничего не может. А нормальным данным, за которыми ИИ буквально бует повторять, без хороших инженеров неоткуда взяться
un1t
06.02.2025 14:51Только он даже написанные тесты реализовать сам не в состоянии хоть 1000 итераций сделай. Это прямо как в анекдоте, я печатаю 1000 знаков в минуту, но такая херня получается.
Juf8887
06.02.2025 14:51Gpt точно нет. Он даже толком html прописать не может, о чем вы....
Не спорю, есть другие модели, более менее норм. Но и они пока человека не заменят
edogs
06.02.2025 14:51Пробовали ИИ для разработки, в общем осталось мутное ощущение... и ладно бы ошибок или галлюцинаций, газлайтинга блин.
1) Если задача простая, то часто можно получить готовое решение сразу, но... можно получить его с "бомбой". Делаем промт написать класс авторизации - написал - при логине проверял данные, писал в печеньки, а дальше просто верил данным из печенек. Пробовали исправить - начинается газлайтинг вида "проверка пользователя происходит, проблемы нет".
2) Если задача сложная, то ИИ видимо строит какую-то свою схему и отвечает на основе нее. Загрузили готовый код в ИИ, попросили написать такой же, но с немного другими исходными данными. Перекорежил половину кода вплоть до нерабочести (переименовал функции, часть выкинул, часть заменил своими) и... в ответ на любые промты - газлайтит - мол код один в один как Вы и предоставили, изменены только переменные.
3) Работа с либами неоднозначна. Даешь промт на использование одной либы, но ему забито, использует апи от другой и опяь же - газлайтит, что использует тот апи что ему сказано.
4) Работа с дизайном/версткой. Божитымой. Первый промт в принципе генерит что-то приличное. Но практически любая просьба о точечных изменениях валит всю верстку хуже чем если бы мы сами этим занимались (а к верстке у нас таланта нет от слова вообще).
У нас была простая задача - на незнакомом нам языке написать рабочий код - бэк и фронт, думали с помощью ИИ напишем быстрее. "агащазблин"© начало было действительно быстрым - отдельные куски заработали быстро, но когда пошло усложнение, тесты, проверка того что код не только "делает что надо" но и "не делает чего не надо", тут всё.Провозившись с помощью промтов к ИИ пару дней - от ИИ не отказались, но использование свелось к "а напиши-ка мне как делается эта штука", чтобы уже дальше посмотрев примерный образец - написать нормальный код. Офигенно полезно и экономит время на самом деле, но главное - не рассчитывать ни на что большее.
При чем когда ему загружаешь уже готовый код и просишь об изменениях - смотрим пункт 2 - он составляет у себя где-то там свое представление о коде, которое с реалиями совпадает лишь отчасти, в недостаточной части. Поэтому изменять готовый код просить - очень сомнительная затея.
Честно говоря после первых проб и хвалебных од в интернетах - были очень сильно разочорованы. Все же ИИ пока не программер, а скорее продвинутый поисковик и хелп. Или притворяется, работать-то так-то никому особо не хочется, а покажешь хороший результат - подпрягут:)
pavelsc
06.02.2025 14:51Для этого надо готовый проект реверснуть в промпт вручную, желательно с зависимостями, причем промпт едва ли не менее объемный чем сама бизнес-логика. И тогда может быть что-то и получится, но гарантии нет, можно получить точно такой же пшик.
И интересно как отнесутся ИБшники, что вся кодовая база при загрузке готовых проектов осядет в логах чатгпт на серверах типо "недружественных стран" )
edogs
06.02.2025 14:51Так практически это и пробовали. У нас к проекту максимально детальное ТЗ было.
Тут реально нам проблема представляется в том, что при написании/разборе кода ИИ переводит его в какую-то свою внутреннею схему и дальше работает с ней. А вот в ходе перевода туда и обратно - как раз и происходят "потери смысла". Поэтому код "снуля" у него получается более или менее, а вот любые изменения/доработки и/или работа с готовыми проектами и оппа - сразу реальность получить что-то приемлимое падает на порядок.
kryvichh
06.02.2025 14:51LLM в Python вроде неплохо разбираются, как по мне, который с этим языком не работал. Бесплатный Copilot рассказал общий план решения задачи, как подготовить данные, какие либы использовать, накидал кода для задания структуры модели, обучения, тестирования, запуска. Подсказывал, если вылазили косяки. Такой ускоренный курс датааналитика за 2 дня.
Проблема современных LLM мне кажется, что они заточены на выдачу ответа максимально быстро, вместо того, чтобы основательно подумать. "Думающие" LLM типа DeepSeek-R1, OpenAI o3 должны быть более полезны в разработке. Но они должны тратить ещё больше времени на обдумывание, каждой строчки кода, делать пометки в процессе работы, иметь доступ к компилятору для тестирования. Но тогда и стоить такая модель будет не $20, не $200, а все $4000/мес.
AnimeSlave
06.02.2025 14:51Для использования ChatGPT за $20 нужен программист за $4000. Поэтому стоимость использования ChatGPT в сумме будет $4020, что на $20 дороже просто программиста. Бизнес на такое не пойдёт
vvzvlad
06.02.2025 14:51Пойдет, еще как пойдет. Вот как разу программиста за $4000 выхлоп вместе с LLM будет максимальным, в отличии от программиста за $300
acsent1
06.02.2025 14:51Ну скорость работы программиста с гпт чуть повыше. Я например от codeium/copilot уже отказываться не хочу
qeeveex
06.02.2025 14:51Пробовал разные.
Много времени уходит на правки сгенерированного кода и написание промпта. На практике быстрее самому написать.
Единственное что нравится, это дописывание кейсов в готовых табличных тестах.
Ilya_JOATMON
06.02.2025 14:51Если похожего или соответствющего задаче кода не было в интернете (откуда собственно все нейросетки учились) то хрен они что напишут правильное. В принципе. Например для выполнения определенной задачи нужна правильная последовательность вызовов АПИ с нужными параметрами. Если нет этого в обучающих данных, то как оно поймет что делать вообще? Так как надо для этого допустим надо прошерстить документацию вдоль и поперек, представить по косвенным признакам как оно работает, и сделать несколько тестовых приложений для уточнения поведения. И только тогда написать тот код который будет работать как нужно.
AllexIn
06.02.2025 14:51Вы шутите? Кормите ей документацию по API и она успешно его использует.
Начинаешь писать с ней код внутри существующего проекта, она подхватывает методы из существующих классов и их использует.
Если бы всё было как вы описали - она была бы совершенно не пригодна.
У вас странный и непонятный опыт использования сетей для программирования. Возможно вы дергали всяких левых недоделанных бесплатных ботов из телеги, а не нормальные инструменты?ZhetoN
06.02.2025 14:51ничего личного, но по моим наблюдениям - чем лучше вы разбираетесь в технологии, тем от "ей" меньше пользы :)
Antra
06.02.2025 14:51Ну так логично же. LLM не делает "лучше лучшего". Не стоит сразу замахиваться на "заменить всех сеньоров".
А вот джун + LLM, натасканная на код, вполне эквивалентна паре джунов. Или делает из джуна мидла.
LLM может заменить часть программистов, но не всех.
Wesha
06.02.2025 14:51Проблема только в том, что джун — это личинка синьора. Не будет джунов — не будет и синьоров.
Antra
06.02.2025 14:51Если заменить всех джунов - безусловно.
Но речь-то о том, что если сейчас работает десяток джунов, на увеличившийся объем работы вместо еще пяти возьмут ИИ. При этом новых джунов брать будут, просто в меньших количествах. К примеру, на замену "выросшим".
Причем далеко не все джуны и сейчас вырастают в синьоров. Думаете не было такого, что кого-то брали "ну ладно, этот хоть что-то может, текущую дыру закроет"? Такого в будущем не возьмут (заменят ИИ), ну так он до синьора и безо всякого ИИ не дорос бы.
Правда в ваших словах, безусловно, есть. Но маловероятно, что она реализуется, поскольку "ИИ заменит программистов" понимают как "заменит ВСЕХ программистов" только в страшилках, но не в реальных прогнозах.
В конце концов, мы же не страдаем, что благодаря болгаркам-циркуляркам уменьшилась потребность в пилильщиках. Да и снижения качества строительства вряд ли объясняется тем, что теперь не приходится долго ручной пилой фигачить...
fenixion
06.02.2025 14:51Программистам которые используют LLMки в повседневной работе очевидно что на текущем уровне они не представляют им никакой конкуренции, потому что не могут достаточно надежно находить собственные ошибки и галлюцинации.
LLM можно сравнить со специалистом который вдруг сошел с ума. И вот он местами выдает профессиональный контент, а местами бред в который верит. Другой специалист достаточной компетенции может использовать его генерацию, отфильтровывая бред. И проблема в том что если компетенции не достаточно, то отделить бред можно только проверкой на практике, потому что он очень правдоподобен.
Когда появится AGI встанет другой вопрос, сможет ли он генерировать софт дешевле человека. Пока рассуждающие модели вроде как очень дороги в потреблении ресурсов.
Alexey2005
06.02.2025 14:51Вот только по мере роста доступных вычислительных мощностей качество кода нейронок растёт, а качество кода среднего разработчика - падает.
Первое правило разработки: программист пишет код настолько плохо, насколько это ему позволяют доступные пользователю ресурсы. Чем мощнее становятся компы, тем более жрущие и тормознутые программы появляются. Electron уже давно стал мейнстримом, а представьте, что будет, если объёмы памяти и количество ядер на среднем девайсе вырастут ещё раз в 10...
Ухудшение кода, который пишут разработчики, полностью линейно: они говнокодят ровно столько, сколько получается, останавливаясь на той границе, где пользоваться их софтом уже неприятно, но всё ещё не настолько мучительно, чтобы пользователь от него отказался.
То есть если вычислительные мощности выросли в 10 раз, то ровно во столько же раз подросли и аппетиты программ.
И раз мы видим, что рост вычислительных мощностей увеличивает качество нейроночного кода, но ухудшает качество кода живых разработчиков, то итог немного предсказуем. Даже если вот прямо завтра прогресс в области ИИ остановится, то это лишь отсрочит неизбежное, ибо живые программисты продолжат регрессировать. Вычислительные мощности подрастут ещё в 10 раз, и живой миддл будет говнокодить уже вполне на уровне нейронок. А раз так, то его замена неизбежна.
Kozlovskiy
06.02.2025 14:51Если качество кода разработчиков становится все хуже, то каким образом улучшится качество у нейронок, которые обучаются на существующих проектах? Если весь код отныне будет писать ии, опять же, откуда возьмётся прогресс?
Ravius
06.02.2025 14:51От способов обучения. Погуглите data secrets(на хабре тоже постили).
Оч коротко: запускаем код с тестами, выбираем работающие ветки + проверяем на "красоту кода" это идёт в награду, остальное в штраф.
Bioman85
06.02.2025 14:51Все это работает только на простых выборках. В более сложных проектах подобное быстро приводит к тому, что одни и те же категории весов, в одном коде работают нормально, а в другом ломают все вдоль и поперек.
Покуда не будет LLM с огромным размером контекста и соответствующей разрядностью никакой замены не будет и близко. А их не будет, потому что для этого нужно куда больше вычислительных мощностей, чем есть. Алгоритмы в части задач могут помочь, но ничего универсального из этого никак не получить.
Костыль, который будет делать вид, что понимает то, что от него хотят, как максимум. До уровня, когда нейронки будут думать, а не просто переставлять блоки за пределами указанных весами, еще ой как далеко...
ViacheslavNk
06.02.2025 14:51Да что-то не получается пока, я спросил ChatGPT написать мне продукт для репликции MSSQL standalone instance, с возможность реплицировать куда угодно, то есть сделать аналогAlways On и что то ChatGPT ответил не внятно.
Ладно попросил сделать его продукт для рисования больших графов, с возможность использовать разные символы, геоданные, создавать анимации и тоже не смог ChatGPT мне помочь.
oratorslova
06.02.2025 14:51Это все равно, что от первоклассника требовать решать задачи с пределами функций. Куда Вы торопитесь? Не знаю, как Вы, а я про chat gpt узнал всего пару лет назад. ИИ учится. И то, что ему не под силу сейчас, и из - за чего можно ложно самоуспокоиться (я могу, а он - нет) , будет под силу совсем скоро. И тогда задач, которые ИИ не сможет решить, будет все меньше, а тревог у программистов - все больше.
Ravius
06.02.2025 14:51Вы программист или менеджер? С таким ТЗ вы пошлете менеджера или вас пошлют? Постановка размытая и не корректная.ИИ нужен бейбиситинг похлеще программистов, т.к. ИИ вообще не умеют переспрашивать(хотя программисты порой тоже).
Реплицировать куда угодно
Chat gpt: принято, я запомнил вашу базу.
ViacheslavNk
06.02.2025 14:51Ну само собой я ради интереса расписал относительно подробное ТЗ на создания репликатора, но само собой я не ожидал чудес от ChatGpt. Более того черт с этими программами, дайте возьмем книгу Кнута Конкретная Математика и попросим эти чаты/сики решить задачи со звёздочками из той книги.
VanShi87
06.02.2025 14:51Дипсик уже вполне решает, мне даже иногда не хватает компетенций навскидку оценить решение (слишком как-то просто у него выходит, но вроде все ок)
a1111exe
06.02.2025 14:51Если я правильно понял суть статьи: дешёвый ЧатЗПТ не может заменить недорогого программиста. Что ж, очень рад. ЧатЗПТ, конечно, бывает весьма полезен, но даже о1 и о3 мини глючат часто и безбожно. Надо будет потребовать повышение зарплаты, пока не поздно...
oratorslova
06.02.2025 14:51Не корректно поставлен вопрос. Почему именно "полная автоматизация"? Пусть будет не полная. Пусть ИИ будет подмастерьем, помощником, который закрывает локальные задачи. Именно здесь он максимально эффективен. Именно в таких задачах он быстрее программиста. Перфекционизм и завышенные ожидания надо отложить на несколько лет. Все придет.
oratorslova
06.02.2025 14:514000? Не многовато ли, чтобы стучать по клавиатуре? ИИ вскоре покромсает заоблачные гонорары. В 90-е я ещё застал секретаршу, которая набирала письма на печатной машинке. Где она сейчас? Программисты - люди повторят судьбу динозавров.
CrazyElf
06.02.2025 14:51А я ещё застал программистов, которые перфокарты пробивали. От того, что программисты перестали пробивать перфокарты, нужда в программистах почему-то не исчезла.
titan_pc
06.02.2025 14:51Вообще не понимаю. ИИ заменит программистов. А блогеры и ютубуеры? Не?
Нигде не вижу заголовков - блогеры всё. Вышла нейросеть, убийца блогеров. Тот мир приспокойненько взял софт себе на вооружение и ещё больше гребёт денег.
Мы же такие - совместно маршируем к замене себя на то, что сами создавали. Класс) Так и надо нам программистам - кого то же должна ллм заменить) Нас в первую очередь.
stryder123451
06.02.2025 14:51ИИ , создает главную проблему - он не дает инженеру расти и развиваться, решая проблемы. Решать проблемы, это главный скилл инженера. Для самообучения ИИ шикарен, это лучший наставник, но заменить им сотрудника, плохое решение, которое приведет к проблемам. Пример из жизни, друг работал на предприятии (обычный рабочий), с пакетом программ MS Office, у которого макросы написаны на VB , гении управленцы, наслушавшись сказок про ИИ, решили не нанимать программиста чтоб он переписал макросы под Р7 Офис (там объем большой был, это не условные вставки), а деньги на разраба попили на премии. Итог очевиден: какой-то код был написан, но написан, естественно с ошибками в расчетах, а местами просто не работал, из-за чего огребли все. Не знаю, чем там закончилось, но думаю, урок усвоили
Linhead
06.02.2025 14:51Урок то освоили, но почти уверен, что премии никто назад не вернул))
А раз так - значит рабочая схема)
Jijiki
06.02.2025 14:51допустим я сделал меш, и его надо проверить, ИИ может помочь, кидаем в миксамо получаем чутка анимаций, но с Т позой придётся работать вручную или по риг системе, тут пока не видел такого ИИ, тоесть проверить меш удобно, а дальше с этим мешем, тоесть включая всю наводящую базу до анимаций и после мне всё равно приходится проделывать с моделькой)
это конечно не промпт, просто чтоб чатгпт сделал весь пайплайн это очень громоздкое обьяснение чату что и почему вроде
zmiuko
06.02.2025 14:51Ну что за глупость.. Что сильнее: лошадь, телега или человек с телегой с запряжённой лошадью? Gpt это ведь не замена, а инструмент. Разницы нет на что тратить ресурсы: на двадцать человек с деревянными счётами за кассой или дирекцию, маркетологов, команду техников и автомат с тем же товаром, что и в первом случае. Или автор на полном серьёзе считает, что от перемены мест слагаемых меняется сумма? Это словно побег от реальности в сторону того, что кто-то и совершенно бесплатно сделает за тебя всю работу. Но даже для робота нужен шаблон и мало того уголь, сама идея.
Areso
06.02.2025 14:51Изучаю Голэнг. Попросил написать пример сервиса, который принимает фотографии, пережимает их, и сохраняет. Каждый раз, снижая бОльшую сторону до 1000пх, он переворачивает вертикальные фото в горизонтальные.
И если сначала вместо всего опуса обработки фотографий он просто взял библиотечный .fit(), то потом он встал в позу и сказал, что его код делает что нужо, а пользователь дурак.
Проблема даже не в том, что он ошибается или сочиняет (хотя это кстати тоже проблема, скажем, для задач системного администрирования), а в том, что он или сразу или с течением попыток перестает воспринимать запросы на исправление, когда показываешь ему ошибку. Так что сегодня - вряд ли, но еще пару-тройку поколений, микс нескольких нейросеток, и оно будет готово.Ravius
06.02.2025 14:51Не очень понятно кто он? (Возможно понятно, но я скипнул статью заминусованную).
не очень понятно вы ошибки ему сыпите в чат без обновления кода? Не надо так. Обновляйте код + дописывать ошибку в новом чате.
Я попробовал вайб кодинг: 3к строк - мне написала о1mini. А потом пошли проблемы, которые решает но не так как я хочу. Хотя я лениво пишу на псевдо английском(с опечатками и тд).
Как инструмент ускорения - 10/10. Описанное вами - скорее проблема в вас и непонимании инструмента, вашу задачу он(о1high) точно решит.
tcapb1
06.02.2025 14:51Кажется, что большинство комментаторов использовали какие-то старые версии LLM. За те два года, что я использую LLM в программировании я вижу очень большой прогресс. В GPT 3.5 даже на небольших задачах часто были галлюцинации. С o1/o3-mini-high, а иногда и с Claude 3.5 Sonnet я могу накинуть сразу несколько файлов для контекста, скопировать задачу из Jira и сказать "пиши". В большом проценте случаев ИИ напишет с первого раза как надо.
Да, LLM может что-то не учесть или использовать старую библиотеку, но это больше вопрос к промпту. Да, иногда было такое, что LLM с самого начала предлагала не самое оптимальное решение, и на его разбор мне приходилось тратить больше времени, чем если бы я написал сам. Но в основном нейросети мне в ежедневном режиме очень экономят время. Да, нужно ревьювить каждую строчку, но это в любом случае надо делать. А исправлять приходится всё меньше и меньше. Тут и нейросети вышли на новый уровень и я научился что, как и в каких случаях у них запрашивать.
Я не вижу причин, почему эта тенденция должна остановиться. Пока есть проблемы с большим контекстом и связкой с пользовательским опытом (LLM видит только код, но не интефейс продукта в динамике), но это не выглядит нерешаемым.В краткосроке наверное ничего страшного не произойдёт. Программисты будут эффективнее, но задач много, можно будет просто начать делать те задачи, которые раньше не сходились по экономике, а теперь начнут сходиться.
Но в дальнейшем LLM вполне могут заменить не только джунов и мидлов, но и тимлидов, PM и т.д. Эта работа требует большей квалификации, происходит на более высоком уровне абстракции, но в целом такая же работа с данными, во что LLM умеют. Пока не так хорошо, как работать с атомарными задачами, но посмотрим что будет дальше.
SquareRootOfZero
06.02.2025 14:51Делал на днях мелкую фигню для души, понадобилось сделать crop для видео средствами модуля python-vlc. Ввожу в Гугль запрос: "python-vlc crop video". Первым делом гугловский ИИ выдаёт следующее:
import vlc # Create an instance of the VLC media player player = vlc.MediaPlayer("path/to/your/video.mp4") # Set the crop filter player.video_set_crop_geometry("0,0,100,100") # (x, y, width, height) # Play the video player.play()
Функция video_set_crop_geometry в библиотеке действительно есть, но с таким параметром не работает. Пошарил по ссылкам, не нашёл решения, чуть переформулировал запрос, ИИ сгенерировал код плюс-минус аналогичный, только теперь там было что-то вроде:
video_set_crop_geometry("0.3,0.3,0.7,0.7")
Типа, не в пикселях, а в долях от размеров. Тоже не работает. Реальный синтаксис там оказался довольно хитровыделанный, нашёл его потом.
Не знаю, правда ли оно лучше пишет на nodejs монолиты микросервисов лендингов бэкендов с конверсией лидов, но у меня вызывает некоторое недоумение сам факт разговоров, что оно то ли вотъ-вотъ заменит, то ли уже заменило всех программистов, когда оно вот просто врёт в банальном примере вызова функции из API.
Dron007
06.02.2025 14:51ChatGPT 4o выдаёт
Cropping a video using
python-vlc
directly is not supported, as VLC's Python bindings do not expose video cropping functionality. However, you can achieve this in two ways:1. Use VLC Command-Line (with Python subprocess)
...
2. Use FFmpeg (Recommended)
...
Ну и o3-mini c поиском детальнее этот пояснил. Гугл просто не разобрался, похоже. Ну и тут, похоже, у авторов своё определение для crop, раз в название функции включили, а оно не меняет размер на самом деле.
SquareRootOfZero
06.02.2025 14:51ChatGPT 4o выдаёт
И, что характерно, это всё неправда. Функция для обрезания видео в библиотеке присутствует, та самая
video_set_crop_geometry
, только вызывать её надо так:# left, top, width, height of the crop region l, t, w, h = 657, 0, 606, 1079 W = w + l H = h + t player.video_set_crop_geometry(f"{W}x{H}+{l}+{t}")
Ваш "o3-mini c поиском" хотя бы общий формат строки сказал правильно (что не через запятую, а этот "x++"), но с параметрами опять не угадал.
Тут, конечно, можно было бы предъявить авторам библиотеки, что, во-первых, нафига синтаксис столь замудрёный и неочевидный, а, во-вторых, почему он при этом ни хера не описан в документации - вернее, описан, но вот так:
video_set_crop_geometry(self, psz_geometry) Set new crop filter geometry. Parameters: psz_geometry - new crop filter geometry (None to unset).
И это всё, по-моему - во всяком случае, описания этого
psz_geometry
я там не обнаружил. Но это не отменяет того факта, что весь этот ИИ не только не помог, но и все 4 раза (две моих попытки и две ваши) навалил какой-то лажи.Dron007
06.02.2025 14:51Если в сети нет примеров, то неудивительно, что она запуталась. Программист бы тоже запутался. Как я ниже писал, всё сейчас по сути в начальном состоянии. Человек выполняет последовательные действия для достижения результата. Сейчас только появляются подобные системы. Думаю, пройдёт 2-3 года или даже меньше, и на подобные вопросы при необходимости она будет искать и смотреть видео, анализировать исходный код, каналы в Discord и прочее.
SquareRootOfZero
06.02.2025 14:51В сети есть примеры - как минимум, один, который я, как я писал выше, в конце концов нашёл. Мне пришлось долго копаться, потому что у меня в голове нет большой языковой модели всего интернета. А у ИИ есть, значит, и на том примере оно тоже училось. Казалось бы, возьми да выдай. Но нет. Зато неправильных примеров (которых, по-моему, в сети как раз нет) оно навыдумывало сколько угодно. Вопрос валидации - что код делает действительно то, что нужно - я так понимаю, в процессе взаимодействия с ИИ не ставится в принциие: нуу, вот вам что-то, оно, наверное, делает чего-то. "Думаю, пройдёт, и оно будет" - это мнение основано на глубоком знании темы или на личном опыте веры?
Dron007
06.02.2025 14:51Так это же не пример, а заголовок функции с именами параметров, API просто. По нему только гадать можно какой там формат.
Вопросов и вообще императивных действий там не ставится. Всё отдаётся на откуп обучению и тут уже вопросы к качеству исходных данных. Если их мало и они противоречивы, то не обучится нормально. А валидация неявно происходит за счёт глубоких слоёв, где формируются смыслы взаимосвязей между данными. Просто ИИ не поисковая система, как тут некоторые пишут, и сохранение точных данных не гарантировано. Модели с reasoning должны получше справляться с многоэтапным анализом задач и вариантов решения.
eptr
06.02.2025 14:51А валидация неявно происходит за счёт глубоких слоёв, где формируются смыслы взаимосвязей между данными.
У интуиции нет смыслов.
Именно поэтому она может откровенно начать бредить.
Dron007
06.02.2025 14:51А насчёт "функция для обрезания видео в библиотеке присутствует" так если почитать ту отсылку на Stackoverflow, так там, как я понял, обсуждали вопрос, что реальный размер видео не меняется, то есть это не полноценный кроп, а затемнение просто. Поэтому и 4o написала, что кропа нормального нет.
Формат у вас:
player.video_set_crop_geometry(f"{W}x{H}+{l}+{t}")
У o3-mini:
media_player.video_set_crop_geometry("widthxheight+offset_x+offset_y")
В чём разница? Что не так формально описал? Где он вообще этот пример нарыл, интересно?
Update: вот даже полный пример с комментариями дала, я его даже запустил и он работает вроде. Что вам не нравится-то? Нигде в сети не найти пример, а тут готово. Тут обновлённый ответ.
Скрытый текст
import vlc import time def main(): # Создаем экземпляр VLC instance = vlc.Instance() # Создаем media player player = instance.media_player_new() # Задаем путь к видео (замените на путь к вашему файлу) media = instance.media_new("example_video.mp4") player.set_media(media) # Устанавливаем геометрию обрезки # Формат строки: "ширинаxвысота+смещениеX+смещениеY" # Например, "640x480+100+50" означает: # - 640 пикселей по ширине и 480 пикселей по высоте # - смещение от левого края 100 пикселей и от верхнего края 50 пикселей crop_geometry = "640x480+100+50" player.video_set_crop_geometry(crop_geometry) # Запускаем воспроизведение player.play() # Ожидаем 10 секунд для демонстрации time.sleep(10) # Останавливаем воспроизведение player.stop() if __name__ == "__main__": main()
Только она там даёт ссылку на документацию и в ней я вообще этой функции не нашёл, зато много других с кропом. Не разбирался, может где и есть или уже не поддерживается.
SquareRootOfZero
06.02.2025 14:51Вот таковы должны быть размеры кропа из вашего примера на кадре размером 1280x720 (откройте картинку в графическом редакторе, проверьте сами):
Заголовок спойлера
title А вот тут верхний скриншот иллюстрирует, как выглядит кроп согласно вашему примеру (неправильно, сравните с частью изображения, попавшей в рамку на кадре выше), а нижний - как выглядит правильный кроп, если сделать так, как я выше писал, и до чего опять ваши нейросети не смогли додуматься, уже в пятый раз соврамши. Разница в том, что первые два числа - это не ширина и высота, а пиксельные координаты правого нижнего угла. Обратите также внимание, что это именно полноценный кроп видео, а не "затемнение просто" - видео обрезается по заданной геометрии (опять-таки, неправильно ваша "4o написала, что кропа нормального нет"):
Заголовок спойлера
title Dron007
06.02.2025 14:51Ага, понятно. Я тоже обратил внимание, что что-то не совсем то кропится если исходить из того, что это ширина и высота. Ну, это уже вопросы к разработчикам, которые 1) тупо назвали параметры 2) нигде это нормально не описали. Нейросеть к ним в голову пока залезать не научилась и шерстить исходники, запуская на виртуалке и проверяя код. Возможно, ещё научится.
Да, вижу, что кроп полноценный, но что-то ж там на stack overflow на эту тему обсуждали.
JoshMil
06.02.2025 14:51Чтобы нейросеть написала код нужно не меньше работы восококвалифицированного специалиста, чем это нужно в случае с программистом.
Так что о какой то замене довольно странно рассуждать. Скорее о допрлнении.
Обобщенная методология, более эффективное обучение, избавление от рутины. Вот что дает людям нейросеть.
Wesha
06.02.2025 14:51Если взять историю разработки, то когда-то нужно было хорошо понимать, как работает память компьютера. Потом появились операционные системы, потом браузер
...отчего хорошо понимать, как работает память компьютера нужно быть не перестало.
YourgenAP
Нет, нельзя. Я попросил ChatGPT посчитать мне маску для CAN Identifier, чтобы была фильтрация сообщений. И попросил после проверить другие Message ID, которые не должны входить в заданный промежуток. В итоге логическое И он смог выполнить правильно только с третьей попытки, сперва вообще его не выполнив, потом выполнив логическое ИЛИ.
Эта задача очень простая и расчет был, что ChatGPT позволит потратить меньше времени. В итоге, мне кажется, я потратил на эту задачу больше времени, чем сделал бы это сам.
kreout
Я не разбираюсь в CAN, но выглядит как будто модель o3 вполне себе справляется с этой задачей. https://chatgpt.com/share/67a517fc-88e8-8007-a9f3-e1728d764cf6
Wesha
Ключевые слова — «не разбираюсь» и «выглядит».
Cerberuser
Ключевое - различие в значении слова "справляется" в разных диалектах русского (как минимум техническом и повседневном точно, но, скорее всего, и внутри каждого из них различий тоже хватает).
DancingOnWater
И это прикол всех больших языковых моделей. Они выдают результат который кажется правдоподобным.
omaxx
Больше всего бесит то, что если вопрос действительно сложный, и модель на него не знает ответа, то она начинает пытаться выкрутится и сочинять на ходу.
Wesha
Ненуачо, модель двоечника на экзамене, конечно, получилась великолепная, этого у них не отнять.
Wesha
О том и речь: для тех, кто не разбирается, оно и правда выглядит правдоподобным. А потом ракета взрывается, самолёт разбивается, а ИИ — в домике!
Ivan22
так мне ИИ и нужен в первую очередь для того чтобы написать что-то в чем я не разбираюсь.
omaxx
Три идиота (2009) - Чатур произносит вступительную речь на дне учителя:
https://www.youtube.com/watch?v=fG9XY0Q-dl8
Wesha
А научиться и начать разбираться (ну, хотя бы чтобы галюны от годноты отличать) — это типа не для реальных пацанов?
Был один такой персонаж (который не разбиралася и не хотел)
(Спойлер: плохо кончил.)
eptr
Это — не прикол, это — следствие.
Следствие того, что ИИ — это искусственная интуиция, а не интеллект.
Именно так и работает интуиция.
arantar
del
Vladekk
Я работал с ЧатГПТ в радиоэлектронике, где я ничего не понимаю. В целом, он даёт дельные советы и рекомендации, и кое-что может набросать. Проблема в том, что он легко ошибается и выдумывает, а я об этом не знаю, потому что зеленый в этой области.
В программировании помогает больше, потому что я обычно вижу, врёт или нет.
Думаю, что технология классная, и она будет везде, но нужно несколько лет, чтоб устаканилось.
NihilPersonalis
Вряд ли устаканится. Это никакой не ИИ, это всего лишь новый уровень поиска с анализом, который часто выходит боком в виде необоснованных фантазий модели.
Беда в том что многие верят и радуются ответам, не понимая что это подстава, которую надо очень внимательно проверять.
astroduck
Как раз это ИИ. И он не ищет, он генерирует и именно по этой причине и страдает "галлюцинациями". Люди тоже таким страдают. Например сон рождает галлюцинации, называемые снами, а ещё есть ложные воспоминания, попытки угадывания как у студентов на экзамене и пр. Это фактически общая черта как искусственного, так и естественного интеллекта. И по этой причине он даёт отличные результаты когда нужно что-то придумать и ужасные когда речь заходит о фактах. Возможно со временем количество таких "галлюцинаций" снизится, но они никогда не исчезнут. А значит его придется все равно перепроверять и контролировать, как это происходит и с людьми. Не будет волшебной кнопки "сделать зашибись". И конечно не нужно путать ИИ и искусственный разум (или сильный ИИ). Первый вполне себе существует сейчас, второй не факт что вообще появится в обозримое время. А если появится, то не факт что будет сотрудничать с людьми.
WebPeople
А я, надеюсь, доживу до этого времени, когда импланты в мозг помогут сознание расширить железом, а в идеале полностью перенести.
Предполагаю, что этот процесс будет чреват потерей части информации. Но это не страшно. Это значит лишь, что наш мозг сам уже "забыл" ее. И искусственный разум будет помогать людям в этом процессе переноса.
В агрессивность сверх интеллекта относительно людей я не верю. Скорее будет наоборот. Это люди будут проявлять агрессию против "новых" ИИ-людей. И если война и будет, то только между старыми и новыми человеками. Обычно самые агрессивные люди - малограмотные.
Spaceoddity
Как раз это не ИИ!
Он именно что ищет - отключите ему языковую модель, много он вам нагенерит?
Генерит ответы он уже из найденных кусков. Соответственно - чего нет в базе данных, того не будет и в выдаче. Отдельным бонусом идёт вероятность нагенерить шизофазии из корректно найденных кусков))
Я ДипСик погонял и в хвост, и в гриву - и на фактах, и на логике, и на фантазировании... В данный момент(!) его практическая ценность для меня на уровне... Акинатора)) Тоже по началу есть вау-эффект, который очень быстро сменяется зевотой... В "данный момент" выделил потому, что тут очевиден количественный рывок (модели будут всё более объёмными), которой опосредованно перейдёт в качество. Но каким либо "интеллектом" тут и не пахнет...
lonberg
Так ведь и человек генерит из "кусков". Ребенок так же ничего не нагенерит, и рисует обычно каракули без всякого смысла.
И человеку надо время сформировать свою модель, к тому же она у всех разная: врач, бухгалтер, историк ...
Уверен, что увеличение мощностей(не только для текста но и визуальных образов) и улучшение алгоритмов, приведут ИИ к неотличимым результатам.
Spaceoddity
Причём здесь ребёнок??? Здесь готовый продукт лажу генерит! А вы в качестве контраргумента с ребёнком сравнивать будете? А чего не с тараканом?
Опять подмена понятий)) Т.е. тот факт, что нейросеть именно ищет, а не генерирует - сомнений не вызывает?
Вот зачем вы проводите прямую аналогию с человеческим интеллектом? Тут очень мало похожего. Частенько надо ровно наоборот - абстрагироваться от предыдущих знаний, поскольку они могут мешать взглянуть на задачу с неожиданной стороны. Ровно то самое, на что нейросети в принципе не способны))
Ну это уже ваша проблема. Кто-то и в плоскую землю верит....
Неотличимым от чего? Второй Исаак Ньютон появится?
fen-sei
"Не правильно ты, дядя Фёдор, бутерброд ешь" (c)
Нейросеть нужно просить не "напиши мне маску для фильтрации сообщений",
а нужно попросить "отфильтруй мне сообщения":
нейросеть не должна писать программу
а, нейросеть сама должна полностью заменять программу
Пользователю нейросети не нужны "красивые шашечки",
пользователю нейросети нужно "ехать", а что там под капотом ему не интересно:
нейросеть не просят "напиши мне программу, которая нарисует котика"
нейросеть просят "нарисуй мне котика", а код который рисует котика пользователю не нужен.
Замена программистов нейросетью - это:
не нейросеть которая пишет программный код
а это нейросеть, которая на ходу генерирует интерактивное видео с работающей программой
SwingoPingo
Это верно, мы сфокусированы тут на коде, а ИИ могла бы работать с продуктом целиком, включая и аппаратно-административную часть. Энтакий рабочий, но сильно черный ящик.
AlekseyPraskovin
Угу, а современные крупные системами с тоннами легаси ни разу не черный ящик, да. Ведь чисто гипотетически кто-нибудь когда-нибудь может сделать полный анализ легаси-кода (потому что документацию пролюбили еще 15 лет назад). Делать это в реальности никто, конечно, не будет
SwingoPingo
емнип лет 15 назад здесь была веселенькая статья о реверс-инженеринге советского достояния - нефтяного завода. Рекомендую найти почитать, тем более в пятницу). Завод как черный ящик.
Но тут вопрос в другом - легаси все же имеет шансы быть разобранной на привычные нам кирпичики принятой инженерной школы, тогда как результат работы ИИ уже может требовать наличия другой инженерной школы вообще и вариативность там очень высокая. Насколько я слышал в схемостроении и прочем *-строении уже с этим столкнулись, что ИИ перестает мыслить в наших парадигмах, а его подход нам для сколь нибудь быстрого анализа уже недоступен.
tommyangelo27
Промышленная археология
SwingoPingo
премного благодарю!
Wesha
Только это не советский завод был.
pes_loxmaty
Но ведь легасичёрныйящик выдает детерминированный результат. А если выясняется что результат неверный, есть возможность (хотя бы теоретическая) выяснить где именно проблема и может быть даже её скорректировать.
В случае с нейрочернымящиком, результат недетерминированн и каждый раз будет разным. Более того, принципиально невозможно определить что именно пошло не так. Поэтому придется 100% результатов валидировать, а затем для каждого невалидного изобретать индивидуальную коррекцию.
p07a1330
Если в коде гонки из нескольких процессов - он нифига не детерменированный
pes_loxmaty
Верное замечание. Теперь можно продолжить чтение моего комментария далее первого предложения )
p07a1330
Формально вы правы.
Но ремарка про "теоретичность" вставлена очень не зря)
Хотя если программа (в теории) опирается на UB или ее поведение зависит от того, в какой именно момент сработает сборщик мусора - я все еще полагаю, называть это детерминированным излишне оптимистично
Wesha
Детерминированный, просто условия гонки надо проанализировать: вместо одного возможного результата будет несколько — и получения одного из них можно добиться путём применения строго дозированных внешних воздействий.
p07a1330
Если условия зависят от железа (например, какая-то функция выжирает оперативку и залазит в своп) или сетевых задержек - гарантировать что-либо становится маловозможным
У меня был кейс, когда рендерилась страничка, в ней условно десяток компонентов, которые стучались в разные апи. И обменивались информацией, вытягивая данные из DOM по селекторам с таймаутами
Лютый говнокод, но так исторически сложилось
В итоге проще было переписать с нуля, чем рахобраться, почему оно иногда падает
Wesha
В том-то и дело: разобраться было можно — но переписать было проще!
(А я и не говорил, что разобраться будет просто. Но иногда выбора нет и приходится — и те, из-за кого приходится, получают свои лучи поноcа.)
Antra
Если я сохраню от картинки, нарисованной в Stable Diffusion, не только prompt, но и все остальные параметры, включая seed, я даже на другой машине смогу в точности повторить результат.
С языковыми моделями аналогично. Просто на вход вы ей в реальности подаете не только то, что сами написали, но и некую случайную величину. Но при действительно полностью фиксированном входе и результат будет в точности такой же.
wataru
Только если у вас точно такие же гигабайты весов на другой машине. Поскольку их постоянно дорабатывают/дообучают и переделывают, то вам все эти гигабайты тоже придется с каждым вашим "приложением" копировать.
Ну и вишенка: ошибки округления на разном железе могут быть немного разные, так что даже при тех же seed и весах, оно может выдасть вам совсем другой результат. Так что еще и видеокарту добавляйте к гигабайтам входных данных.
Antra
Вы имеете ввиду, что для получения того же результата помимо промпта должна использоваться та же самая модель? Разумеется.
Не вижу отличия замены модели от замены традиционной программы. Большинство пользователей точно так же заметит замену MS Office на Libre Office (будет похоже, но с нюансами).
Я понимаю, к чему вы клоните. Более того, в целом я с вами согласен. Сам категорически отказываюсь, когда меня просят добавить ИИ там, где можно обойтись обычным алгоритмом (пусть это и дольше ваять, нежели тупо скормить данные ИИ в надежде, что он что-то путное выдаст).
Я всего лишь пытался показать, что "недетерминированность" связана с наличием дополнительных параметров, о которых обычно не задумываются. Более того, если глубже копнуть, становится вполне понятно, почему при смене seed в том же Stable Diffusion картинка зачастую меняется кардинально. И в действительности можно даже примерно предсказать, что на каком сиде получится.
wataru
Разница в том, что модели раз в 100 объемнее и неделимы. Если вы модель чуть дообучите лучше решать логические задачки, то ее поведение в генерации сайтов-открыток непредсказуемо поменяется. Поэтому для воспроизводимости вам нужна будет отдельная сетка под каждую задачу, что тем более невыполнимо.
Antra
Я отвечал на
понимая это как наезд в стиле "спрашивали одно и то же совершенно одинаково, но каждый раз получали разный результат".
Так вот, я считаю, что проверить, что результат таки детерминированный (каждый раз одинаковый при абсолютно одинаковых вводных) - можно.
Дообучение именно модели, всякие эмбеддинги для натаскивания на специфические задачи - отдельные большие темы, не относящиеся к поднятому вопросу детерминированности.
Тем более, что держать огромную модель, чтобы много раз спрашивать одно и то же, рассчитывая получать один и тот же результат - вряд ли практическая задача.
Ну т.е. я с вашими аргументами согласен, но они про другое.
Rsa97
Угу. То есть, не "напиши мне программу, с помощью которой я буду общаться с друзьями", а "общайся со мной вместо друзей"?
fen-sei
Просьба к минуснувшим молча, привести хоть один реальный пример, когда пользователь попросил нейросеть "напиши мне программу которая рисует котика".
Fenzales
Может минусуют по той причине, что контекст поста - замена программистов в написании программ, а не выполнение отдельных повседневных задач? Пользователи системы вообще в курсе про какой-то там CAN-identifier, который нужно отфильтровать, или они просто работают с теми данными, содержание которых изначально выбрал аналитик?
Нам всё ещё нужен графический интерфейс, который необходимо разрабатывать, сейчас невозможно функционал любой системы один-к-одному переложить в чатбот.
fen-sei
Нет, замена программистов = отсутствие необходимости в написании программ, а "нейросеть пишущая код программы - это робот запряжённый в карету вместо лошади".
Много вы видите на улицах карт в которых запряжены лошади? Лошадь и карету заменили на автомобили, а не запрягли вместо лошадей роботов в кареты.
Перспективы у нейросетей пишущих код - как у робота запрягаемого в карету вместо лошади.
Fenzales
Но вы не предлагаете машиной заменить карету, вы предлагаете нанять слугу, который "ну как-нибудь там" будет вместо вас возить грузы и людей.
fen-sei
Тому кто хочет, чтобы его отвезли - не важно что и как будет делать слуга, и будет ли робот вместо лошади. Если нейросеть вместо написания кода, наймёт индусов AI нанимает человека для решения капчи, потому что сам не смог её решить , пользователя - это полностью устроит. ^__^
Igrek_L
Просто код лишний в этой схеме. Стало возможным создавать системы иного типа, как интеграция нескольких нейросетей, одна из которых LLM, другая распознает чеки/приходники и прочих входящий поток, голосовая LLM для диалога с пользователем и клиентом, нейросетка правильных проводок и еще одна сверху для обучения хорошему и расшивки "непознанного". В опытно-промышленном масштабе это уже работает как небольшой полностью автоматизированный магазинчик. Для ввода нового товара или новой акции не нужно прогамировать, обычным языком рассказал, прошел тестовый цикл продажи и сказал "запомни и делай так". Мне рассказывали как набивали перфокарты, сам немного пописал на ASM и сейчас, когда в Low Code без знания регистров и подсчета пушей в стек, просто мышкой накликиваются и натаскиваются вполне себе производственные системы. Да это за счет чудовищной, по меркам 90-х вычислительной работы и расхода памяти, где те 640 килобайт и "верхняя память" с "кучей", ничего этого просто не нужно, отмерло.
fen-sei
Именно так! А нейросеть пишущая код - это робот запряжённый в карету вместо лошади.
Статьи про это на Хабре ещё нет?
WebPeople
Про агентов есть, читал что-то такое. Но чаще всего сложно написано или непонятно.
Я тоже считаю, что будущее за ансамблями из нейронных сетей. Когда сотни нейросеток, работающих совместно, будут успешно заменять множество людей.
Причем нейронки будут с узкой специализацией. Одна, идеально работающая с распознаванием, другая - заточенная на общение с людьми, третья очень хорошо считает, четвертая профи в работе с бд и т.д.
При этом, считаю, что нейросеть, пишущая код - тоже нормальное явление. Сравнение с роботом, запряженным в карету, не совсем корректно. Вы под каретой подразумеваете язык программирования. Если его убрать, то что останется?
Если убрать вообще все, то нужна будет нейросеть - операционная система. Способная обрабатывать ввод/вывод, управлять памятью, создавать драйвера для подключаемых устройств и т.п.
Мне трудно представить нечто подобное. Людям до таких систем далеко.
Hlad
И всё это требует мощного сервера, жрущего кучу электричества, вместо простенького микроконтроллера...
Konstantinx5
А можно примеры таких магазинов?
Wesha
Ну да, ну да
Wesha
К сожалению, найти ссылку не могу (гугль выдаёт N страниц «Кандинский рисует реальную кошку»), но реально такое было, ещё в самом начале всего этого нейрошума.
krote
на текущем этапе развития нейросетей эта идея малопригодна к использованию. Малый контекст и скорость не позволяет обрабатывать тех объемов информации и получать ту точность что можно получить кодом.
Igrek_L
На текущем этапе производительности железа. Нейронки это, грубо, веса и целочисленная арифметика. Мой первый комп не мог mp3 воспроизводить, хотя вин 3.1 на нем все же загружалась. Работала - не скажу, было очень некомфортно/медленно. Сейчас мелкий чип аппаратно раскручивает видео в 8К с аудио особо не напрягаясь. И нейросетевые ускорители уже есть, у меня во Frigate на видео в реалтайм на 7 камер объекты классифицирует небольшой Coral, без него довольно мощный 5-й "Рязань" захлебывается.
krote
условно говоря большая и быстрая нейронка не значит что инфа будет в ней точной, потому что нейронка по определению не точна. Также как человек постоянно должен сверяться со справочниками, хотя и может помнить много точной инфы, но зачастую лишь той что часто пользуется. Также полагаю и нейросетевые мозги в идеале должны будут иметь интерфейсы к базам данных, справочникам, интернету чтоб уточнять и верифицировать свои ответы. А так это понятно что через 10 лет будет нормально иметь локально ИИ уровня ChatGPT в телефоне и т.п. но это не будет значит что он заменит программы и базы данных, я вижу что скорее он будет ими управлять и использовать их.
wataru
Сейчас все ругаются, что программы медленные, раздутые и требуют кучу железа, что бы работать. Давайте их все заменим на нейросеть, которая жрет видеокарты и мегаватты для работы.
Это даже не касаясь проблем галлюцинаций и неточностей. Программа, если ее проверить и логически доказать, что она работает, будет работать всегда и везде. А вот нейросеть каждый раз может новый глюк выдавать.
wataru
Ну и еще пример, попросите нейросеть не котика вам нарисовать, а соцсеточку. Она вам, конечно, посты всяких "знаменитостей" и фоточки котиков выдумает, но вы точно ли хотите читать полностью нагаллюционированные посты?
Фейсбук, конечно, пытается именно это хтоническое будущее реализовать, чтобы раздуться перед инвесторами, мол смотрите сколько у нас контента и энгейджмента, но это уже матрица какая-то получается. И я сильно подозреваю, что пользователям это не понравится.
Или попросите нейросеть изобразить вам банковское приложение. Вы можете сколько угодно смотреть на красивые циферки, что она вам выдумала, но ваш перевод никто не получит и товар вам не отгрузит, несмотря на очень правдобадобные галлюцинации нейросетки.
frkam
и какие сервисы так можно заменить?
k4ir05
Не нужно отвёрткой закручивать гвоздь.
omaxx
следующий шаг: вместо того, чтобы просить нейросеть нарисовать котика, программист должен ее спрашивать: "а нужен ли мне вообще котик"...