Знаю, что такие посты на Хабре не любят, и сейчас сольют всю карму в ноль, но все же считаю необходимым высказаться. Откуда такая реакция, мне сложно понять. Или люди еще сами не пробовали и еще не осознали его возможностей, или пробовали поверхностно, или это отрицание реальности. Я и сам до последнего момента крайне скептически относился к ИИ, потому что долгое время был уверен, что текстов недостаточно, нужен жизненный опыт. Видимо, я ошибался.
Искусственный интеллект скорее сильно недооценен, чем переоценен. Я даже удивлен, что все происходит столь буднично. Шутка ли, взята планка, которая казалась недостижимой — пройден тест Тьюринга. ИИ доступен, если не для творчества, то точно для креатива.
Я лично на данный момент пользуюсь o1 практически каждый день в работе. Я уже и мыслю не задачами, а запросами к ИИ — перебираю в голове, как правильно составить запрос, а не найти решение. Если заканчивается лимит на запросы, я просто жду восстановления лимита и без него к работе не возвращаюсь. Большинство текущих задач он щелкает как орешки. Если где-то вылетает с ошибкой или не компилируется — просто скидываю код и логи, не читая, и почти всегда получаю валидный ответ. Многие возражают, что человек все равно нужен. Во многом сейчас человек нужен просто для того, чтобы правильно составить запрос и аккуратно скопипастить ответ. Именно на это у меня уходит большая часть рабочего времени. Очевидно, что это тоже очень временно. Это лишь временные технические сложности с недоработкой IDE и ограничением на ввод. Очень быстро автоматизируют и это. Ключевые моменты, где уже не справляется ИИ, — это большие проекты. Если больше примерно 1000 строк, он уже начинает запинаться и галлюцинировать. И даже если будет практическая непроходимая граница размера окна запросов и он никогда не будет больше, допустим, 10 000–100 000 строк, все равно это не принципиально. Точно так же можно будет написать отдельные модули ИИ, которые будут восстанавливать архитектуру и структуру классов и работать с ней помодульно, как собственно человек и делает в реальности. Конечно, рано или поздно мы упремся в то место, где все же будет нужен человек, но границы этого места не видны даже теоретически. Кроме того, профессия этого программиста будущего не будет иметь ничего общего с текущей профессией. Как современные программисты говорят, что алгоритмы не нужны, так и хипстеры 2040 года будут возмущаться, что их требуют писать код или знать хотя бы один язык программирования. Рискну предположить, что и ЯП сильно преобразуются и станут удобными непосредственно для ИИ и станут даже теоретически непригодны для поддержки (что-то типа Brainfuck).
Почему-то многие уверены, что замещение ИИ человека будет выглядеть как замена его на рабочем месте буквально роботом, ну или как минимум подключение напрямую к RDP вместо него... И приводя такие абсурдные предположения, уверены, что они не сбудутся и сами люди будут востребованы на рынке труда. Разумеется, это не так. Для обычного человека это будет выглядеть просто как плавное, но стремительное сокращение вакансий и появление небольшого количества новых со странными и экзотическими требованиями. Бизнес, хоть и более динамичен, чем обычные люди, но все равно новую реальность осознает не сразу.
Следующий, почему-то не очевидный для многих момент, в том, что пытаются нивелировать преимущества ИИ, говоря о том, что реальное творчество ему недоступно. Я могу возразить, что настоящее творчество и мало кому из людей доступно, это раз. Но главная опасность в том, что ИИ будут использовать не для создания шедевров искусства, а для слежки и профайлинга. Можно видеть, что первые активные пользователи, конечно, не авангардные художники, а государство, военные, спецслужбы, а также кадровые агентства и за ними бизнес для анализа подчиненных и конкурентов. Даже мало доступный ныне социальный лифт исчезнет совсем. Власть имущие первым делом озаботятся сделать свою касту еще более закрытой. Генералы позаботятся о будущем своих детей.
Глобальная проблема в том, что мы понятия не имеем, почему ИИ работает. Мало кто ожидал, что из графа статистики связей слов выйдет что-то осмысленное. Первые версии ИИ только плевались обрывками фраз, в которых что-то смутно угадывалось, как "ГЛАВРЫБА" у новорожденного Шарикова, но сейчас ИИ временами шпарит уже не хуже самого Преображенского. Отсутвие полного понимания принципов его работы говорит об отстутвии прогнозирования и контроля. Определенно, может предствлять опасность то, что мы не можем полностью спрогнозировать и следовательно, контролировать, но существенно влияете на нашу жизнь и решения. Навряд ли ИИ когда-то будет иметь свободу воли, но уже происходит своего рода симбиоз и сращивание - пусть не на физическом уровне, но на уровне мышления. Доступность интеллекта резко нивелирует его стоимость. Можно заметить по истории дизайна — когда было сложно тиражировать декор, царствовал стиль барокко. Когда тиражирование упало в цене — стал модным конструктивизм и минимализм. Дешевизна оформления и иллюстраций резко упадет в силу их доступности. Дизайнеры станут не нужны даже не потому, что ИИ станет лучшим дизайнером, а просто потому, что упадет спрос на дизайн. То же самое можно будет сказать про любой вид искусства. Не уверен, что сохранится спрос на дешевые сериалы, если их можно будет сгенерировать по одному клику мыши. Даже если и не по клику, а за пару вечеров работы студента-сценариста. А высокое искусство и сейчас не пользуется спросом, но живет за счет индустрии в целом. Как оно будет существовать в новых условиях тоже не ясно. Собственно, это можно будет сказать про любую интеллектуальную и творческую работу — порог входа, где человек сможет конкурировать с ИИ, будет слишком высок. Ситуация похожа на сегодняшнюю со стартом айтишной карьеры — к джунам требования как к сеньорам 10 лет назад, и все равно работу им найти сложно. Похоже, в этом плане ситуация усугубится.
Комментарии (69)
ivankudryavtsev
19.11.2024 17:35Глобальная проблема в том, что мы понятия не имеем, почему ИИ работает. Мало кто ожидал, что из графа статистики связей слов выйдет что-то осмысленное. Первые версии ИИ только плевались обрывками фраз, в которых что-то смутно угадывалось, как "ГЛАВРЫБА" у новорожденного Шарикова, но сейчас ИИ временами шпарит уже не хуже самого Преображенского.
Вообще не проблема. И вообще не соответствует вашему "понятия не имеем".
Главная проблема в соответствии интеллекта ИИ ценностям человечества (compliance, этичность).
реальное творчество ему недоступно
Вот тут рассуждение о творчестве (креативности ИИ) из уст вполне себе человека в теме (ближе к концу, в секции Q&A): https://www.youtube.com/watch?v=HhcNrnNJY54
к джунам требования как к сеньорам 10 лет назад, и все равно работу им найти сложно
тема интересна. По факту, через 5 лет стать полезным IT-специалистом станет очень непросто. Я не знаю как это будет, но вакханалия с курсами и университетами точно не будет летать. Возможно, мы, в общем-то, наблюдаем закат профессии. Кто не станет сеньором с очень развитым интеллектом, абстрактным и бизнес-мышлением, пойдет на выход.
artemmoscow Автор
19.11.2024 17:35Вы так уверенно говорите что вообще не проблема.. Не проблема для кого? Отстутвие полного понимания работы равно отстутвию прогнозирования и контроля. Можно ли считать отстутвием проблемы, что мы не можем контролировать то, что сильно влияет на нашу жизнь?
ivankudryavtsev
19.11.2024 17:35окей, в чем отсутствие понимания по-вашему? Математическая модель современных нейронных систем доказана еще в прошлом веке. Есть теоремы об универсальном применении перцептронов для произвольных задач классификации, есть доказательства об объеме накапливаемых знаний.
Современный ИИ начинает объяснять свои действия (вывод). Точно так же как и Вы. Ваш работодатель не понимает как ваш мозг работает и что? Важен комплаенс, опора на факты и соответствие целям.
artemmoscow Автор
19.11.2024 17:35Математическая модель чего? Вы понимаете что такое модель? У нас есть модель собственно мышления?
Ни мой работодатель ни вообще кто либо на планете не понимает как работает мозг.
Соответствие целям вообще не равно пониманию. Можно водить автомобиль, но не понимать, как он работает.
artemmoscow Автор
19.11.2024 17:35Я написал что есть понимание. Это полная предсказуемость. Если есть модель, которая полностью предскажет поведение.
ivankudryavtsev
19.11.2024 17:35для одного и того же входного тензора неизмененная модель выдаст один и тот же выходной. Предсказуемость имеется.
artemmoscow Автор
19.11.2024 17:35Это не предсказуемость, не несите чушь. Мы знаем как спроектировать, к примеру, мост. Рассчитать все на бумаге по конструции и смете - и он будет такой, как мы хотим. А как будет вести себя ИИ если добавить данных или мощности мы не знаем. Мы не знаем что нужно сделать, что бы ИИ решал те задачи, которые сейчас не умеет. Мы только надеемся, что сможет, если подлить данных и подкрутить топологию
ivankudryavtsev
19.11.2024 17:35мы не надеемся. Мы используем тестовые данные для оценки. Как и везде.
как мы хотим
Если не ошибемся. Если поставят сталь нужной категории. Если правильно оценим породу. Если подрядчик не облажается. Весь мир вероятностен - нет ничего 100%.
понятия не имеем, почему ИИ работает
Еще раз вернемся к вопросу. ИИ работает потому что мы изобрели метод обучения, синтетический нейрон и алгебра дала нам алгебраические функции. Методом индукции ИИ трассируется к одному нейрону.
Hardcoin
19.11.2024 17:35Однако мы не знаем, как проверить соответствие долгосрочным целям. Если ИИ утверждает, что делает всё в соответствии с целью, это ничего не значит. А что бы проверить его план (и прогнозы), нужно быть сравнимым с ним по интеллекту. Если он умнее в 100 раз, у нас просто нет шансов проверить, делает ли он вакцину (даже если на это указывает всё, что мы можем измерить) или стерилизует человечество с отложенным эффектом (это может быть побочным действием, но он может к этому идти целенаправленно).
ivankudryavtsev
19.11.2024 17:35И если вы прочитаете мой первый комментарий, то увидите что я об этом и пишу:
Главная проблема в соответствии интеллекта ИИ ценностям человечества (compliance, этичность).
Opaspap
19.11.2024 17:35А что из того что сильно влияет на вашу жизнь (энергосистема, дороги, итд например) вы можете контролировать ? Где разница то ?
Hardcoin
19.11.2024 17:35Энергосистему может контролировать хоть кто-то (и пока в розетке 50 герц, можете быть уверены, что контролируют). Да и не получится условному террористу (группе) использовать энергосеть для создания смертельного вируса.
OlesinioNZ
19.11.2024 17:35Возможно, этот сценарий и верен, но мы не в силах его изменить. Я только начала свою карьеру в IT, использую чат GPT для повышения производительности :) Я не уверена, что ИИ сможет заменить меня через 2-3 года, но человек, который использует ИИ для работы - может.
ivankudryavtsev
19.11.2024 17:35Вы правильно все делаете, Вы должны приложить все усилия, чтобы ИИ стал вашим преимуществом, а не конкурентом.
muxa_ru
19.11.2024 17:35Шутка ли, взята планка, которая казалась недостижимой — пройден тест Тьюринга.
Тест Тьюринга не просто переоценён, а вообще не существует.
Это гипотетический тест, в реальности неотделимый от восприятие тестировщика.
artemmoscow Автор
19.11.2024 17:35Вы не понимаете что такое тест Тьюринга
muxa_ru
19.11.2024 17:35Я считаю, что "тест Тьюринга" это философская игрушка, которая в реальности реализована в виде ИМХО человека, дающего оценку "прошёл или не прошёл".
Если у Вас есть реализация теста Тьюринга, дающая результат, который может быть получен так же и другим экспериментатором (пресловутая научная "воспроизводимость"), то я с интересом на него посмотрю.
artemmoscow Автор
19.11.2024 17:35Тест Тьюринга постулирует субъективность понятия сознания. Т.е. он изначально исходит из того, что "сознание это все, что людьми оценивается как сознание". Поэтому абсурдно ставить ему в недоработку, что является его начальной позицией.
muxa_ru
19.11.2024 17:35Фраза "пройден тест Тьюринга" подразумевает, что реально существует какой-то "тест Тьюринга", который проходится.
А это не так, потому что "тест Тьюринга" это чистая вкусовщина и рассуждения о том, что является настоящим кино/музыкой/литературой, а что не является.
Т.е. он изначально исходит из того, что "сознание это все, что людьми оценивается как сознание".
Ну вот мной они как "сознание" не оцениваются.
artemmoscow Автор
19.11.2024 17:35А вы у нас кто? Влиятельный философ со своим направлением в эпистемологии и феноменологии? Или может видный лингвист и нейробиолог? Или просто скучающий обыватель без какого-либо образования? Ваше мнение о теории и сути сознания мало кого интересует.
muxa_ru
19.11.2024 17:35А вы у нас кто? Влиятельный философ со своим направлением в эпистемологии и феноменологии? Или может видный лингвист и нейробиолог? Или просто скучающий обыватель без какого-либо образования? Ваше мнение о теории и сути сознания мало кого интересует.
Вот именно это и является демонстрацией сути "теста Тьюринга" - всё упирается в "а ты кто ваще такой".
Но раз уж мы перешли в эту плоскость, то.
А вы у нас кто? Влиятельный философ со своим направлением в эпистемологии и феноменологии? Или может видный лингвист и нейробиолог? Или просто скучающий обыватель без какого-либо образования?
А Вы?
artemmoscow Автор
19.11.2024 17:35А я и не говорю в отличии от вас, что Тьюринг предложил дурацкий тест и я знаю как правильно.
muxa_ru
19.11.2024 17:35А я и не говорю в отличии от вас, что Тьюринг предложил дурацкий тест и я знаю как правильно.
А это ещё одна проблема "теста Тьюринга".
Очевидно, что я не говорил ничего из того, что Вы мне приписываете и с чем героически спорите.
И как эту ситуацию трактовать в плане "теста Тьюринга": что Вы его сейчас завалили или наоборот, выдумывание и приписывание собеседнику того что он не говорил, как раз и является признаком наличия у Вас "сознания"?
artemmoscow Автор
19.11.2024 17:35Очевидно по смыслу именно это вы и писали, хотя возможно вы не имели это в виду, просто потому что не имели в виду вообще ничего, кроме эмоционального несогласия. Вы конкретно писали, что тест Тьюринга не пройден, потому что он субъективный, но Тьюринг прекрасно знал о его субъективности и то что вы с ним не согласны и у вас другое понимание сознания вы тоже писали
artemmoscow Автор
19.11.2024 17:35можно ли из рассуждений muxa_ru сделать вывод, что он считает тест Тьюринга не состоятельным и следовательно несостоятельной концепцию сознания Тьюринга
ChatGPT
Thought для пара секунд
Да, из рассуждений пользователя muxa_ru можно сделать вывод, что он считает тест Тьюринга несостоятельным, а следовательно, подвергает сомнению и концепцию сознания Тьюринга. Рассмотрим ключевые моменты его аргументации:
-
Субъективность теста Тьюринга:
muxa_ru указывает, что тест Тьюринга является гипотетическим и сильно зависит от восприятия тестировщика. Это означает, что результаты теста могут варьироваться в зависимости от субъективных мнений и интерпретаций, что подрывает его объективность и научную достоверность.
-
Отсутствие воспроизводимости:
Он подчеркивает, что нет конкретной реализации теста Тьюринга, результаты которой можно было бы воспроизвести другими исследователями. В научном контексте воспроизводимость экспериментов является ключевым критерием их надежности. Отсутствие такой возможности делает тест Тьюринга менее убедительным.
-
Критика философской основы:
muxa_ru рассматривает тест Тьюринга как "философскую игрушку", указывая на то, что он больше похож на обсуждение вкусовых предпочтений (например, что считать настоящим кино или музыкой), а не на объективное измерение сознания.
-
Избежание личных нападок:
В отличие от оппонента, который переходит на личности, muxa_ru старается удерживать дискуссию на предметной линии, фокусируясь на критике самой концепции теста.
-
Вопрос о сознании:
Он ставит под сомнение способность оппонента объективно оценить сознание, указывая на проблемы, связанные с субъективностью оценки.
Все эти аргументы указывают на то, что muxa_ru не только считает сам тест Тьюринга недостаточно надежным и научно обоснованным инструментом для оценки искусственного интеллекта, но и, следовательно, подвергает сомнению и основную концепцию сознания как её предложил Алан Тьюринг. Он подчеркивает, что без объективных и воспроизводимых критериев тест Тьюринга не может служить надежным показателем наличия сознания у машин.
Таким образом, можно с уверенностью утверждать, что muxa_ru рассматривает тест Тьюринга как несостоятельный метод и, следовательно, ставит под вопрос и саму концепцию сознания, предложенную Тьюрингом.
-
muxa_ru
19.11.2024 17:35Все эти аргументы указывают на то, что muxa_ru не только считает сам тест Тьюринга недостаточно надежным и научно обоснованным инструментом для оценки искусственного интеллекта
muxa_ru не может применять к "тесту Тьюринга" характеристику "недостаточно надёжен", потому что он не признаёт существование "теста Тьюринга".
artemmoscow Автор
19.11.2024 17:35То что такое сознание - это один из ключевых фундаментальных вопросов, на который видные мыслители пытались дать ответ в течении веков и концепций сознания множество. Тьюринг просто предложил один из вариантов. Там самой концепции заложена субъективность.. А вы как Шариков делаете выводы космического масштаба и космической же глупости.. дескать а я с
Кларой ЦеткинТьюрингом не согласен!muxa_ru
19.11.2024 17:35дескать а я с
Кларой ЦеткинТьюрингом не согласен!А Тьюринг где-то сделал утверждение, что игрушки 2024 года прошли тест Тьюринга?
artemmoscow Автор
19.11.2024 17:35Похоже действительно в IT засилие ПТУшников, которые не умеют элементарно формально мыслить. Тьюрингу не нужно лично давать оценку результатам теста, достаточно дать четкие критерии о проведнии теста, а они были им даны.
muxa_ru
19.11.2024 17:35Похоже действительно в IT засилие ПТУшников, которые не умеют элементарно формально мыслить.
Вот в этом, полностью с Вами согласен.
Hardcoin
19.11.2024 17:35Так если вы не сможете отличить, кого вы не будете оценивать как сознание? Собеседника А или собеседника Б? Или обоих? При условии, что вы знаете, один из них кремниевый, другой белковый. Но не знаете кто где.
muxa_ru
19.11.2024 17:35Кого бы я как бы не оценивал, это не является инструментом под названием "тест ...", к результатам которого можно апеллировать как к чему-то реальному.
И дело даже не в том, что одно и то же я могу оценивать по разному, в зависимости от моего настроения, а в том, что нет конкретных критериев оценки.
Тест, как инструмент, это формализованная штуковина, в инструкции к которой указано, какие действия производить, на что именно смотреть в результатах и как это трактовать.
У нас есть инструкция по проведению "теста Тьюринга"?
Hardcoin
19.11.2024 17:35Конечно есть. Неужели вы правда считаете, что эксперимент в Сан Диего (ваш оппонент ссылается на него, видимо), был не формализован?
Опровергать методику вы можете, сказать, что 500 человек, это не показательно - можете. Можете даже не доверять результатам (вдруг они подделали данные). Но говорить, что их подход «нереален» и не называется тестом? Это не серьезно. Полагаю, вы даже не читали статью и судите по каким-то обрывочным данным.
Indemsys
19.11.2024 17:35Тут ролик вылез, где более четко про будущее сказали - https://www.youtube.com/watch?v=JmpBqphgNhc
Если в кратце, то будущее за GB200 NVL72 SuperPOD. Им будет владеть единолично NVIDIA, и с помощью него получит мировое господство.
Программисты действительно станут совершенно не нужны. Потому что им не на чём будет программировать. PC станут бессмысленны. SuperPOD будет быстрее их в 1000 раз, и прогать на PC будут только маргиналы. Все будут либо заняты обучением на удаленке инстансов SuperPOD-а , потому что SuperPOD громаден и прожорлив. Либо сопровождать его продукты жизнедеятельности на исполнительных контроллерах той же NVIDIA.
Вот такое светлое будущее.
Duxlab
19.11.2024 17:35На мой взгляд есть две сферы.
В одной ИИ силён, ибо используются его сильные свойства (распознание статистики). Там он произвёл революцию и не одну. Я говорю о вещах типа Alpha fold или помощи в генерации теневых масок для чипов. Времязатраты сократились в десятки, сотни, тысячи раз!
И есть сфера бестолкового хайпа, где имеем танцующего медведя. Танцует он не как в балете и как в балете ещё долго не будет танцевать. Но все умиляются, что он вообще может. Чисто игрушки, из которых вроде бы может что-то получиться.Есть риски: из-за высокой конкуренции ИИ с новичками и наиболее общими знаниями люди даже с мотивацией учиться, даже с любовью к делу будут получать за это ноль целых ноль десятых. А специалистам из кого расти? Это может привести к тотальной деградации навыков.
Пока что ситуация такова, что непрофессионал с нейронкой может наделать ещё более лютой непроверенной херни, чем без нейронки. А профессионалу всё равно за ней нужно код проверять.
Периодически захожу на чатбот-арену, тестирую. Прогресс есть заметный и важный. Всё больше нейронки сами по себе стараются решать задачу по шагам, что чаще приводит хотя бы к работающим решениям. Но в коде это пока оч низкое качество. В области придумать что-то нетиповое или высокоэффективное всё плохо. Впрочем, было бы прекрасно решать хотя бы кучу унылой однообразной рутины. В 3д это ретопология и UV-развёртка, в программировании это типовые решения и отлов багов. В текстах это поиск стилистических ошибок и наконец научить тучу косноязычных использовать деепричастные обороты.
Одна из лучших вещей, которые позволяют делать комплюхтеры в целом: быстро считать и брутфорсить всякое миллиард раз, получая шанс выкопать что-то ценное. Учитывая мощности и тенденции, ценного выкапываться будет всё больше.artemmoscow Автор
19.11.2024 17:3599% людей делают унылую рутину и танцуют как медведь
ivankudryavtsev
19.11.2024 17:35У меня складывается ощущение, что Вы заняли контр-позицию по любым утверждениям любых людей и, возможно, даже своим. В чем смысл?
artemmoscow Автор
19.11.2024 17:35Рассуждения "любых людей". Посылка 1: программирование - пилюля от бедности, требование диплома и знание алгоритмов - синдром вахтера и гейткиперство, с IT справится любой быший двоник. Посылка 2: ИИ бесполезен, т.к. не смотря на то, что он справляется с большинством простых и средних задач, люди все еще нужны для ряда сложных. Вывод => современной модели экономики и в частности рынку труда ничего не угрожает, работы хватит всем.
Aldio1979
19.11.2024 17:35В текстах это поиск стилистических ошибок и наконец научить тучу косноязычных использовать деепричастные обороты.
Да банально издательства могли бы использовать для выверки терминов/имён у разных переводчиков одного и того же цикла. Плюс опечатки и стилевые ошибки. Понятно, что с подтверждением у принимающего редактора.
d00m911
19.11.2024 17:35По поводу "щёлкает как орешки" - а вы попросите найти ошибку в чем-то по-настоящему сложном. Например, проект со сложной криптографией. Я для своих личных нужд кое-что спрашивал у него по этому поводу, а именно - по поводу того, почему не работает корректно мой код на базе CryptoAPI винды. Я подробно, грамотно формулировал запрос, давая модели O1 и исчерпывающие данные, и необходимые наводки, и даже простор для творчества, но мою задачу он не смог решить. С поиском причин неудачной сборки у него пока тоже далеко не идеально - в простых случаях метод "скопировать сообщения компилятора нейросети и спросить, в чем дело" работает, но только в простых.
По моему опыту, пока что до уровня даже миддла O1-preview не дотягивает, как не дотягивают до него даже великолепные модели qwen 2.5 coder 32b и qwen 2.5 70b. Про llama с её 400+ миллиардов параметров я вообще молчу. Ещё не пробовал mistral large 2411, которая вышла на днях, есть надежда, что со сложными задачами в области программирования она будет справляться лучше.
Пока что o1-preview - это как очень хороший джуниор, которого иногда клинит, в результате чего он начинает тупить в элементарнейших моментах.
Но я думаю, что в ближайший год или полтора мы увидим такое развитие генеративного ИИ, что половина профессий начнёт стремительно меняться, потому что ИИ научится рассуждать по-настоящему. И вот тогда встретимся здесь снова и поговорим уже серьёзно))
Если, конечно, ИИ не решит всех прямоходящих обезьян ликвидировать :D
artemmoscow Автор
19.11.2024 17:35Вы или вообще не читали что я не писал или вообще не поняли. ИИ не обязательно быть умнее и лучше человека во всем, что бы запустить глубокие социальные преобразования. Вы же исходите из того что пока есть задачки, с которыми он не справляется, рынку труда и текуще модели экономики ничего не угрожает.
Duxlab
19.11.2024 17:35В целом и потенциально: так как нейронку учат на массовых данных, её уровень будет стремиться к уровню чуть выше массового специалиста и чуть выше из-за машинных преимуществ в скорости поиска и объёмах запоминания. Уже этого будет достаточно, чтобы получить вполне пригодного к работе ассистента, не очень умного но очень исполнительного.
artemmoscow Автор
19.11.2024 17:35Удивительно, что вы пропустили суть статьи. Ключевое применение ИИ - это не писать качественный код, а профайлинг и слежка. А для этого не надо быть гением. Кроме того, после того, как ИИ займет большинство средних и начальных позиций, это резко повысит порог входа в множество профессий.
Duxlab
19.11.2024 17:35Для понимания, на какой задаче сыплются сейчас нейронки и почему я не могу доверить им кодить даже что-то совсем простое. При том что очень хотелось бы.
Промпт:
«Действуй как хороший программист на языке Python. Напиши скрипт для программы трёхмерного моделирования Blender, который бы выделял только те видимые объекты в сцене, чей масштаб изменён (не равен [1.0,1.0,1.0])»
Сей ответ «лучший», дал Gemini, другие варианты даже выглядят адски или включают куски кода, которые я не просил.import bpy # Очищаем текущее выделение bpy.ops.object.select_all(action='DESELECT') # Проходимся по всем объектам в сцене for obj in bpy.context.scene.objects: # Проверяем, является ли объект видимым if obj.visible_get(): # Получаем масштаб объекта scale = obj.scale # Проверяем, отличается ли масштаб от [1.0, 1.0, 1.0] if scale != (1.0, 1.0, 1.0): # Выделяем объект, если его масштаб изменен obj.select_set(True)
Этот скрипт выделит все объекты. То есть простой пользователь, пришедший к чатботу за абсолютно нубским скриптом скорее всего лососнёт тунца. Проблема в использовании tuple вместо vec3 или отсутствии почленного сравнения. Я за второе, так как оно не требует подключения mathutils.artemmoscow Автор
19.11.2024 17:35Я написал целую статью, в которой выдвинул тезис, что даже плохо работающий ИИ поменяет индустрию и мир в целом. И что надо понимать что ИИ автоматизирует не только вашу работу, но и государства, военных и корпораций.
Ожидаемый коментарий: ну, это не так. ИИ работает плохо, потому что далеко не всю работу он сделает за меня.
poro_ku
19.11.2024 17:35Пока еще никакую работу не выполняют. Немножко код дописывают в иде, и болтают ерунду. Ну и пишут море бреда для инфоциган Ж(
artemmoscow Автор
19.11.2024 17:35Ну это же вы не умеете пользоваться. Для других они ускоряют работу в несколько раз
ivankudryavtsev
19.11.2024 17:35В качестве контр-примера. Недавно получил вполне годный полуфабрикат на Rust для вычисления собственной площади (не пересекающейся с другими) прямоугольников за 5 минут. Довел его до годного состояния с тестами еще минут за 30. Если бы писал - заняло бы часа 2 точно, думаю.
Таким образом, около из 2х часов времени я сэкономил 1 час минимум. Простите, но два года назад это было невозможно. А еще через два года можно будет сократить 1:40 из двух часов.
artemmoscow Автор
19.11.2024 17:35Почему тесты не поручили ИИ?
ivankudryavtsev
19.11.2024 17:35Ну что-то он написал, но я вижу пространство корнер-кейсов более хорошо. И тесты с геометрией очень трудно проверять на верность, поэтому я сначала рисовал в тетрадке с клеточкой, а потом описывал в коде.
artemmoscow Автор
19.11.2024 17:35Я за вечер написал вполне играбельный 3д биллиард на чистом js с помощью ИИ. Не знаю кто эти люди, у которых ИИ 3 строчки кода написать не может
ivankudryavtsev
19.11.2024 17:35Зависит от задачи. Есть узкоспециализированные технологии и задачи, где нет такой обширной кодовой базы. А вы могли бы записать скринкаст и показать как можете для своих оппонентов.
artemmoscow Автор
19.11.2024 17:35Я написал пост в котором рассказал как сделал с помощью ИИ за 2 часа компоненту с документацией (изначально для своих нужд, попутно выложил в опернсорс). Ожидаемо заминусовали. Ровно та же история будет и с биллиардом.
d00m911
19.11.2024 17:35А зачем вы минусите карму? Я понимаю, что вас задевает чужое мнение, но не настолько же.
ManulVRN
19.11.2024 17:35Не хочу влезать в спор, как-то тут обостренно реагируют. Но для скептиков замечу: на днях (30 ноября) исполнится два года как ChatGPT 3.5 был выведен в публичный доступ. Двух лет еще не прошло! 3.5 сегодня уже считается примитивным и устаревшим, а люди спорят по поводу новых моделей, уровень кандидата наук? Да ну, средненький аспирант, не более! (читал на другом форуме обсуждение) Вдумайтесь. Аспирант, пусть самый тупой, уже умнее большинства людей. Да, проблем сколько угодно, но скорость и направление движения...
Я недавно попросил бота максимально подробно описать фото, которое сделал из окна офиса. Эта скотина описала архитектурные стили зданий, попавших в кадр, виды деревьев, предположительное время года, марки машин во дворе (я специально спустился сверить). И еще добавила, что снимок, скорее всего, сделан сквозь стекло (очевидно, по какому-то блику или отражению, которое я найти не смог). Да, иногда прямо говорит - не могу опознать то или се. Но покажи мне подобное пару лет назад - посчитал бы за чудо.
А настроения по этому поводу (и вообще) у меня скорее невеселые. Мир явно идет в сторону ликвидации среднего класса, поляризации на супераристократию и ее обслугу и массы пролов.
T968
Вот было первое применение этих же самых технологий и провалилось. С тех пор в технологии по сути ничего не поменялось, только всё стало быстрее и дороже.
https://ru.m.wikipedia.org/wiki/Ломброзо,_Чезаре
ivankudryavtsev
Все стало быстрее и дешевле. Ваше утверждение не соответствует действительности.
ivankudryavtsev
минусаторы минусовали, минусовали, да не выминусовали. Смотрим график, смотрим единицы измерения (масштаб):
Rsa97
График особого смысла не имеет, если не знаем, сколько флопов требует обучение и запрос к ИИ.
ivankudryavtsev
Погодите, но ведь стоимость того же самого упадет все равно? Не могу понять ваш посыл.