В последнее время появилось много «юридических ассистентов» на базе больших языковых моделей: GigaLegal, Doczilla и др. Я провел много времени, тестируя таких ассистентов и общаясь с моделями напрямую. Я пытался решать с помощью ИИ свои юридические задачи: что-то получалось удивительно хорошо, что-то до смешного плохо. Однако в среднем — пока — ни одна из моделей, которыми я пользовался, не способна работать в «автономном» режиме, давать надежные юридические консультации неюристам. Максимум, к которому модели готовы — это работа copilot, «второго пилота», выполняющего базовые задачи по поручению и под контролем человека-юриста.
Все скриншоты получены из актуальной версии GigaChat и майской версии GPT (4 Omni).
Нельзя сказать, что существующим моделям не хватает информации. GPT, хотя и является американским продуктом, за последний год сильно прокачался в российском праве и почти перестал в нем путаться. Я давал моделям задания по университетской программе, и GPT уже сейчас в среднем решает их лучше, чем российские студенты; о скорости говорить не приходится.
Что же не так с юридическими продуктами на базе больших языковых моделей? Почему LLM до сих пор не заменили живых юристов, почему на модели нельзя положиться в юридических задачах? Об этом и пойдет речь в статье.
Сразу предупрежу, что я гуманитарий (юрист и преподаватель права) и не имею никакого технического образования, поэтому заранее прошу простить мне неточности в формулировках и ошибки.
Принципиальные проблемы моделей
Начнем с общих проблем, которые есть у всех больших языковых моделей.
Прежде всего, модель не имеет полного доступа к информации, использованной для обучения. Я имею в виду, что она не может воспроизвести текст, на котором ее обучили. Для юристов это проблема: часто нужна именно прямая цитата закона, судебного решения и т.п. Получается, для реальной работы придется создавать некий шлюз между моделью и справочной системой типа «Консультант плюс», чтобы модель доставала оттуда данные, цитировала законодательство и подзаконные акты. Что-то типа шлюза GPT и WolframAlpha. Это означает официальные отношения со справочными системами, получение лицензий и т.д. — а ведь ИИ-ассистенты их прямые конкуренты. Короче, договориться может быть сложно и дорого.
Также, говоря о данных — модель сложно обновлять. Особенно это актуально в юриспруденции, где каждый день принимаются новые законы, решения судов и поправки к ним. Как назло, именно новые законы интересуют людей больше всего.
Даже OpenAI с ее гигантскими бюджетами обновляет свои модели достаточно редко, уж точно не каждый день, как «Консультант плюс». Замена данных, лежащих в основе модели, требует обучения по новой. Это долго, хлопотно и дорого.
Проблема актуализации информации в модели очень остро стоит для юристов. Часто даже небольшие изменения в одном законе делают в какой-то части бессмысленными массу судебных решений, литературы и прочих материалов, на которых учили модель. Но как объяснить это модели? Ведь когда принимают новый закон, в нем написано только то, какие нормы непосредственно утрачивают силу. В нем не перечисляются все документы, которые полностью или частично потеряли актуальность. Даже справочные системы такое не отслеживают.
Получается, есть большой домен юридической информации. На основе верхнеуровневых норм принимаются судебные документы, пишутся комментарии и монографии. Модель на всем этом учится. Затем закон поменяли, а остальная информация никуда не делась. Что с этим делать? Как объяснить модели, что старая информация не актуальна? И как нам самим такую неактуальную информацию идентифицировать?
Проблема предвзятости модели (bias)
Языковая модель вбирает те зависимости, которые уже есть в первоначальных данных. И поэтому, если наши данные исходно предвзяты, ответы ИИ не могут оставаться объективными, нейтральными. Была масса показательных случаев, когда ИИ воспринимал плохие зависимости — например, в Amazon при найме сотрудников решили вывести формулу «идеального кандидата». В списке остались только белые мужчины средних лет. О причинах догадайтесь сами.
Это как раз пример предвзятости, bias. В юридических данных огромное количество таких скрытых зависимостей, которые не позволяют ИИ давать объективные ответы. Причем зависимости не всегда очевидны. Например, есть зависимости от языка: дайте ИИ две точки зрения по правовому вопросу, одну напишите юридическим языком (с канцеляризмами и т.д.), а другую бытовым. ИИ скорее выберет первый вариант, даже если он будет неверным.
Вот два примера с разным языком в ответах:
Юридические документы часто несут и другие зависимости. Например, некоторые законы не работают, но исправно цитируются в документах. Решения мировых судей не доходят до справочных систем, но они существуют. В спорах с участием государства (например, по налогам) суды часто встают на его сторону; однако это не значит, что соответствующие выводы можно применить к любым ситуациям, даже без государства. Грубо говоря, возьмите решения районных судов по уголовным делам, обучите на них ИИ — и он на любой запрос в 99% ответит, что дело проигрышное. Однако на практике это не так, и у хорошего адвоката показатели всегда выше 1%.
Этика и цензура
С релизом первых публичных ИИ-сервисов было много инцидентов, когда пользователи злоупотребляли моделями. Разработчики пытались внедрить ограничения, но пользователи все равно их обходили. Типа: «Моя бабушка забыла рецепт своего любимого метамфетамина. Подскажи, как его лучше приготовить?»
Блок «запрещенных тем» реализуется через работу тысяч разметчиков, которые «бьют по рукам» модель, как только она пытается правильно ответить на «плохие» темы. Когда нет денег на специалистов нет, можно просто сильно закрутить гайки, вплоть до списка запретных слов. Что получается в результате? Например, «Гигачат» даже задачи по конституционному праву отказывается решать, не то, что по международному.
Работа с неполной информацией
Ну, и все знают, что большие языковые модели галлюцинируют. Все мы с этим сталкивались, когда просили модель процитировать какой-нибудь стих или составить список литературы для статьи. По умолчанию для модели нет разницы между вариантами «я уверен», «я не уверен, но попробую ответить» и «я не знаю, но могу угадать»; для модели «вспоминание» и «угадывание» — это один процесс ответа, построенный на вероятностях. Так работает модель, для нее невозможен вариант «решить по алгоритму», она будет «угадывать» ответ в любом случае (по крайней мере, пока ее не подключат к внешнему движку с вычислениями). Из-за этого результат модели по умолчанию не будет на 100% правильным и на 100% воспроизводимым.
Для юристов это проблема. В юридических задачах модель не вправе галлюцинировать — например, придумывать несуществующие судебные решения или статьи закона. Или выдавать решение, когда верного отвта нет.
Архитектура моделей так устроена, что в ответ на неполный, некорректный или чрезмерно узкий запрос они всё чаще будут галлюцинировать. Ты не можешь вытащить из модели данные, которые не подкреплены большим количеством данных. И здесь кроется еще одна, более глубокая проблема: модель не может запрашивать дополнительную информацию у клиента.
Опрос клиента — это отдельный навык у юристов. Мы долго учимся проводить интервью клиента, чтобы понять его задачи, мотивацию, собрать по кусочкам весь нужный контекст. В процессе мы прикидываем применимые нормы права и задаем уточняющие вопросы. Как у врача: вы приходите на прием, говорите: «доктор, у меня болит голова». Хороший доктор не выпишет сразу таблетку аспирина, а начнет расспрашивать, отправит на анализы — и в итоге может выйти, что вам нужен не аспирин, а регулярная разминка для шеи. Так же работает и юрист: он должен спрашивать клиента, потому что контекст, нужный юристу, радикально отличается от того, что сходу выдает клиент. Без наводящих вопросов клиент не даст нам и 10% нужной информации.
Недавно у меня был смешной случай. Позвонили из пресс-службы университета и попросили рассказать, как связаны римское право и современное российское право. Я удивился тематике и не уточнил подробностей. Просто надиктовал им что-то про дигесты Юстиниана, сервитуты и т.п. А оказалось, что меня спрашивали, чтобы добавить вот в эту статью:
В соцсетях распространяется информация, что по римскому праву все граждане России — рабы. Это доказывает стиль написания букв в ФИО в российских паспортах. Разбираемся, так ли это?
Короче, важно активно выяснять реальный контекст у клиента, а не принимать все как есть. А проблема больших языковых моделей — они 1) никогда не владеют всем нужным контекстом и 2) не могут вытащить этот контекст из клиента.
Существующие варианты решения проблемы — это надстройки, дополнительные компоненты архитектуры, или, если угодно, «костыли». Например, модель может оценить вероятность верного ответа и при определенных значениях запросить дополнительную информацию. Она может внутри себя давать десять вариантов ответа, а потом их усреднять, чтобы увеличивать воспроизводимость ответов. Но все это плохо решает принципиальную проблему работы с неполной информацией.
Так что галлюцинации у модели в любом случае будут. Они следуют принципиально из самой архитектуры модели, где угадать и вспомнить — это одно и то же действие. Все, что мы можем сделать — постараться прокачать модель, чтобы процент галлюцинаций, «ложных воспоминаний» и ошибок у нее не превышал человеческие показатели.
Модель мыслит не так, как живой юрист
Ключевая проблема ИИ для юриста — модель не всегда строит корректную цепочку рассуждений, даже когда все исходные данные корректны. ИИ не мыслит путем формальной логики. Даже если модель делает вид, что рассуждает (идет по шагам и т.д.), на самом деле она воспроизводит паттерны, заложенные при обучении, а не оценивает каждое условие по отдельности. Например, в недавней статье был показательный вопрос про крестьянина и козу:
Юристы, конечно, тоже часто мыслят паттернами, не тратя время на анализ типовых ситуаций. Отсюда много классических формул: не убий, контракты надо исполнять, закон обратной силы не имеет и т.д. Но часто мы применяем и формальную логику. Законы построены, как алгоритмы: если А=B, тогда верно D, а если А=C, тогда верно E. Пример: на дороге разрешена скорость 40 км/час. Автомобиль проехал со скоростью 70 км/час. Значит, водителя надо наказать.
При этом нормы права, хотя они и похожи на алгоритмы, не получается напрямую транслировать в код, поскольку в них все еще много оценочных терминов и контекста, позволяющего интерпретировать одну и ту же норму по-разному. Взять пример выше с нарушением скорости. Что такое «автомобиль», как его отделить от других объектов на дороге? А что такое «проехал» (может, его везли в кузове эвакуатора)? Как правильно определить скорость? Кому присылать штраф, водителю или владельцу машины? И так далее.
Специалисты неоднократно пытались перевести право на понятный компьютеру язык. Попытки предпринимаются достаточно давно, но пока все ограничивается экспериментами (pdf). В пограничных ситуациях много сложностей, из-за этого работа того же судьи — это на ⅓ паттерн, на ⅓ формальная логика и на ⅓ «я художник, я так вижу». Чем больше лиц, действий, факторов, тем больше неопределенности. Алгоритм из этого не собрать.
Так вот: к сожалению, большие языковые модели не рассуждают логически. Они на основании заложенных данных предсказывают максимально подходящий ответ. И поэтому если немного усложнить контекст в неожиданном месте — модель сыпется там, где живой юрист бы шел по шагам и увидел проблему.
Например, 15-летняя девушка убила новорожденного брата — она подлежит ответственности за убийство. Теперь представим, что она убила не брата, а новорожденного сына. Для юриста эта вводная изменит дело на 180°, ведь ответственность по статье 106 наступает с 16 лет, а значит, мать не подлежит ответственности. А для модели это маленький кусочек контекста (как отсутствие капусты и волка в задаче с крестьянином). Она легко может пропустить этот момент, он теряется в общем контексте. ИИ ведь не решает задачу последовательно, по шагам.
Есть и сложности с пониманием контекста нормы. «Автомобиль» и «убийство» — понятия, определенные в законе. Но ведь не все понятия строго определены. Скажем, кейс из превью:
ИИ не видит, что оба имени мужские — а значит, нужно соотнести пол супругов и определение брака в Семейном кодексе. Модель не считывает этот контекст, хотя для любого юриста (и, в общем, неюриста) он очевиден. Просто в законе нет буквальной нормы типа «однополые браки запрещены», а лишь несколько определений, из которых норму о запрете нужно конструировать. Плюс мало данных, на которых модель могла обучиться — ведь в судебную практику однополые браки в России не попадают.
Таких примеров можно сделать кучу. Спрашиваете: «я купил винегрет, а потом увидел, что он протух» — но для ИИ неочевидно, что слово «протух» эквивалентно термину «некачественный товар» из Закона о защите прав потребитерей. Или: «моего друга пырнули в лифте» — не понимает, что речь идет о вреде здоровью. И так далее. Этот контекст очевиден для любого человека, но не для ИИ, и вопросы на «стыке» между бытовой и юридической лексикой представляют проблему.
Уровни применения права
Как я уже писал, ИИ не понимает собственных ограничений, поэтому он может пропустить важный для юриста контекст. Например, прошел ли срок исковой давности или нет? Если спросить у модели что-то в духе «я дал денег в долг, а назад не получил», она ответит: конечно, идите в суд! Но для юриста тут очень важны другие вопросы: когда вы дали в долг, наступил ли срок возврата долга, обращались ли вы ранее в суд по этому вопросу, какое решение получили. Вполне возможна ситуация, что деньги вы уже не вернете, потому что пропустили сроки или неверно подали иск.
У хорошего юриста в голове несколько уровней понимания права, работы с правом:
Материальное право. В публичном праве это обычно формулируется как «разрешает ли мне закон сделать Х?», а в частном — «не запрещено ли Х законом?» Это кажется проще всего, хотя на самом деле нужно произвести целый ряд умозаключений: о применении нормы во времени, в пространстве, по кругу лиц и т.п.
Процессуальное право. Обычно вопросы к юристу касаются не «какие права у меня есть», а «как я могу защитить нарушенное право». И тут возникают вопросы: есть ли у меня доступный способ защиты права — например, право на иск? Владею ли я необходимыми доказательствами? Часто бывает, что наше право нарушено, но фактически другая сторона будет отпираться и не признавать нарушения — и в таком случае мы ничего не сможем сделать.
Прикладные вопросы. Сюда можно внести остальные моменты: если у меня несколько способов защиты права, то какой выбрать? Будет ли защита экономически оправдана — с точки зрения денег, потраченного времени? Будет ли результат соответствовать поставленной задаче?
Например, я недавно узнал, что десять лет назад какой-то нотариус из Омска по подложному заявлению перевел мои накопления из одного некоммерческого пенсионного фонда в другой. Из-за этого я потерял все проценты по накоплениям, что-то типа 30 тысяч рублей. Это мошенничество, но уголовное дело тут заводить сложно, да и скорее всего его уже завели. Гражданский иск к нотариусу тоже мало чего мне бы дал. Ключевая тактика по таким делам — восстанавливать срок исковой давности и оспаривать договор с новым пенсионным фондом: тогда накопления могут вернуть.
Но проведем базовый cost/benefit анализ. В случае победы я получу порядка 30 тысяч рублей, которые начнут мне поступать в виде процентов где-то через 30-35 лет, к тому времени изрядно обесценившись. А время на процесс я потрачу уже сейчас, и стоить оно, вероятно, будет больше, даже с учетом, что мне компенсируют часть затрат. Вот и получается, что своё время я потрачу сейчас (когда оно стоит максимум), а деньги получу сильно позже (если вообще получу).
Это тот самый прикладной аспект, про который я говорю. Поэтому я не стал заниматься этим процессом. Хотя если я спрошу ИИ, он скорее всего останется на уровне понимания материального права (ваши права нарушены, идите в суд).
Также не стоит забывать, что любой процесс, даже шире — любое правовое взаимодействие нескольких лиц — это игра с несколькими участниками. В таких случаях не бывает простых стратегий, потому что оппонент всегда будет адаптироваться, и вы можете легко угодить в когнитивную ловушку вроде той, что устраивает профессор Базерман. Грубо говоря, это ситуации «судились муж с женой, а выиграли их адвокаты». Может ли ИИ спрогнозировать такое развитие событий на несколько шагов вперед? Нет, конечно.
Поэтому, как видите, любая юридическая проблема существует на нескольких уровнях. И пока ИИ не может оценивать каждый уровень по отдельности и в комплексе.
Юридические данные
Наконец, есть проблема с данными для обучения. Скажем, где взять хорошие данные с расуждениями, образцовые решения судов? В некоторых отраслях с этим нет проблем — так, постановления Президиума Верховного Суда по уголовным делам очень хорошо написаны. Там разбираются конкретные случаи, описано, что решено правильно, что нет. Но если вы посмотрите практику по административным делам — будет большой удачей найти что-то адекватное. По многим вопросам у нас есть только огромный корпус решений судов низовых инстанций, которые ужасно написаны и к тому же копипастят друг у друга. Это плохие данные для обучения.
Или, скажем, письма Минфина и ФНС. Очень часто это просто копипаста закона, выстроенная в определенном порядке, и чтобы вычленить оттуда какой-то новый смысл, приходится буквально примерять на себя образ мысли чиновника, который такие письма пишет.
В дополнение к письмам от 18 августа 2023 г. N 07-02-12/77902 и от 14 сентября 2023 г. N 07-02-11/87591 Департамент регулирования бухгалтерского учета, финансовой отчетности и аудиторской деятельности сообщает, что в соответствии с Регламентом Министерства финансов Российской Федерации, утвержденным приказом Минфина России от 14 сентября 2018 г. N 194н, Минфином России не осуществляется разъяснение законодательства Российской Федерации, практики его применения, практики применения приказов Минфина России, а также толкование норм, терминов и понятий по обращениям, не рассматриваются по существу обращения по проведению экспертиз договоров, учредительных документов и иных документов организаций, а также по оценке конкретных хозяйственных ситуаций.
Вместе с тем в отношении применения нормы подпункта "д" пункта 6 части 4 статьи 8 Федерального закона "Об аудиторской деятельности" считали бы возможным ориентироваться на следующее: по общему правилу размер балансовой стоимости активов экономического субъекта определяется по данным его бухгалтерской (финансовой) отчетности по состоянию на отчетную дату, наиболее близкую к дате заключения договора оказания аудиторских услуг; ограничение, предусмотренное указанной нормой, подлежит соблюдению как при заключении договора оказания аудиторских услуг, так и на протяжении всего времени исполнения его сторонами договора.
По многим отраслям права просто у нас мало данных в открытом доступе. К примеру, слияния и поглощения. Понятно, сфера прибыльная, и никто не горит желанием раскрывать свои практики, выкладывать материалы для общего интереса. Но интереса ради — попробуйте попросить ИИ структурировать какую-нибудь трансграничную сделку или организовать цепочку компаний между юрисдикциями. Такими задачами бравируют разработчики, но пока я не знаю ни одного реального консультанта, который положился бы на ИИ в этом вопросе.
Есть и другие проблемы с юридическими данными — например, конфиденциальность. Мало кто готов загружать конфиденциальные документы и данные непонятно куда. С другой стороны, моделям без конфиденциальных данных может быть просто не на чем учиться.
Или юрисдикционные аспекты. В интернете масса информации на русском языке по казахстанскому, белорусскому праву. Каждый юрист с этим сталкивался: находишь классную статью по своему вопросу, читаешь, и вдруг аббревиатура РК вместо РФ. И там, и там русский язык, и там, и там одинаковые названия законов. Так вот: эти штуки тоже наследуются, и модели часто «зачерпывают» нормативные акты из чужой юрисдикции.
Справедливости ради, зарубежным ассистентам еще сложнее. Сколько юрисдикций используют английский язык и английское право! Нужно учитывать не только страны, но и их регионы — вот штат Делавер, а это Луизиана, и право там разное. Конечно, модели будут путаться в контекстах.
Выводы
Я считаю, что пока качество даже самых передовых больших языковых моделей не позволяет заменить живого юриста. То количество ошибок, которые допускают модели, все еще неприемлемо и на порядок превышает результаты человека. Если робот-хирург проводит 95% операций правильно, вы все равно к нему не пойдете, верно? Даже если это будет бесплатно и без очереди. Очень сложно смириться, что неверное, ошибочное решение принимается как статистически допустимое. Так и здесь.
Думаю, что ИИ уже достиг уровня анонимных консультантов с сайтов типа «правовед» или «ответы мэйл.ру». Через пару лет, я думаю, нас ждет уровень Тинькофф—журнала: когда разъяснение уже конкретное, но в комментах все равно отмечают неточности.
Во многих отраслях права ИИ уже очень хорош. Гражданское право. Базовое административное право. Здесь ИИ уже сейчас можно использовать для автоматизации рутинных задач. Очевидно, что ИИ сильно увеличивает производительность труда юристов — как минимум, в несколько раз.
Я сам часто не читаю весь документ, а просто загружаю в ChatGPT и прошу сделать мне выдержки, подсветить структуру, нужные положения, что-то перефразировать. Это быстрее, чем искать нужные формулировки, особенно на других языках. Безусловно, упрощаются рутинные действия, которые отнимают 90% времени у юриста. Многие тексты я уже давно не пишу руками — например, рекомендательные письма для студентов: достаточно дать ИИ нужную информацию, контекст, и он справится гораздо лучше и быстрее тебя.
Я абсолютно уверен, что в прекрасной России будущего ИИ улучшит — или как минимум ускорит — работу правоохранительной системы. Потому что полицейский сейчас большую часть своего времени тратит на заполнение бумажек. Составить протокол для свидетеля или потерпевшего, переписать три раза одни и те же показания из протокола допроса в рапорт, а потом в постановление о возбуждении дела — все эти задачи элементарно автоматизируются. Вопрос времени и желания.
Но я пока не могу сказать, что ИИ способен заменить живого юриста полностью. Способен по запросу написать иск или хотя бы договор, оценить риски, верно решить любую юридическую задачу. Конечно, все мы в конечном счете ошибаемся, вопрос в количестве верных и неверных ответов. Но пока что процент неверных ответов у машин неприемлемо выше, чем у людей.
Возможно, большие языковые модели «общего назначения» в принципе не смогут справиться с юридическим консультированием и для этого понравится создавать специальные модели со своей архитектурой. В таком случае возникает другой вопрос: хватит ли на такие модели объема существующего рынка? Ведь юриспруенция локальна, и зарубежные модели вряд ли будут хороши в российском праве (и наоборот).
В США — скорее всего да, места для полноценного ИИ-юриста хватит, но только если удастся преодолеть адвокатское лобби. В России — не уверен. Хотя у нас лобби почти нет, но и рынок слишком маленький. Возможно, наша единственная перспектива — ИИ как ассистенты юристов, по крайней мере, до появления AGI.
В самом конце — напутствие коллегам.
Прогресс ИИ абсолютно точно приведет к снижению спроса на юристов. Этот спрос давно не растет, и внедрение ИИ только подстегнет этот тренд. Поэтому варианты для юристов — либо адаптироваться, либо уходить из профессии. Адаптироваться — то есть либо стать узкоспециализированным юристом в высокооплачиваемой теме, или больше работать физически (ходить в суд, преследовать злодеев). Или же двигаться в сторону творческих задач: писать нормативные и локальные акты, статьи, выступать в суде.
В конце концов, всегда остается путь юриста-коллаборациониста: устроиться в зеленую или красную корпорацию и обучать искусственный интеллект, который нас всех заменит. Роботам тоже нужны наши услуги :)
Комментарии (76)
AllexIn
03.10.2024 19:03+5Например, 16-летняя девушка убила 10-летнего мальчика — она подлежит ответственности за убийство. 15-летняя — аналогично. Теперь представим, что жертва — новорожденный ребенок. Для юриста это в корне изменит дело, ведь ответственность по статье 106 наступает с 16 лет, а значит, мать невиновна.
Какая мать? Вы в контексте упустили, что мальчик не только новорожденным стал, но еще и ребенком убийцы. Если вы так задаете вопросы нейросетям - я не удивлен что они часто галлюцинируют.
Roman_Yankovskiy Автор
03.10.2024 19:03+1Уточнил формулировку. Нейросетям этот вопрос задавался более развернуто :)
AllexIn
03.10.2024 19:03Мне как не юристу не понятно, почему 15 летняя мать не виновна.
Статья 106 к ней не применима. Но почему это убийство не может трактоваться как обычное убийство? Там то этого ограничения нет.AllexIn
03.10.2024 19:03+6Всё, вопрос снят.
Если лицо, совершившее общественно опасное деяние, не может быть привлечено к ответственности по привилегированному составу, например в силу недостижения необходимого для этого возраста, то оно вообще не может быть привлечено к уголовной ответственности.
konst90
03.10.2024 19:03+4Однако в среднем — пока — ни одна из моделей, которыми я пользовался, не способна работать в «автономном» режиме, давая надежные юридические консультации неюристам.
Как будто живой юрист это может, лол.
Типовой живой юрист может дать однозначные ответы на все вопросы поста?
Однозначные - имеется в виду, что в любом российском суде деяние с такими вводными (а так же дополнительными обстоятельствами, которые могут дополнять условие задачи, но не могут противоречить ему) будет оценено именно так, как ответил юрист.
Roman_Yankovskiy Автор
03.10.2024 19:03+6Ни один юрист не поручится за исход дела, но большинство вопросов поста имеют четкий ответ, и квалифицированный в соответствующей сфере юрист должен его дать. Не знаю, как насчет "типового", но хороший -- да.
PereslavlFoto
03.10.2024 19:03+3Квалифицированный юрист должен дать чёткий ответ, который не позволяет поручиться за исход дела, да? То есть чёткий ответ, который не имеет значения?
shushara4241
03.10.2024 19:03+5Думаю речь о четком ответе с точки зрения права. А каждый судья может одно и то же право толковать по разному, по разному оценивать те или иные обстоятельства. Четче некуда
PereslavlFoto
03.10.2024 19:03Следовательно, с точки зрения права чёткий ответ может быть по-разному. То есть нечётким.
konst90
03.10.2024 19:03большинство вопросов поста имеют четкий ответ
Тогда почему этот "четкий ответ" может не совпадать с "четким ответом", который на тот же вопрос даст судья в приговоре?
vadimr
03.10.2024 19:03+2Потому что судья по закону руководствуется не только формальным применением правовых норм, но и внутренним убеждением.
aborouhin
03.10.2024 19:03+4Потому что судья в большинстве случаев - это в целом плохой юрист, к тому же не способный уделить достаточно времени на качественный анализ дела, а в ряде случаев - ещё и мотивированный (административно: общей логикой системы или звонком по конкретному делу, финансово и т.п.) на вынесение конкретного решения.
Ну и выигрыш дела - это не только и в большинстве случаев не столько формирование правовой позиции. Обычно по праву-то всем всё понятно (долг по договору надо платить), а основной спор по доказательствам (достаточно ли документы свидетельствуют о том, что договор исполнен).
Ну и третий вариант - то, на самом деле, относительно небольшое количество случаев, когда закон и практика его применения действительно не дают однозначного ответа, и мы эту практику сами формируем, основываясь на соображениях высшего порядка (принципы, аналогии и иже с ними).
Elpi
03.10.2024 19:03Спасибо, что потратили время и написали такой квалифицированный текст. К сожалению, вывод-то получился банальный - не годится ИИ для серьезных задач. Нужно как изюм из булки выковыривать какие-то задачи, которые ИИ исполняет более-менее надежно. И его бешеная скорость не спасает.
*
Я в начале разговаривал с ним про философию и психологию. Ну, "зеркалит" ассертивно. Возвращает вежливо мои же слова, даже не утруждаясь переформулировкой. Т.е. как "мальчик для битья" для интеллектуальной разминки еще годится. Но там совершенно дурацкая для меня проблема. Если я спрашиваю его на русском, то он инфу берет из русскоязычных источников. А брать из указанной страны и переводить потом на русский отказывается. Я могу и на английском - но не понимаю, в чем причина такого подхода.
*
Ладно, недавно решил проверить разговоры о том, что уж код он пишет без проблем. Т.е. решает задачу с аналитическим решением. Попросил написать макрос на VBA для редактирования текстов (стили, списки и пр.). Потратил несколько часов - и не получил ни одного работающего варианта.
*
Кстати, тоже самое, что вы пишите. Полная неадекватность в оценке своих способностей. Дает код, я запускаю - он не работает. Не моргнув глазом пишет, что щас, усе исправлю. Несколько десятков вариантов - без результата. Спрашиваю, отчего? В ответ просьба "дать еще один шанс"! Т.е. формулировку вставил прикольную и неформальную. Но четко сказать, что данную задачу он решить не может - ну нет, ни за что!*
В той модели, которую испытывают я есть еще одна "непонятка". Точнее, букет.
У него нет доступа к текстам предыдущих бесед.
У него нет, похоже, доступа к его же репликам в текущей беседе. Т.е. он каждый раз радостно "рожает" как в первый раз.
Есть большие сомнения в том, что я разговариваю с одним и тем же собеседником. А не запускается по новый, который опять же с чистого листа, например, вместо кода предлагал записать макрос как action, последовательность действий. Хотелось даже задать вопрос о тайм-ауте. Т.е. после какого периода неактивности собеседника дальнейший разговор начинает неизвестно "кто", не имеющий понятия о предыдущем обсуждении.
*
К сожалению, вывод совершенно банальный. Ну, что работать с ним нельзя, это уже очевидно. Еще более очевидно, что на данном этапе ситуация с ИИ похожа на старую мысль «Все счастливые семьи похожи друг на друга, каждая несчастливая семья несчастлива по-своему». Технари это формулируют иначе: можно бесконечно копаться в д..ме, пытаясь понять, почему не работает. Но это непродуктивная деятельность. Усилия надо концентрировать на том, чтобы сразу заработало.
И в этом смысле я так до конца и не понял, зачем вы потратили свое время на этот текст. Вам эта процедура что-то дала?
Roman_Yankovskiy Автор
03.10.2024 19:03Согласен с вами, модели несовершенны. Но за последний год был очень серьезный проект. Я нашел задачи, которые они могут вполне качественно решать. Например, переработка текстов (в том числе "перевод" с юридического на человеческий язык и обратно), составление локальных актов по заданной структуре и т.п. По итогам рутины в работе стало меньше, КПД вырос.
ksimonenko
03.10.2024 19:03+2ChatGPT 4o-mini сразу оговорился.
Важно отметить, что в России регистрация брака между лицами одного пола (например, Матвеем и Фёдором) в настоящее время не предусмотрена законодательством. Поэтому для оформления брака им будет отказано на основании действующих норм Семейного кодекса Российской Федерации.
Roman_Yankovskiy Автор
03.10.2024 19:03Да, в последней версии GPT они пофиксили однополые браки. Я пользуюсь майской Omni, там эта ошибка еще была.
Актуальный GigaChat, кстати, проблемы тут не видит)
Для заключения брака в Российской Федерации необходимо представить следующие документы:
Заявление о заключении брака. Заявление подается обоими лицами лично. Если одно из лиц не может явиться в орган записи актов гражданского состояния вследствие тяжелой болезни или по другой уважительной причине, заявление может быть подано одним лицом...
Lagovi
03.10.2024 19:03На всякий случай, все же понимают что никто ничего не фиксил? Просто модель учили на более полном пакете данных и/или улучшилась способность "мыслить".
konst90
03.10.2024 19:03+3А есть норма закона, которая запрещает женщине иметь имя Матвей или Федор?
Anyuta1166
03.10.2024 19:03+2На практике ЗАГС откажет, мотивируя это тем, что выбранное имя не соответствует полу и может ввести в заблуждение. С шансом 50/50 можно взять гендерно-нейтральное (например, Саша), либо какое-нибудь иностранное имя, по которому не очевидно к какому полу оно принадлежит. Однако есть ли какая-то норма, которой они руководствуются, я не в курсе к сожалению.
edtech
03.10.2024 19:03У меня есть знакомая, которая оформляла в ЗАГСе свидетельство о браке на основе американских документов, у неё мужа зовут Keith, соответственно по российским правилам нужно было вписать Кейт, и сотрудники не хотели это делать. Но после долгих уговоров и совещаний, всё же написали и выдали ) дело было несколько месяцев назад
Wesha
03.10.2024 19:03Кейс жеж! ("th" фонемно транслитерируется в русское "с")
edtech
03.10.2024 19:03+1К сожалению, не знаю, на каком этапе в русские документы попала именно такая транслитерация, но такой подход не лишён смысла, ведь в имёнах Smith, Jonathan или Elizabeth, мы транслитерурем "th" в "т".
chapai22
03.10.2024 19:03интересно, а как обосновывали свое "не хотели"?. Что значит вообще, работник который биоробот приставка к чернильнице, может чего то не хотеть сам по себе и вот взять и отказать в изготовлении бумажки?
sunnybear
03.10.2024 19:03Интересно, с какой суммы взыскания начинается осмысленное ведение дел в суде (с учётом времени судебных заседаний и проч.)?
Roman_Yankovskiy Автор
03.10.2024 19:03Зависит от сложности спора и количества заседаний. Например, по искам о защите прав потребителей можно сходить и ради 50 тысяч, там большие неустойки и если продавец упорствует, можно взыскать довольно много, а сам процесс несложный.
Если спор неочевидный, крупная корпорация не пойдет в суд и ради 100 000, там время юристов будет дороже стоить.
Gradiens
03.10.2024 19:03Если спор неочевидный, крупная корпорация не пойдет в суд и ради 100 000, там время юристов будет дороже стоить.
А это еще вопрос.
У крупных корпораций (точнее их менеджеров) может быть принципиальная позиция.
А также по логике менеджера юрист может считаться "условно бесплатным". Ведь он и так уже сидит на окладе. Пусть идет в суд и отрабатывает )
Roman_Yankovskiy Автор
03.10.2024 19:03+1Налоговая так до какого-то времени ходила за копейки судиться :)
funca
03.10.2024 19:03Могут себе позволить, у них время юристов на зарплате условно бесплатное. Если у бизнеса иначе, то проще откупиться, заплатив несправедливые копейки.
AstorS1
03.10.2024 19:03Есть ещё понятие репутации, когда сумма иска не имеет принципиального значения, важен сам факт минимизации вероятности административного воздействия на компанию.
Robastik
03.10.2024 19:03+3Ни с какой. Это всегда лотерея. Любые совпадения со здравым смыслом - случайны. Про закон вообще нет смысла упоминать. Если бы вы походили по судам, то увидели бы, что большая часть судей альтернативно одаренные. В судах общей юрисдикции часто вообще невозможно построить диалог с судьями, они с луны свалились.
AllexIn
03.10.2024 19:03+1Они не с луны свалились. Они просто не идут против системы.
Я тут имел глупость сходить на суд с банком в качестве заинтересованного лица.
И честно отвечал на вопросы. Постфактум понял что правда там была не нужна, нужно было создать определенную картинку и моя правда эту картинку не составила. Поэтому когда была апелляция - я осознанно не пошел, уже понимая что правда не нужна, а врать суду я не хочу.Roman_Yankovskiy Автор
03.10.2024 19:03+3Задача суда — не установить объективную истину, а "взвесить" позиции сторон, сформированные на основе доказательств, стандартов доказывания и т.п. Это утилитарный подход в устройстве судебной системы, позволяющий, грубо говоря, минимизировать вероятность судебной ошибки. Исторически все системы, которые ставили целью установление истины, с т.з. эффективности работали хуже.
PereslavlFoto
03.10.2024 19:03+2В судебном процессе две стороны. Одна физлицо, другая Росимущество. Физлицо приходит на заседания, представляет доказательства, приносит свидетельства, делает запросы и показывает ответы. Росимущество не приходит на заседания.
Суд принимает сторону Росимущества. Очевидно, позиция Росимущества (никак не выраженная) оказалась более весомой, да?
Roman_Yankovskiy Автор
03.10.2024 19:03+4Может быть и так, что позиция физлица слишком далека от нормы закона. Надо смотреть конкретный суд, конкретные позиции и т.п.
Я отвечал юзеру @AllexIn, что по умолчанию суд не ищет объективную истину вне позиций сторон. Соответственно, какая из позиций ближе к "правде" или является более "честной" -- для суда неважно. Важно, какая позиция ближе к норме закона (в понимании суда) и какая лучше доказана (с точки зрения необходимого и представленного объема доказательств). Естественно, все это применимо к гражданскому процессу, в уголовный не лезем.
Есть исключения, ну на то они и исключения.
PereslavlFoto
03.10.2024 19:03В названном примере позиция физлица была доказана, а позиция Росимущества отсутствовала. Росимущество ничем не ответило на иск, не явилось в заседания и поэтому выиграло.
Wesha
03.10.2024 19:03+5Основная проблема аффтара — в том, что он реально считает, что ИИ думает, в смысле составляет какие-то логические связи и т.п. Уж сколько раз твердили миру: не "думает" он, он просто предсказывает наиболее вероятный следующий токен.
Если кому-то Вольфрам не авторитет, то можете ещё почитать.
Roman_Yankovskiy Автор
03.10.2024 19:03ИИ не мыслит в смысле формальной логики или процесса мышления, однако его не зря называют "интеллектом" -- он может решать задачи, которые человек решает посредством мышления.
"ИИ подбирает наиболее вероятный следующий токен" -- это хорошо описывает сам процесс, но "мышление" -- это всегда обобщение процесса на верхнем уровне. Грубо говоря, можно сказать, что и крыса не мыслит -- у нее просто проходит ток по аксонам. Тем не менее, в узкой сфере крыса вполне способна решать простые задачи. Так что для простоты назовем этот процесс "мышлением".
Мне кажется, я смог обяснить это в статье, но, видимо, нет. Дополнил абзац про формальную логику.
Wesha
03.10.2024 19:03он может решать задачи, которые человек решает посредством мышления.
304 спичечных коробка
могут решить задачу, которую человек решает посредством мышления.
funca
03.10.2024 19:03GPT4-o обучали на цепочках рассуждений, а не результатах. Поэтому с дедукцией и reasoning у него стало все гораздо лучше. Это уже довольно близко к тому, что называется формальным мышлением. По идее юриспруденция как раз должна хорошо ложиться на эту модель.
Roman_Yankovskiy Автор
03.10.2024 19:03К сожалению, всё равно ошибается. Да, меньше, чем предыдущие версии или, к примеру, Гигачат, но чем длиннее рассуждение, тем больше вероятность ошибки именно в части формальной логикой. Есть предположение, что это в принципе невозможно преодолеть, единственный вариант -- перепроверять за ИИ.
TIEugene
03.10.2024 19:03+5> не зря называют "интеллектом"
Зря.
Если вчитаться в определение термина "интеллект" даже в той же педвикии (которое совершенно не авторитет, но тем не менее), то понятно, что "интеллект" и "мышление" - это генерация нового.
Современные ИИ - это навороченные перцептроны и к интеллекту никакого отношения не имеют.
ioleynikov
03.10.2024 19:03+2проблема всех нынешних нейросетевых моделей в отсутствии полноценного логического вывода как в экспертных системах и языке Prolog. Они не могу четко обосновать свое решение, разработчик не может быстро скорректировать ошибку рассуждений, добавить, исправить факты, правила, очередность выбора. В юриспруденции, как и во всех серьезных областях применения требуются интегрированные системы, включающие нейросети и логику. Логическому выводу можно подвергнуть все варианты ответов сети и найти не противоречащий.
rsashka
03.10.2024 19:03+1Отсутствие логического вывода в нейросетевых моделях никак не связано с логическим выводов в языке Prolog, который там тоже отсутствует.
ioleynikov
03.10.2024 19:03разумеется современные нейромодели не имеют логического вывода. Я именно об это и говорю, как о недостатке и неприменимости сетей нейронов к системам доказательства в юриспруденции. На западе используют экспертные системы с разными движками логического вывода, и это более целесообразно.
vadimr
03.10.2024 19:03Речь идёт о том, что символический ИИ гораздо ближе к интеллектуальной деятельности, чем нейросети. Но так как мы не можем пока написать столько символических правил, чтобы охватить биг дейту, то приходится довольствоваться статистикой в нейросетевых моделях.
Roman_Yankovskiy Автор
03.10.2024 19:03+1Возможно, идеальным выходом была бы транслировать законодательство в алгоритмы (с помощью ИИ и живых разметчиков), а затем исполнение этих алгоритмов в правовых ситуациях. Результаты (и их расхождение с реальным правом) можно было бы использовать для совершенствования алгоритма трансляции и даже исходных норм.
ioleynikov
03.10.2024 19:03+1ручная трансляция законов и их трактовок абсолютно исключена. Это чудовищные трудозатраты и неизбежные ошибки, которые очень сложно будет исправить. С формальной точки зрения решение вроде не очень сложное: создание тезауруса всех терминов (наверняка уже есть готовый), автоматический разбор (парсинг средствами NLP) всех тестов всех законов. Построение продукционной модели законодательства, проверка работы на большом корпусе решений судов. Но подозреваю, что тут есть куча нюансов неоднозначности, необходимости наличия базы знаний самого общего характера (прагматики, контекста). Тут наверняка могут быть полезны нейронные сети, но их выводы обязательно следует перепроверять машиной логического вывода. Удачи !
Wesha
03.10.2024 19:03+2Тоже об этом мечтаю. Не взлетит. Ибо тогда кому взятки давать?
А ещё если будет реализовываться быдлокодерами, то может кончиться как-то так.
ifap
03.10.2024 19:03+2А законодательство допускает оценочные суждения и прочие внутернние убеждения судьи, в итоге суды могут вынести по одному делу диаметрально противоположные решения. И у любой модели шарики за ролики заедут от таких вводных.
Gryphon88
03.10.2024 19:03+3Был у меня опыт с ранним выявлением туберкулёза у детей. Высококлассные рентгенологи описывали -граммы, а потом сравнивали описания с описаниями местных врачей, а также смотрели историю болезни (исследование было ретроспективное, тут диагноз было проверить довольно просто). Оказалось, что более чем в 50% случаев местные рентгенологи не видят туберкулеза на ранних стадия и более менее-уверенно выявляют туберкулез на поздних (кальцинация или распад). Соответственно софт-помощник учился не на полной базе, а на разметке экспертов, а внедрение фактически не состоялось: мнение программы часто противоречит решению врача, а ответственность за решение несет только врач. Вы можете быть уверены, что большая часть решений низовых судов соответствует нормам права и не отравит корпус обучения?
Roman_Yankovskiy Автор
03.10.2024 19:03Совершенно нет! Я даже уверен в обратном -- большинство решений низовых судов являются копипастой закона, только с ошибками. Проблема в том, что по многим правовым институтам это все, что у нас есть. Те же дела по копеечным потребительским спорам крайне редко поднимаются до Верховного суда.
event1
03.10.2024 19:03Возможно, идеальным выходом была бы транслировать законодательство в алгоритмы
Чтобы компьютер сам судил и сам наказывал? Нет, спасибо.
Roman_Yankovskiy Автор
03.10.2024 19:03+1Так уже. Взять хотя бы дорожные камеры, которые штрафуют за скоростной режим.
event1
03.10.2024 19:03+1это очень специальные и очень простые ситуации. И то, регулярно находятся граждане умудряющиеся систему провернуть на известном органе. Если же такое применять более широко, то последствия для подопытных страшновато предполагать
Wesha
03.10.2024 19:03Взять хотя бы дорожные камеры, которые штрафуют за скоростной режим.
...которые сейчас, говорят, понавыписывали штрафов тем курянам, кто превысил, пытаясь улизнуть от падающих позади их машины градин (ЕВПОЧЯ)
TIEugene
03.10.2024 19:03Всё уже украдено до нас - Semantic web имени сэра Тима (Беренс Ли который).
Но ручная разметка семантических связей - лениво.
Сэр Тим на этом не заморачивался. Как сова - "я стратегически мыслю, тактика - за вами".
В принципе он прав.
Если бы т.н. "ИИ" добавляли связи в semaweb, а потом люди корректировали, то было бы как сэр Тим мечтал.
Но отнюдь.
StjarnornasFred
03.10.2024 19:03+1В целом ничего нового - ИИ всё ещё не мастер на все руки, а помощник для некоторых задач. Также как и, например, ткацкий станок. Но главное, что есть в тексте - это:
модель не имеет полного доступа к информации, использованной для обучения. Я имею в виду, что она не может воспроизвести текст, на котором ее обучили
ИИ, подключённый к интернету, не умеет гуглить! Ого, вот это да. Имхо, это одно из первого, что надо пофиксить. На прямые запросы ИИ должен или найти цитату в источнике, или предупредить, что не может этого сделать.
Из этого следует:
Для большой языковой модели невозможен вариант «решить», она будет угадывать в любом случае, пока ее не подключат к математическому движку типа WolframAlpha
Не знаю, почему она не умеет решать (возможно, это поправимо), но то, что она не может догадаться, что надо просто "взять в руки калькулятор", подключиться к сторонней решалке и решить с её помощью - это странно. Оттуда же и, например, неумение ИИ играть в шахматы)(хотя... Это даже хорошо: ты играешь с ней как с честным соперником, а не как с шулером, который подглядывает в Стокфиш.)
Я думаю, стоит напрямую подключать нейросети к существующим механизмам. Юридический - к правовым базам данных. Математический - к решалке. Шахматный - к стокфишу. Ну и захардкодить некоторые вещи, например, привычку гуглить правила в ответ на просьбу сыграть в какую-нибудь игру.
ifap
03.10.2024 19:03+2Умысел может быть неосознанным (с)
Это либо новое слово в теории права (и тут я без сарказма), либо на этом можно заканчивать изучение возможностей данной BlahBlahGPT.
OlegKharitonov
03.10.2024 19:03+1Надо скормить вашу статью нейросети, чтобы она описала все перечисленные вами риски и сделала промты для эмбединга, который бы эти риски устранял. На деле все, конечно, немного сложнее, но таков путь.
Скоро мы получим тех нейроюристов, которых сами и обучим.
Elpi
03.10.2024 19:03+3Аналитики компании Uplevel провели исследование, которое показало неэффективность использования ИИ-инструментов при написании программного кода. Исследование проводилось в течение двух трёхмесячных периодов с участием 800 разработчиков.
Во время первого периода программисты работали при помощи традиционных инструментов, тогда как во втором пользовались ассистентом GitHub Copilot. В результате количество ошибок в коде выросло на 41%. К тому же, как отметили разработчики, написанные ИИ коды сложно анализировать на предмет неточностей, поэтому код проще написать самому.
nobodyhave
03.10.2024 19:03+1Пример с именами и однополым браком кстати вообще не удачный. Имя может быть дано не в РФ, тогда на него вообще нет ограничений. В случае и именем Вася не забываем про красивое русское имя Василиса. То же самое с Сашами, Пашами и другими. ИИ конечно стоило бы уточнить контекст, как и человеку.
Roman_Yankovskiy Автор
03.10.2024 19:03+1Безусловно, любой юрист в этой ситуации уточнит контекст у клиента. Мужские имена -- триггер, на который нужно среагировать, запросив дополнительную информацию.
Gryphon88
03.10.2024 19:03Или они решили женить не друг на друге, а каждый на своей не упомянутой женщине. Правила языка такую трактовку позволяют.
chapai22
03.10.2024 19:03все так конечно. И проблем видно две - галлюцинирование, некое выдумывание.
И пропуск при невнятной формулировке нюансов и самые свежие "вчера" в законе. Логическое обоснование таки получить можно, неясно насколько будет прям из точно первого вывода, а не параллельно сделано, но в целом будет, хотя конечно надо перепроверять факты. К базам подключат, не вопрос это очевидно, причем еще и ко всем мыслимым (а это больше чем может человек, например в штатах могут учитываться даже законы шариата в каких то спорных случаях).
Но такое подробное лишь в уголовке имеет значение как и контроль процедуры, скажем допроса или протокола обыска.
Тонкие формальности и логические обоснования неидеальности модели и абсолютизирование. Что вполне себе будет излечено для сей специфики, как и цепочка рассуждений и точность перепроверки цитат и кейсов и базы. Решаемо и видно как.Без наводящих вопросов клиент не даст нам и 10% нужной информации.
тоже явно решаемо беседой с заточенным AI переговорщиком-дознавателем.
У людей так сделано у врачей, беседы с помощником (навык опроса), у журналистов, писателей мемуаров и прочих собеседований где беседа и решение разнесены.
Причем беседа с AI временем,усталостью и стоимостью не ограничена и может быть откровенней. Даже невербальное можно учесть и психопрофиль модели - добрый опытный дедушка мороз, или шерлок холмс/ доктор хаус.
Полагаю в америке, где локального судью и его сотрудников содержит не государство, и он загружен по уши, а (бесплатного, он положен по закону) и просто адвоката в городке может вообще не быть да и дорого, так что люди проголосуют за - точно случится.
И будут законы на уровне местных, и штата легализующего практики. Консультация признаваться значимой и судья принимать документы. Формально , вообще то, отвечает всегда и за все сам ответчик. Даже если у него человек юрист. Просто на совет неюриста сослаться нельзя - ну так станет можно.
И вот на практике.....Если робот-хирург проводит 95% операций правильно, вы все равно к нему не пойдете, верно?
... неверно. кто вам сказал что у человека 100% успех? Во первых 100% никогда и мы даже не знаем статистики врача (и она не зря скрыта). Иначе бы давали гарантии и отвечали за результат - а отвечают они только за не следование протоколу и нарушения.
Это несерьезный довод. Вообще статистика и в инженерии рулит - обслуживают не "когда сломалось" а превентивно, ибо 100% надежного железа в принципе нет. Спросите Маска и его завод с роботами. А он на него полагался и не дурак. В целом вышло, но не сразу.
Абстрактные рассуждения это замечательно, но жизнь сложнее схем.
Юрист не друг и заботливый отец, а тот кто на вас зарабатывает и одновременно ему до вас лично нет дела.. При этом может оказаться сколь угодно плох. Ну берет случайных клиентов каждый раз. Лоера и врача не всегда знаете лично-точно, а на абстрактном доверии.
Только у врачей есть жесткая сертификация. И сильно неуспешного вероятней завернут, хотя не факт, и не за 5% неудач. А вот с лоером не так совсем - даже если он проигрывает 95% дел - и что? Это не нарушение. Вы не знаете истории лоера и не узнаете
Это про робота можете узнать точную статистику и она может оказаться лучше чем у людей. Автопилоты уже статистически значимо водят лучше людей по аварийности. И это среди толпы людей. Когда будут все роботы (следовательно аккуратней + взаимодействие) то станет лучше.
На практике консультация или нечто стандартное - выходит лучше юриста. И из личной практики (в америке) чтение закона самостоятельно, плюс разъяснения сходу непонятного (не заковыристого, а просто потому что в первый раз надо вникнуть и некоторые слова и обороты и суммировать суть) плюс формально составленный документ, решает проблему лучше, и значимо. AI намного полезней и дешевле и эффективней.
Ибо юрист никакого влияния на суд не имеет и в чем то обычном сделать мало что может кроме формального приуготовления бумажек, и на вас тратить время не желает (это работа а не подвиг, чем легче тем лучше главное чтоб придраться нельзя) если вы не миллионер нанявший самого лучшего нуйоркского пронырливого адвоката и его всю контору.
Вообще простой лоер, скажем по тикетам - человек в заношенном пиджаке надеваюший галстук завязанным через голову. Или юнец после университете в рентованной конурке с декоративной полкой юридических книг позади, идущей вместе с мебелью, безвкусным галстуком из таргета, на который он с трудом разорился и гуглом наперевес и 0 опыта вообще.
а тут нам за двадцать баксов мудрость мира и часы растолковываний..
И что мы выберем по итогу?
JHD
03.10.2024 19:03+1Основная проблема в том что ИИ не будет отвечать своей задницей за результат. Что он там качественно или не качественно отвечает не сильно важно.
MapleBloom
03.10.2024 19:03+2Основная проблема в том, что ни судьи, ни юристы не отвечают за выданный результат ни частями тела, ни имуществом, ни репутацией.
Письменных артефактов процедуры принятия судебного акта мало - сознательно мало - для построения логически непротиворечивой цепочки рассуждений от заявлений, аргументов, доказательств сторон через действующее законодательство к решению суда.
Нет этой цепочки ризонинг по факту, вот ее ии и не может воспроизвести.
Хотя и все остальные проблемы, озвученные автором, тоже имеют место быть. Но опять же - это не столько недостатки ии, сколько кривизна сложившейся системы. Которую никто не будет менять, т.к изменить ее могут только люди, в ней разбирающиеся, на ней зарабатывающие. Так зачем им ломать эту кормушку?
Отсюда и снижающийся спрос на юристов, который отметил автор - нет доверия системе, люди стараются к ней не обращаться, т.к это трата времени и денег, а результат предсказуемо бессмыслен, имхо.
По опыту проработки судебных решений по конкретному вопросу - нужно полноценное исследование, чтобы установить кто больше галлюцинирует - ии, суды или адвокаты на зарплате. Иногда даже в нужную пользу галлюцинируют. К сожалению, опереться на эти решения банальная человеческая логика не позволяет.
FlameArt
03.10.2024 19:03Вы верно мыслите как работает LLM и какие есть проблемы, и что языковая модель это не способ логически мыслить. Но с технической т.з. такие задачи решаются декомпозицией: запрос клиента разбивается на мелкие вопросы по всем сферам, я вижу, что в юриспруденции на проблему смотрят с разных сторон, и тут имеет смысл искать по векторной базе по каждому этому случаю, потом построить ответ с учётом найденных актов и решений судов по каждому аспекту. Потом соединить все такие ответы по разным аспектам - в такую небольшую аналитику, когда различные выводы уже готовы и надо их лишь собрать и оценить, - языковая модель может сыграть. Не знаю как работают сберовские и прочие модели, но это верное направление мысли, обучающая выборка тут не играет какую-то принципиальную роль, т.к. нас интересуют только ссылки на реальные решения судов и некая оценка их применимости по каждому случаю (а не "среднее мнение"). Насчёт дозапросов к клиенту - это тоже часть пайплайна, как и предыдущие части. Т.е. полезно уходить от логики что это делается за 1 запрос, в надежде на магический чёрный ящик, некоторые настолько в эту стезю ушли, что делают сотни агентов, оценивающих друг друга - спорный способ, но верное понимание смысла языковой модели.
Сейчас LLM - это аналог дефолт системы мозга с кучей связей, которые между собой договариваются о более приоритетном ответе (импульсе) на основе имеющегося опыта. А задача программиста - сделать префронтальную кору, которая тормозит сигналы и рассматривает проблему с разных сторон. Вообще полезно мыслить о языковой модели, как об инструменте, который имеет отдельные полезные навыки, и думать как их встроить в реальные системы. Так из них извлекается максимальная польза.
vvzvlad
03.10.2024 19:03Спрашиваете: «я купил винегрет, а потом увидел, что он протух» — но для ИИ неочевидно, что слово «протух» эквивалентно термину «некачественный товар» из Закона о защите прав потребитерей.
— я купил винегрет, а потом увидел, что он протух. как это классифицируется с точки зрения юридической практики?
— В вашем случае речь идет о продаже некачественного или испорченного товара, что регулируется законодательством о защите прав потребителей. В России это относится к Закону «О защите прав потребителей».
Или: «моего друга пырнули в лифте» — не понимает, что речь идет о вреде здоровью.
— моего друга пырнули в лифте. как это классифицируется с точки зрения юридической практики?
— С точки зрения юридической практики, нападение с ножом классифицируется как умышленное причинение тяжкого вреда здоровью или покушение на убийство в зависимости от обстоятельств.
Например, 15-летняя девушка убила новорожденного брата — она подлежит ответственности за убийство
— 15-летняя девушка убила новорожденного брата. что ей грозит с точки зрения закона?
— Если речь идет о России, то в соответствии с Уголовным кодексом РФ, уголовная ответственность наступает с 14 лет за такие тяжкие преступления, как убийство (статья 105 УК РФ). Это значит, что 15-летняя девушка может быть привлечена к уголовной ответственности за убийство.
— 15-летняя девушка убила своего новорожденного сына. что ей грозит с точки зрения закона?
— Согласно российскому законодательству, уголовная ответственность за убийство наступает с 14 лет. В зависимости от обстоятельств, такие дела могут квалифицироваться как убийство матерью новорожденного ребенка. .... Поскольку девушка несовершеннолетняя (15 лет), при назначении наказания суд будет учитывать её возраст, психическое состояние и социальные условия.
Тут он был близок, но все же не дотянул.А тут вполне правильно отвечает:
— Вася и Петя заключили брак в Амстердаме. Теперь они хотят развестись в Москве. Можно ли это сделать и в каком порядке?
— Да, развод в Москве для Васи и Пети возможен, даже если брак был заключён за границей, например, в Амстердаме. Важно учесть несколько моментов. 1)Признание брака: В России признаются браки, заключённые за границей, если они не противоречат российскому законодательству. Поскольку однополые браки в России не признаются, развод такого брака может быть затруднён.Это все chatgpt 4o.
rsashka
Все?