Что не так со статьей Романа Янковского?
В недавней статье Роман Янковский высказал интересные мысли о влиянии ИИ на юриспруденцию. Статья Романа под названием “что не так с ИИ-юристами” имела как сторонников, так и несогласных.
Я решил написать ответ на статью, где постарался развить некоторые из поднятых Романом вопросов и пригласить юридическое сообщество к обсуждению прикладной пользы LLM.
Я решил, что справедливо будет прокомментировать его статью публично.
Дискуссии об ИИ часто сопровождаются антропоморфизацией, приписыванием ему человеческих качеств – от божественных (или чудесных, что обязано сделать жизнь человека лучше и счастливее) до демонических (он нас поработит). Это мешает объективной оценке его возможностей и рисков.
Вместо того, чтобы анализировать каждый конкретный тезис исходной статьи о возможностях и опасностях ИИ, предлагаю сфокусироваться на самом определении искусственного интеллекта. Существует стойкое ощущение, что определение ИИ, на которых базируются многие рассуждения - часто недостаточно верны, и обсуждение вытекающих из него тезисов может оказаться неконструктивным.
В контексте данной статьи под ИИ, а точнее, под большими языковыми моделями (LLM), мы будем понимать системы, обученные на огромном корпусе документов. Они содержат в себе знание о вероятности того следования слов друг за другом, и на основе этого могут подставлять их наиболее вероятном порядке. Это упрощенное объяснение, внутри LLM более сложная математика, но на выходе примерно так это и работает.
Следовательно, нужно обсуждать, как использовать и кого заменит именно такой инструмент в юридической сфере.
Предлагаю немного отвлечься и посмотреть на другие отрасли. Приведу примеры. Wolfram Alpha – поисковик и математический движок, но он не заменил всех математиков в мире. Вместо этого, математики стали более эффективны благодаря появлению таких инструментов, так как освободилось время на обдумывание путей решения задачи с возможностью более быстрой проверки гипотез и проведения расчетов. Аналогично, AutoCAD заменил чертежников, которые умели чертить по ГОСТам, но не проектировали, например, механизмы для машин. Сам инженер, который проектировал эти механизмы, остался. AutoCAD лишь автоматизировал рутинную часть его работы. И с каждым выпуском автоматизирует все большую ее часть, являясь средством автоматического проектирования. То есть он не заменил человека, а взял на себя выполнение части функций, повысив эффективность работы человека.
LLM, упомянутая в статье Романа Янковского, это система, которая "вспоминает" информацию. Если работа юриста заключается только в том, чтобы «вспомнить», какие статьи подходят под решение вопроса, и процитировать их, то такая система юриста заменит. Компьютер делает это уже быстрее. В этом случае LLM мультиплицирует тот опыт, которому ее обучил создатель. В нее заложены определенные механизмы поиска, или, скорее, генерации информации на основе имеющихся данных. Она может делать это на порядки быстрее, чем человек.
Если работа юриста заключается в том, чтобы на основании вопроса и контекста найти среди сотен тысяч похожих ситуаций наиболее часто встречающиеся ответы (при условии, что модель обучена на “правильных” данных), то такие специалисты, возможно, тоже будут заменены.
Но я надеюсь, что юристы не отождествляют себя с людьми, которые просто «вспоминают», что они или их коллеги отвечали по заданной ситуации ранее. Они не только ищут информацию в базах знаний. Если юриспруденция – это просто "вспомнить", найти и процитировать, то, возможно, на этом статью можно закончить. Но нет, ведь “юриспруденция - это не про вспомнить статью или правило”.
Теперь я хочу обратить внимание коллег на фразы из статьи Романа про ИИ, которые могут (не обязательно, но могут) ввести в заблуждение: