Каким образом в США будет применяться внедоговорная ответственность к ИИ-разработчикам, допустившим причинение существенного вреда третьим лицам?
Для ответа на этот вопрос обратимся к отчёту, который опубликовал американский аналитический центр RAND. В документе рассматривается, с одной стороны, насколько применимы существующие правовые механизмы, а с другой — оцениваются возможные дальнейшие меры законодателей.
Начнём по порядку:
1. Исследователи видят существенные риски привлечения разработчиков к ответственности в рамках действующего правового поля. Обязанность проявлять разумную осторожность, чтобы не причинить вред личности или имуществу, по умолчанию распространяется на разработчиков ИИ, даже если законодателями не будут внесены какие-либо изменения.
2. В США внедоговорная ответственность в основном относится к общему праву, а значит, в будущем возможна неопределённость в том, каким образом суды будут использовать существующую практику применительно к спорам, возникшим вокруг ИИ-разработчиков. Более того, в разных штатах существуют свои устоявшиеся подходы и судебная практика, которые могут существенно различаться между собой. Например, исследователи отмечают, что штаты по-разному подходят к ответственности производителей за причинение вреда из-за существенной доработки товара третьими лицами. Также неясно, распространяются ли на ПО (ИИ в частности), которое не интегрировано в физические объекты (роботы, автомобили), требования законодательства о безопасности продукции (относятся ли системы и модели ИИ к продуктам). Таким образом, если по какой-либо причине будет нанесён существенный вред, который коснётся людей в нескольких штатах, разработчики столкнутся с необходимостью учитывать особенности разных юрисдикций. И это мы ещё не касаемся возможности причинения вреда одновременно в нескольких странах.
3. Разработчики, которые не используют принятые в отрасли передовые методы обеспечения безопасности, могут существенно повысить риски привлечения к ответственности. Судебная практика показывает, что в схожих случаях соблюдение ответчиком отраслевых стандартов и лучших практик имеет важное значение в исходе дела.
4. Разработчики могут быть привлечены к ответственности за вред, причинённый третьими лицами в результате неправомерного использования систем и моделей ИИ. Однако, как правило, суды штатов определяют, была ли у ответчика возможность разумно предвидеть наступление подобных последствий. В понимании того, какие конкретные действия разработчиков в этом случае могут считаться достаточными, судебная практика будет разниться. Особенно подобные сложности могут возникать вокруг открытых моделей ИИ.
5. Государство, бизнес и гражданское общество могут способствовать повышению безопасности и, как следствие, уменьшению рисков привлечения разработчиков к ответственности за счёт разработки стандартов, лучших практик и протоколов безопасности. На использование последних в дальнейшем могут обращать внимание суды при разрешении споров.
6. Принимая во внимания рассмотренные различия, авторы считают, что законодателям стоило бы подумать над изданием новых актов, которые бы внесли ясность и сформулировали единый подход по привлечению к ответственности ИИ-разработчиков. Более того, повысить ИИ-безопасность можно не только с помощью института юридической ответственности. Например, законодательно можно установить и другие меры, такие как минимальный уровень мер безопасности, необходимость тестирования и оценки ИИ-продуктов в наиболее опасных областях.
7. С точки зрения федерального законодательства исследователи обратили внимание на вопросы, которые уже стали американской классикой: распространяется ли Первая поправка (свобода слова и печати) на ПО (ИИ в частности), а также нужно ли использовать раздел 230 USC, снимающий ответственность с держателей цифровых платформ за размещённый пользователями контент при условии осуществления модерации, для разработчиков ИИ-продуктов.
В целом, отчёт получился интересным и изобилующим деталями. Если вы интересуетесь темой ответственности или американским правом, то советую ознакомиться 🤩.