howtocomply_AI: право и ИИ @howtocomply_ai Channel on Telegram

howtocomply_AI: право и ИИ

@howtocomply_ai


Канал про право и искусственный интеллект.
Исчерпывающе, но не всегда лаконично.
Дмитрий Кутейников @howtocomply_AI_feedback

howtocomply_AI: право и ИИ (Russian)

Вы когда-нибудь задумывались о том, какие правовые аспекты связаны с использованием искусственного интеллекта? Если да, то канал @howtocomply_ai - именно то, что вам нужно! Здесь вы найдете информацию о правовых вопросах, связанных с развитием и применением ИИ.

Этот канал проводит исследования и анализирует различные аспекты взаимодействия между правом и искусственным интеллектом. Информация представлена исчерпывающе, но не всегда лаконично - вы точно не останетесь равнодушными к представленным материалам

За каналом стоит эксперт в данной области - Дмитрий Кутейников. Он занимается изучением вопросов, касающихся правового регулирования в области искусственного интеллекта и делится своими знаниями с подписчиками канала.

Так что, если вы хотите быть в курсе последних новостей и исследований о праве и ИИ, не медлите и присоединяйтесь к каналу @howtocomply_ai прямо сейчас!

howtocomply_AI: право и ИИ

17 Dec, 18:53


Посетил GPAI Summit 2024: делюсь впечатлениями

Друзья, декабрь выдался адским, поэтому постов было меньше. Но все постепенно налаживается. Вместе с тем мне есть, чем поделиться. Например, 3–4 декабря я посетил в Белграде саммит GPAI.

Что еще за GPAI?

Да, я тоже с трудом себя переучивал, но GPAI — это не только ИИ общего назначения (General Purpose AI), но еще и Глобальное партнерство в сфере ИИ (Global Partnership on AI). В него входят страны ОЭСР и ряд дополнительных участников, которые договорились добровольно исполнять принципы ОЭСР.

Что было интересного?

Мероприятие было масштабным и включало множество секций и торжественных мероприятий.

Больше всего мне запомнилось выступление Стюарта Рассела, с книги которого во многом и началось мое путешествие в мир науки об ИИ. Ранее я многократно смотрел записи его лекций и докладов на мероприятиях, поэтому было особенно интересно и трогательно наконец увидеть его лекцию собственными глазами. Большая ее часть была посвящена возможности создания AGI и связанным с этим рискам, а также AI Safety. Кстати, про последнюю у ученого в 2019 году вышла замечательная книга — Human Compatible: Artificial Intelligence and the Problem of Control.

Если резюмировать сказанное, можно выделить два основных вывода:

1. AGI вполне можно создать к 2030 году. Однако существуют несколько фундаментальных проблем, таких как ограничения существующих архитектур и возможное исчерпание данных, которые могут остановить развитие технологий и привести к новой «зиме ИИ», как это уже случалось ранее несколько раз.

2. Все существующие модели ИИ подвержены совершению ошибок и уязвимы к взлому, поэтому важно прочертить «красные линии» их возможного использования.

Отдельная сессия была посвящена ИИ-регулированию, где также удалось послушать известных спикеров.

В частности, Габриэле Маццини, один из авторов Регламента ЕС об ИИ, рассказал об имплементации акта. Он также подчеркнул, что в скором времени будет разработан новый крупный документ — Digital Fairness Act, направленный на защиту прав потребителей на цифровых рынках и запрет недобросовестных практик.

Далее прошел круглый стол, на котором с небольшими докладами выступили: Мерв Хикок (Center for AI and Digital Policy), Киоко Йошинага (Keio University), Майя Богатай Янчич (Open Data and Intellectual Property), Тилль Кляйн (appliedAI), Каныш Тулеушин (министр цифрового развития, инноваций и аэрокосмической промышленности Казахстана). Модерировал дискуссию Милан Здравкович (University of Nis).

Обсуждение в основном было сосредоточено на соотношении мягкого и жесткого подходов к регулированию в сфере ИИ. Например, спикер из Японии отметила: чем более жесткие в стране социальные нормы, тем меньше необходимость в правовых нормах (сильное заявление, проверять мы его, конечно, не будем).

Маленький анекдот для любителей ИИ-регулирования по мотивам дискуссии на одной из секций:

Заместитель генсека ОЭСР Ульрик Вестергаард Кнудсен в своем выступлении рассуждал о том, что регулирование в сфере ИИ должно быть «умным», а не «глупым». На что модератор задал ему вопрос: «Считаете ли вы Регламент ЕС об ИИ примером умного регулирования?» А спикер ответил: «В Регламенте мне нравится только одна часть — определение систем ИИ, которое было позаимствовано из принципов ОЭСР» 🤩.

howtocomply_AI: право и ИИ

29 Nov, 09:28


Разбираем Европейский Кодекс практик для ИИ общего назначения: часть 3

Друзья, возвращаюсь к вам с ещё одной частью разбора проект Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice). Сегодня пытаемся понять, что же представляют собой системные риски, которые могут исходить от некоторых моделей ИИ.

Что в регламенте?

Как я уже отмечал ранее, Регламент ЕС об ИИ выделяет две группы моделей ИИ: модели ИИ общего назначения и модели ИИ общего назначения, представляющие системные риски.

Системный риск определяется в документе следующим образом: это риск, характерный для высокоэффективных возможностей моделей ИИ общего назначения, оказывающий значительное влияние на рынок ЕС в силу своего охвата или в силу фактического или обоснованно прогнозируемого негативного воздействия на здоровье, личную и общественную безопасность, основные права человека или общество в целом. Такой риск может распространяться в масштабах всей цепочки создания стоимости.

Что в кодексе?

Кодекс определяет следующие пять групп системных рисков. Их природа связана с характеристиками моделей ИИ (можно увидеть на скриншоте).

- Киберпреступления: риски, связанные с использованием моделей ИИ для проведения кибератак, например, через обнаружение или эксплуатацию уязвимостей информационных систем.

- Химические, биологические, радиологические и ядерные риски (ХБРЯ): риски, связанные с использованием ИИ как продукции двойного назначения, включая разработку, использование и приобретение различных видов вооружений.

- Потеря контроля: риски, связанные с потерей контроля со стороны человека над продвинутыми автономными моделями ИИ.

- Автоматизированное использование моделей ИИ для исследований и разработки других моделей ИИ: риски, связанные с резким увеличением темпов развития ИИ-технологий, что потенциально может привести к их непредсказуемому развитию.

- Убеждение и манипулирование: риски, связанные с использованием моделей ИИ для дезинформации или манипуляции, способные нанести ущерб демократическим ценностям и правам человека. Это может выражаться во вмешательстве в выборы, потере доверия к СМИ, социальной гомогенизации или чрезмерном упрощении знаний.

- Дискриминация в крупном масштабе: риски, связанные с использованием моделей ИИ для дискриминации отдельных лиц, групп или сообществ.

Кроме того, в документе выделены три группы потенциальных источников риска, исходящих от моделей ИИ общего назначения: опасные возможности моделей ИИ; опасные свойства моделей ИИ, дополнительные факторы и социально-технический контекст (подробнее на скриншотах).

Следует отметить, что этот перечень пока довольно примерный. В процессе следующих итераций работы над документом количество групп и степень конкретности изложения материала могут измениться. Это было предметом обсуждения на соответствующей рабочей группе. Однако уже сейчас можно понять общий ход мыслей разработчиков документа.

В завершающем посте мы разберём, каким образом кодекс предлагает поставщикам моделей ИИ общего назначения уменьшать системные риски с технической и организационной сторон.

howtocomply_AI: право и ИИ

26 Nov, 18:51


Разбираем Европейский Кодекс практик для ИИ общего назначения: часть 2

Продолжаем анализировать проект Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice). Сегодня на очереди прозрачность и авторские права. Напоминаю, что это не финальная версия документа, поэтому с высокой вероятностью мы увидим корректировку отдельных положений. Тем не менее уже понятен вектор, в котором будут соблюдаться требования Регламента ЕС об ИИ.

Прозрачность

Регламент ЕС об ИИ в статьях 53(1)(a) и 53(1)(b) со ссылками на Приложения XI и XII устанавливает обязанность для поставщиков моделей ИИ общего назначения разрабатывать, регулярно обновлять и предоставлять документацию как AI Office, так и последующим поставщикам, которые планируют интегрировать модель ИИ в свои продукты.

- Кодекс более подробно раскрывает требования к этой документации. Не буду останавливаться на деталях, лучше приложу скриншоты из документа. Отмечу, что необходимо обращать внимание на столбцы справа, поскольку часть данных должна раскрываться только AI Office, а другая — также последующим поставщикам. Например, число параметров модели должно раскрываться обеим группам, а детальная информация об архитектуре и слоях модели ИИ — только AI Office.

- Политика допустимого использования. В кодексе содержится перечень того, что должна включать данная политика, которая должна быть разработана поставщиками моделей ИИ. Кратко: разрешённые виды использования моделей ИИ (включая высокорисковые, если применимо), описание мер и протоколов безопасности, которым должны следовать последующие поставщики, а также ситуации, при которых доступ к моделям может быть ограничен разработчиками. Прим.: данные политики уже и так достаточно популярны среди ИИ-разработчиков. Однако все они достаточно разные по содержанию. В кодексе предпринята попытка сделать унифицированный шаблон документа.

Авторские права

Регламент в статье 53(1)(c) требует от поставщиков моделей ИИ общего назначения соблюдать законодательство ЕС об авторском праве. Кодекс более конкретно определяет шаги, которые необходимо предпринять для достижения соблюдения законодательства.

- Должна быть разработана политика защиты авторских прав (copyright policy), охватывающая все этапы жизненного цикла модели ИИ (включая возможные модификации и дообучение, если это будет предусмотрено последующими рекомендациями AI Office).

- Поставщики обязаны проявлять должную осмотрительность перед использованием наборов данных, предоставленных третьими сторонами по договору. Например, необходимо запрашивать подтверждение того, что набор данных создан в соответствии с законодательством ЕС о защите авторских прав. Для крупного бизнеса также предусмотрена обязанность снижать риски нарушения авторских прав при интеграции моделей ИИ в свои продукты последующими поставщиками.

- При сборе данных для создания наборов данных для машинного обучения необходимо удостоверяться, что контент не защищён авторским правом в рамках законодательства ЕС. Для этого, как минимум, нужно следовать файлу robots.txt (запрет на сбор данных с сайтов), не дискриминировать такие сайты в поисковой выдаче (если модель используется как поисковая система) и не собирать данные из пиратских источников (имеется соответствующий список). Поставщики моделей ИИ обязуются следить за лучшими практиками в сфере защиты авторских прав (например, новыми технологиями машинного отказа от майнинга). Крупный бизнес также должен обсуждать существующие проблемы с правообладателями при посредничестве Еврокомиссии.

- Поставщики обязаны размещать на своих сайтах информацию о мерах, принимаемых для соблюдения требований отказа от сбора данных. Например, следует указывать информацию об используемых краулерах и их соответствии файлу robots.txt. Также необходимо создать единый контактный центр для взаимодействия с правообладателями.

- По запросу AI Office поставщики должны предоставлять детальную информацию об источниках данных в наборах данных, чтобы обеспечить проверку выполнения политики защиты авторских прав.

howtocomply_AI: право и ИИ

25 Nov, 14:00


Разбираем Европейский Кодекс практик для ИИ общего назначения: часть 1

На прошлой неделе прошли заседания рабочих групп по подготовке Кодекса практик для ИИ общего назначения (General-Purpose AI Code of Practice). Как и обещал, возвращаюсь к вам с его разбором в нескольких частях.

Для чего нужен этот кодекс?

В Регламенте ЕС об ИИ есть Глава 5: Требования для поставщиков моделей ИИ общего назначения, которая начнёт применяться 2 августа 2025 года. Как можно понять из названия, она устанавливает требования для провайдеров (в том числе разработчиков) фундаментальных моделей ИИ (на основе которых, например, работают всеми любимые сервисы генеративного ИИ). Также отдельно регламент выделяет группу моделей ИИ общего назначения, представляющих системные риски, на провайдеров которых будут накладываться более строгие требования. К ним будут относиться продвинутые модели, на создание которых было затрачено не менее 10^25 FLOPs, или те, которые отнесены к данной группе Еврокомиссией на основе других признаков.

Так как Регламент концептуально является частью законодательства о качестве продукции, его реализация в значительной степени опирается на гармонизированные стандарты, которые постепенно начинают разрабатываться на уровне ЕС. Иными словами, стандарты позволяют интерпретировать местами абстрактные нормативные требования в понятные практические шаги. Однако в отношении моделей ИИ общего назначения работа над стандартами ещё не началась, и из-за бурного развития технологий она может затянуться ещё как минимум на несколько лет. Поэтому до вступления в силу гармонизованных стандартов провайдеры для выполнения требований закона могут опираться на данный кодекс.

Таким образом, кодекс важен, так как:

- он начнёт применяться на практике уже совсем скоро;

- определит векторы для дальнейшей разработки стандартов;

- за счёт широкого участия ИИ-разработчиков со всего мира, по сути, определит лучшие практики не только для того, чтобы соответствовать законодательству ЕС, но и для регулирования на уровне других стран и международных организаций.

Из чего он состоит?

Документ состоит из трёх основных частей, которые в целом корреспондируют рабочим группам:

1. требования для поставщиков моделей ИИ общего назначения (прозрачность и копирайт);

2. таксономия системных рисков;

3. требования для поставщиков моделей ИИ общего назначения, представляющих системные риски (меры по управлению рисками, а также по их оценке и снижению).

Что по итогам обсуждений?

Сейчас эксперты дали обратную связь по поводу первого проекта документа (текст тут). Предложений довольно много, но если резюмировать в двух словах, то:

- необходимо убрать любые разночтения кодекса с Регламентом, так как сейчас некоторые положения кажутся более широкими, что ожидаемо вызывает разночтения между бизнесом и гражданским обществом;

- необходимо сильнее конкретизировать нормативные требования, чтобы с юридической, технической и организационной сторон не оставалось вопросов относительно достаточности принятых мер для исполнения законодательства.

Что дальше?

Новый раунд обсуждений и вариант текста мы увидим в январе. Финальный текст кодекса будет готов к 1 мая 2025 года.

А мы с вами далее разберём отдельно каждую из частей документа в последующих постах 🐱.

howtocomply_AI: право и ИИ

14 Nov, 13:23


Опубликован первый вариант текста Кодекса лучших практик для моделей ИИ общего назначения

Сегодня на сайте Еврокомиссии был опубликован первый вариант текста Кодекса лучших практик для моделей ИИ общего назначения (General-Purpose AI Code of Practice). Кратко о том, что из себя представляет кодекс, я писал здесь.

Документ находится на очень ранней стадии подготовки. По сути, он представляет собой изложение положений Регламента ЕС об ИИ (в части систем и моделей ИИ общего назначения), а также подробный перечень конкретных мер по их реализации, сформулированный руководителями каждой рабочей группы на основе отзывов стейкхолдеров. Также в документе выделены проблемные вопросы и ключевые развилки, ответы на которые будут найдены в ходе последующих стадий подготовки и обсуждения. Таким образом, текст, вероятно, ожидают еще неоднократные изменения.

На следующей неделе в каждой из четырех рабочих групп пройдут заседания с участием широкой группы экспертов для обсуждения предложенного текста. Как уже отмечал ранее, я планирую их посетить, так как вхожу в число этих экспертов. По итогам обсудим наиболее интересные моменты и разберем соответствующие части кодекса 🤩.

howtocomply_AI: право и ИИ

13 Nov, 09:13


Ответственность за вред, причиненный системами ИИ в ЕС: невероятные приключения PLD и AILD

Друзья, все мы любим тему ответственности, поэтому разбираем сразу несколько важных новостей из ЕС:

Евросовет подписал Директиву об ответственности за качество продукции (Product Liability Directive, PLD). Ждем текст в официальном источнике, а пока финальный его вариант можно прочитать тут. Ранее я делал подробный обзор документа, поэтому сейчас не будем на нем подробно останавливаться. Скажу лишь, что она крайне важна для нас, так как прямо относит ПО (включая ИИ) и робототехнику к продуктам, распространяя на них ответственность за продукцию ненадлежащего качества.

В 2022 году была опубликована Директива об ответственности в сфере ИИ (AI Liability Directive, AILD), которая направлена на то, чтобы найти баланс между технологическим развитием и защитой интересов пользователей за счет сочетания виновной и строгой ответственности для поставщиков систем ИИ повышенного риска. То есть, с одной стороны, ответственность не всегда по умолчанию возлагалась бы на поставщиков систем ИИ повышенного риска, а с другой — у пользователей был бы более простой способ доказать причинно-следственную связь между выходными результатами работы системы ИИ и общественно опасными последствиями.

Однако после принятия Регламента ЕС об ИИ текст директивы, который сильно завязан на его положения, был отправлен на доработку. Поскольку концепция документа вызвала неоднозначную реакцию у экспертов и бизнеса, Комитет по правовым вопросам Европарламента (JURI) запросил провести дополнительную оценку воздействия. Документ был составлен известным специалистом по ИИ-регулированию Филиппом Хакером, который ранее опубликовал ряд материалов на тему ответственности.

Какие выводы содержатся в документе? (не все однозначные, если честно 🤩)

Директиву следует значительно расширить за счет включения в ее сферу действия всего ПО, а не только ИИ, а также превратить ее в регламент (другой вид акта, который применяется напрямую во всех государствах-членах).

Концептуально документ должен быть аналогичен PLD, но распространяться на те сферы, которые находятся за ее границами (подробнее на скриншоте).

Ввести новую группу систем ИИ, оказывающих значительное воздействие (high-impact AI systems), в которую должны входить системы повышенного риска, системы/модели ИИ общего назначения, все системы, которые интегрированы в продукты из раздела B приложения I (в понимании Регламента ЕС об ИИ), а также автономный транспорт и страховые приложения.

Ввести строгую (безвиновную) ответственность в случае причинения вреда из-за создания системы ИИ из списка запрещенных Регламентом ЕС об ИИ.

Рассмотреть в ходу широкого общественного обсуждения возможность использования строгой ответственности для поставщиков систем ИИ повышенного риска (кстати, аналогичное предложение мы с коллегой озвучивали в статье тут).

Распределять ответственность внутри цепочки поставки систем ИИ на основе гибкого сочетания следующих принципов: равенства сторон, поддержки малого бизнеса и защиты нижестоящих поставщиков и эксплуатантов.

howtocomply_AI: право и ИИ

05 Nov, 18:12


Более сотни компаний согласились добровольно соблюдать отдельные положения Регламента ЕС об ИИ

Еврокомиссия опубликовала список из 115 компаний, которые подписали ИИ-пакт.

TLDR: ИИ-пакт направлен на то, чтобы бизнес добровольно начал исполнять ряд требований Регламента до того, как они начнут официально действовать (сроки — тут). Все это будет происходить в постоянной коммуникации компаний и компетентных органов, что позволит первым плавно и надежно подготовиться к соблюдению законодательных требований, а вторым — поработать над правоприменением и выработать лучшие практики.

Подробнее про пакт я писал тут и тут.

Кто, например, есть в списке?

Европа: Siemens, Airbus, IKEA, Deutsche Telekom, Vodafone, Orange, Dassault Systèmes, INGKA Group и Scania.

США: Microsoft, IBM, Google, Amazon, Palantir, Salesforce, Cisco, Autodesk, Hewlett Packard Enterprise, Motorola Solutions, Snap, Workday, Adobe, Intuit и Qualcomm.

Канада: Cohere.

Индия: Infosys, Tata Consulting Services (TCS) и Wipro.

Япония: NEC.

Австралия: Atlassian.

Израиль: Corsight AI.

Новая Зеландия: Waiheke.

Кого мы не видим в списке?

В исходном списке отсутствуют Meta (запрещена в РФ), Apple, Anthropic и все китайские компании (включая TikTok и Tencent). Из крупных европейский игроков на рынке ИИ в пакте пока не принял участие Mistral AI.

Что это значит?

Ничего. Участие в пакте добровольное и не отменяет того, что компании готовятся самостоятельно. Например, Politico пишет, что Meta уже проводит меры по соответствию требованиям Регламента и не исключает возможности присоединиться к пакту позднее.

howtocomply_AI: право и ИИ

02 Nov, 17:00


Какие органы и исследовательские организации в наибольшей степени влияют на формирование правового и технического регулирования в Китае?

Аналитический центр Institute for AI Policy and Strategy (IAPS) выпустил отчет, в котором исследователи проанализировали наиболее влиятельные китайские исследовательские организации в сфере ИИ и сравнили их по функциям с институтами безопасности ИИ, существующими в США и Великобритании. Последние сейчас выполняют крайне важные функции: они разрабатывают стандарты и методики, направленные на обеспечение безопасности ИИ, а также по согласованию с технологическими компаниями осуществляют внешние оценки передовых систем и моделей ИИ перед их официальным релизом.

Среди ключевых организаций авторы выделяют:

Cyberspace Administration of China (CAC) — основной регулятор в сфере ИИ. Готовит нормативные акты, осуществляет регистрацию и оценку систем ИИ, а также следит за распространением информации, признанной незаконной и вредной с точки зрения нынешних властей.

National Cybersecurity Standardization Technical Committee 260 (TC260) — комитет при национальном органе по стандартизации, который занимается определением рисков, связанных с разработкой и применением ИИ, а также разработкой методик оценки систем ИИ. Существуют также два других комитета по стандартизации (TC28/SC42 и CESA), но пока доступно мало информации о результатах их работы.

China Academy for Information and Communications Technology (CAICT) — аналитический центр при Министерстве промышленности и информатизации КНР, который непосредственно занимается внешними оценками систем и моделей ИИ, а также координирует работу совета стейкхолдеров Artificial Intelligence Industry Alliance (AIIA) и лаборатории, специализирующейся на разработке методик оценки AI Critical Technology and Applications Evaluation (AICTAE).

Международным сотрудничеством в сфере ИИ занимаются Institute for AI International Governance (I-AIIG) и Center for International Security and Strategy (CISS).

Также выделяются исследовательские организации, которые разрабатывают модели ИИ, изучают их безопасность и создают методики оценки: Beijing Academy of Artificial Intelligence (BAAI), Peng Cheng Lab (PCL), Shanghai AI Lab (SHLAB).

howtocomply_AI: право и ИИ

30 Oct, 10:01


Еврокомиссия опубликовала проект имплементационного акта о создании совета независимых экспертов для AI Office

На сайте Еврокомиссии для общественного обсуждения размещен проект имплементационного акта о создании совета независимых экспертов для поддержки AI Office.

Что это за совет?

Совет создается в соответствии со статьей 68 Регламента ЕС об ИИ, которая прямо предусмотрела необходимость формирования соответствующего органа для поддержки правоприменителей и принятия для этого отдельного имплементационного акта.

Для чего он нужен?

Главной задачей совета будет консультирование AI Office относительно применения положений Регламента к системам и моделям ИИ общего назначения:

- совет должен предупреждать AI Office в том случае, если он обнаружил, что какая-либо система или модель ИИ достигла пороговых значений или представляет неизвестные ранее риски и должна быть отнесена к группе, представляющих системные риски (прим.: такие модели ИИ можно условно назвать продвинутыми. Регламент накладывает на их провайдеров большие требования);

- совет содействует разработке инструментов и методик по оценке возможностей систем и моделей ИИ;

- совет предоставляет рекомендации по классификации моделей ИИ общего назначения, представляющих системные риски;

- совет готовит необходимые инструменты и шаблоны документов.

Помимо этого, совет также будет помогать AI Office и компетентным органам стран-членов ЕС в исполнении функций, возложенных на них Регламентом.

Кто в него будет входить?

Совет будет состоять из компетентных межотраслевых независимых экспертов и формироваться на два года на основе открытого конкурса. Для членов совета возможно однократное продление полномочий на еще один срок. Конкретная численность органа будет определяться отдельно каждые два года Еврокомиссией и AI Board (совет представителей стран-членов ЕС). Однако общая численность совета не должна превышать 60 человек (эта цифра пока под вопросом). Эксперты, которые отвечают критериям, но по каким-то причинам не попали в текущий совет, включаются в резервный список.

howtocomply_AI: право и ИИ

23 Oct, 07:11


Завтра выступаю на Евразийском конгрессе по защите данных: делюсь ссылкой на прямой эфир

24 октября состоится Евразийский конгресс по защите данных, на котором запланирована отдельная секция по AI Governance. На ней мы с коллегами обсудим разные полюса ИИ-реглирования, такие как интеллектульная собственность, защита данных, качество работы систем ИИ. Я планирую рассказать про тренды регулирования в сфере разработки и применения передовых фундаментальных моделей ИИ.

Начало нашей секции в 16:00. Также советую посмотреть полную программу, там много всего интересного.

howtocomply_AI: право и ИИ

22 Oct, 14:09


Есть ли консенсус в том, какие положения должны содержать политики допустимого использования моделей ИИ?

Для ответа на этот вопрос обратимся к статье Кевина Клаймана (Stanford HAI), которая была недавно опубликована в сборнике по итогам конференции AI Ethics and Society (кстати, там много других интересных докладов). Автор проанализировал политики и схожие документы 30 наиболее известных разработчиков моделей ИИ в США, ЕС и Китае.

Остановимся на некоторых интересных выводах:

- законодательство отдельных стран и регионов уже обязывает разработчиков и провайдеров контролировать использование моделей, но, как правило, не устанавливает требований к конкретной форме документов. В Китае поставщики услуг генеративного ИИ должны уведомлять пользователей о невозможности совершения противозаконных действий и противодействовать им. В США лидирующие ИИ-компании добровольно публикуют информацию в соответствии с достигнутыми соглашениями с Белым домом. Исключением является Регламент ЕС об ИИ, который требует иметь политику допустимого использования для всех провайдеров моделей ИИ общего назначения. Однако более детальные требования к документу будут позднее изложены в гармонизированных стандартах и кодексах лучших практик;

- помимо политик допустимого использования, аналогичные положения, ограничивающие последующих провайдеров и пользователей, могут содержаться в карточках моделей/систем ИИ, политиках об особенностях работы моделей (Model Behavior Policies), договорах с третьими сторонами (поставщиками облачных услуг и наборов данных);

- если разработчики моделей ИИ, как правило, в состоянии самостоятельно разработать необходимую документацию, то не факт, что это смогут качественно сделать последующие провайдеры из-за ограниченности ресурсов и компетенций;

- политики допустимого использования разных компаний имеют несколько разное содержание (а некоторые компании вообще их не имеют). Это может иметь негативные последствия для экономики и рынка ИИ-моделей, так как бизнес может перестраховываться и чрезмерно ограничивать потенциально выгодные сценарии использования моделей ИИ;

- компаниям крайне сложно следить за выполнением политик допустимого использования провайдерами и пользователями. Более того, некоторые организации фактически этого не делают, так как либо не заинтересованы в этом, либо не имеют необходимых возможностей.

Таким образом, несмотря на то что уже возникают нормативные и технические требования к документации, во многом государства стараются избежать чрезмерно жестких требований и отдают ее содержание на откуп отраслевому саморегулированию.

howtocomply_AI: право и ИИ

17 Oct, 07:48


Выступил с лекцией об основах регулирования в сфере ИИ. Запись можно посмотреть на ютубе

Пару недель назад я оказался проездом в Черногории, где выступил с открытой лекцией перед русскоязычным коммьюнити в Auditoria Budva. Мероприятие выдалось очень теплым и камерным. Всегда интересно работать с вовлеченной аудиторией.

В лекции я затронул базовые вопросы терминологии, а также рассмотрел насущные юридические проблемы. В финальной части можно найти краткий обзор подходов отдельных юрисдикций.

howtocomply_AI: право и ИИ

15 Oct, 16:46


Как лучше определять продвинутый ИИ с юридической точки зрения?

Друзья, на прошлой неделе я дал себе небольшой тайм-аут поболеть и восстановиться. Но уже снова в строю, продолжаем 🐱.

Американский аналитический центр Law & AI опубликовал статью, в которой авторы рассматривают существующие в законодательстве определения продвинутого ИИ и дают свои рекомендации.

Пробежимся по основным частям документа:

1. Авторы сравнивают три определения из нормативных актов:

- Определение фундаментальной модели ИИ двойного назначения из прошлогоднего Указа Президента США (разбирал его тут).

- Определение модели ИИ из Калифорнийского законопроекта SB 1047 «О безопасных и надежных инновациях для передового ИИ». Кстати, он был одобрен парламентом, но губернатор штата наложил на него вето из-за чрезмерно узкого фокуса регулирования. По мнению губернатора, законопроект направлен на продвинутый ИИ, но при этом игнорирует модели меньшего размера, которые также могут представлять существенные риски. Ждем новый текст.

- Определение модели ИИ общего назначения, представляющей системные риски, из Регламента ЕС об ИИ.

2. На основе анализа определений авторы выявили ряд признаков:

- Технические характеристики, такие как объем вычислительных мощностей, число параметров и размер наборов данных. Сейчас, за некоторыми исключениями, объем вычислительных мощностей, затраченных на обучение моделей ИИ, привязан к верхним границам существующих передовых моделей: 10^25 — 10^26 FLOPS (равно или превышает уровень GPT-4). Авторы отмечают, что с одной стороны, установление четких числовых характеристик поможет сделать нормативные требования более определенными, а с другой — любое изменение технологических реалий неизбежно повлечет необходимость пересмотра существующих критериев. Например, несложно представить, что в будущем небольшие модели могут обладать существенными характеристиками. Поэтому наиболее удачным вариантом будет установление пороговых технических характеристик органами исполнительной власти на основе широкого законодательного определения (схожий подход уже используется в Регламенте ЕС об ИИ).

- Возможности моделей. С одной стороны, возможности моделей могут быть использованы как более стабильное отражение технических характеристик, не привязанное к конкретным числовым значениям, но с другой — разработка бенчмарков для передовых моделей также является нетривиальной задачей.

- Уровень риска. Риски, которые представляют передовые модели, могут быть слабо изучены. Поэтому будет проблематично такие модели каким-то образом ранжировать. Как правило, само отнесение модели ИИ к передовой уже предполагает повышенные риски ее разработки и применения.

- Неизвестные возможности моделей. Такой признак позволил бы выделить отдельную группу продвинутых моделей ИИ и исключать их по мере изучения. Однако выявление подобных возможностей также является сложной задачей.

- Контекст последующего внедрения. Особенности и широта использования моделей повышают потенциальные риски. Например, Регламент ЕС об ИИ уже учитывает число пользователей (людей и бизнесов) при отнесении модели ИИ к группе, представляющей системные риски.

3. В завершающей части статьи авторы анализируют, каким образом оптимально будет закрепить определение передовых моделей ИИ в американском федеральном законодательстве. По большому счету, дискуссия ведется о том, должно ли оно быть исчерпывающе сформулировано Конгрессом на уровне закона или законодатели должны определить рамки для последующего уточнения органами исполнительной власти.

Советую обратить внимание, если интересуетесь американским правом. Тут авторы затронули более широкую тему соотношения компетенций разных ветвей власти в сфере правотворчества, ставшей в стране снова актуальной после недавней отмены Верховным судом (дело Loper Bright Enterprises v. Raimondo) доктрины, сформулированной в деле Chevron U.S.A. v. Natural Resources Defense Council.

howtocomply_AI: право и ИИ

01 Oct, 08:40


Европейский AI Office начал разработку кодекса лучших практик для моделей ИИ общего назначения. Я стал членом рабочей группы, рассказываю первые подробности

Вчера я принял участие в первом пленарном заседании, на котором был дан старт разработке кодекса лучших практик для моделей ИИ общего назначения. Для его создания Европейским AI Office были отобраны около тысячи ИИ-экспертов от бизнеса, академии и гражданского общества. Друзья, я тоже попал в их число. Буду рассказывать вам интересные подробности изнутри и делиться впечатлениями 🐱.

Что уже известно о кодексе?

Создание кодекса будет происходить в четырех рабочих группах, каждая из которых отвечает за отдельную часть документа:

- прозрачность и требования к соблюдению авторских прав для поставщиков моделей ИИ общего назначения;

- меры по выявлению и оценке системных рисков. Напомню, что Регламент ЕС об ИИ предусмотрел отдельную группу моделей ИИ общего назначения — модели ИИ общего назначения, представляющие системные риски (если кратко, то это наиболее мощные и продвинутые модели). К их поставщикам предъявляются более жесткие требования;

- технические меры по снижению системных рисков;

- внутреннее (корпоративное) управление рисками и руководство для поставщиков моделей ИИ общего назначения.

Есть еще и пятая рабочая группа, но в ней будут собираться представители поставщиков моделей ИИ общего назначения.

Руководят рабочими группами известные исследователи и технические специалисты. Не буду перечислять, а приложу вам скриншот. Мне в глаза бросилось еще то, что сразу три человека представляют Стэнфордский университет (хоть и они из разных стран). А еще сразу три человека — Германию.

Какую юридическую силу будет иметь документ?

Документ является рекомендательным.
Его главная суть — разъяснять на практике положения Регламента ЕС об ИИ. Однако прямо отмечается, что компании могут не присоединяться к кодексу и выбрать другой способ соответствия законодательным требованиям.

Есть ли сейчас какой-то консенсус по содержанию кодекса?

Т
рудно сказать. Но с июля по сентябрь AI Office проводил опрос среди стейкхолдеров. По некоторым вопросам в индустрии на первый взгляд имеется консенсус:

- документация должна включать описание допустимых сценариев использования моделей с указанием на то, в какие системы ИИ они могут быть в дальнейшем интегрированы;

- к наиболее серьезным рискам относят: автономность моделей, возможность преодолевать ограничения, наборы данных;

- среди методик уменьшения рисков ожидаемо лидирует предварительная, текущая и последующая оценка рисков, а не аудит. С технической стороны — управление данными и регулярные обновления моделей.

- среди корпоративных практик лидируют риск-менеджмент, карточки систем и моделей ИИ, обучение персонала, защита информаторов, а также средства физической и информационной безопасности.

Когда документ будет готов?

Работа над проектом кодекса должна завершиться к апрелю 2025 года.

howtocomply_AI: право и ИИ

26 Sep, 08:02


Каким образом в США будет применяться внедоговорная ответственность к ИИ-разработчикам, допустившим причинение существенного вреда третьим лицам?

Для ответа на этот вопрос обратимся к отчёту, который опубликовал американский аналитический центр RAND. В документе рассматривается, с одной стороны, насколько применимы существующие правовые механизмы, а с другой — оцениваются возможные дальнейшие меры законодателей.

Начнём по порядку:

1. Исследователи видят существенные риски привлечения разработчиков к ответственности в рамках действующего правового поля. Обязанность проявлять разумную осторожность, чтобы не причинить вред личности или имуществу, по умолчанию распространяется на разработчиков ИИ, даже если законодателями не будут внесены какие-либо изменения.

2. В США внедоговорная ответственность в основном относится к общему праву, а значит, в будущем возможна неопределённость в том, каким образом суды будут использовать существующую практику применительно к спорам, возникшим вокруг ИИ-разработчиков. Более того, в разных штатах существуют свои устоявшиеся подходы и судебная практика, которые могут существенно различаться между собой. Например, исследователи отмечают, что штаты по-разному подходят к ответственности производителей за причинение вреда из-за существенной доработки товара третьими лицами. Также неясно, распространяются ли на ПО (ИИ в частности), которое не интегрировано в физические объекты (роботы, автомобили), требования законодательства о безопасности продукции (относятся ли системы и модели ИИ к продуктам). Таким образом, если по какой-либо причине будет нанесён существенный вред, который коснётся людей в нескольких штатах, разработчики столкнутся с необходимостью учитывать особенности разных юрисдикций. И это мы ещё не касаемся возможности причинения вреда одновременно в нескольких странах.

3. Разработчики, которые не используют принятые в отрасли передовые методы обеспечения безопасности, могут существенно повысить риски привлечения к ответственности. Судебная практика показывает, что в схожих случаях соблюдение ответчиком отраслевых стандартов и лучших практик имеет важное значение в исходе дела.

4. Разработчики могут быть привлечены к ответственности за вред, причинённый третьими лицами в результате неправомерного использования систем и моделей ИИ. Однако, как правило, суды штатов определяют, была ли у ответчика возможность разумно предвидеть наступление подобных последствий. В понимании того, какие конкретные действия разработчиков в этом случае могут считаться достаточными, судебная практика будет разниться. Особенно подобные сложности могут возникать вокруг открытых моделей ИИ.

5. Государство, бизнес и гражданское общество могут способствовать повышению безопасности и, как следствие, уменьшению рисков привлечения разработчиков к ответственности за счёт разработки стандартов, лучших практик и протоколов безопасности. На использование последних в дальнейшем могут обращать внимание суды при разрешении споров.

6. Принимая во внимания рассмотренные различия, авторы считают, что законодателям стоило бы подумать над изданием новых актов, которые бы внесли ясность и сформулировали единый подход по привлечению к ответственности ИИ-разработчиков. Более того, повысить ИИ-безопасность можно не только с помощью института юридической ответственности. Например, законодательно можно установить и другие меры, такие как минимальный уровень мер безопасности, необходимость тестирования и оценки ИИ-продуктов в наиболее опасных областях.

7. С точки зрения федерального законодательства исследователи обратили внимание на вопросы, которые уже стали американской классикой: распространяется ли Первая поправка (свобода слова и печати) на ПО (ИИ в частности), а также нужно ли использовать раздел 230 USC, снимающий ответственность с держателей цифровых платформ за размещённый пользователями контент при условии осуществления модерации, для разработчиков ИИ-продуктов.

В целом, отчёт получился интересным и изобилующим деталями. Если вы интересуетесь темой ответственности или американским правом, то советую ознакомиться 🤩.

howtocomply_AI: право и ИИ

17 Sep, 18:51


Еще один вечер дипфейков: смотрим на новые законопроекты в российском парламенте

Обычно я редко пишу про законопроекты, так как далеко не все из них становятся в конечном итоге законами. А даже если и становятся, то не всегда в первоначальном виде.

Однако с учетом того, что мы вчера разбирали китайский опыт маркировки синтетического контента, сегодня решил продолжить тему и обратить ваше внимание на несколько вчерашних законопроектов, внесенных в российский парламент.

Охрана голоса

Предлагается внести в ГК РФ новую статью: 152.3. Охрана голоса гражданина.

Она почти слово в слово повторяет уже существующую статью 152.1., которая направлена на охрану изображения.

Обнародование и дальнейшее использование голоса гражданина (в том числе записи, в которой он содержится, или записи, в которой содержится воссозданный с помощью специальных технологий голос гражданина) допускаются только с согласия этого гражданина. После смерти — с согласия членов семьи, за исключением случаев, когда имеется публичный интерес или запись производилась за плату.
Судя по пояснительной записке, документ был разработан Альянсом в сфере ИИ и Национальной Федерацией Музыкальной Индустрии.

Уголовная ответственность за дипфейки

Предлагается внести в ряд статей УК РФ квалифицирующий признак — совершение преступления с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) и (или) биометрических данных гражданина.

Во время прочтения у меня сразу возникло внутреннее негодование. Однако отзывы Правительства и Верховного суда его несколько уменьшили:

1) дипфейки никак не урегулированы законодательно, так что их еще рано запрещать;

2) нет оснований полагать, что общественной опасности именно такого рода деяний достаточно, чтобы вводить более строгое наказание;

3) формулировка “фальсифицированные или искусственно созданные” — слишком расплывчатая.

Так что вряд ли документ будет принят в таком виде.

Оффтоп

В последнее время я довольно часто использую ChatGPT в голосовом режиме с моделькой GPT-4o. Например, мне с ней интересно поболтать во время приготовления еды или мытья посуды. Сегодня я случайно обнаружил забавный для юриста факт. Система правильно ставит ударение в слове договОр, но ошибается в других падежах. В моем случае она говорила договорАми вместо ударения на нужный слог — договОрами. Конечно, я дал фидбэк и сразу вспомнил времена учебы и преподавания на юрфаке 🐱.

howtocomply_AI: право и ИИ

16 Sep, 19:28


В Китае обсуждают уточнения требований по маркировке синтетического контента

Cyberspace Administration of China (CAC) опубликовала для общественных обсуждений документ, обобщающий практики по маркировке синтетического контента.

Напомню, что в Китае уже действует акт, который предполагает такую маркировку для поставщиков информационных услуг — Provisions on the Administration of Deep Synthesis Internet Information Services. На этот же акт ссылаются и временные меры по управлению сервисами генеративного ИИ (Interim Measures for the Management of Generative Artificial Intelligence Services).

На кого будет распространяться документ?

На всех поставщиков информационных услуг, определяемых тремя актами: двумя, которые мы уже рассмотрели выше, + более ранний акт о алгоритмических рекомендациях (Provisions on the Management of Algorithmic Recommendations in Internet Information Services).

В сферу действия не входят, например, предприятия, образовательные и научные организации, если они не предоставляют услуги населению.

Что включается в синтетический контент?

Текст, изображения, аудио-, видео- и другая информация, созданная, сгенерированная и синтезированная с использованием технологии ИИ.

Как есть виды маркировок?

Выделяется явная маркировка (логотип, графика, звук, текст) и скрытая (метаданные и иные технические средства маркировки, скрытые от глаз пользователя).

Скрытая маркировка будет обязательной для всех поставщиков сервисов глубокого синтеза.

Конкретизированы требования к чат-ботам

Контент должен быть явно помечен через текстовые, звуковые, визуальные подсказки или другие предупреждающие знаки в начале, конце или середине материала. Это включает текстовые метки для текстов, голосовые или звуковые сигналы для аудио, визуальные подсказки для изображений и видео, а также заметные предупреждающие знаки для виртуальных сцен. Также требуется явная идентификация синтетического контента при его загрузке, выгрузке и копировании.

Требования для держателей цифровых платформ

Они будут обязаны проверять:

а) метаданные файлов на наличие неявных идентификаторов и добавлять предупреждающие метки вокруг контента, если таковые идентификаторы обнаружены или заявлены пользователем;

б) если идентификаторы отсутствуют, но есть признаки синтеза, контент должен быть помечен как подозреваемо синтетический;

в) в метаданные должны быть внесены атрибуты синтетического контента, включая данные о платформе и номере контента;

г) платформы должны напоминать пользователям о необходимости заявлять, если контент является синтетическим.

Иные требования

Поставщики услуг должны будут в понятном для пользователя виде отразить требования к маркировке в пользовательском соглашении.

Если пользователь захочет получить контент без маркировки, то поставщик может его предоставить, указав на ответственность за его распространение в пользовательском соглашении. Также поставщик должен хранить оригиналы контента не менее шести месяцев.

Если речь идет про магазин приложений, то держатель платформы должен проверять, имеются ли в загружаемых приложениях функции по созданию синтетического контента.

Интересно, что специфических норм об ответственности не предусмотрено: нарушители будут преследоваться в рамках общего законодательства.

howtocomply_AI: право и ИИ

12 Sep, 18:58


Немного новостей из Центробанка о регулировании в сфере применения ИИ на финансовом рынке

В конце пришлой недели выступал на мероприятии Центробанка, где обсуждались возможности и потенциальные риски защиты прав потребителей при использовании ИИ. Рассказал про подходы к регулированию в сфере ИИ, а также про фундаментальные модели и опенсорс.

Узнал для себя и новые вещи. Рассказываю вам.

В ноябре 2023 года Центробанк опубликовал доклад о применении ИИ на финансовом рынке, в котором поставил вопросы для дальнейшего общественного обсуждения.

По их итогу в 2024 году был выпущен отчет с основными выводами.

Всего поступило 33 заключения, из которых 15 – от кредитных организаций, 6 – от страховщиков и 12 – от объединений участников рынка, высших учебных заведений, инфраструктурных организаций, ведущих разработчиков ИИ.

Остановимся на нескольких интересных моментах:

Респонденты выделили наиболее важные вопросы с точки зрения ИИ-регулирования:

- регулирование оборота обезличенных данных (это мы уже увидели, но пока все не очень хорошо. Подробно писал тут);

- обеспечение возможности использования сторонней инфраструктуры оборота данных разработчиками ИИ (с компьютом-то реально беда, и она будет только расти);

- формирование подходов к распределению ответственности за вред, причиненный применением ИИ, между организацией-разработчиком и организацией-пользователем (кстати, про это можно почитать мою статью тут);

- определение правового режима выходных данных и моделей ИИ (отдельно выделили синтетический контент).

Также интересно, что некоторые респонденты предложили рассмотреть условия для работы доверенных платформ по обмену данными между организациями. Вот вам и имплементация опыта ЕС о посредниках в передаче данных (data intermediaries), созданных недавним Data Governance Act (DGA) (я помню, что обещал его разобрать, все будет🤩).

Большинство респондентов не видят сейчас необходимости в жестком регулировании. Пока достаточно рекомендательных актов, стандартов и рекомендаций. Также отмечена целесообразность разработки отдельного кодекса этики ИИ для участников финансового рынка.

Почти поровну разделились мнения респондентов относительно необходимости создания внутри финансовой организации отдельного органа, ответственного за контроль над внедрением и применением ИИ в бизнес-процессах. При этом была отмечена именно добровольность в создании такого органа в зависимости от нужд конкретной организации. В качестве альтернативы специализированному органу предложено на текущем этапе развития технологий ограничиться риск-менеджментом (надеюсь, он уже реализуется, а не только планируется).

В каких сферах может потребоваться адаптация действующего законодательства или принятие новых НПА?

- снижения рисков использования дипфейков, которые могут применяться мошенниками для введения потребителя в заблуждение, а также для манипулирования рынком (СМИ пишут, что в ГД собираются наконец взяться за дипфейки, скоро узнаем);

- обязанности объяснения клиентам оснований для принятия решений, если такие решения были приняты с использованием ИИ.

howtocomply_AI: право и ИИ

09 Sep, 13:49


TIME100/AI 2024

На прошлой неделе журнал Time выпустил список из ста наиболее влиятельных людей в сфере ИИ за 2024 год. Топ, как обычно, получился неоднозначный. Но этим грешат любые рейтинги.

На кого стоит обратить внимание с точки зрения AI Governance?

Ясон Габриэль — научный сотрудник в Google DeepMind. Занимается философской стороной AI alignment. Один из соавторов статьи про этику продвинутых ИИ-агентов, которую мы с вами разбирали тут.

Елена Тонер — директор по стратегии и грантам в CSET (Джорджтаунский университет). Специалист по AI Governance, консультирует законодателей по регулированию в сфере ИИ. Ранее была в совете директоров OpenAI и замешана в дворцовых переворотах. Настаивает на регулировании отрасли, о чем можно почитать в статье для the Economist.

Бэт Барнс — основательница и руководитель отдела исследований в Model Evaluation and Threat Research (METR). Занимается оценкой рисков функционирования моделей ИИ. Участвовала в создании Responsible Scaling Policy (классификация моделей по рискам) от Anthropic.

Джеффри Ирвинг — директор по исследованиям британского AI Safety Institute. Занимается оценкой передовых моделей ИИ. Институт разрабатывает как методики оценки, так и изучает модели, к которым добровольно предоставили доступ разработчики.

Чинаса Т. Около — научный сотрудник в Brookings Institution. Под руководством Йошуа Бенжио (отмечен в рейтинге отдельно) она участвовала в подготовке отчета о безопасности продвинутого ИИ, а также в создании национальной стратегии в сфере ИИ Нигерии.

Амба Как — исполнительный директор AI Now Institute. Институт занимается исследованиями в сфере регулирования и госуправления. Один из последних отчетов об особенностях регулирования ИИ американской FDA.

Джина Раймондо — Министр торговли США. На ее ведомство легла существенная часть обязательств по реализации октябрьского указа Президента США.

Арати Прабхакар — директор Управления по научно-технической политике США. Консультирует Президента США по вопросам регулирования в сфере ИИ. Считается, что она показала ChatGPT Джозефу Байдену за шесть месяцев до официального релиза, чем, по сути, спровоцировала начало работы над последующими инициативами Белого дома.

Мэттью Топич — партнер юрфирмы Loevy & Loevy. Представляет интересы The Intercept, Raw Story и AlterNet в иске против OpenAI.

Элизабет Келли — директор американского AI Safety Institute. Институт работает под эгидой NIST и осуществляет исследование и оценку передовых моделей ИИ. Недавно я писал о том, что OpenAI предоставила ранний доступ к GPT-5 сотрудникам института для оценки безопасности модели.

Скотт Винер — сенатор штата Калифорния. Автор резонансного законопроекта SB 1047, направленного на регулирование в сфере разработки и применения передовых моделей ИИ. Позже разберем этот документ отдельно.

Мартин Хайнрих — сенатор США от штата Нью-Мексико. Активно занимается законопроектами, связанными с ИИ. В числе соавторов дорожной карты рабочей группы сената по ИИ.

Сара Карделл — генеральный директор британского антимонопольного органа (CMA). Под ее руководством в 2023 году был выпущен отчет о фундаментальных моделях ИИ. А в 2025 году должен вступить в силу новый Закон о цифровых рынках, конкуренции и защите прав потребителей.

Чжан Линьхань — профессор Китайского университета политических наук и права. Руководит рабочими группами по разработке регулирования в сфере ИИ. В частности, непосредственно участвовала в создании трех последних актов в сфере алгоритмических рекомендаций, маркировки синтетического контента и управлении генеративными системами ИИ.

Катя Грейс — соосновательница AI Impacts. Провела опрос 2700 ученых в сфере ИИ по поводу их прогнозов на будущее развития технологий.

Саффрон Хуанг и Дивия Сиддарт — соосновательницы Collective Intelligence Project. Совместно с Anthropic провели исследование по отбору правовых принципов для Constitutional AI.

Результаты за прошлый год можно посмотреть тут.

howtocomply_AI: право и ИИ

07 Sep, 17:55


Обзор Рамочной конвенции Совета Европы об искусственном интеллекте и правах человека, демократии и верховенстве права

Друзья, на неделе было много дел и мало постов. Теперь возвращаюсь к вам с обзором Рамочной конвенции Совета Европы об ИИ и правах человека, демократии и верховенстве права. В четверг первые страны подписали документ, что запустило процессы по ее ратификации и вступлению в силу.

Многие уже окрестили это событие историческим. Однако все, кто работает в AI Governance, давно привыкли — в нашей сфере исторические события происходят каждые пару месяцев. Уже даже немного устали отмечать.

TLDR:

1. Конвенция устанавливает принципы, направленные на снижения рисков для прав человека, демократии и верховенства права, потенциально возникающих на всех стадиях жизненного цикла систем ИИ.

2. Конвенция распространяется как на государственный, так и на частный секторы.

3. Государство может выбрать, в каком объеме принять на себя обязательства в отношении частного сектора.

4. Конвенция не распространяется на научные исследования, национальную безопасность и оборону.

5. Перечень запрещенных систем ИИ стороны определяют самостоятельно.

6. Конвенция на Россию не распространяется, так как последняя вышла из Совета Европы.

7. Россию могут потенциально пригласить подписать документ, но с учетом текущей политической ситуации пока это маловероятно.

Еще одно нововведение: теперь более длинные материалы и разборы иногда будут выходить на Хабре.

Полный текст обзора можно найти по ссылке.

howtocomply_AI: право и ИИ

31 Aug, 17:30


Девять назгулов подходов к регулированию в сфере разработки и применения ИИ: много или мало?

В предыдущем посте мы с вами разбирали статью, в которой авторы предлагают регулировать отношения, возникающие в сфере разработки и применения передовых фундаментальных моделей посредством сочетания трех подходов: 1) подхода, основанного на принципах; 2) подхода, основанного на предписаниях; 3) риск-ориентированного подхода.

Какие вообще есть подходы к регулированию ИИ (не только передового)? Таким вопросом задались и в ЮНЕСКО.

В середине августа под эгидой организации вышел предварительный отчет, в котором были проанализированы существующие нормативные документы как на международном уровне, так и в более чем тридцати юрисдикциях.

Исследование было подготовлено профессором колумбийским ученым Хуаном Давидом Гутьерресом из the University of Los Andes на основе обсуждений, проходивших на площадках ЮНЕСКО в марте.

Исследователь выявил девять подходов, основанных на:

1. принципах;
2. стандартах;
3. гибкости и тестировании инноваций;
4. содействии и стимулировании развития инноваций;
5. обновлении общего законодательства;
6. обеспечении прозрачности и доступа к информации;
7. оценке рисков (риск-ориентированный);
8. правах человека;
9. установлении требований по привлечению к юридической ответсвенности.

На самом деле, данный список не является полным и однозначным. В разных научных работах и исследованиях встречаются иные термины и классификации. Более того, ни один из перечисленных подходов не встречается в чистом виде в какой-либо юрисдикции.

На мой взгляд, было бы интереснее проследить, каким образом данные подходы пересекаются. И за счет этого сформулировать более общую классификацию.

Возможно, это мы и увидим в дальнейшем. До 19 сентября по тексту открыты публичные консультации.

Далее пересмотренная версия отчета будет представлена на 149-ой Ассамблее Межпарламентского союза, которая пройдет 13-17 октября в Женеве. Документ будет представлен в контексте завершения работы над Резолюцией МПС «Влияние ИИ на демократию, права человека и верховенство права».

Кстати, под эгидой МПС также разрабатывается проект Хартии об этике в сфере науки и технологий, в которой обозначены принципы и рекомендации для законодателей.

howtocomply_AI: право и ИИ

27 Aug, 18:50


Поиски оптимального подхода к регулированию в сфере разработки и применения передовых систем и моделей ИИ

Сегодня я обращаю внимание на статью, в которой авторы из уважаемых британских и американских научных институций размышляют над тем, какой подход следует выбрать при формулировании нормативных требований в сфере разработки и применения передовых систем и моделей ИИ (авторы их называют более широким термином – передовой ИИ). Также любителям AI Governance на заметку – статья является частью будущего сборника The Oxford Handbook on the Foundations and Regulation of Generative AI.

Текст статьи опубликовали в июле, но только сейчас дошли руки ее разобрать. Статья на первый взгляд довольно большая – 55 страниц. Однако, как это обычно бывает, более чем две трети текста занимают сноски и литература. Большую часть статьи авторы посвятили определению предмета, метода и содержания будущего правового регулирования, а также ликбезу относительно различия систем законодательства в ЕС, США и Великобритании.

Кстати, если кто-то занимается исследованиями, то советую внимательно изучить сноски. Над анализом литературы авторы потрудились на славу. Возможно, найдете что-то интересное и для вашей темы.

Теперь кратко пройдемся по содержанию:

- Передовые модели и системы ИИ представляют существенные риски (авторы их расписывают, но мы их и так с вами многократно разбирали);

- Одного отраслевого саморегулирования явно не будет достаточно для снижения этих рисков до приемлемого уровня;

- Очевидно, что регулирование необходимо, однако нужно определиться с наиболее подходящим подходом.

На последнем тезисе мы и остановимся подробней:

По сути, авторы рассуждают одновременно в нескольких измерениях:

1. Каким образом нормативные положения должны быть укомплектованы: что должно быть закреплено на уровне закона и подзаконных актов, а что - в технических или отраслевых стандартах;

2. Должны ли правовые нормы быть сформулированы как принципы или содержать конкретные предписания.

Вывод достаточно ожидаемый: законодателям рекомендуют сформулировать основные принципы разработки и применения передовых систем и моделей ИИ, а конкретные предписания устанавливать позже и в тесном сотрудничестве с бизнесом.

На скриншоте можно посмотреть пример того, к каким группам авторы отнесли девять примерных предписаний, которые были сформулированы в документе Emerging Processes for Frontier AI Safety, опубликованном по итогам прошлогоднего UK AI Safety Summit.

howtocomply_AI: право и ИИ

22 Aug, 17:13


Продолжение дискуссии про открытость: стоит ли публиковать параметры фундаментальных моделей ИИ двойного назначения?

Ответ на это вопрос попыталось дать Национальное управление по телекоммуникациям и информации США (NTIA) в отчете, подготовленном в рамках исполнения октябрьского Указа Президента США «О разработке и использовании искусственного интеллекта в условиях безопасности, надежности и доверия». Подробнее об указе и том, что понимается под моделями ИИ двойного назначения, можно почитать в моем посте.

Я недаром написал про продолжение дискуссии, так как отчет во многом перекликается со статьей, которую я разбирал в предыдущем посте.

В данном отчете эксперты управления пытаются понять, какие риски несут фундаментальные модели двойного назначения и достижение каких пороговых значений должно приводить к законодательному запрету для разработчиков публикации весов и других параметров моделей. К каким же выводам пришло управление?

Первый вывод, к которому пришли как авторы статьи Фонда Карнеги, так и эксперты NTIA: на сегодняшний день нет достаточных данных о том, что текущие фундаментальные модели представляют существенные риски, достаточные для того, чтобы вводить запрет на публикацию их параметров.

Второй вывод: такие риски непременно могут возникнуть в будущем, соответственно, необходимо разработать критерии для оценки фундаментальных моделей на предмет возможности их открытых релизов.

Поэтому вместо введения запрета орган предлагает всему государственному аппарату осуществлять политику в нескольких направлениях:

1. Собирать информацию: определить индикаторы по каждому из рисков, а также проводить исследования в сфере безопасности фундаментальных моделей на протяжении всех этапов их жизненного цикла.

2. Анализировать информацию: сформулировать и соевременно адаптировать пороговые значения для каждого из индикаторов риска, достижение которых потребует государственного вмешательства.

3. Принимать решения на основе полученной информации: если это потребуется, вводить ограничения на доступ к моделям, а также предпринимать иные меры по снижению возможных рисков.

Таким образом, вряд ли передовые фундаментальные модели в будущем будут сразу выпускаться для широкого доступа без каких-либо ограничений. Скорее всего, компании будут параллельно выводить на рынок несколько разных версий моделей (как это уже происходит сейчас), однако наиболее функциональные из них не будут доступны сразу в опенсорсе. Также весьма вероятно будет применяться методика ступенчатых релизов, когда модели будут становиться широкодоступными постепенно, по мере их изучения и устаревания технологий.

howtocomply_AI: право и ИИ

20 Aug, 18:29


Конец дихотомии открытых и закрытых релизов фундаментальных моделей ИИ?

На сайте Фонда Карнеги появилась крайне любопытная статья, в которой большой и авторитетный коллектив авторов рассуждает относительно существующих в индустрии актуальных вопросов вокруг вывода на рынок фундаментальных моделей ИИ.

Напомню, что главные игроки ИИ-рынка придерживаются разных концепций, которые связаны с их бизнес-моделями: одни компании полностью выкладывают модели ИИ в общий доступ для более-менее свободного использования, а другие – распространяют их по подписке без предоставления доступа к параметрам и иной важной информации, которая бы раскрыла нюансы разработки и технические особенности.

Несмотря на то, что оба этих подхода имеют свои плюсы и минусы, на протяжении многих лет не утихает спор относительно лучшего способа вывода моделей ИИ на рынок, который бы позволил учесть как коммерческие, так и общественные интересы. На преодоление этой дихотомии и направлена данная работа.

Статья состоит из двух частей: в первой авторы рассматривают вопросы, по которым в индустрии уже сложился некий консенсус, а во второй – вопросы, на которые еще потребуется найти решения.

Рассмотрим некоторые интересные моменты:

- Сам спор относительно открытости и закрытости моделей перестает быть актуальным. Стало очевидно, что каждый способ вывода на рынок имеет свои плюсы и минусы. Выбор того или иного способа должен быть основан на проведенных предварительных и последующих оценках модели ИИ (до и после выводы на рынок) с учетом особенностей ее целевого назначения. Для продвинутых потенциально опасных моделей лучше применять закрытые или гибкие релизы.

- Открытость моделей не связана только лишь с публикацией их параметров. Раскрыта может быть еще и иная релевантная информация об архитектуре, коде, данных. Информация может раскрываться не сразу, а постепенно, в ходе вывода модели на рынок. Более того, даже при закрытых релизах разработчики могут обеспечивать высокий уровень прозрачности. Также устоявшееся в индустрии определение открытого (опенсорс) ПО не полностью применимо для открытых релизов моделей ИИ из-за их комплексности и недостаточной прозрачности. Кстати, в Open Source Initiative (OSI) как раз разрабатывают определение опенсорс ИИ.

- Сейчас решение о способе выпуска модели ИИ на рынок принимается компаниями самостоятельно на основе собственных критериев. Для того чтобы уменьшить возможные риски, необходимо разработать общие стандарты для отрасли. Например, описать риски, характерные для разных видов релизов, сформулировать рекомендации о том, каким образом, кем и на основании какой информации должно приниматься решение о выборе способа вывода модели ИИ на рынок.

В статье рассмотрены и другие интересные вопросы, так что советую ознакомиться лично.

howtocomply_AI: право и ИИ

16 Aug, 14:45


Может ли ИИ быть мэром города?

С таким вопросом ко мне обратились журналисты из Санкт-Петербургского издания Sobaka.ru (да простят меня котики).

Спойлер: пока точно нет 🤩.

Но это не лишает нас возможности поразмышлять и подискутировать. Тем более что периодически энтузиасты предрекают нам конец государства то за счет блокчейчна и DAO, то за счет ИИ.

Материал в развернутом виде можно почитать по ссылке. Он небольшой и написан в легкой научно-популярной форме, поэтому смело можно заглянуть в него и в пятницу вечером.

howtocomply_AI: право и ИИ

14 Aug, 19:33


Новый Grok даровал невиданную по современным меркам свободу генерации контента

Компания xAI выпустила в бета-версии две новые модели – Grok-2 и Grok-2 mini. Для генерации изображений используется другая модель – FLUX.1 от Black Forest Labs.

Новый Grok будет глубокого интегрирован в X. Например, сейчас для премиальных пользователей уже доступна генерация картинок.

И первые отзывы заставляют поулыбаться. Например, The Verge пишут, что выходные результаты модели значительно менее ограничены, чем у аналогичных продуктов. Модель, во-первых, генерирует изображения, схожие с лицами политиков и известных людей, а во-вторых, генерирует изображения по запросам, на которые ChatGPT отказывается отвечать.

Картинки можете посмотреть по ссылке выше. Хоть они и не супер реалистичные, все равно не хочу распространять дезинформацию. Но, например, люди сгенерировали изображение с беременной Камалой Харрис, которая обнимается с Дональдом Трампом (и многое другое).

Интересно, что пользовательское соглашение продукта запрещает его использовать любым способом или в любых целях, которые (i) нарушают или способствуют нарушению любого Применимого законодательства, договорных обязательств или прав любого лица, включая, но не ограничиваясь, правами на интеллектуальную собственность (как определено ниже), правами на частную жизнь и/или правами личности, (ii) являются мошенническим, ложным, обманчивым или клеветническим, (iii) пропагандируют ненависть, насилие или вред в отношении любого лица или группы лиц, или (iv) иным образом может быть вредным или нежелательным (по нашему усмотрению) для нас или наших провайдеров, наших поставщиков, Пользователей или любой другой третьей стороны.

И вот еще: мы можем, уведомив вас в любое время, ограничить использование вами выходных данных или потребовать от вас прекратить их использование (и удалить любые их копии), если мы считаем, что использование вами выходных данных может нарушить права любой третьей стороны.

Если помните, то буквально на прошлой неделе я разбирал отчет Американского Copyright Office, который рекомендовал законодателям разработать запрет на генерацию правдоподобных дипфейков с изображением реальных людей без разрешения. Последние деньки Дикого Запада? 🤩