Друзья, декабрь выдался адским, поэтому постов было меньше. Но все постепенно налаживается. Вместе с тем мне есть, чем поделиться. Например, 3–4 декабря я посетил в Белграде саммит GPAI.
Что еще за GPAI?
Да, я тоже с трудом себя переучивал, но GPAI — это не только ИИ общего назначения (General Purpose AI), но еще и Глобальное партнерство в сфере ИИ (Global Partnership on AI). В него входят страны ОЭСР и ряд дополнительных участников, которые договорились добровольно исполнять принципы ОЭСР.
Что было интересного?
Мероприятие было масштабным и включало множество секций и торжественных мероприятий.
Больше всего мне запомнилось выступление Стюарта Рассела, с книги которого во многом и началось мое путешествие в мир науки об ИИ. Ранее я многократно смотрел записи его лекций и докладов на мероприятиях, поэтому было особенно интересно и трогательно наконец увидеть его лекцию собственными глазами. Большая ее часть была посвящена возможности создания AGI и связанным с этим рискам, а также AI Safety. Кстати, про последнюю у ученого в 2019 году вышла замечательная книга — Human Compatible: Artificial Intelligence and the Problem of Control.
Если резюмировать сказанное, можно выделить два основных вывода:
1. AGI вполне можно создать к 2030 году. Однако существуют несколько фундаментальных проблем, таких как ограничения существующих архитектур и возможное исчерпание данных, которые могут остановить развитие технологий и привести к новой «зиме ИИ», как это уже случалось ранее несколько раз.
2. Все существующие модели ИИ подвержены совершению ошибок и уязвимы к взлому, поэтому важно прочертить «красные линии» их возможного использования.
Отдельная сессия была посвящена ИИ-регулированию, где также удалось послушать известных спикеров.
В частности, Габриэле Маццини, один из авторов Регламента ЕС об ИИ, рассказал об имплементации акта. Он также подчеркнул, что в скором времени будет разработан новый крупный документ — Digital Fairness Act, направленный на защиту прав потребителей на цифровых рынках и запрет недобросовестных практик.
Далее прошел круглый стол, на котором с небольшими докладами выступили: Мерв Хикок (Center for AI and Digital Policy), Киоко Йошинага (Keio University), Майя Богатай Янчич (Open Data and Intellectual Property), Тилль Кляйн (appliedAI), Каныш Тулеушин (министр цифрового развития, инноваций и аэрокосмической промышленности Казахстана). Модерировал дискуссию Милан Здравкович (University of Nis).
Обсуждение в основном было сосредоточено на соотношении мягкого и жесткого подходов к регулированию в сфере ИИ. Например, спикер из Японии отметила: чем более жесткие в стране социальные нормы, тем меньше необходимость в правовых нормах (сильное заявление, проверять мы его, конечно, не будем).
Маленький анекдот для любителей ИИ-регулирования по мотивам дискуссии на одной из секций:
Заместитель генсека ОЭСР Ульрик Вестергаард Кнудсен в своем выступлении рассуждал о том, что регулирование в сфере ИИ должно быть «умным», а не «глупым». На что модератор задал ему вопрос: «Считаете ли вы Регламент ЕС об ИИ примером умного регулирования?» А спикер ответил: «В Регламенте мне нравится только одна часть — определение систем ИИ, которое было позаимствовано из принципов ОЭСР»