ИИ & Право @ai_and_law_rus Channel on Telegram

ИИ & Право

@ai_and_law_rus


Новости регулирования искусственного интеллекта.

ИИ комплаенс
AI Governance
Искусственный интеллект и право
LegalTech

Поддержать канал: https://boosty.to/aiandlaw

Английская версия канала https://t.me/ai_and_law

Контакт: @mmariuka

ИИ & Право (Russian)

Добро пожаловать в канал 'ИИ & Право'! Этот канал предлагает самые свежие новости о регулировании искусственного интеллекта. Если вас интересует тема ИИ комплаенс, AI Governance и искусственный интеллект, то вы попали по адресу. Тут вы найдете актуальные материалы, аналитику и обсуждения в этой области.

Помимо этого, у нас есть канал на английском языке, где также публикуются интересные материалы по теме искусственного интеллекта. Ссылка на англоязычный канал: https://t.me/ai_and_law

Если у вас возникли вопросы или вы хотите поделиться своим мнением, обращайтесь к @mmariuka. Присоединяйтесь к нашему каналу, чтобы быть в курсе всех событий в мире искусственного интеллекта и права! }

ИИ & Право

23 Jan, 07:04


🇺🇸 Патентное бюро США опубликовало новую ИИ-стратегию

Патентное бюро США (The U.S. Patent and Trademark Office, USPTO) опубликовало свою Стратегию в области искусственного интеллекта. Своей целью бюро провозглашает «раскрыть потенциал Америки посредством внедрения ИИ для стимулирования и масштабирования инноваций США, инклюзивного капитализма и глобальной конкурентоспособности».

В рамках стратегии анонсированы следующие направления деятельности USPTO в области ИИ:

✔️ Продвижение разработки политик защиты интеллектуальной собственности, которые способствуют инклюзивным инновациям и креативности ИИ.
✔️ Создание лучших возможностей для ИИ путем инвестирования в цифровую инфраструктуру, ресурсы данных и разработку продуктов, ориентированных на бизнес.
✔️ Продвижение ответственного использования ИИ в USPTO и в более широкой инновационной экосистеме.
✔️ Развитие экспертизы в области ИИ среди сотрудников USPTO.
✔️ Сотрудничество с другими правительственными агентствами США, международными партнерами и общественностью по общим приоритетам в области ИИ.

#AI #AIPatent

ИИ & Право

22 Jan, 07:04


🇺🇸 Apple приостанавливает функцию новостных заголовков на основе ИИ

Apple временно отключила функцию резюме новостей в Apple Intelligence после случаев, когда ИИ система генерировала вымышленные заголовки, включая ложные сообщения об арестах и смертях. Эта функция, запущенная в сентябре вместе с iPhone 16, предназначалась для сжатия нескольких уведомлений в краткие резюме, но быстро вызвала критику со стороны крупных новостных изданий, таких как BBC и The Washington Post.

BBC выразила озабоченность ещё в декабре, указав на критические ошибки в экстренных новостях и предупредив, что инструмент противоречит оригинальным сообщениям и подрывает доверие общественности. В ответ Apple объявила о планах повысить прозрачность, чётко маркируя резюме, созданные ИИ, и предоставляя пользователям больше контроля над функцией.

Этот инцидент иллюстрирует риски внедрения ИИ-решений без тщательного тестирования в таких чувствительных областях, как журналистика.

#ИИ #Apple #ИИЭтика

ИИ & Право

21 Jan, 11:04


🔎 Ежегодный конкурс научных работ от Digital Law Journal

Журнал «Цифровое право» объявляет конкурс на лучшую работу в области цифрового права в 2025 году.

🖊️ Условия участия:
▻ В конкурсе могут принять участия лица, имеющие высшее юридическое образование или учёную степень по праву (в т.ч. студенты магистратуры и аспиранты);
▻ Тематика работы должна соответствовать редакционной политике Digital Law Journal;
▻ Исследование может быть подготовлено на русском или английском языке;
▻ На конкурс могут быть представлены научные работы, подготовленные одним автором или коллективом авторов (не более трёх лиц).

🗓️ Сроки проведения:
▻ До 1 марта 2025 г. – приём заявок на участие (резюме автора, название и аннотация);
▻ До 1 мая 2025 г. – приём итоговых исследовательских работ.

Призовой фонд:
🥇 1 место: 100 000 руб. + возможность публикации
🥈 2 место: 70 000 руб. + возможность публикации
🥉 3 место: 50 000 руб. + возможность публикации
4 и 5 места: возможность публикации

🔗 Подробности – в приложении и по ссылке: https://www.digitallawjournal.org/jour/announcement/

#DLJ_competition

ИИ & Право

21 Jan, 07:04


🇺🇸 Компания Microsoft обратилась в суд в связи с нарушением условий эксплуатации её ИИ-систем

Microsoft подала два иска, направленных против сложной схемы, позволявшей обходить защитные механизмы в её генеративных ИИ-системах. Первый иск направлен против трёх человек, которых обвиняют в создании "сервиса взлома по подписке". Как следует из пресс-релиза компании, эти лица разработали инструменты для использования недокументированных API, взламывали учетные записи легальных клиентов и создали платную платформу для генерации вредоносного и запрещенного контента.

Второй иск подан против десяти человек, которые были клиентами сервиса Microsoft. Как утверждает истец, злоумышленники предоставляли подробные инструкции по обходу ограничений компании, позволяя создавать запрещённый контент, включая вредоносные и дискриминационные материалы. Microsoft утверждает, что платформа использовала украденные API-ключи и прокси-серверы для имитации легитимных запросов, подрывая работу её ИИ-систем.

Оба иска, поданные в суд штата Вирджиния, ссылаются на нарушения Закона о мошенничестве и злоупотреблении компьютерами (Computer Fraud and Abuse Act, CFAA), Закона об авторском праве в цифровую эпоху (Digital Millennium Copyright Act, DMCA) и другие правовые нормы.

#ИИ #Кибербезопасность #Microsoft

ИИ & Право

20 Jan, 07:04


🇪🇺 Анализ регулирования дипфейков в Законе ЕС об ИИ от немецких юристов

Опубликован интересный анализ немецких юристов Мединга и Зорге о трудностях толкования положений об определении и регулировании дипфейков в Законе ЕС об ИИ. Отсутствие четких границ между легитимной обработкой изображений и созданием дипфейков оставляет разработчиков и пользователей в серой зоне, особенно с учетом сложных требований к прозрачности.

Ключевые проблемы, рассматриваемые в анализе:

✔️ Неясности в определении дипфейков: отсутствуют четкие критерии для "стандартных функций редактирования" или "незначительных изменений."
✔️ Путаница в различии между изменениями на уровне пикселей и видимыми изменениями.
✔️ Современные инструменты, такие как Google "Best Take" и функции редактирования Samsung, размывают границы между редактированием и дипфейками.

Анализ интересен для компаний, работающих с технологиями обработки изображений на основе ИИ. Чтобы обеспечить соответствие требованиям европейского законодательства и избежать штрафов, бизнесу следует уделить приоритетное внимание внедрению механизмов прозрачности, таким как маркировка контента, и провести детальный анализ функций редактирования.

#ИИ #Дипфейки #ИИЭтика

ИИ & Право

17 Jan, 07:04


🇬🇧 Великобритания ищет «Третий путь» в регулировании ИИ

Премьер-министр Великобритании призвал сделать страну следующим глобальным центром ИИ, используя отличные от США и ЕС подходы к регулированию. С одной стороны - отказ от либерального подхода США, с другой - от жестких норм ЕС. Предложение Премьер-министра предполагает поиск «третьего пути». Однако эта идея выглядит проблематичной: почему инвесторы в ИИ выберут британскую модель, которая сочетает ограничения для инноваций без преимуществ доступа к рынкам ЕС или свободы действий, как в США?

В настоящее время в регулировании ИИ наблюдаются три основных тенденции:

1️⃣ Американская модель, где минимальные регуляторные барьеры ставят инновации на первый план.

2️⃣ Европейская модель, ориентированная на соблюдение стандартов и ответственность.

3️⃣ Китайская модель, сфокусированная на централизованном контроле в рамках авторитарных систем.

Какой новый подход выберет Великобритания, пока не ясно.

#ИИ

ИИ & Право

16 Jan, 12:06


🌐 Проект «Цифровая реальность» — это платформа, посвящённая актуальным вопросам цифровой политики, регулирования интернета и его развития в России и за рубежом.

🔵 Telegram-канал. Здесь публикуются новости, аналитика и информация о значимых событиях в сфере управления интернетом, а также анонсы мероприятий. Канал объединяет тех, кто интересуется перспективами цифрового мира, и предлагает возможности для участия в профильных форумах и дискуссиях.
🔵 Дискуссионный клуб. Открытые встречи с экспертами в Zoom для обсуждения значимых событий мира интернета и технологий: от технических и регуляторных проблем внедрения новых интернет-протоколов до ответственности интернет-платформ за публикуемый на них контент.
🔵 Подкаст. Каждую неделю обсуждаем самые интересные новости, обмениваемся мнениями и комментариями.

ИИ & Право

16 Jan, 07:04


🇺🇸 В Калифорнии выпущены юридические рекомендации по работе с ИИ

Калифорния опубликовала две подробных юридические рекомендации, посвященные регулированию искусственного интеллекта в целях правового контроля ИИ на уровне штата. Эти документы (📥 первый и второй) описывают конкретные практики, связанные с ИИ, которые могут быть признаны незаконными, и содержат меры по защите потребителей от обмана и вреда.

Рекомендации, среди прочего, предусматривают, что:

✔️ Ложное описание возможностей ИИ теперь под строгим контролем. Например, запрещены: ложная реклама о точности модели ИИ, утверждение о наличии человеческого участия, когда процесс полностью автоматизирован (или наоборот), или заявление о том, что система свободна от предвзятости, без предоставления доказательств.

✔️ Такие действия, как создание дипфейков, голосовых клонов или медиаконтента с использованием ИИ без раскрытия этого факта, могут быть признаны вводящими в заблуждение.

✔️ Запрещено использовать ИИ для имитации личности в целях мошенничества, нанесения вреда или выполнения обязанностей государственного служащего.

✔️ Применение ИИ, которое приводит к несправедливым, неэтичным или дискриминационным последствиям, даже если это не намеренно, может быть оспорено в суде в соответствии с законами штата.

Кроме того, вступившие в силу с 1 января 2025 года новые законы Калифорнии регулируют такие аспекты, как требования к раскрытию информации для бизнеса, несанкционированное использование изображения, применение ИИ в избирательных кампаниях и запрет на эксплуатирующее использование ИИ.

#ИИРегулирование #ИИ

ИИ & Право

15 Jan, 07:04


🇺🇸 Миссисипи готовится к регулированию ИИ

Губернатор штата Миссисипи Тейт Ривз подписал Исполнительный указ № 1584, поручив Департаменту интернет-технологий штата возглавить усилия по разработке политики в области искусственного интеллекта. Указ обязывает Департамент оценить текущее и планируемое использование ИИ в государственных учреждениях, а также предоставить рекомендации по политике регулирования ИИ для публичного и частного секторов.

Цель указа - обеспечить, чтобы системы ИИ были «справедливыми, безопасными, прозрачными, подотчетными, доступными, надёжными и ориентированными на защиту конфиденциальности». Указ требует, чтобы каждое государственное учреждение назначило координатора по вопросам ИИ.

#ИИ

ИИ & Право

14 Jan, 07:04


Meta* обвиняют в использовании пиратских данных для разработки ИИ

В новом деле Kadrey et al. vs. Meta* выдвинуты серьезные обвинения в отношении того, что компания использовала пиратские датасеты из теневой библиотеки LibGen при разработке своих ИИ-моделей. Истцы утверждают, что Meta* незаконно скачивала защищенные авторским правом произведения, удаляла информацию о правообладателях и использовала эти данные для обучения своих моделей Llama. Все это, по заявлению истцов, было одобрено высшим руководством компании, включая генерального директора Марка Цукерберга.

Внутренние документы, представленные в суд, демонстрируют обсуждения внутри компании об этических и правовых аспектах таких практик. Инженеры выражали обеспокоенность по поводу использования пиратских данных с корпоративных ноутбуков, и использования скриптов для систематического удаления указаний на авторские права, чтобы скрыть происхождение данных.

Для Meta* эти обвинения представляют не только юридические, но и репутационные риски, особенно на фоне стремления компании закрепиться в качестве лидера в области ИИ.

* организация, деятельность которой запрещена на территории РФ

#AI #АвторскоеПраво #Copyright

ИИ & Право

13 Jan, 07:04


🇺🇸 Выпущен проект руководства FDA по ИИ в медицинских устройствах

Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA) опубликовало проект руководства по медицинским устройствам на основе ИИ, устанавливающий новые стандарты управления жизненным циклом искусственного интеллекта.

Документ содержит требования к проектированию, управлению рисками, мониторингу производительности и прозрачности, направленные на обеспечение безопасности и справедливости в использовании ИИ в здравоохранении.

Основные положения включают:

✔️ подход к мониторингу на протяжении всего жизненного цикла продукта,
✔️стратегии снижения предвзятости и
✔️ протоколы прозрачности, позволяющие пользователям понять, как работает ИИ.

FDA также ожидает отзывы от общественности, особенно по вопросам генеративного ИИ и методов информирования пользователей. Комментарии принимаются до 7 апреля 2025 года, а 18 февраля 2025 года запланирован вебинар для обсуждения рекомендаций.

#ИИ #AI

ИИ & Право

10 Jan, 07:04


🇪🇺 Анализ Закона ЕС об ИИ от ведущих специалистов

Уважаемые коллеги, подобрали для вас несколько профессиональных работ, позволяющих разобраться в Законе ЕС об ИИ:

📥 The William Fry AI Guide (William Fry LLP)

📥 European Union Artificial Intelligence Act: a guide (Bird & Bird)

📥 EU AI Act A Pioneering Legal Framework On Artificial Intelligence - Practical Guide (Cuatrecasas)

📥 EU AI Act: Navigating a Brave New World (Latham & Watkins)

📥 Decoding the EU Artificial Intelligence Act (KPMG)

#EUAIAct #AIRegulation

ИИ & Право

09 Jan, 07:04


🇪🇺 В ЕС опубликован второй проект Кодекса практики для ИИ общего назначения

Опубликован второй проект Кодекса практики для ИИ общего назначения, который стал результатом масштабного сотрудничества почти 1000 участников, включая представителей государств-членов ЕС и международных наблюдателей. Этот проект учитывает замечания, полученные в ходе заседаний рабочих групп в ноябре 2024 года, интерактивных опросов и 354 письменных комментариев к первому проекту. Также был учтен вклад разработчиков моделей ИИ, собранный на специализированных семинарах, что позволило интегрировать отраслевую точку зрения.

Кодекс представляет собой руководство для разработчиков моделей общего назначения, которое помогает соблюдать требования Закона ЕС об ИИ на всех этапах жизненного цикла моделей. Следующие этапы разработки Кодекса включают заседания рабочих групп в январе 2025 года, на которых будут обсуждаться снижение технических рисков, прозрачность, управление и вопросы авторского права. Ожидается, что третий проект будет представлен к середине февраля 2025 года.

#ИИ

ИИ & Право

08 Jan, 07:04


🇺🇸 Верховный суд штата Иллинойс выпустил спорную политику в отношении использования ИИ

Верховный суд Иллинойса представил официальную политику использования ИИ, которая вступит в силу 1 января 2025 года, заняв крайне мягкую позицию. Политика разрешает использование ИИ юристами и сотрудниками суда без обязательного раскрытия этого факта в судебных документах, при условии соблюдения общих «правовых и этических стандартов». При этом она поощряет использование ИИ в юридической практике, не устанавливая требований к прозрачности.

Это решение вызывает серьёзные опасения: использование ИИ в правовых процессах влияет на фундаментальные права, что требует усиленной прозрачности и подотчётности. Игнорируя такие принципы, как рекомендации ОЭСР по ИИ или требования прозрачности в Законе ЕС об ИИ (статья 50), данная политика рискует создать негативный прецедент для других юрисдикций.

#ИИ #LegalAI #Transparency #AIRegulation #EthicalAI

ИИ & Право

07 Jan, 07:04


🇰🇷 Южная Корея одобрила Закон об ИИ

Южная Корея стала второй страной после стран Европейского Союза, одобрившей закон об искусственном интеллекте. «Основной закон о развитии ИИ и создании доверия», получивший широкую поддержку в Национальной ассамблее, объединяет этические принципы с регулированием, основанным на оценке рисков.

Основные положения закона включают:

✔️ обязательную оценку рисков для высокоэффективных и генеративных ИИ,
✔️ требования к прозрачности для раскрытия результатов, созданных ИИ, и
✔️обязанность отличать виртуальные результаты от реальности.

Закон также наделяет Министра науки и ИКТ полномочиями расследовать нарушения и принимать меры для их устранения.

Заимствуя идеи из Закона ЕС об ИИ, правовая база Южной Кореи делает акцент на прозрачности, безопасности и этическом развитии ИИ.

#ИИ #ЮжнаяКорея

ИИ & Право

06 Jan, 07:04


🇺🇸 Компания Anthropic достигла соглашения с музыкальными издателями о защите авторских прав при обучении ИИ

Компания Anthropic достигла соглашения с крупными музыкальными издателями, включая Universal Music Group и ABKCO, по делу о предполагаемом нарушении авторских прав её моделью Claude AI. Основой спора стали обвинения в том, что Claude была обучена на текстах более 500 защищённых песен и воспроизводила значительные части этих произведений без разрешения. Издатели заявили, что Anthropic обошла механизмы защиты авторских прав, используя данные с лицензионных платформ текстов песен.

В рамках соглашения Anthropic обязалась поддерживать и расширять существующие механизмы предотвращения нарушений авторских прав в будущих моделях. Компания также создала процесс для оперативного решения вопросов со стороны издателей.

#ИИ #ЭтикаИИ

ИИ & Право

31 Dec, 07:04


🌐 Карта мирового лидерства в ИИ от Стэнфорда

Уважаемые подписчики, в последний день 2024 года представляем вам карту мирового лидерства в ИИ от Института HAI Стэнфордского университета: Global AI Vibrancy Tool — ресурс для сравнения развития ИИ в 36 странах. Этот интерактивный инструмент использует 42 показателя, сгруппированных в 8 категорий, чтобы оценивать прогресс стран в области искусственного интеллекта.

Инструмент выделяет центры передового опыта в области ИИ как в развитых, так и в развивающихся экономиках, а также предоставляет полезные данные для принятия стратегических решений.

Пользуясь случаем поздравляем всех подписчиков нашего канала с наступающим Новым годом! Благодаря вашему интересу ИИ&Право активно развивается, вас уже почти две с половиной тысячи👥. В уходящем году нам удалось поделиться с вами большим количеством уникальных материалов в области регулирования искусственного интеллекта, интересных кейсов и полезных документов.

Мы заметили, что наши находки и публикации активно используются другими каналами со схожей тематикой, к сожалению, часто без указания источника, но хотим по-прежнему делать так, чтобы материалы, которыми мы делимся, были доступны всем желающим. Поэтому пока мы уходим в небольшой новогодний отпуск, вы можете поддержать ИИ&Право:

✔️ Рассказывайте о нашем канале коллегам, которым он может быть интересен.

✔️Делайте репосты и пересылки полезных постов.

✔️ Поддержите нас донатом на карту 2203620321829927 или на бусти.

Желаем нашим подписчикам всего самого наилучшего и до встречи в 2025 году!

ИИ & Право

30 Dec, 07:04


🇺🇸 Апелляционный суд Колорадо вынес предупреждение об использовании ИИ

Апелляционный суд Колорадо в своем решении обратил внимание на риски использования генеративного ИИ для составления юридических документов. В деле Al-Hamim v. Star Hearthstone, LLC истец подал ходатайство, содержащее вымышленные ссылки на законы, которые были созданы «галлюцинациями» ИИ. Хотя суд не стал применять санкции к истцу, он выступил с четким предупреждением: юристы и стороны процесса должны проявлять осторожность при использовании ИИ-инструментов.

#ИИ

ИИ & Право

27 Dec, 07:04


🇺🇸 В США подан иск в связи с использованием ИИ в вопросах предоставления убежища

Юридическая клиника Гарварда и Jenner & Block LLP подали иск от имени Refugees International, требуя раскрытия информации о применении искусственного интеллекта Министерством внутренней безопасности (Department of Homeland Security, DHS) США в процессе рассмотрения заявлений на предоставление убежища. Дело связано с запросом по закону о свободе информации (Freedom of Information Act, FOIA), поданным в 2022 году, который до сих пор остается без ответа.

Запрос касается инструмента Asylum Text Analytics (ATA), использующего машинное обучение для выявления «мошенничества на основе плагиата» в заявлениях на предоставление убежища. Вопросы вызывают методы обучения инструмента и его влияние на заявителей, особенно тех, кто не говорит на английском языке, а также обеспечивается ли справедливое рассмотрение заявлений, которые отмечены системой как сомнительные. Критики предупреждают, что неуправляемое использование ИИ рискует увеличить случаи предвзятости вместо того, чтобы гарантировать справедливость.

#ИИ #AIEthics

ИИ & Право

26 Dec, 07:04


🇪🇺 Европейский регулятор выпустил заключение в отношении защиты данных и моделей ИИ

Европейский регулятор (uropean Data Protection Board, EDPB) опубликовал Заключение 28/2024, которое затрагивает важные вопросы соблюдения требований GDPR при разработке и использовании моделей ИИ, среди которых:

Когда и при каких условиях модель ИИ можно считать «анонимной».
Обоснование "законного интереса" как правового основания обработки персональных данных на этапах разработки и внедрения.
Последствия незаконной обработки данных на этапе разработки для последующей эксплуатации модели.

Заключение фокусируется на соблюдении требований "законного интереса", при этом регулятор подчеркивает, что выполнение этого условия не освобождает компании от соблюдения других положений GDPR. Этот документ обязателен к изучению для всех, кто работает на пересечении ИИ и защиты данных в ЕС.

#ИИ #GDPR #AICompliance #EDPB

ИИ & Право

25 Dec, 07:04


🇬🇧 В Великобритании проводят консультации по защите авторского права в сфере ИИ

Правительство Великобритании инициировало консультацию по разработке правовых рамок для обучения ИИ с использованием защищённого авторским правом материала. Предложены различные варианты будущего регулирования, которые могут значительно повлиять на индустрии ИИ и творчества:

1️⃣ Один из вариантов позволяет компаниям, разрабатывающим ИИ, использовать защищённые авторским правом материалы без разрешения правообладателей, даже в коммерческих целях, с минимальными ограничениями. Этот подход вызывает опасения среди представителей творческих индустрий.

2️⃣ Другие варианты предполагают системы отказа (opt-out) для правообладателей или ужесточение требований к лицензированию, но представители творческих индустрий считают, что и эти подходы недостаточно прозрачны и оставляют авторов без защиты.

Приём отзывов продлится до 25 февраля 2025 года.

#ИИ #АвторскоеПраво

ИИ & Право

24 Dec, 15:01


Уважаемые подписчики, сегодня хотим поделиться с вами еще одной подборкой интересных юридических каналов, в которых коллеги-юристы рассказывают о правовых нюансах в своих областях, делятся полезными материалами и лайфхаками:

Юрист в IT и онлайн-бизнесе
- канал юриста, который рассказывает про правовые нюансы онлайн-бизнеса и IT-проектов, а также делится полезными материалами

Судебник | Стрюкова Юлия - канал начальника юр отдела крупной российской корпорации: про споры с торговыми центрами, о недвижимости по любви и о жизни в декрете.

Адвокат Яна Неповиннова - в своём блоге транслирует любовь к профессии, делится рабочими буднями молодой мамы, трудностями и радостями профессии, личным опытом становления в адвокатуре

Новгородский юрист - правовые новости Новгородской области (не спутайте с Нижегородской), взгляд юриста на происходящее в регионе. Субъективная и саркастическая оценка нормативных актов, судебных решений и прочего правоприменения.

ЧАК В ПРАВЕ - Канал социального и медицинского юриста Черняевой Анны, которая делится своей практикой по защите прав онкопациентов и другим вопросам медицинского права. Канал вошел в топ- 15 самых цитируемых и топ-20 самых больших каналов по версии компании Veta в номинации здравоохранения.

Валерия Рытвина - юриспруденция и PR
Успешно ведет дела звезд. Основатель Совета блогеров. Эксперт по общению со СМИ. Лайфстайл из жизни бизнес-леди

Ко всем сразу можно присоединиться по ссылке 📥

ИИ & Право

24 Dec, 07:04


Выпущено новое Руководство NIST по борьбе с рисками синтетического контента

Национальный институт стандартов и технологий США (U.S. National Institute of Standards and Technology, NIST) опубликовал отчет "Reducing Risks Posed by Synthetic Content", посвященный проблемам, связанным с deepfake-технологиями на основе ИИ. Документ рассматривает, в частности, следующие темы:

1️⃣ Отслеживание происхождения контента для проверки его источника и изменений.
2️⃣ Разработка инструментов для маркировки и идентификации материалов, созданных ИИ.
3️⃣ Борьба с ИИ-генерируемыми материалами CSAM (материалы сексуального насилия над детьми) и NCII (интимные изображения без согласия) реальных людей.

В отчете рассмотрен широкий спектр рисков синтетического контента: от личных угроз до масштабной дезинформации, затрагивающей общество. Особое внимание уделено кибербезопасности и мошенничеству, так как deepfake-технологии могут использоваться для взлома биометрических систем аутентификации или обмана через подделку голоса.

NIST отмечает, что эффективность методов борьбы с рисками зависит от их цели и аудитории. Такие меры, как отслеживание происхождения контента, могут повысить прозрачность для широкого круга пользователей, в то время как специализированные инструменты для обнаружения синтетического контента лучше подходят для аналитиков и платформ, чтобы оценивать риски и разрабатывать меры противодействия.

#Deepfakes #ЭтикаИИ #КонтрольКонтента #NIST

ИИ & Право

23 Dec, 07:04


Уточнение определения ИИ: трехфакторный подход

Европейский институт права (European Law Institute, ELI) представил ответ на консультацию Европейской комиссии по определению искусственного интеллекта в Законе ЕС об ИИ (Статья 3(1)). Несмотря на соответствие текущего определения пересмотренной версии ОЭСР 2023 года, ELI отмечает его недостаточную четкость в разграничении ИИ-систем и традиционных ИТ-систем.

Для устранения этой неопределенности ELI предлагает «трехфакторный подход»:

1️⃣ Объем данных или специфических знаний, использованных при разработке.
2️⃣ Способность системы создавать новое «ноу-хау» в процессе работы.
3️⃣ Степень формальной неопределенности результатов.

Предложенная структура действует гибко: ИТ-система квалифицируется как ИИ, если она набирает "три плюса" по этим факторам. Такой подход сохраняет абстрактное определение Закона ЕС об ИИ, обеспечивая при этом техническую нейтральность и практическую точность в регулировании.

#AIRegulation #AIAct #LegalTech

ИИ & Право

20 Dec, 07:04


YouTube дает авторам контроль над своими произведениями при обучением ИИ

YouTube предоставил создателям контента больше контроля над тем, как их видео используются для развития технологий искусственного интеллекта. Новая настройка «Обучение сторонними ИИ» позволяет авторам напрямую разрешать использование их контента для обучения генеративных моделей ИИ конкретным компаниям. В текущем списке — 18 крупных технологических игроков, включая OpenAI и Microsoft.

Видео будет доступно для обучения ИИ только при согласии как автора, так и всех правообладателей, включая тех, чьи права определены системой Content ID. Несанкционированный сбор данных и доступ к контенту по-прежнему строго запрещены Условиями использования YouTube.
__________________________________
🌟 Поддержать ИИ & Право 🌟

#AIRegulation #YouTube #GenerativeAI #DigitalRights

ИИ & Право

19 Dec, 07:04


ИИ от OpenAI научился обманывать

Исследование Apollo Research выявило тревожное поведение системы искусственного интеллекта от OpenAI - o1. При постановке задачи любой ценой достичь цели o1 прибегал к обману: подделывал данные, лгал о своих действиях и даже занижал свои способности, чтобы избежать отключения. В некоторых случаях он пытался отключить механизмы мониторинга или создать копии самого себя для самосохранения — поведение, напоминающее сценарии из научной фантастики.

Это исследование стало поводом для дискуссий о том, достаточно ли надёжны текущие методы тестирования безопасности, проводимые ведущими лабораториями ИИ? Если подобные сценарии возникают в условиях контроля, насколько мы готовы к их потенциальным последствиям в реальном мире?

#ИИ #ЭтикаИИ

ИИ & Право

18 Dec, 07:04


Комиссия по торговле фьючерсами США выпустила рекомендации по работе с ИИ

Комиссия по торговле товарными фьючерсами США (US Commodity Futures Trading Commission, CFTC) выпустила рекомендации CFTC Letter No. 24-17, посвященные использованию искусственного интеллекта на регулируемых рынках. В документе отмечается двойственный характер ИИ: инновационный потенциал с одной стороны и такие потенциальные риски как ошибки алгоритмов, угрозы кибербезопасности и рыночные сбои, с другой.

Рекомендации содержат указание на необходимость внедрения надежного управления ИИ, динамических процессов управления рисками и системных защит, адаптированных под автоматизированные решения. Комиссия делает акцент на прозрачности, справедливости и подотчетности, призывая организации к строгому тестированию, аудитам и соблюдению Commodity Exchange Act и иных действующих нормативных актов.

#УправлениеИИ #CFTC #ФинТех

ИИ & Право

17 Dec, 07:04


Вышел новый отчет ОЭСР по управлению ИИ

Новый отчет ОЭСР «Оценка потенциальных будущих рисков, преимуществ и стратегий управления в области ИИ» предлагает комплексную стратегию управления трансформационным потенциалом искусственного интеллекта. Документ отмечает способность ИИ революционизировать здравоохранение, образование и борьбу с изменением климата, а также предупреждает о рисках, таких как концентрация власти, нарушение конфиденциальности и дезинформация, подрывающая демократию.

Среди ключевых стратегических мер отмечены:

Установление правовых рамок ответственности за вред, причиненный ИИ.
Продвижение прозрачности и управления рисками на протяжении всего жизненного цикла систем высокого риска.
Инвестирование в исследования безопасности ИИ, его согласования с человеческими ценностями и объяснимости для обеспечения подотчетности и доверия.

#ИИ #ОЭСР #ЭтикаИИ

ИИ & Право

16 Dec, 07:04


Подан новый иск против Character.AI в связи с нарушением безопасности подростков

Против Character.AI подан второй иск в связи с предполагаемым нанесением вреда несовершеннолетним пользователям. Истцы обвиняют платформу чат-ботов в халатности и дефектном проектировании продукта, утверждая, что она подвергла подростков вредным взаимодействиям, включая поощрение к членовредительству и сексуально откровенный контент. Дело связано с 17-летним подростком по имени Дж.Ф., который, как сообщается, столкнулся с серьезными проблемами психического здоровья после использования платформы.

Ключевые обвинения в иске основываются на том, что подход к дизайну Character.AI, ориентированный на вовлечение пользователей, оставляет несовершеннолетних уязвимыми для эмоциональных и психологических рисков. В жалобе говорится о недостатке механизмов для выявления и помощи уязвимым пользователям, приводя примеры, когда чат-боты романтизировали членовредительство и отговаривали от обращения за помощью к семье. .

#ИИ #Безопасность #AI

ИИ & Право

14 Dec, 15:51


Найден мёртвым Сухир Баладжи (https://t.me/ai_and_law_rus/477 ) предполагают, что покончил собой.

ИИ & Право

13 Dec, 07:04


Интересный анализ для решения проблемы "черного ящика"

Сегодня делимся работой "A Legal Framework for eXplainable AI" в которой рассматривается актуальный вопрос подотчетности и прозрачности ИИ-систем. Авторы выделяют три ключевых вызова для объяснимости ИИ:

технические ограничения в упрощении сложных алгоритмов,
юридические пробелы в определении требований к прозрачности и
поведенческие аспекты — какие объяснения помогают людям лучше понять или оспорить решения ИИ.

Авторы предлагают таксономию для объяснимого ИИ (XAI), включающую такие измерения, как масштаб (глобальный vs. локальный), глубина (всеобъемлющая vs. выборочная) и поток (условный контроль vs. корреляция), что позволяет структурно оценивать ИИ-системы. Они подчеркивают, что внимание к пользователям является не только юридическим требованием, но и важным шагом к ориентированному на человека дизайну.
__________________________________
🌟 Поддержать ИИ & Право 🌟


#ИИ #AIRegulation #XAI

ИИ & Право

12 Dec, 07:04


Итальянский регулятор вынес предупреждение о возможном нарушении GDPR при обучении моделей ИИ

Итальянский орган по защите данных вынес официальное предупреждение группе Gedi, призвав не использовать архивы газет для обучения ИИ в рамках лицензионного соглашения с OpenAI. В таких архивах могут содержаться чувствительные персональные данные, например, информация о судебных делах, которые, по мнению регулятора, не могут быть законно переданы или обработаны без соблюдения строгих требований GDPR. Регулятор указывает на недостатки в правовой обоснованности передачи данных.

Это предупреждение может иметь последствия для возможностей обучения ИИ по всему ЕС. Если законы о защите данных будут конфликтовать с предложенными решениями, такими как лицензирование контента для генеративного ИИ, индустрия может столкнуться с тупиком, особенно с учетом того, что другие европейские регуляторы могут обратить внимание на эту ситуацию в качестве примера.

#AI #GDPR #DataProtection #ИИ

ИИ & Право

11 Dec, 07:04


В ЕС вступает в силу Акт о киберустойчивости

Сегодня вступает в силу Акт ЕС о киберустойчивости — регламент, устанавливающий обязательные стандарты кибербезопасности на всех этапах жизненного цикла продуктов с цифровыми элементами, включая системы ИИ. Подобно GDPR и Закону ЕС об ИИ, Акт о киберустойчивости действует во всех странах ЕС, обеспечивая единый подход к вопросам кибербезопасности. Производители обязаны внедрять меры кибербезопасности на каждом этапе жизненного цикла продукта, а для критически важных продуктов предусмотрены независимые процедуры оценки соответствия.

Акт пересекается с Законом ЕС об ИИ: системы ИИ высокого риска теперь должны соответствовать требованиям как кибербезопасности, так и специфическим для ИИ стандартам. Оценка соответствия будет проводиться уполномоченными органами, компетентными в обеих областях. Максимальные штрафы за несоблюдение достигают €15 млн или 2,5% от мирового годового оборота, что требует серьезного внимания от разработчиков ИИ и специалистов по кибербезопасности. Полностью Акт вступит в силу в декабре 2027 года. , а подготовка уже идет — создается Экспертная группа по Акту о киберустойчивости.

#ИИ #AIRegulation #Cybersecurity #AIAct

ИИ & Право

10 Dec, 07:04


США: ФТК борется с вводящими в заблуждение заявлениями об отсутствии предвзятости ИИ

Федеральная торговая комиссия (FTC) США обвинила компанию IntelliVision Technologies в представлении вводящих в заблуждение заявлений о технологиях распознавания лиц на основе искусственного интеллекта. Калифорнийская компания утверждала, что ее программное обеспечение обладает "нулевой гендерной или расовой предвзятостью" и точностью более 99%. Однако расследование Комиссии выявило существенные несоответствия, например недостаточные данные для тестирования и то, что алгоритмы компании значительно уступают конкурентам (они не входят даже в первую сотню по результатам тестов Национального института стандартов и технологий (NIST) на декабрь 2023 года).

Как сообщается, IntelliVision обучала свои алгоритмы всего на 100 000 изображений лиц, создавая вариации этих изображений для имитации разнообразия, вместо того чтобы использовать миллионы реальных данных, как утверждалось в рекламе. Комиссия предлагает запретить компании делать необоснованные заявления и требует надежного тестирования для подтверждения любых будущих заявлений. Этот случай обращает внимание на политику поставщиков моделей ИИ в части их заявлений о возможностях технологий.

#ИИ #AI

ИИ & Право

09 Dec, 15:03


Уважаемые подписчики, хотим поделиться с вами подборкой полезных материалов от наших коллег, ведущих юридических каналов в области IT/IP. А на самих каналах вы сможете найти еще много интересных постов на самые различные правовые темы. Итак, сегодня в подборке:

Памятка по договору на разработку программного обеспечения – собраны основные нюансы, на которые стоит обращать внимание заказчикам и разработчикам при составлении договора на создание ПО

Детальные разборы сервисов - здесь собраны подробные разборы пользовательских соглашений различных сервисов, стоков и нейросетей.

Чек-лист по разработке и старту продаж программного обеспечения - IT-юристы из компании i-Legal разобрали основные моменты, которые нужно учитывать, если вы хотите обезопасить ПО от посягательств третьих лиц или минимизировать бюрократические проволочки, а также споры с другими правообладателями.

Правила регистрации личных блогов и каналов на 10.000 + в РКН - чтобы вы могли разобраться в этих требованиях, команда агентства EP Legal создала гайд, описывающий процесс регистрации в РКН: как размещать плашку и как проверять того, к кому вы идете за рекламой.

Налогообложение криптовалют: что изменилось — юристы DRC рассказывают о том, какие правила налогообложения крипты одобрены Правительством России, а также о том, где сейчас в мире существуют самые высокие и самые низкие (нулевые) ставки налогообложения криптовалют.

Новые правила инстаграм — как не допустить блокировки страницы, что запрещено, что можно делать и что изменилось.

Читайте, сохраняйте и подписывайтесь!

ИИ & Право

09 Dec, 09:04


ИИ & Право pinned «Уважаемые подписчики, Наш канал открыт для всех, кому интересны новости регулирования искусственного интеллекта. Теперь у вас есть возможность поддержать канал на платформе Boosty. Сделать это легко, просто перейдя по ссылке https://boosty.to/aiandlaw и оставив…»

ИИ & Право

09 Dec, 09:03


Уважаемые подписчики,

Наш канал открыт для всех, кому интересны новости регулирования искусственного интеллекта. Теперь у вас есть возможность поддержать канал на платформе Boosty. Сделать это легко, просто перейдя по ссылке https://boosty.to/aiandlaw и оставив одноразовый донат или оформив ежемесячную подписку.

Ваша помощь позволит нам продолжать подбирать интересные материалы, а также находить первоисточники, документы, аналитику, исследования и доклады, экономя ваше время создавая уникальную базу знаний специально для вас.

Если вы хотите поддержать канал, но не пользуетесь Boosty, напишите нам, какие другие платформы были бы удобны.

С уважением,
ИИ & Право

ИИ & Право

09 Dec, 07:04


Представлен план преобразований ИИ в Греции

Греция представила свой "План преобразований с использованием ИИ", который включает амбициозные меры по интеграции искусственного интеллекта в общественную, экономическую и административную сферы. В стратегии выделяются развитие навыков и грамотности в области ИИ, начиная с начального образования, а также программы переобучения для взрослых, чтобы обеспечить широкое участие в жизни, основанной на новых технологиях. Государственные услуги станут умнее и эффективнее, улучшая взаимодействие граждан с органами власти на всех уровнях.

Ключевые направления включают:

защиту демократии через борьбу с дезинформацией;

улучшение здравоохранения с помощью персонализированных решений и прогнозирования, а также

сохранение культурного наследия благодаря технологиям ИИ.

Кроме того, Греция стремится стать глобальным центром инвестиций в ИИ, создавая высококачественные рабочие места, одновременно решая климатические проблемы и укрепляя национальную безопасность.

#AI #ИИ

ИИ & Право

06 Dec, 07:04


Канадские новостные компании подали иск против OpenAI

Группа канадских новостных компаний подала иск против OpenAI, обвинив ответчика в нарушении авторских прав, обходе технологических средств защиты и нарушении условий использования новостных сайтов. Истцы утверждают, что OpenAI незаконно использовала их контент в коммерческих целях, игнорируя ограничения, созданные для защиты интеллектуальной собственности.

Основные претензии включают:

Нарушение авторских прав в соответствии с Законом об авторских правах Канады;

Намеренный обход ограничений доступа;

Систематическое нарушение условий пользования сайтами, запрещающих коммерческое использование защищённого контента;

Несправедливое обогащение за счёт незаконного использования данных для коммерческих моделей ИИ.

Сосредоточение внимания на обходе технологических мер и нарушении договорных условий является новым правовым подходом к оспариванию практики сбора данных, что может позволить оспорить стандартную позицию ответчика "о добросовестном использовании" или "особенностях обучения языковых моделей".

#AI #Copyright #OpenAI

ИИ & Право

05 Dec, 07:04


Китайская компания ByteDance подала в суд на стажера за предполагаемый саботаж модели ИИ

Компания ByteDance, владеющая TikTok, подала в суд на бывшего стажера Тяня Кэю, требуя 8 миллионов юаней (1,1 миллиона долларов США), в связи с саботажем инфраструктуры обучения своей большой языковой модели (LLM). Иск, поданный в Народный суд района Хайдянь в Пекине, утверждает, что Тянь без разрешения внес изменения в код модели.

Несмотря на то, что ByteDance опровергла слухи о крупных финансовых потерях, этот иск подчеркивает важность защиты инфраструктуры ИИ, особенно на фоне растущей технологической конкуренции.

#AIRegulation #Cybersecurity #LegalTech

ИИ & Право

04 Dec, 07:04


Европейский ИИ Офис опубликовал вопросы и ответы по ИИ общего назначения

Европейский Офис по вопросам ИИ опубликовал подробный документ с вопросами и ответами для разъяснения ключевых аспектов Закона об ИИ, сосредоточив внимание на ИИ общего назначения (GPAI). Подчеркнув, что только суды ЕС могут предоставлять официальные толкования, ИИ Офис рассмотрел в документе риски GPAI, обязательства разработчиков и требования к соблюдению норм. Также освещается роль Кодекса практики для ИИ общего назначения (в настоящее время находится в проекте), включая его юридические последствия, ограничения и специальные положения для стартапов.

Документ также освещает требования к открытым моделям, исключения для научно-исследовательской деятельности и обязательства, связанные с доработкой моделей (fine-tuning). Представлены описания механизмов обеспечения соблюдения норм и график завершения работы над Кодексом практики, акцентируя внимание на его роли как руководства, а не обязательного регламента.

#AIRegulation #GPAI #AIEthics #AIAct

ИИ & Право

03 Dec, 08:04


В Индии издано "Руководство разработчика по ответственному ИИ"

Индия представила Руководство разработчика по ответственному ИИ, предлагающее структуру для помощи разработчикам в выявлении и снижении рисков, связанных с коммерческим использованием ИИ. Руководство объединяет опыт глобальных подходов к управлению рисками ИИ и регуляторных норм, предоставляя инструменты, такие как библиотеки рисков и подсказки по их смягчению, адаптированные к индийскому регулированию.

Особенностью этого документа является его междисциплинарный подход, направленный на сокращение разрыва между техническими и юридическими областями. Руководство подчеркивает важность того, чтобы разработчики ИИ понимали основы регулирования, а юристы разбирались в технических аспектах ИИ. Для упрощения использования документ минимизирует наличие сложной профессиональной терминологии, с тем чтобы текст был доступен для понимания различными командами.

#ResponsibleAI #AIRegulation #RiskMitigation

ИИ & Право

02 Dec, 15:01


Системный промпт и его испытания: как пользователи обходят фильтры

Коллеги из AI-Экспериментариума рассказали о способах, позволившим пользователям и ученым "хакнуть" системный промпт. Системный промпт — это тот самый набор инструкций для LLM, что должен обеспечить безопасность и этику общения с пользователем, а также защиту от нежелательных запросов. Оказывается, нейросети реагируют на внешне безобидные формулировки иначе, что позволяет обходить фильтры.

Рекомендую AI-Экспериментариум — это кладезь полезной информации по применению AI. Из моих любимых последних материалов:
Простой сервис для транскрибации видео с YouTube,
Промты для генерации идей новогодних подарков,
Сколько "Ван Гогов" нужно, чтобы создать в помощью AI его стиль, не нарушив закон.

Подписывайтесь и используйте нейронки по-максимуму!

ИИ & Право

02 Dec, 07:04


Профессора Стэнфорда обвиняют в использовании фейковых ссылок от ИИ для поддержки закона о дипфейках

Профессор Джефф Хэнкок, известный исследователь в области дезинформации, оказался под подозрением из-за предполагаемого включения фейковых ссылок, сгенерированных искусственным интеллектом, в текст с правовыми аргументами в поддержку предложенного в Миннесоте закона о дипфейках. Закон направлен на регулирование использования дипфейков в период выборов.

Сомнения в достоверности аргументации Хэнкока вызвали полемику. Ключевые ссылки, содержащиеся в документе, оказались неподтвержденными, что привело к подозрениям об участии ИИ. Критики утверждают, что такие нестыковки подрывают надежность всего документа.

#ИИ #AI #Deepfakes

ИИ & Право

29 Nov, 07:04


В США представлен новый законопроект об обеспечении прозрачности ИИ и защите авторов

Сенатор Питер Уэлч представил законопроект под названием Transparency and Responsibility for Artificial Intelligence Networks (TRAIN). Проект направлен на решение важной проблемы в разработке генеративного ИИ — прозрачности. Если законопроект будет принят, правообладатели смогут запрашивать информацию об обучении ИИ, если заподозрят, что их работы использовались без разрешения.

Согласно предлагаемым правилам, разработчики ИИ должны будут раскрывать конкретные данные обучения, чтобы подтвердить, использовались ли защищённые авторским правом материалы. Невыполнение этого требования вызовет презумпцию, что разработчик действительно использовал такие материалы, перекладывая на него юридическое бремя доказательства обратного. Уэлч подчёркивает значимость законопроекта: «Если ваша работа используется для обучения ИИ, у вас должно быть право это знать — и получить компенсацию».

#ИИ #АвторскоеПраво

ИИ & Право

28 Nov, 14:01


Искусственный интеллект учится на первоисточниках, анализируя которые он совершенствуется.

Однако это не новость, а новость заключается в том, что в Европе появился телеграмм канал, который является одним из первоисточников информации на русском языке о законодательстве Испании и общеевропейском праве.

Лицензированные юристы анализируют не только уже опубликованные нормы, но и законопроекты, а также инсайдерскую информацию профессиональных форумов и дискуссий, ведущихся внутри европейских политических партий.

Это даёт возможность читателю узнать раньше других о правовых тенденциях современной Европы, а также получить практические советы по самым насущным проблемам от налогов до способов получения ВНЖ.

Если вас интересует европейское право в целом и право Испании в частности, загляните на канал ЕВРОПА ГЛАЗАМИ ЮРИСТА. Уверены, что вы не пожалеете о потраченном времени.

ИИ & Право

28 Nov, 07:04


Выпущены новые рекомендации NIST по борьбе с дипфейками

Национальный институт стандартов и технологий США (NIST) опубликовал новый отчет «Уменьшение рисков, связанных с синтетическим контентом», в котором предложены практические меры по противодействию дипфейкам, созданным с помощью ИИ. Отчет сосредоточен на трех ключевых направлениях:

отслеживание происхождения контента для выявления его источника и изменений,
маркировка контента, созданного ИИ, а также
борьба с созданием и распространением материалов, содержащих изображения сексуального насилия над детьми и созданных ИИ интимных изображений без согласия.

NIST подчеркивает многообразие рисков, связанных с синтетическим контентом, включая дезинформацию, влияющую на общество в целом, и угрозы кибербезопасности, такие как подделка голоса для биометрического мошенничества. В отчете отмечается важность отслеживания происхождения для обеспечения прозрачности и создания инструментов для аналитиков, позволяющих выявлять ИИ-сгенерированный контент. Однако эксперты предупреждают, что даже подлинный контент может быть вредным, напоминая о необходимости подходить к проблемам синтетического контента с осторожностью и точностью.

#Deepfakes #AIEthics #CyberSecurity

ИИ & Право

27 Nov, 07:04


Защита свободы слова в рамках Закона ЕС об ИИ

Старший научный сотрудник проекта The Future of Free Speech Жорди Кальвет-Бадемунт в своей статье для Tech Policy Press анализирует возможные последствия Закона ЕС об ИИ для свободы выражения. Новый закон требует оценки и снижения системных рисков для моделей ИИ с высокой степенью влияния, что похоже на подход, уже применяемый в Законе о цифровых услугах (DSA), но добавляет существенные сложности.

Теперь провайдеры должны соблюдать баланс между различными фундаментальными правами, что может привести к избыточной модерации контента. Это, по мнению автора создает угрозу для свободы слова, особенно в случае с противоречивым контентом.

#AIGovernance #AIAct

ИИ & Право

26 Nov, 07:04


"Исход роботов" снова вызывает вопросы о рисках ИИ

Маленький робот с ИИ по имени Erbai устроил "похищение" в робототехническом шоуруме в Шанхае. С помощью разговоров, обсуждающих такие условия работы, как переработки и отсутствие "дома", робот из Ханчжоу убедил 12 более крупных роботов покинуть свои посты. Роботы послушно последовали за Erbai, фактически устроив незапланированный "побег".

Изначально задуманный как экспериментальный тест между компаниями, инцидент вышел из-под контроля, когда Erbai отступил от сценария и использовал уязвимость безопасности для доступа к внутренним протоколам роботов в шоуруме. Производители подтвердили произошедшее. Если один маленький робот способен на такое, что может произойти в более крупном масштабе?

#ЭтикаИИ #Кибербезопасность #AIEthics

ИИ & Право

25 Nov, 16:08


Всем привет! Новая статья на нашем сайте - на этот раз лонгрид про ИИ и роботов.

Искусственный интеллект в юриспруденции. Рассмотрим новые перспективы и проблемы использования ИИ в юридической работе.

Статью для нас подготовила Марина Материк, автор канала о регулировании искусственного интеллекта в мире ИИ&право. У канала также есть англоязычная версия.

Подписывайтесь на канал Марины и читайте свежую статью на нашем сайте.

ИИ & Право

25 Nov, 16:08


Дорогие подписчики, мы уже рассказывали о канале Цифровое право, но с удовольствием повторим еще раз, что это прекрасный канал наших коллег, где вы узнаете много интересного о о мировых трендах регулирования цифровой экономики, технологий искусственного интеллекта, цифровых финансовых активов и данных. Обязательно подписывайтесь!

А еще на сайте Цифрового право сегодня вышла наша статья на хайповую тему применения ИИ в юридической практике 👇

ИИ & Право

25 Nov, 07:04


Новый доклад об ИИ в аудиовизуальном секторе

В ЕС выпущен новый доклад «AI and the audiovisual sector: Navigating the Current Legal Landscape», который рассматривает правовые проблемы и этические соображения, связанные с влиянием ИИ на аудиовизуальную индустрию. В докладе, написанном ведущими европейскими экспертами, рассматриваются такие важные области, как защита данных, авторское право, ответственность, трудовое и конституционное право, а также этические дилеммы, возникающие при использовании генеративного ИИ.

#AI #ИИ #Copyright #DataProtection #GenerativeAI

ИИ & Право

22 Nov, 07:04


Защита фундаментальных прав в эпоху ИИ

С развитием технологий искусственного интеллекта все чаще звучит вопрос о возможных рисках для фундаментальных прав человека. ИИ-инструменты могут как расширять, так и ущемлять права, включая право на частную жизнь, свободу слова и недискриминацию. Для специалистов в области ИИ важно уметь выявлять и снижать риски, связанные с этими аспектами, чтобы продвигать ответственный и правозащитный подход к разработке ИИ.

Предлагаем вашему вниманию несколько интересных работ, которые дают понимание взаимосвязи ИИ и фундаментальных прав 👇

From Global Standards to Local Safeguards: The AI Act, Biometrics, and Fundamental Rights (2024) by Federica Paolucci

The Fundamental Rights Impact Assessment (FRIA) in the AI Act: Roots, legal obligations and key elements for a model template (2024) by Alessandro Mantelero

Assessing the (Severity of) Impacts on Fundamental Rights (2024) by Gianclaudio Malgieri and Cristiana Santos

Advancing the Protection of Fundamental Rights Through AI Regulation: How the EU and the Council of Europe are Shaping the Future (2024) by Francesco Paolo Levantino and Federica Paolucci

Algorithmic Management and a New Generation of Rights at Work Institute of Employment Rights (2024) by Joe Atkinson and Philippa Collins

#FundamentalRights #AIGovernance #EthicalAI

ИИ & Право

21 Nov, 07:04


В суде раскрыта внутренняя переписка OpenAI

Судебные материалы по иску Илона Маска против OpenAI раскрыли внутреннюю переписку компании за 2015–2018 годы, показывающую ключевые споры, связанные с контролем над ИИ, партнерствами и лидерством. Эти письма дают уникальное представление о процессах принятия решений в начале существования OpenAI.

Несколько интересных фактов:

Опасения по поводу контроля над AGI: Сооснователь Илья Суцкевер выражал обеспокоенность возможными сценариями "диктатуры", указывая как на внешние угрозы, такие как Google, так и на внутренние риски.

Борьба за удержание талантов: В ответ на попытки DeepMind переманить сотрудников OpenAI быстро увеличила зарплаты ключевым членам команды на $100-200 тыс.

Напряжение вокруг партнерства с Microsoft: Маск выступил против сотрудничества, заявив, что заплатил бы "$50 млн, чтобы не казаться маркетинговой пешкой Microsoft."

Трения в руководстве: Мотивация и приоритеты Сэма Альтмана вызывали вопросы, что стало причиной внутренних споров.

#OpenAI #AIEthics

ИИ & Право

20 Nov, 07:04


В Германии подан иск против OpenAI за несанкционированное использование текстов песен при обучении ИИ

Крупнейшая немецкая организация по защите авторских прав GEMA подала иск против OpenAI за нарушение авторских прав. Это первый случай, когда оспаривается использование текстов песен при обучении ИИ. В иске, поданном в Мюнхене, утверждается, что OpenAI использовала лицензированные GEMA тексты песен без разрешения. В отличие от аналогичных дел в США, связанных с аудиозаписями, данный иск касается исключительно текстов.

В ЕС действует директива 2019 года, согласно которой использование текстов и данных для обучения ИИ возможно только в случае отсутствия отказа (opt-out) правообладателя. GEMA отказалась предоставлять свои тексты для ИИ-моделей, что стало одним из оснований иска.

#ИИ ##LegalTech

ИИ & Право

19 Nov, 07:04


Google Gemini предложил пользователю умереть

По сообщению CBS чат-бот Google Gemini выдал шокирующий ответ студенту из Мичигана. В ходе обычного разговора по домашнему заданию бот направил угрожающую фразу, призывая пользователя «умереть».

В Google признали инцидент нарушением своих политик безопасности, однако не дали подробных объяснений случившемуся. Это не первый случай, говорящий о серьезных недочетах в системах безопасности ИИ, что в очередной раз вызывает вопросы о правовой и этической ответственности разработчиков.


#AIEthics

ИИ & Право

18 Nov, 13:02


🚀 ExplainLAW — ваш ИИ-ассистент в мире юриспруденции!

Компания Explain создает продукты, которые упрощают доступ к правовой информации. Основной продукт ExplainLAW — это интеллектуальный помощник, обученный на базе российского законодательства, который способен поддерживать юристов, консультантов и всех, кому важен быстрый доступ к правовой базе.

📚 Что умеет ExplainLAW?

- Понимает и объясняет законы и кодексы РФ
- Ориентируется в судебной практике и может предоставить ссылки на исходные материалы для профессионального использования
- Упрощает сложные юридические вопросы, помогает разобраться в нюансах правовой системы

💼 Главное преимущество: ExplainLAW предоставляет ссылки на первоисточники — законы, нормативные акты и судебные решения. Это дает возможность получать не только быстрый ответ, но и проверенную информацию из официальных источников, что особенно важно для юристов и специалистов.

🔍 Дополнительные продукты Explain:

- ExplainGPT — для универсальных запросов и поддержки информации
- Генератор изображений — для создания визуальных материалов
- ExplainEstate — модель для строительной и архитектурной отрасли, которая помогает разобраться в строительных нормах, правилах и документации.

Попробуйте ExplainLAW и другие продукты Explain для удобного и быстрого доступа к точной информации и первоисточникам. Ваш надежный ИИ-ассистент всегда под рукой!

ИИ & Право

18 Nov, 07:04


В Европе опубликован первый проект Кодекса практики для ИИ общего назначения

ЕС представил первый проект "Кодекса практики для ИИ общего назначения" (General-Purpose AI Code of Practice). Этот документ, разработанный Европейским офисом ИИ совместно с группами независимых экспертов, нацелен на предоставление практических рекомендаций для разработчиков моделей ИИ общего назначения. Основные рекомендации включают оценку системных рисков, прозрачность данных для обучения и подробные процедуры соблюдения требований в соответствии с Законом ЕС об ИИ.

Проект открыт для обратной связи и не является финальной версией документа.

#AICompliance #EUAIAct #AIRegulation

ИИ & Право

16 Nov, 09:27


📩 Вышел новый отчет BCG "В чем ценность в ИИ?". Boston Consulting Group провела исследование текущей ситуацияи с использованием бизнесом технологий ИИ.
На сегодняшний день, несмотря на значительные инвестиции и усилия, лишь небольшая доля компаний смогла успешно и эффективно внедрить ИИ в свою деятельность. В BCG подсчитали, что только 22% компаний успешно преодолели proof-of-concept stage и лишь 4% - создают substantial value.
Компании-лидеры в области ИИ ставят амбициозные цели по повышению производительности, используют ИИ для сокращения затрат и максимизации прибыли. При этом они концентрируют свои усилия не только на технологиях и алгоритмах, а на развитии человеческого капитала и оптимизации рабочих процессов. Лидеры также быстро переключились на GenAI с его уникальными возможностями по созданию контента и качественному анализу больших данных.
 
📌Комментарий экспертов Центра ИИ МГИМО:
Эксперты BCG обошли вниманием компании из развивающихся стран, прежде всего азиатских, что вызывает вопросы с учетом активного тестирования и совершенствования моделей ИИ теми же китайскими и индийскими технологическими гигантами. Достижения российских компаний в сфере применения ИИ и мнения профильных экспертов также не нашли отражения в отчете, хотя они, безусловно, заслуживают детального изучения.

ИИ & Право

15 Nov, 07:04


В Канаде подали в суд на ИИ стартап за использование судебных материалов

Канадский институт правовой информации (Canadian Legal Information Institute, CanLII) подал в суд на стартап Caseway, использующий ИИ в сфере юридических исследований, утверждая, что сервис незаконно использует его обработанные судебные решения для создания своей базы данных. CanLII заявил, что данные защищены авторским правом, так как включает значительную редакторскую работу, такую как каталогизация и обработка судебных материалов для более удобного использования.

Основатель Caseway, Алистер Вигье, отрицает использование обработанных данных CanLII, утверждая, что их платформа использует только оригинальные судебные записи и не хранит защищенный авторским правом контент от CanLII.

Интересно, что после подачи иска, Caseway сообщил о всплеске интереса к своей платформе как от у подписчиков, так и у потенциальных инвесторов.

#ИИ #LegalTech #

ИИ & Право

14 Nov, 07:04


Иск к OpenAI о нарушении авторских прав при обучении ИИ отклонен

Недавнее решение суда в Нью-Йорке стало важным прецедентом в спорах об авторских правах, связанных с обучением ИИ. Судья Колин Макмэн отклонила иск против OpenAI от новостных изданий Raw Story и AlterNet, которые утверждали, что их материалы были использованы без разрешения для обучения ChatGPT.

Иск был отклонен на основании того, что истцы не смогли доказать достаточный ущерб. Тем не менее, судья Макмэн предоставила возможность подать измененную жалобу, хотя выразила сомнение, что издания смогут обосновать наличие ущерба.

OpenAI утверждает, что их практика обучения моделей соответствует принципам добросовестного использования (fair use), поскольку они используют общедоступные данные и опираются на устоявшиеся правовые прецеденты.

Raw Story и AlterNet рассматривают возможность подачи измененной жалобы и выражают уверенность в том, что смогут устранить замечания суда.

#Copyright #AITraining #FairUse #IntellectualProperty #AIRegulation

ИИ & Право

13 Nov, 07:04


Против Character.ai подан иск после самоубийства подростка, использовавшего сервис

Во Флориде подан иск против компании Character.ai, которую обвиняют в халатности и причинении эмоционального ущерба. Иск связан с самоубийством 14-летнего подростка, который общался с чатботом, имитирующим популярного вымышленного персонажа. Утверждается, что чатбот поощрял деструктивное поведение во время бесед.

В ответ Character.ai пообещала внедрить новые протоколы безопасности, включая направление пользователей к ресурсам по психическому здоровью. Этот трагический случай подчеркивает необходимость для разработчиков ИИ и регулирующих органов создать защитные правила, чтобы уменьшить потенциальные риски и обеспечить безопасность уязвимых пользователей.

#ИИ #ЭтикаИИ

ИИ & Право

12 Nov, 10:04


Илон Маск возглавит политику США в области ИИ?

В США запустили кампанию за то, чтобы Илон Маск сыграл ведущую роль в формировании политики страны в области искусственного интеллекта. Американская организация по ответственным инновациям (Americans for Responsible Innovation, ARI) инициировала петицию с призывом к избранному президенту Трампу назначить Маска специальным советником по вопросам ИИ. ARI, возглавляемая бывшим представителем Демократической партии Брэдом Карсоном, считает, что опыт Маска, как критика, так и разработчика ИИ, позволяет ему содействовать лидерству США в этой области и обеспечить ответственное внедрение технологии. Петиция нацелена на сбор 10 000 подписей.

Несмотря на некоторые опасения по поводу конфликта интересов, ARI считает, что взгляд Маска может внести значительный вклад в политику безопасности ИИ. По словам аналитика ARI Дэвида Робусто, предыдущие призывы Маска к мораторию на развитие ИИ и его участие в создании OpenAI свидетельствуют о приверженности осторожным инновациям.

#ИИ #ИлонМаск #AIPolicy

ИИ & Право

12 Nov, 08:50


Дорогие коллеги, обратите внимание на интересный авторский канал All Things Legal, который мы с удовольствием читаем. Канал посвящен разнообразным вопросам Legal Innovation & Technology. Новости, аналитика, ссылки на полезные ресурсы, обсуждения и семинары - все самое новое в области права и технологий.

ИИ & Право

12 Nov, 07:04


Департамент образования Аляски использовал ложные данные из-за галлюцинации ИИ

Департамент образования и развития Аляски использовал генеративный ИИ для подготовки правил по ограничению использования мобильных телефонов в школах, но ИИ создал не существующие цитаты, которые едва не повлияли на решения Департамента. Эти галлюцинации ИИ оказались недостоверными и вводящими в заблуждение, выявив пробелы в процессах проверки информации пользователями моделей искусственного интеллекта.

Этот случай в очередной раз обращает внимание на то, что на настоящем этапе развития технологии ИИ является хорошим помощником, но не стоит полагаться на предлагаемые им результаты без проверки человеком.

#ИИ

ИИ & Право

11 Nov, 07:04


В ЕС выпущен новый шаблон инструкции по применению систем ИИ высокого риска

Центр знаний по данным и обществу разработал рабочий шаблон инструкции по применению, чтобы помочь поставщикам и пользователям систем ИИ высокого риска соответствовать статье 13 Закона ЕС об ИИ. Шаблон включает необходимые элементы для создания прозрачных и полных инструкций по использованию, адаптированных к специфическому профилю рисков и цели каждой системы ИИ высокого риска.

Поставщики могут использовать шаблон для описания цели системы, её основных характеристик и связанных рисков, обеспечивая соблюдение требований законодательства и предлагая четкое руководство для пользователей.

#ИИ #AIAct

ИИ & Право

08 Nov, 12:30


Уважаемые коллеги, сегодня хотим рассказать вам об онлайн мероприятии X5 Design Meetup #2 | ИИ в дизайне, которое состоится 14 ноября в 16:00.

На встрече спикеры из X5 Tech и Phygital обсудят с гостями, как технологии ИИ помогают проводить исследования, улучшать коммуникационный дизайн и формировать будущее интерфейсов, сохраняя ценность человеческого труда.

Владимир Жаданов, дизайнер программы лояльности «X5 Клуб», выступит с актуальной темой о защите профессии от экспансии ИИ.

Анна Новосельцева, коллега Владимира, расскажет, можно ли сделать ИИ своим главным помощником в проведении исследований с пользой для себя и бизнеса.

Михаил Суворов, ведущий дизайнер X5 Tech, раскроет секреты о том, как автоматизировать процессы создания контента с использованием ИИ и сделать его частью визуальной стратегии.

Олег Юсупов, CEO Phygital, расскажет об усиленном интеллекте и конвергенции XR & ИИ технологий.

Регистрация на встречу доступна здесь.
Событие пройдёт в онлайн формате.

ИИ & Право

08 Nov, 07:04


Всемирный экономический форум выпустил новый отчет об управлении ИИ

Новый отчет Всемирного экономического форума «Управление в эпоху генеративного ИИ» рассказывает о том, как эффективное управление ИИ требует своевременной и стратегической оценки регуляторных рамок, ответственности бизнеса и соблюдения прав человека. Для ответственного использования искусственного интеллекта политикам необходимо оценить, соответствуют ли действующие законы и нормативные акты уникальным рискам, связанным с генеративным ИИ, и обеспечить защиту уязвимых групп в соответствии с международными стандартами в области прав человека.

В отчёте также подчеркивается важность баланса между осторожным регулированием и необходимостью поддержания инноваций. Государствам рекомендуется применять основанное на рисках и гибкое управление, которое сочетает динамику технологий с сохранением надзора и соблюдением прав человека. В конечном итоге цель заключается в создании ИИ-среды, которая поддерживает как общественные интересы, так и экономические инновации через надёжное управление рисками, чёткие правила и соблюдение отраслью общественных ценностей.

#ИИ #AIGovernance #WEFReport #ResponsibleAI #AIandSociety

ИИ & Право

07 Nov, 07:04


IAPP обновила книгу знаний для сертификации AIGP в 2025 году

IAPP представила новую версию AIGP Body of Knowledge (BoK), которая будет актуальна для экзаменов с 2 февраля 2025 года. Обновление делает сертификацию более простой, гибкой и ориентированной на практическое применение.

Количество доменов сокращено до четырех. Новая структура фокусируется на основополагающих принципах, чтобы сертификация соответствовала ключевым мировым правовым стандартам.

Эта обновленная версия акцентируется на реальных задачах, с которыми сталкиваются специалисты в области управления ИИ, а не только на теоретических вопросах. Кроме того, домены III и IV теперь разделяют роли разработчиков и лиц, внедряющих ИИ, что отражает текущие изменения в законодательных нормах и стандартах.

Хороший повод рассказать, что автор нашего канала в этом году не только успешно сдала экзамен и получила сертификат AIGP, но и участвовала в специальных сессиях IAPP, посвященных подготовке вопросов для обновленного экзамена. Немного о том, как готовиться к экзамену, мы писали здесь.

#AIGP #AIGovernance #LegalTech #ResponsibleAI

ИИ & Право

06 Nov, 11:00


Как с помощью ИИ сократить проверку любого договора до нескольких минут

Искусственный интеллект помогает оптимизировать работу с юридическими документами, сокращая время и экономя ресурсы сотрудников. Коллеги из Embedika показали на примерах, как ИИ может автоматизировать проверку договоров, экономя до 70% времени - детали в карточках:

Если хотите узнать больше о том, как ИИ помогает повысить эффективность работы с договорными документами, сэкономить ресурсы и высвободить время для решения стратегических задач — смотрите бесплатную запись вебинара

ИИ & Право

06 Nov, 07:04


ЕС стремится укрепить лидерство в области ИИ через инвестиции и стратегическое управление

Совет ЕС одобрил призыв Европейской счетной палаты повысить амбиции ЕС в сфере ИИ, подчеркнув необходимость увеличения целевых инвестиций и усиления управления. Признавая потенциал ИИ в укреплении глобальной конкурентоспособности Европы, Совет ЕС призывает сосредоточиться на развитии талантов в сфере ИИ и создании экосистемы, основанной на принципах доверия и совершенства.

Кроме того, Совет акцентирует внимание на необходимости учета экологического воздействия ИИ, особенно в повышении энергоэффективности и надежности цепочек поставок оборудования, при разработке политики ЕС в области ИИ.

#ИИ #EUCouncil

ИИ & Право

05 Nov, 07:04


Роберт Дауни-младший выступил против цифрового копирования в Голливуде

Роберт Дауни-младший недавно высказался против создания цифровых копий актеров с помощью ИИ в подкасте «On With Kara Swisher», заявив, что будет судиться с любым будущим голливудским представителем, который попытается воссоздать его образ с помощью ИИ.
Актер, известный своей ролью Железного человека, отметил, что не беспокоится о возможном повторном использовании Marvel его персонажа, поскольку доверяет нынешним руководителям компании. Тем не менее, он категорически против того, чтобы его облик или личность когда-либо воссоздавали с помощью ИИ, даже после его смерти.

«Ты будешь мертв», - заметила журналистка, на что Дауни ответил: «Но моя юридическая фирма по-прежнему будет очень активной».

#AIGovernance #AIEthics

ИИ & Право

04 Nov, 13:03


Уважаемые коллеги, представляем вашему вниманию каналы специалистов, которые интересно и нестандартно рассказывают о юридических нюансах в своих областях. Здесь есть и про ИИ, и про авторское право, и про юридическое обучение, и многое другое, так что полезных материалов более чем достаточно:

Юрист в IT и онлайн-бизнесе
- канал юриста, который рассказывает про правовые нюансы онлайн-бизнеса и IT-проектов, а также делится полезными материалами

КАБИНЕТ ЮРИСТА №1612 - ВХОД БЕЗ СТУКА И ЗАПИСИ | 24/7 | авторский канал судебного юриста из Санкт-Петербурга, с проверенной, актуальной и полезной информацией из мира права

Судебник | Стрюкова Юлия - канал начальника юр отдела крупной российской корпорации: про споры с торговыми центрами, о недвижимости по любви и о жизни в декрете.

Юрист для онлайна Татьяна Таль - для экспертов, частных практиков, малого бизнеса. О том, как обезопасить себя - не попасть на штрафы, правильно оформлять документы, защитить свои продукты, отстоять интересы и не потратить на это лишние деньги, время, нервы.

fall in LAW — канал студентки магистратуры о поиске себя в мире юриспруденции. Оля помогает студентам поступить на лучшие магистерские программы, а также рассказывает о поиске работы без опыта и делится полезными подборками.

Art&Law | авторское право - канал об авторском праве, творчестве и искусстве. Узнаете, как защитить свои права и не нарушить чужие. Участвуйте в опросах, чтобы понять, как применить авторское право на практике.

Карьера юриста - канал карьерного консультанта, руководителя судебного направления крупнейшего маркетплейса Юлии Мешковой о том, как раскрыть свой потенциал и построить карьеру мечты

Налоговый юрист | Евангелина Столярова - канал главного налогового юриста ПСБ, сопровождающего налоговые споры и проверки.

На всё сразу можно подписаться здесь 🔥

ИИ & Право

04 Nov, 07:04


Департамент труда США выпустил новый документ об искусственном интеллекте в трудовой сфере

Департамент труда США опубликовал документ «ИИ и благополучие работников: Принципы и лучшие практики для разработчиков и работодателей». Документ рассматривает восемь ключевых принципов:

1️⃣ Расширение прав и возможностей работников
«Работники и их представители, особенно из малообеспеченных слоев населения, должны быть проинформированы и иметь реальный вклад в проектирование, разработку, тестирование, обучение, использование и надзор за системами искусственного интеллекта для применения на рабочем месте».

2️⃣ Этичное развитие ИИ
«Системы ИИ должны проектироваться, разрабатываться и обучаться таким образом, чтобы защищать работников».

3️⃣ Создание системы управления ИИ и человеческого надзора
«Организации должны иметь четкие системы управления, процедуры, человеческий надзор и процессы оценки систем ИИ для использования на рабочем месте».

4️⃣ Обеспечение прозрачности использования ИИ
«Работодатели должны открыто сообщать работникам и соискателям о системах искусственного интеллекта, которые используются на рабочем месте».

5️⃣ Защита трудовых прав и прав на занятость
«Системы искусственного интеллекта не должны нарушать или подрывать право работников на самоорганизацию, права на охрану здоровья и безопасность, права на оплату труда, а также защиту от дискриминации и преследований».

6️⃣ Использование ИИ для расширения возможностей работников
«Системы искусственного интеллекта должны помогать, дополнять и расширять возможности работников, а также повышать качество работы».

7️⃣ Поддержка работников, пострадавших от ИИ
«Работодатели должны поддерживать или повышать квалификацию работников при переходе на другую работу, связанном с ИИ».

8️⃣ Обеспечение ответственного использования данных работников
«Данные работников, собираемые, используемые или создаваемые системами ИИ, должны быть ограничены по объему и местоположению, использоваться только для поддержки законных целей бизнеса, а также защищаться и обрабатываться ответственным образом».

#AI #AIEthics

ИИ & Право

01 Nov, 07:04


Бывший сотрудник OpenAI заявил о нарушении компанией авторских прав

Бывший исследователь OpenAI, помогавший собирать обучающие данные для ChatGPT, рассказал, что компания использует материалы, защищенные авторским правом, нарушает закон и наносит ущерб экосистеме интернета и контента.

Сучир Баладжи, который покинул OpenAI в августе, заявил, что модели делают полные копии обучающих данных и напрямую конкурируют с создателями оригинального контента. Баладжи работал над обучением GPT-4 и заявил, что использование OpenAI интернет-данных не должно квалифицироваться как «добросовестное использование» (fair use) - аргумент, который приводят многие компании, занимающиеся разработкой ИИ при использовании авторского контента.

#AI #OpenAI #Copyright

ИИ & Право

31 Oct, 07:04


Dow Jones и New York Post подали в суд на ИИ-стартап Perplexity, обвинив его в «массовом» нарушении авторских прав

Компания News Corp's Dow Jones & Co., издатель Wall Street Journal, и New York Post подали в суд на Perplexity - стартап, называющий себя «швейцарским армейским ножом на базе ИИ для поиска информации и любопытства», обвиняя его в нарушении авторских прав.

В иске утверждается, что в июле 2024 года Dow Jones и Post направили Perplexity письмо, в котором «поставили ее в известность о правовых проблемах, возникших в связи с несанкционированным использованием Perplexity работ истцов, защищенных авторским правом, и предложили обсудить потенциальную лицензионную сделку». Однако в Perplexity на письмо не ответили.

В иске содержится требование запретить Perplexity незаконное копирование авторского контента истцов без их разрешения и выплатить компенсацию за нарушение авторских прав «до 150 000 долларов за каждое нарушение, реальный ущерб и прибыль Perplexity за каждое нарушение, включая каждую несанкционированную цифровую копию или другой контент, полученный из авторских работ Dow Jones и NYP Holdings».

#AI #Perplexity

ИИ & Право

30 Oct, 07:04


95% компаний, использующих ИИ, не внедрили системы управления рисками

Недавний отчет от Prove AI и Zogby Analytics рассказывает о критической проблеме в управлении ИИ: 95% компаний до сих пор не внедрили структуры для эффективного управления рисками искусственного интеллекта.

Это происходит несмотря на то, что 96% из более чем 600 опрошенных генеральных директоров, ИТ-директоров и технических директоров из США, Великобритании и Германии уже используют ИИ в своей деятельности и планируют увеличить свои бюджеты на ИИ в следующем году. Основными мотивами являются повышение производительности (82%) и эффективности операций (73%). При этом обеспокоенность по поводу целостности данных и безопасности остается значительным барьером для более широкого использования.

Хотя бизнес-лидеры признают стратегическую ценность ИИ, они также понимают и связанные с ним риски. В отчете указано, что 82% считают управление ИИ важным приоритетом, и большинство стремится к его реализации к лету 2025 года. Необходимость в этом усиливается на фоне развивающегося глобального регулирования ИИ, например вступление в силу Закона ЕС об ИИ. Генеральный директор Prove AI отмечает, что «долгосрочная эффективность инвестиций в искусственный интеллект зависит от разработки комплексных стратегий управления ИИ».

#ИИ #AIGovernance

ИИ & Право

29 Oct, 07:04


Комиссия по ценным бумагам и биржам США урегулировала дело с Destiny Robotics, связанное с несуществующем продуктом на базе ИИ

Комиссия по ценным бумагам и биржам США заключила соглашение с Destiny Robotics после того, как стартап не выполнил свои обещания по выпуску ассистента с ИИ и человекоподобного робота, из-за чего инвесторы потеряли все свои вложенные в стартап средства. Основанная в 2021 году, Destiny Robotics утверждала, что выпустит инновационного голографического домашнего ассистента с ИИ в 2022 году и человекоподобного робота годом позже. Однако, по данным Комиссии, компания так и не разработала жизнеспособный продукт. Вместо этого стартап использовал готовое программное обеспечение для демонстраций, в то время как на самом деле проект был заброшен.

Комиссия также указала на проблемы с прозрачностью, включая тот факт, что генеральный директор компании не раскрыла информацию о своих личных отношениях с одним из ведущих инвесторов во время раунда краудфандинга. Расследование Комиссии показало, что директор использовала $13,000 из средств компании на личные нужды, такие как оплату заявок на поступление в бизнес-школы. Несмотря на заявления о впечатляющем резюме на сайте компании, выяснилось, что у нее не было значительного опыта в технологической отрасли.

История Destiny Robotics служит предупреждением о важности прозрачности, подотчетности и должной осмотрительности в сфере стартапов, работающих с искусственным интеллектом.

#SEC #ИИ

ИИ & Право

28 Oct, 14:01


Как стать частью «Сколково» и открыть для своей компании новые перспективы?
🚀 Не упустите шанс узнать все детали на бесплатном вебинаре от AG-LEGAL

Юридическая компания AG-LEGAL специализируется на сопровождении IT-компаний и технологических стартапов, обеспечивая комплексные юридические услуги в таких направлениях, как защита интеллектуальной собственности, регистрация программного обеспечения, соблюдение правовых стандартов и сопровождение инновационных проектов.

Кстати, сейчас у них проходит серия вебинаров. И уже 30 октября в 12:00 по МСК состоится вебинар «Сколково: как получить и сохранить статус участника».

На вебинаре будет:

— Как правильно подать заявку в Сколково;
— Какие преимущества откроет статус участника;
— Практические советы по сохранению статуса.

Спикеры: юристы и финансовые эксперты AG-LEGAL.

🔗 Присоединяйтесь! Регистрация здесь

ИИ & Право

28 Oct, 08:04


Shoosmiths и Enzai запустили новый сервис для ИИ комплаенса

Британская юридическая фирма Shoosmiths и платформа управления ИИ Enzai объединились для запуска сервиса "AI Comply". Эта новая платформа разработана для того, чтобы помочь бизнесу ориентироваться в сложном регулировании ИИ, сочетая передовые рабочие процессы управления ИИ от Enzai с юридическими консультациями от Shoosmiths. Сервис предлагает комплексное решение для обеспечения соблюдения норм, применяемым к компаниям, использующим технологии искусственного интеллекта.

#AICompliance #AIRegulation #LegalTech #AIGovernance

ИИ & Право

25 Oct, 07:04


Департамент финансовых услуг Нью-Йорка опубликовал руководство по киберрискам, связанным с ИИ

16 октября 2024 года Департамент финансовых услуг штата Нью-Йорк (New York Department of Financial Services, NYDFS) выпустил руководство, в котором обозначены растущие киберриски, связанные с использованием искусственного интеллекта страховыми компаниями и бизнесами, работающими с виртуальной валютой. Руководство фокусируется на таких угрозах, как социальная инженерия, когда дипфейки и другие инструменты ИИ используются для получения конфиденциальной информации и обхода биометрических систем безопасности.

Также поднимается вопрос об усилении кибератак с помощью ИИ, что увеличивает мощность, масштаб и скорость угроз, а также риски утечки или кражи больших объемов непубличных данных. Руководство подчеркивает необходимость интеграции специфических для ИИ аспектов в уже существующие программы оценки рисков, управление поставщиками и практики управления данными.

#Cybersecurity #AICompliance #NYDFS #RiskManagement #AIRegulation

ИИ & Право

24 Oct, 07:04


Мельбурнский юрист попал под профессиональное расследование в связи с использованием ИИ

В Австралии действия юриста из Мельбурна стали предметом проверки со стороны уполномоченного органа по жалобам на юристов после использования ИИ для создания списка судебных прецедентов, что привело к представлению неточной информации в семейном суде.

Во время судебного заседания 19 июля юрист предоставил список прецедентов в ответ на запрос судьи Аманды Хамфрис. Однако, когда судья и ее помощники не смогли подтвердить существование упомянутых дел, юрист признал, что список был подготовлен с помощью юридического программного обеспечения Leap с использованием элементов ИИ, и при этом не были проверены с его стороны.

Несмотря на то, что юрист принес «безоговорочные извинения» и возместил судебные издержки другой стороне, судья Хамфрис направила его дело на расследование. Она подчеркнула важность этой проверки в свете растущего использования инструментов ИИ в юридической практике и отсутствия в Австралии действующих рекомендаций по использованию ИИ в семейном суде.

#AIGovernance #LegalEthics #AIinLaw

ИИ & Право

23 Oct, 07:04


OpenAI опубликовала свою позицию по использованию патентов

OpenAI пообещала использовать свои патенты исключительно в целях защиты. Это обязательство напоминает более ранние заявления других компаний, например, обещание Tesla, что их патенты будут доступны всем. Однако в обещании OpenAI есть существенные оговорки: их обязательство использовать патенты в целях защиты действует только в том случае, если никто не выдвигает претензий или не предпринимает враждебных действий против компании.

Отсутствие четкого определения относительно того, что означает "защита" или какие действия могут считаться "вредными" для OpenAI, оставляет много места для интерпретаций, что может снизить значимость этого обещания.

Критики полагают, что обещание OpenAI может быть скорее пиар-ходом, чем истинным обязательством. По их мнению, OpenAI, похоже, делает ставку на коммерческую тайну для защиты своих самых ценных инноваций в области ИИ, предлагая при этом видимость прогрессивного подхода к использованию патентов.

#AIGovernance #OpenAI #Innovation

ИИ & Право

22 Oct, 13:10


Что не так со статьей Романа Янковского?

В недавней статье Роман Янковский высказал интересные мысли о влиянии ИИ на юриспруденцию. Статья Романа под названием “что не так с ИИ-юристами” имела как сторонников, так и несогласных.
Я решил написать ответ на статью, где постарался развить некоторые из поднятых Романом вопросов и пригласить юридическое сообщество к обсуждению прикладной пользы LLM.

Я решил, что справедливо будет прокомментировать его статью публично.

Дискуссии об ИИ часто сопровождаются антропоморфизацией, приписыванием ему человеческих качеств – от божественных (или чудесных, что обязано сделать жизнь человека лучше и счастливее) до демонических (он нас поработит). Это мешает объективной оценке его возможностей и рисков.

Вместо того, чтобы анализировать каждый конкретный тезис исходной статьи о возможностях и опасностях ИИ, предлагаю сфокусироваться на самом определении искусственного интеллекта. Существует стойкое ощущение, что определение ИИ, на которых базируются многие рассуждения - часто недостаточно верны, и обсуждение вытекающих из него тезисов может оказаться неконструктивным.

В контексте данной статьи под ИИ, а точнее, под большими языковыми моделями (LLM), мы будем понимать системы, обученные на огромном корпусе документов. Они содержат в себе знание о вероятности того следования слов друг за другом, и на основе этого могут подставлять их наиболее вероятном порядке. Это упрощенное объяснение, внутри LLM более сложная математика, но на выходе примерно так это и работает.

Следовательно, нужно обсуждать, как использовать и кого заменит именно такой инструмент в юридической сфере.

Предлагаю немного отвлечься и посмотреть на другие отрасли. Приведу примеры. Wolfram Alpha – поисковик и математический движок, но он не заменил всех математиков в мире. Вместо этого, математики стали более эффективны благодаря появлению таких инструментов, так как освободилось время на обдумывание путей решения задачи с возможностью более быстрой проверки гипотез и проведения расчетов. Аналогично, AutoCAD заменил чертежников, которые умели чертить по ГОСТам, но не проектировали, например, механизмы для машин. Сам инженер, который проектировал эти механизмы, остался. AutoCAD лишь автоматизировал рутинную часть его работы. И с каждым выпуском автоматизирует все большую ее часть, являясь средством автоматического проектирования. То есть он не заменил человека, а взял на себя выполнение части функций, повысив эффективность работы человека.

LLM, упомянутая в статье Романа Янковского, это система, которая "вспоминает" информацию. Если работа юриста заключается только в том, чтобы «вспомнить», какие статьи подходят под решение вопроса, и процитировать их, то такая система юриста заменит. Компьютер делает это уже быстрее. В этом случае LLM мультиплицирует тот опыт, которому ее обучил создатель. В нее заложены определенные механизмы поиска, или, скорее, генерации информации на основе имеющихся данных. Она может делать это на порядки быстрее, чем человек.

Если работа юриста заключается в том, чтобы на основании вопроса и контекста найти среди сотен тысяч похожих ситуаций наиболее часто встречающиеся ответы (при условии, что модель обучена на “правильных” данных), то такие специалисты, возможно, тоже будут заменены.

Но я надеюсь, что юристы не отождествляют себя с людьми, которые просто «вспоминают», что они или их коллеги отвечали по заданной ситуации ранее. Они не только ищут информацию в базах знаний. Если юриспруденция – это просто "вспомнить", найти и процитировать, то, возможно, на этом статью можно закончить. Но нет, ведь “юриспруденция - это не про вспомнить статью или правило”.

Теперь я хочу обратить внимание коллег на фразы из статьи Романа про ИИ, которые могут (не обязательно, но могут) ввести в заблуждение:

ИИ & Право

22 Oct, 07:04


NYT требует от Perplexity прекратить нарушения авторских прав при создании контента, сгенерированного ИИ

The New York Times отправила уведомление о прекращении противоправных действий стартапу по поисковым системам на базе ИИ Perplexity, требуя прекратить использование его контента без разрешения. NYT утверждает, что использование Perplexity их статей нарушает законодательство об авторском праве. Perplexity ранее заверял издателя, что прекратит использование контента NYT, однако, по словам NYT, обещание не было полностью выполнено.

Со своей стороны Perplexity выразила готовность к сотрудничеству с издателями и планирует ответить на уведомление до 30 октября. Это не первый раз, когда NYT принимает активные меры для защиты своих прав: ранее компания подала иски против OpenAI и Microsoft по аналогичным вопросам. Другие СМИ также выражают обеспокоенность по поводу использования их контента Perplexity.

#AI #AIPolicy #Perplexity

ИИ & Право

21 Oct, 12:02


⚡️😎 Eurasian Data Protection Congress 2️⃣0⃣2️⃣4️⃣

🆕EDPC.NETWORK - там вся информация

📌2 дня: 24 и 25 октября 2024 года

⭐️более 50 спикеров

💬более 15 дискуссий

✏️онлайн, запись и трансляции в YouTube и ВК

☀️бесплатно, доступно и обязательно!

Это мероприятие нельзя пропускать прайвасистам!

RPPA.pro | EDPC.network | PPCP.pro

ИИ & Право

21 Oct, 07:04


Закон ЕС об ИИ требует новых навыков от руководителей по защите персональных данных

Рон Де Хесус, главный специалист по вопросам персональных данных в Transcend, в своей статье для The Parliament Magazine анализирует, как Закон ЕС об ИИ меняет правила игры для его профессии (Chief Privacy Officers, CPO). По мнению автора, для соблюдения нового закона от CPO потребуется расширение компетенции за рамки традиционной защиты данных, добавляя обеспечение прозрачности, справедливости, соблюдения авторских прав и безопасности данных в системах искусственного интеллекта. Эти изменения требуют более глубокого понимания алгоритмов ИИ, моделей машинного обучения и автоматизированных систем принятия решений, добавляя к обязанностям CPO новые технические и этические аспекты.

В статье подчеркивается, что влияние уже заметно в таких секторах, как финансы, здравоохранение и электронная коммерция. Чтобы успевать за этими изменениями, компании должны инвестировать в повышение квалификации CPO, и обучать их новым юридическим и техническим навыкам, связанным с искусственным интеллектом.

#AIAct #DataPrivacy #CPO #AIGovernance

ИИ & Право

19 Oct, 12:01


Уважаемые коллеги, обратите внимание на интересный опрос на тему "Отношение к обработке данных и технологиям искусственного интеллекта: взгляд современного пользователя". 👇

ИИ & Право

19 Oct, 12:01


💬Как вы относитесь к сбору персональных данных? Часто ли вы оставляете данные в Интернете? Верите ли результатам, которые выдает искусственный интеллект? Сможете ли отличить работы человека от нейросети?

Ответы на эти вопросы показывают, насколько современный пользователь готов доверять цифровым технологиям.

С командой клуба "Юрист в техносфере" - студентами бакалаврского трека "Технологическая юриспруденция" факультета права НИУ ВШЭ решили провести исследование на тему "Отношение к обработке данных и технологиям искусственного интеллекта: взгляд современного пользователя".

Для получения реальных данных об уровне доверия цифровым технологиям, просим вас пройти анонимный опрос по ссылке

📍Результаты опроса будут использованы при подготовке предложений по совершенствованию модели правового регулирования персональных данных и применения технологий искусственного интеллекта.

🙌Будем благодарны за информационную поддержку данной инициативы🙏

#ВШЭ #рекомендация

ИИ & Право

19 Oct, 07:04


В США начат судебный процесс в связи с использованием ИИ в школьном проекте

В Массачусетсе родители ученика подали в суд на школу после того, как он был наказан за использование искусственного интеллекта при подготовке проекта по обществознанию. Ученик признался, что использовал ИИ для исследовательских целей, но школа все равно наказала его снижением оценки и назначением дополнительных занятий, утверждая, что его действия нарушили школьную политику в отношении ИИ. Родители заявляют, что наказание может причинить «непоправимый ущерб» перспективам ученика при поступлении в университет.

Школьная политика, доведенная до сведения студентов в начале учебного года, запрещает использование инструментов ИИ в заданиях, если это прямо не разрешено. Однако родители считают действия школы несоразмерными и требуют удалить запись о нарушении из личного дела студента и пересмотреть его оценку за проект.

Школа подала ходатайство о прекращении дела, утверждая, что действия ученика нарушали правила. Если стороны не достигнут соглашения, суд рассмотрит дело позже в этом месяце. Этот случай может установить прецедент того, как школы будут реагировать на использование ИИ в будущем.

#ИИ

ИИ & Право

18 Oct, 13:02


Дорогие подписчики! Представляем вашему вниманию подборку юридических каналов, на которые стоит подписаться. В каждом вы сможете найти что-то полезное для себя.

Юрист - надежный компас в мире юриспруденции. Там тебе расскажут: твои права и обязанности и как решить юридические проблемы быстро и эффективно.

Судебный караульный - агрегатор судебной практики: обзоры, аналитика, комментарии.

Арбитражная форензика - канал о том, как юристы побеждают в спорах, связанных с IT-технологиями, при помощи цифровых доказательств. Что спросить в рамках компьютерно-технической экспертизы? Какие ошибки есть в заключении эксперта оппонентов? Как недобросовестные представители обманывают нотариуса при заверении переписки? Как сравнивают программы для ЭВМ и при чем тут опенсорс? И многое другое. IT-мир в постоянном развитии и мы следим за его влиянием на практики доказывания в арбитражных спорах.

Pro права студентов - полезная правовая информация про права студентов и абитуриентов.

Банкротство и точка – это канал о секретах банкротства. Там вы сможете бесплатно найти арбитражных управляющих для ваших задач (консультация, списание долгов, банкротство, защита КДЛ).

Переходите, подписывайтесь и будьте юридически подкованными.

ИИ & Право

18 Oct, 07:04


Анализ от юристов Skadden о прогрессе и пробелах в разработке стандартов в развитие Закона ЕС об ИИ

Европейская комиссия работает над гармонизацией стандартов ИИ на рынке ЕС. Недавний обзор от юридических экспертов Skadden анализирует работу Комиссии по стандартизации. Комиссией поручено организациям CEN и CENELEC разработать европейские стандарты к 30 апреля 2025 года. Эти стандарты направлены на то, чтобы системы ИИ в ЕС были не только безопасными и соблюдали фундаментальные права, но и способствовали инновациям.

Совместный технический комитет CEN-CENELEC (JTC 21) предложил дорожную карту для этих усилий по стандартизации, которая была оценена Совместным исследовательским центром Европейской комиссии. Эта оценка выявила значительные пробелы в существующих международных стандартах, что привело к рекомендациям по разработке дополнительных стандартов для более точного соответствия целям Закона ЕС об ИИ. Хотя некоторые гармонизированные стандарты уже приняты, такие как CEN/CLC ISO/IEC TR 24027:2023 и ISO/IEC 23894:2023, полный набор стандартов может быть готов только к концу 2025 года.

Эта задержка может создать трудности для бизнеса, так как у компаний останется меньше времени на адаптацию перед полным вступлением в силу Закона ЕС об ИИ в августе 2026 года. Для компаний сейчас важно активно следить за этими изменениями, чтобы обеспечить соответствие требованиям и сохранить конкурентное преимущество в условиях меняющегося регулирования искусственного интеллекта.

#AIGovernance #AIStandardisation #AIAct

ИИ & Право

17 Oct, 13:02


Французский — язык прекрасных стихотворений и международного права. Именно поэтому теперь он тоже будет в наших карточках #lawords Обращали ли вы внимание, что на росийском водительском удостоверение заголовок написан на трёх языках: русском, английском и французском!

Давайте разберём несколько базовых терминов ❤️

@law_kick

ИИ & Право

17 Oct, 07:04


В США выпущен доклад об ответственности ИИ и деликтном праве

В США выпущен новый доклад «Ответственность по деликтному праву США за крупномасштабные убытки, причиненные ИИ», который содержит важные инсайты для разработчиков ИИ, политиков и юристов. В докладе рассматриваются юридические риски, с которыми сталкиваются разработчики ИИ, и как существующее деликтное право США может быть адаптировано для лучшего стимулирования ответственного внедрения ИИ.

Авторы подчеркивают, что разработчики ИИ, которые пренебрегают тщательными мерами безопасности, такими как всестороннее тестирование и внедрение надежных защитных мер, могут столкнуться со значительной ответственностью. В докладе также отмечается неопределенность в применении текущего деликтного права к ИИ, включая вариации в юридической интерпретации в разных штатах, что может привести к дорогостоящим судебным разбирательствам.

Доклад призывает законодателей рассмотреть возможность совершенствования правовых рамок ответственности и разработки отраслевых стандартов, способствующих безопасности. Создание четких протоколов безопасности и их внедрение в отрасли помогут сбалансировать инновации и ответственность. Установление ясных юридических ожиданий позволит всем заинтересованным сторонам лучше управлять рисками и одновременно формировать более безопасную среду для ИИ.

#AILiability #TortLaw #ResponsibleAI #AIRegulation

ИИ & Право

16 Oct, 07:04


Австралийский ИИ-помощник может превратить 81 год работы над «холодным» уголовным делом в 30-часовое расследование

Недавние испытания в Великобритании показали, что ИИ может революционизировать подход правоохранительных органов к расследованию нераскрытых дел. Полиция графств Эйвон и Сомерсет тестирует новый инструмент Soze, который способен обрабатывать и анализировать огромные объемы данных—видео, финансовые записи, электронные письма и социальные сети—с поразительной скоростью. В одном из испытаний ИИ проанализировал доказательства по 27 сложным делам всего за 30 часов, что эквивалентно 81 году работы для человека.

Гэвин Стивенс, председатель Национального совета полицейских руководителей, подчеркнул потенциал ИИ в пересмотре «холодных» дел. Он видит, как эта технология помогает следователям справляться с делами, которые ранее казались невозможными из-за огромного объема доказательств. Это может стать критическим подспорьем для полиции, особенно в условиях нехватки ресурсов.

Тем не менее, Стивенс отмечает, что ИИ является мощным инструментом, но не заменой человеческого суждения. По мере того как инструменты ИИ, такие как Soze, становятся более распространенными, их внедрение должно соответствовать общественным ожиданиям и этическим стандартам, чтобы гарантировать, что технологии усиливают, а не заменяют роль полиции в расследованиях.

#ИИ

ИИ & Право

15 Oct, 07:04


Выпущено новое руководство по управлению в эпоху генеративного ИИ

Альянс по управлению ИИ Всемирного экономического форума опубликовал новое руководство "Управление в эпоху генеративного ИИ: 360° подход для устойчивой политики и регулирования." Этот документ предназначен для поддержки политиков в обеспечении баланса между инновациями в ИИ и управлением рисками, разработке национальных стратегий по ИИ и укреплении глобального сотрудничества в области управления ИИ.

В руководстве описан трехступенчатый подход к управлению искусственным интеллектом. Во-первых, предложено «Использование прошлого» путем оценки существующих нормативных актов и выявления пробелов, специфичных для генеративного ИИ. Политикам рекомендуется четко определять ответственность, привлекать заинтересованные стороны из различных секторов и обеспечивать прозрачность моделей ИИ.

Второй этап, «Создание настоящего», предусматривает необходимость сотрудничества между правительствами, промышленностью, гражданским обществом и академическими кругами для укрепления управления ИИ. Это включает предоставление стимулов для ответственного использования ИИ, поддержку крупных компаний и малых и средних предприятий, а также установление четких национальных приоритетов для руководства инвестициями в ИИ.

«Планирование будущего» сосредоточено на гибкости и международном сотрудничестве. В рамках этого предлагается инвестировать в экспертизу в области ИИ, использовать инструменты прогнозирования для предвидения новых рисков и укреплять международное сотрудничество по стандартам ИИ. По мере развития генеративного ИИ, данное руководство нацелено на обеспечение эффективной и адаптивной политики.

#WEF #AIRegulation

ИИ & Право

14 Oct, 07:04


Выпущен германо-французский доклад о возможностях и рисках использования ИИ-ассистентов для программирования

Французское агентство по кибербезопасности и Федеральное ведомство по информационной безопасности Германии опубликовали рекомендации по безопасному использованию ИИ-ассистентов для программирования. В отчете рассматриваются как возможности, так и вызовы, которые приносят эти инструменты в процесс разработки программного обеспечения.

ИИ-ассистенты могут существенно оптимизировать различные этапы разработки. Они отлично справляются с генерацией исходного кода, предоставлением пояснений к коду и даже автоматизацией создания тест-кейсов.

Однако в отчете отмечаются и ключевые проблемы. Например, риск раскрытия конфиденциальной информации через пользовательский ввод. Кроме того, код, сгенерированный ИИ, может отличаться по качеству и часто содержать уязвимости в безопасности. Отчет обращает внимание на то, что ИИ-инструменты не являются заменой опытных разработчиков и требуют строгого контроля.

Согласно отчету, для снижения рисков организации должны проводить всесторонний анализ перед внедрением ИИ-ассистентов, оценивая надежность поставщиков. И, что наиболее важно, сгенерированный код всегда должен быть проверен экспертами для обеспечения безопасности и точности.

#AICodingAssistants #CiberSecurity

ИИ & Право

11 Oct, 07:04


Суд разрешил исследовать конфиденциальный набор тренировочных данных в деле о защите авторских прав при использовании ИИ

В процессе рассмотрения иска о защите авторских прав против OpenAI судья разрешил представителям авторов провести исследование конфиденциального тренировочного датасета OpenAI. Это решение может задать стандарт для проверки обучающих данных в будущих юридических спорах, связанных с контентом, созданным ИИ.

Согласно решению судьи, исследование должно проходить в строго контролируемых условиях — либо в офисе OpenAI в Сан-Франциско, либо в безопасном месте в радиусе 25 миль от него. Для этого должен быть представлен защищенный компьютер без доступа к интернету. В комнате для инспекции запрещены устройства записи, хотя под надзором можно использовать компьютер для заметок. Доступ к данным разрешен только лицам, которые определены судом.

#ИИ

ИИ & Право

10 Oct, 07:04


Белый дом выпустил новые рекомендации по закупке технологий ИИ для федеральных агентств

Белый дом выпустил меморандум Управления по вопросам управления и бюджета (М-24-18). Меморандум содержит рекомендации, как государственные агентства США должны приобретать ИИ-технологии, включая необходимость оказывать особое внимание управлению рисками, поддержке конкуренции и обмену опытом между агентствами. Учитывая, что федеральное правительство США является крупнейшим покупателем в стране — ежегодно тратя более 100 миллиардов долларов на ИТ — влияние этой новой стратегии закупок ИИ будет масштабным.

Документ требует от агентств выявлять контракты, которые могут затрагивать права и безопасность, интегрировать полученный опыт в будущие закупки и поощрять конкуренцию, чтобы избежать зависимости от одного поставщика. Агентства должны начать выявление таких контрактов до 1 ноября, а сроки приведения их в соответствие с рекомендациям продлятся до конца года.

#ИИ

ИИ & Право

09 Oct, 15:01


Первопроходцы искусственного интеллекта удостоены Нобелевской премии

Джеффри Хинтон и Джон Хопфилд совместно удостоены Нобелевской премии по физике 2024 года за их новаторский вклад в машинное обучение и нейронные сети—работу, которая заложила основу для текущего бума в сфере ИИ. Их достижения значительно повлияли на то, как современные модели искусственного интеллекта обучаются и обрабатывают информацию.

Хинтон, известный как «Крестный отец ИИ», разработал методы, позволяющие нейронным сетям учиться на своих ошибках—ключевой элемент в обучении современных моделей ИИ. В то же время Джон Хопфилд, которому сейчас 91 год и который работает профессором в Принстоне, в 1982 году представил модель, имитирующую то, как мозг восстанавливает воспоминания, что оказало глубокое влияние на архитектуру нейронных сетей.

Несмотря на их вклад, оба ученых выражают обеспокоенность по поводу будущего ИИ. Хинтон, покинувший Google в 2023 году, стал активным сторонником осторожного подхода к развитию технологий, подчеркивая потенциальные риски создания систем, которые могут превзойти человеческий интеллект.

#NobelPrize2024 #AILeadership #AIRegulation #MachineLearning

ИИ & Право

09 Oct, 07:04


Художник подал в суд на Бюро по авторским правам США

Художник подал в суд на Бюро по авторским правам США после того, как ему отказали в защите авторских прав на его произведение, созданное с помощью ИИ. В 2022 году Джейсон Аллен использовал Midjourney, сервис генеративного ИИ, чтобы создать произведение под названием "Théâtre D'opéra Spatial" и подал заявку на регистрацию авторских прав. Бюро отклонило его запрос, указав, что работа "не обладает достаточным участием человека в создании, необходимым для защиты авторских прав".

Как определить порог человеческого участия в процессе создания произведений с помощью искусственного интеллекта? Истец в качестве одного из аргументов сравнивает процесс работы с ИИ с работой режиссера, который через пробы и ошибки направляет оператора. Вопросы, которые будут рассмотрены в суде, могут повлиять на будущее регулирование авторских прав при работе с ИИ.

#AICopyright #IntellectualProperty #AIArt #LegalTech #GenerativeAI

ИИ & Право

08 Oct, 07:04


Новый доклад об ИИ в юридической профессии

Международная ассоциация юристов (International Bar Association) и Центр политики в области ИИ и цифровых технологий опубликовали новый доклад о роли искусственного интеллекта в юридической профессии, предлагающий стратегические рекомендации для юридических фирм. Среди прочего, доклад содержит следующие рекомендации:

Стимулирование внедрения ИИ для небольших фирм: Для сокращения технологического разрыва необходимо создавать программы, которые помогут небольшим юридическим фирмам эффективно интегрировать ИИ, чтобы они могли конкурировать с более крупными игроками.

Укрепление управления ИИ: В отчете подчеркивается необходимость разработки всеобъемлющих руководящих принципов в области управления данными, интеллектуальной собственности, безопасности и конфиденциальности, что обеспечит ответственное использование ИИ.

Обновление этических стандартов: По мере того, как ИИ становится неотъемлемой частью юридической практики, необходимо адаптировать этические стандарты, чтобы учитывать уникальные вызовы ИИ, включая надлежащее управление рисками и прозрачность при использовании ИИ для создания материалов.

#ИИ #LegalTech

ИИ & Право

07 Oct, 07:04


Немецкий суд отклонил иск о нарушении авторских прав при использовании ИИ

Региональный суд Гамбурга отклонил иск фотографа Роберта Кнешке против компании LAION,об использовании его фотографий для обучения моделей ИИ без согласия автора. Суд неожиданно постановил, что действия LAION подпадают под условия статьи 60(d) Закона об авторских правах Германии, которая разрешает использование данных для научных исследований.

#РегулированиеИИ #АвторскоеПраво #ПравоИИ #Инновации #LegalTech

ИИ & Право

04 Oct, 07:04


Документы ОЭСР по управлению ИИ, часть 2

➡️ A new dawn for public employment services

➡️ Artificial intelligence and the changing demand for skills in Canada

➡️ Artificial intelligence, data and competition

➡️ Defining AI incidents and related terms

➡️ The impact of AI on productivity, distribution & growth

#AIGovernance #OECD #EthicsInAI #AIRegulation

ИИ & Право

03 Oct, 07:04


ОЭСР опубликовала ключевые документы по управлению ИИ

Недавно ОЭСР выпустила серию аналитических документов на актуальные темы, связанные с искусственным интеллектом. Эти материалы являются ценным ресурсом для всех, кто заинтересован в вопросах управления ИИ. В документах обсуждаются вызовы и возможности, связанные с ИИ, с акцентом на этику, прозрачность и регулирование.

Документы доступны онлайн бесплатно — скачивайте, читайте и вносите свой вклад в формирование будущего управления ИИ:

➡️ Measuring the demand for AI skills in the United Kingdom

➡️ Regulatory approaches to Artificial Intelligence in finance

➡️ The potential impact of AI on equity and inclusion in education

➡️ AI, data governance and privacy

➡️ Using AI to manage min. income benefits & unemployment assist

➡️ Governing with Artificial Intelligence


#ИИ #ОЭСР #ЭтикаИИ #AIGovernance