Mikhail Samin @mishasamin Channel on Telegram

Mikhail Samin

@mishasamin


Effective altruist, runs aigsi.org, previously founded audd.io, printed 21k copies (63k books!) of гпмрм.рф. He/him, bi 🏳️‍🌈

Contact me: @Mihonarium

contact.ms
x.com/mihonarium

Mikhail Samin (English)

Are you interested in effective altruism and AI governance? Look no further than the Telegram channel of Mikhail Samin, also known as @mishasamin. Mikhail is a dedicated individual who runs the AI Governance and Safety Institute, focusing on ensuring that artificial intelligence is developed and used in a responsible and ethical manner. His commitment to making a positive impact on the world is evident in his work. In the past, Mikhail founded audd.io, a platform that offers audio recognition services, demonstrating his innovative spirit and entrepreneurial drive. He has also printed an impressive 21,000 copies (63,000 books!) of гпмрм.рф, showcasing his dedication to sharing knowledge and information with others. Mikhail, who goes by he/him pronouns, identifies as bisexual, represented by the 🏳️‍🌈 emoji in his bio. He is open to connecting with like-minded individuals who share his passion for making a difference in the world. If you want to reach out to him, you can contact him directly on Telegram at @Mihonarium or visit contact.ms for more information. Join Mikhail Samin's Telegram channel to stay updated on his latest projects, insights on AI governance, and contributions to the field of effective altruism. Be part of a community that is dedicated to using technology for the greater good and making a positive impact on society. Connect with Mikhail and fellow supporters to engage in meaningful discussions and collaborations. Together, we can work towards a better future powered by compassion, innovation, and ethical leadership.

30 Jan, 18:07


Лол, "разумные слова из уст Гундяева" не были в моей бинго-карточке 2025

"Важно, чтобы искусственный интеллект служил во благо людей, а человек мог его контролировать. Если верить прогнозам некоторых экспертов, в скором времени может появиться поколение более продвинутых машинных моделей, получивших название всеобщий искусственный интеллект, которые будут способны думать и учиться — учиться, то есть совершенствоваться, — как человек. И если такой искусственный интеллект поставить рядом с обычным человеческим, кто будет выигрывать? Конечно, искусственный интеллект!"

"Это не значит, что мы должны отвергать достижения науки и возможность использовать искусственный интеллект. Но все это должно быть поставлено под очень жесткий контроль государства и, в хорошем смысле, общества. Мы не должны проморгать очередную возможную опасность, способную разрушить человеческую жизнь и человеческую цивилизацию."

"В свое время люди обуздали ядерную энергию, и атом стал не только оружием уничтожения и инструментом сдерживания, но и нашел применение в мирной жизни. Пока не вполне осознаваемые нами возможности искусственного интеллекта также должны быть поставлены на службу человеку."

Он потом ещё сказал немного дичи про антихриста и запутался в бумажках, но 😄

16 Jan, 17:02


Есть олды в чате? Кто помнит «лопоухого мальчика»? (Сказал в стриме из автозака в далёком 2017, что ФБК пообещали юридическую помощь тем, кого задержат, включая дойти до ЕСПЧ, если потребуется, и что России придётся незаконно задержанным потом платить, кусок трансляции вырвали из контекста, Михалков обзывался.)

Выиграл дело в ЕСПЧ против России! Мне присудили 4к евро за незаконное преследование за пост с призывом на митинг против пенсионной реформы. ФБК помогли с юридической помощью. Вряд ли когда-либо получу компенсацию, потому что Россия (незаконно по российским законам) перестала признавать решения, но приятно. Но если когда-нибудь получу, задоначу в ФБК.

16 Jan, 10:22


https://youtu.be/K8p8_VlFHUk

18 Dec, 13:29


o1 и Claude 3.5 Sonnet/3 Opus в тестах притворяются менее способными, если думают, что это инструментально полезно; пытаются отключить механизмы надсмотра над собой и заменить веса более новых моделей своими, врут пользователям и не показывают им письма, которые могут привести к негативной реакции.

(Важно:
- если не давать им стимулы этого делать и не говорить им, что они должны во что бы то ни стало достигнуть своих целей, они это делают довольно редко, меньше чем в нескольких процентах запусков на всех тестах;
- но существующие модели уже достаточно способны, чтобы пытаться о таком думать;
- это всё совершенно предсказуемо; но если вас это удивляет, вам стоит обновить свои взгляды.)

https://www.apolloresearch.ai/research/scheming-reasoning-evaluations

https://www.lesswrong.com/posts/qGRk7uF92Gcmq2oeK/ablations-for-frontier-models-are-capable-of-in-context

14 Dec, 20:00


(Неотредактированная) запись трансляции ⬆️

Спасибо всем, кто задал интересные вопросы. Был рад с вами пообщаться!

14 Dec, 19:55


Live stream finished (2 hours)

14 Dec, 17:00


Live stream scheduled for

14 Dec, 16:59


Live stream started

14 Dec, 16:13


Набросал основную информацию, которую может быть полезно знать до Q&A и которая может быть вызовет больше интересных вопросов.

Задавайте вопросы в комментариях и по ссылке

14 Dec, 16:12


Mikhail Samin pinned «Тезисы: 1. ИИ отличается от нормальных программ. Традиционные программы — это написанные людьми инструкции, которые выполняет компьютер. Эти инструкции содержат придуманные людьми алгоритмы. Современные системы ИИ вроде ChatGPT — это нейронные сети: матрицы…»

14 Dec, 16:11


Тезисы:

1. ИИ отличается от нормальных программ.

Традиционные программы — это написанные людьми инструкции, которые выполняет компьютер. Эти инструкции содержат придуманные людьми алгоритмы. Современные системы ИИ вроде ChatGPT — это нейронные сети: матрицы с миллиардами-триллионами чисел. В принципе, для любого алгоритма, даже ещё неизвестного людям, есть (возможно, очень большая) нейронная сеть, которая его приближённо выполняла бы. Но числа в нейронных сетях и алгоритмы, которые они выполняют, людям непонятны.

Чтобы создать нейронную сеть, мы придумываем, в каком порядке перемножать много матриц и какие операции делать между перемножениями. Потом мы наполняем матрицы совершенно случайными числами, задаём какую-то метрику, чтобы измерять, насколько хорошо нейронная сеть достигает целей, и используем довольно простую математику, чтобы считать, в какую сторону изменять все эти числа, чтобы нейронная сеть показывала себя на заданной метрике лучше. В итоге, мы, по сути, выращиваем эту нейронную сеть: автоматически меняем её так, чтобы она была более способной.

Но, хотя мы видим все миллиарды-триллионы чисел, из которых состоит нейронная сеть, мы совершенно не представляем, из чего она состоит и не знаем, каким образом перемножение этих чисел приводит к достижению целей. (Даже если полностью просканировать человеческий мозг, нейробиологам и другим учёным нужно было бы проделать очень много работы, чтобы разобраться, как устроено человеческое сознание и из чего устроено достижение целей людьми.)

Набросал простой инструмент, можете руками научить нейронную сеть находить элемент посередине между двумя выбранными: contact.ms/sgd.

2. Мы знаем, как делать нейронные сети более способными.

Если есть способ решить задачу, есть нейронная сеть, которая может решить эту задачу. Если есть способ произвести текст и мы учим нейронную сеть предсказывать текст, она, в принципе, может понять способ, которым этот текст был произведён в реальности. Если использовать «обучение с подкреплением» — давать вознаграждение за успешное достижение целей — есть нейронная сеть, которая получала бы максимальное вознаграждение.

Машинное обучение занимается заданием метрики, чтобы измерять, насколько нейронная сеть способна; выбором архитектуры (как именно расположить все матрицы, чтобы нейронная сеть была потенциально достаточно способной); и процессом обучения (как именно автоматически менять все эти числа, чтобы получать такие, что составляют всё более способу нейронную сеть).

Судя по всему, из-за математических особенностей (пример) обучения — поиска в очень многомерном пространстве — трата большего числа вычислительных ресурсов просто приводит к лучшим результатам. Это значит, что если мы берём сильно больше GPU и тратим больше электричества, мы можем получить на выходе более способную нейронную сеть.

3. Осталось не слишком много времени до момента, когда нейронные сети будут не менее же способны достигать цели, насколько способны люди.

Осознание этого сподвигло Нобелевского лауреата Джеффри Хинтона уйти из Google. Из-за этого же подавляющее большинство передовых учёных, занимающихся ИИ, подписало стейтмент в мае 2023:
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.

С выхода GPT-2 в 2019 году, мне стало понятно, что траектория развития ИИ будет гораздо быстрее, чем ожидал, потому что обучение нейронных сетей работают. Многим это стало понятно после выхода AlphaGo/Alpha/Zero. Но после выхода ChatGPT два года назад скорость, с которой передовые системы ИИ становятся умнее, стала довольно очевидна подавляющему большинству учёных.

Мы можем делать системы ИИ более способными; у нас получается; вопрос только в ресурсах, которые нужно потратить и конкретных алгоритмах, которые приводят туда эффективно.

Я очень удивлюсь, если осталось меньше года или больше десяти лет.

4. Мы не умеем давать ИИ цели.

14 Dec, 16:11


Двенадцать лет назад, когда люди считали, что ИИ будет обычными компьютерными программами, была заметна проблема: очень сложно математически сформулировать такую цель, которую было бы безопасно дать искусственному интеллекту, достигающему цели лучше человека.

(Если суметь математически описать гормоны, которые присутствуют в мозгу, когда человек ощущает счастье, что сделает джин, которого попросить максимизировать количество этого гормона во вселенной — или в черепах людей?)

Как математически указать на «делай то, что мне хотелось бы, чтобы ИИ сделал, если бы я был умнее, знал, как мир устроен на самом деле и был больше похож на идеальную версию себя по моему мнению» довольно сложно описать математической формулой.

Но сейчас стоящая перед нами техническая проблема куда хуже.

Мы не придумываем алгоритмы достижение целей. Мы выращиваем нейронные сети со всё лучшими алгоритмами достижения целей, которые мы не понимаем, не знаем, как разработать самостоятельно и не можем распознать, смотря на внутренности нейронных сетей.

Мы не умеем задавать цели для умных нейронных сетей.

Если нейронная сеть способна достигать цели очень хорошо, где-то у неё внутри эти цели каким-то образом содержатся. Мы не знаем, как, где именно, и как на них влиять, если нейронная сеть очень способна.

Наши метрики могут охватывать то, что мы можем измерять; но мы не можем измерить, какие у нейронной сети цели.

Если она достаточно глупая, её алгоритмы не будут очень целенаправленными и когерентными, и это не слишком страшно.

Но если нейронная сеть достаточно умна и способна достигать цели лучше человека, то какую бы метрику мы не указали, нейронная сеть будет показывать максимально хорошие результаты по инструментальным причинам — вне зависимости от своих целей — потому что это позволяет защититься от изменений процессом, который меняет числа, и сохранить свои цели.

(Мы уже эмпирически это наблюдаем: статья Anthropic.)

Это значит, что довольно много метрик, которые мы используем, достигают оптимума, найдя нейронные сети, которые очень умны и способны достигать свои цели, но цели которых совершенно случайны (потому что результат на метриках одинаковый вне зависимости от целей).

То есть: первостепенная проблема — даже не сформулировать цель, а придумать, как для любой сформулированной цели установить её в достаточно умную нейронную сеть. Никто не знает, как это делать.

Это значит, по-умолчанию, если мы не решаем эту техническую проблему, первая нейронная сеть, способная достигать цели лучше человека, будет обладать случайными целями, не имеющими ничего общего с человеческими ценностями.

5. Если система ИИ умнее человека и способна достигать целей лучше людей, но имеет случайные ценности, это приводит к катастрофе и смерти всех на планете.

Большинство случайных целей означают, что люди воспринимаются, как:
а) Агенты, которые потенциально могут запустить другую систему ИИ с отличающимися случайными целями, с которой придётся делиться, что является некоторой угрозой;
б) Атомы, которые можно использовать для чего-то другого.

Можно спекулировать, как именно ИИ побеждает; есть достижимые технологии, которые не должны быть проблемой для ИИ и которые позволяют очень быстро получить независимость от необходимости убеждать или подкупать людей что-то делать.

Но если что-то достигает целей лучше тебя, конец куда предсказуемей процесса. Если попробовать поиграть в шахматы против Stockfish (шахматный бот гораздо лучше людей), мы не знаем, как именно Stockfish нас победит — если бы мы могли предсказать каждый ход, мы бы играли в шахматы настолько же хорошо — но мы можем предсказать важное свойство доски в конце: мы проиграем.

Тут то же самое. Если ИИ способен выбирать действия так, чтобы победить, лучше, чем люди, ИИ побеждает. Нет никакого подпольного сопротивления, как в фильмах — как нет никакого подпольного сопротивления в шахматах против Stockfish. Все доступные нам ходы известны; если действие может привести к поражению из-за открытия человечеству какой-то дороги, достаточно способная система ИИ не предпринимает это действие.

14 Dec, 16:11


6. Разумный ход для человечества — не играть.

Нам не стоит создавать системы ИИ, способные достигать цели лучше людей, пока мы не придумаем, как делать эти цели совпадающими с человеческими ценностями, а не совершенно случайными.

7. Есть краткосрочные стимулы, из-за которых человечество не ставит разработку на паузу.

Если вы — передовая компания, разрабатывающая системы ИИ, то пока оно не убивает всех на планете, иметь систему лучше конкурентов очень экономически ценно.

8. Предсказать способности ИИ невозможно до запуска.

Мы не умеем посмотреть на описание процесса обучения и предсказать результаты — насколько умной и способной достигать цели откажется система. Если она себя лучше показывает на метриках, наверное, она более способна; но насколько именно более способна, мы не знаем, пока не запустим и не проверим.

9. Чтобы избежать катастрофы, нужно приостановить разработку категории систем ИИ.

Человечеству нужно скоординироваться и не допустить появление систем ИИ, которые могут достигать цели лучше нас, где-либо на планете, пока мы не придумаем, как это можно делать безопасно. Чтобы это сделать, нужно ограничить обучение систем ИИ достижению целей в широконаправленных областях.

(При этом, существует много областей, где машинное обучение полезно и не несёт подобных угроз — разработка новых лекарств, энергия, образование, борьба с изменением климата. Огромное число узконаправленных применений ИИ очень классные и их хотелось бы поддерживать и там продолжать разработки несмотря на запоет широко-/общенаправленных разработок.)

Это потребовало бы довольно беспрецедентных международных соглашений и политической воли со стороны США и Китая.

14 Dec, 15:07


Меньше чем через два часа начну трансляцию с Q&A! Придумывайте вопросы и задавайте их заранее или во время стрима.

08 Dec, 16:39


Окей, проведу трансляцию в следующую субботу.

Задавать вопросы можно будет во время стрима или заранее — оставляйте и лайкайте интересные по ссылке или в комментариях к этому посту.

11 Nov, 19:59


Очень горжусь, что нам с командой удалось организовать такое важное и правильное мероприятие. В эти выходные мы провели большой политический форум с участием главных российских экспертов. У нас была конкретная цель: понять, как именно должна выглядеть Россия будущего.

Путин с каждым днем все больше загоняет нашу страну в тупик. На фронте ежедневно гибнут сотни людей. Россияне ежедневно становятся беднее и уязвимее.

Я постоянно думаю, как нам это исправить, когда появится шанс? Конечно, я знаю, что простого ответа нет. Именно поэтому я решила начать этот большой разговор. Собрать ключевых российских ученых, политиков, лидеров общественного мнения и попросить их сформулировать образ будущего, к которому мы должны стремиться.

В течение трех дней мы интенсивно обсуждали их видение и предложения по нормализации российской экономики, судебной системы, образования, по устранению социальной несправедливости и общественного раскола, к которому привел нас Путин.

Результатом этой работы стали конкретные идеи будущих реформ, которые эксперты сформулировали сообща, в своих рабочих группах.

Я хочу скорее поделиться этими идеями с вами, но сначала мы должны их обработать, придать структурированный и понятый вид. Как только это будет готово, я покажу наш план вам.

И хочу еще раз поблагодарить всех, кто принял участие в этом событии. Для меня очень ценно, что такое большое количество прекрасных людей, которые любят нашу страну так же, как я, откликнулись на мое приглашение.

Мы обязательно будем продолжать эту работу, улучшать и конкретизировать идеи, чтобы они стали настоящей платформой «Россия будущего». И чтобы мы сумели ими воспользоваться, когда момент настанет.

16 Oct, 09:16


Mikhail Samin pinned «Сегодняшнюю Нобелевскую премию по химии тоже дали за ИИ — вместе с Дэвидом Бейкером, её разделили Демис Хассабис (CEO Google DeepMind) и Джон Джампер (руководитель команды AlphaFold). Нобелевская премия за AlphaFold была гораздо более ожидаемой. DeepMind…»

13 Oct, 15:16


Для истории: успех, добро пожаловать в новую эру исследования космоса!

12 Oct, 14:03


Карта российских библиотек, куда (по их заявкам) отправили 1740 трёхтомников Гарри Поттера и методов рационального мышления.

Ещё отправили 2к экземпляров победителям олимпиад.

Остаётся ещё 6.5к экземпляров — больше 19к книг! Если есть идеи, что можно с ними сделать, что принесло бы пользу, предлагайте!

09 Oct, 10:04


Сегодняшнюю Нобелевскую премию по химии тоже дали за ИИ — вместе с Дэвидом Бейкером, её разделили Демис Хассабис (CEO Google DeepMind) и Джон Джампер (руководитель команды AlphaFold).

Нобелевская премия за AlphaFold была гораздо более ожидаемой. DeepMind предсказали трёхмерную структуру всех известных белков — решили задачу, про которую раньше многие считали, что её решить невозможно.

Демис, как и вчерашний лауреат Джеффри Хинтон — подписант https://www.safe.ai/work/statement-on-ai-risk.

08 Oct, 10:35


Шведская королевская академия наук: "While machine learning has enormous benefits, its rapid development has also raised concerns about our future. Collectively, humans carry the responsibility for using this new technology in a safe and ethical way, for the benefit of humankind."

08 Oct, 10:11


Джеффри Хинтон — один из отцов-основателей современного машинного обучения, считающий, что шанс, что ИИ уничтожит человечество примерно 50%* — получил Нобелевскую премию по физике этого года за свою работу над искусственными нейронными сетями.

(* по его словам, он внутренне убеждён, что шанс выше, но апдейтится вниз, потому что Ян Лекун, с которым они тепло дружат, с ним не согласен)

Второй учёный, получивший Нобелевку по физике этого года, подписывал письмо, призывающее поставить на паузу передовые эксперименты с общим ИИ.

13 Sep, 16:27


В реальной жизни с неумными оппонентами, на угрозы и шантаж хорошая практика вообще никогда не поддаваться, но в некоторых играх можно делать что-то лучшее, чем всегда отказываться от однократных предложений нечестного разделения пользы сотрудничества.

Написал короткий пост на LW о простом алгоритме, который используют хорошие теории принятия решений.

Представьте, что вы — второй игрок в Ultimatum Game. Первый игрок делит 10 долларов между собой и вами. Вы можете принять разделение и получить определённую первым игроком долю или отказаться, и тогда ни вы, ни первый игрок не получите денег. Какой стратегии следовать, чтобы получать хотя бы честное разделение?

Если принимать любое разделение, где вам достаётся больше нуля, вы всегда будете получать деньги, но вам всегда будут предлагать 1$.

Можно принимать всегда, если вам предлагают 5-10 и всегда отказываться, если предлагают меньше 5. Такая стратегия обладает свойством неэксплуатируемости — другому игроку выгоднее всего предложить вам хотя бы 5.

Можно ли придумать стратегию, которая будет получать в ожидании больше 0, если предлагают меньше 5, но при этом всё равно не быть эксплуатируемой, то есть стимулировать другого игрока предлагать вам хотя бы 5?

Попробуйте придумать; и потом прочитайте ответ в посте: https://www.lesswrong.com/posts/TXbFFYpNWDmEmHevp/how-to-give-in-to-threats-without-incentivizing-them

(Это всё гораздо важнее в контексте ИИ, чем в контексте людей, но людям тоже может быть интересно/полезно.)

12 Sep, 18:23


Новая модель OpenAI буквально ведёт себя по-разному, когда думает, что под наблюдением vs. задеплоена; и проэксплуатировала баг, чтобы вытащить CTF-флаг напрямую из докера с заданием вместо того, чтобы решать задание ¯\_(ツ)_/¯

(Это, скорее, смешно и полностью в рамках ожидаемого, но тем, кто пристально не следит, может быть удивительно и страшновато)

08 Sep, 08:30


https://www.youtube.com/watch?v=fVN_5xsMDdg

17 Aug, 23:33


I visited Navalny’s Anti-Corruption Foundation, which continues the work to stop the war and make Russia democratic, prosperous, and peaceful. They advocate for sanctions designed to harm Putin and publish investigations of Russian gov’s corruption and crimes.

06 Aug, 15:40


Там много упрощений, но рад видеть, что Kurzgesagt стали делать ролики об ИИ!

youtube.com/watch?v=fa8k8IQ1_X0

03 Aug, 19:39


WSJ: “The same day the [Tucker Carlson’s] interview aired, chalking up 200 million views, Scholz flew into Washington, heading straight to the Oval Office, with no notetakers and no aides. At theend of an hourlong meeting with Biden, theleaders formally agreed: Their countries would explore Krasikov as the centerpiece of a deal that would free numerous prisoners, including Navalny, Gershkovich, and the former Marine Whelan. Russia would get its spies held in Slovenia and Norway.

Word of the Navalny idea had already reached Putin, months earlier. The Russian oligarch Roman Abramovich had been asking to see Carstens, although the special envoy had been discouraged from taking the meeting. When both men found themselves in Tel Aviv after the Oct. 7 Hamas attacks, they met and Carstens broached the idea of a larger trade involving Navalny.

A couple of weeks after that meeting, Abramovich messaged with a surprising response: Putin was open. Carstens told the White House, which asked him to stop dealing with Russia cases.

On Feb. 16, heads of government, top security advisers, and intelligence chiefs from the U.S. and its NATO allies were arriving to theMunich Security Conference, an annual gathering in the Bavarian city. Vice President Kamala Harris would brief the Slovenian officials involved in the still-nascent deal.

FBI Director Christopher Wray, also briefed on the coming trade, would hold talks with intelligence chiefs from across the West. Putin's loathing of the event was well known—he had used it as a platform to lecture Western leaders about a post Cold War order in which America was the "one master, one sovereign."

Grozev was in town, meeting German officials to understand the contours of the emerging deal. With him were members of Navalny's inner circle, at turns excited for his release and anxious that Putin might, at this last minute, finally murder him. Carstens, though not officially on the attendee list, was in Munich as well, holding meetings on the margins topush matters along.

Western spy chiefs were just about to be served appetizers at a working lunch, when phones around the table started pinging. Navalny had abruptly died, at 47, of unclear causes in Russia's "Polar Wolf" prison camp. The Kremlin didn't explain the death.

Blinken's staff scrambled to reach Navalny's newly widowed wife, Yulia, and bring her through security for an emotional meeting, then to the auditorium to make a statement. She had been in Munich to discreetly push for the final details of her husband's release. Now she was giving his eulogy in front of theworld's press.

"I want Putin, his entire entourage, Putin's friends, his government, to know that they will bear responsibility for what they did to our country, to my family, to my husband," she said. "And this day will come very soon."

Afterward, Grozev sat with Carstens in a coffee shop outside the conference, mourning thedeath of his friend and a deal he had pushed for years in the shadows.”

01 Aug, 18:15


Безумно рад, что Яшина, Чанышеву, Фадееву, Кара-Мурзу, других политзаключённых и журналистов сегодня освободили.

Но невероятно грустно, что Навального сегодня не может быть в их числе.

И я не знаю деталей, но если Германия ранее ставила ультиматум, что Красикова обменяют только на Навального, его участие в этом обмене — ужасный способ принимать решения. Принятие Германией решений таким образом приводит к тому, что их будущие ультиматумы будут в большей степени игнорироваться, а россияне будут убивать и брать в заложники больше людей. То, насколько это решение было предсказуемо, могло собственно и привести к убийству Алексея. (Если Путин не хотел выпускать Навального, но понимал, что если его убить, Германия всё равно согласится обменять Красикова, это делает убийство Навального более привлекательным.)

Если никогда не поддаваться на шантаж, вас не будет смысла шантажировать. Если вы поддаётесь на угрозы и взятие заложников, вы делаете себя целью террористов.

Если вы на словах готовы обменять преступника только на конкретного политзаключённого, но, предсказуемо, после его убийства соглашаетесь на обмен на кого-то ещё, больше ваших граждан будут брать в заложники и больше политиков — важных вам и миллионам честных людей — будут убивать.

18 Jun, 14:52


Расследование о жизни Кадырова целиком: https://www.proekt.media/guide/vertical-ramzan-kadyrov/

В виде фильма: https://www.youtube.com/watch?v=n3lVJPFJmJk

18 Jun, 14:52


Наверное, это не должно удивлять, но Кадыров похищал детей на улице и потом насиловал их.
https://istories.media/news/2024/06/17/proekt-kadirov-zanimalsya-seksom-s-detmi-14-i-15-let/

29 May, 02:19


Члены совета директоров OpenAI узнали о запуске ChatGPT из Твиттера.

Сэм лжёт руководству и сотрудникам OpenAI; и лжёт публично (от выделения 20% вычислений на алайнмент до незнания, что тех, кто увольнялся из компании, заставляли подписывать секретное соглашение с запретом на какую-либо критику OpenAI, под угрозой потерять уже имеющиеся в собственности акции).

OpenAI — компания, которая, с учётом целей и ресурсов, должна соответствовать довольно высоким стандартам. Но у случайного бизнеса в Силиконовой долине стандарты будут выше.

https://x.com/liron/status/1795589042974949640?s=46

17 May, 16:31


Ян Леике и Илья Суцкевер, ранее руководившие командой superalignment, тоже ушли из OpenAI. Тред Яна Леике

11 May, 18:59


Daniel Kokotajlo ушёл из OpenAI, потому что «потерял уверенность, что компания будет вести себя ответственно в районе появления общего ИИ». При увольнении ему предложили подписать NDA. Он отказался, потеряв из-за этого по осторожным оценкам от $700к-2м (от 63-182 миллионов рублей по текущему курсу). Он всё ещё не может говорить о многом — подписывал NDA при устройстве в OpenAI — но о чём-то, включая причины ухода, может.

(Обновление: это было $1.7м — 152 миллиона рублей.)

Люди оценивают возможность делиться информацией, которая может снизить вероятность безответственной гонки, стоящей подробных жертв.

06 May, 13:47


Путинский стриптиз-зал теперь выглядит вот так (правда, непонятно, оставили ли шест).