Машины уже не просто предсказывают, но и понимают нас лучше, чем люди.
Время от времени наука обнаруживает что-то столь важное, что это ставит перед нами более фундаментальные вопросы, чем те, что оно призвано решить. Новая работа по синтезу на LLM когнитивных моделей, — один из таких примеров.
• На первый взгляд, это всего лишь очередной шаг в попытке объяснить поведение человека и животных.
• Однако, при внимательном взгляде, исследование представляет захватывающую иллюстрацию того, насколько мы близки к созданию новых типов разума, который может не только моделировать реальность, но и наделить нас сомнениями относительно самого понятия «человечности».
Ключевые идеи и выводы
Солиднейший коллектив 17 авторов (Google DeepMind, Max Planck Institute, Princeton Neuroscience Institute и др.) утверждает, что использование методов синтеза программ на основе LLM, а именно их применения к задаче предсказания поведения людей, крыс и мушек, позволяет создать более точные и интерпретируемые когнитивные модели, чем те, что делают люди.
Эти программы могут значительно улучшить наше понимание того, как принимаются решения в условиях ограниченной информации. Примечательно, что открытые программы не только превосходят традиционные методы, но и сохраняют свою «читаемость»: они легко поддаются анализу, имеют информативные переменные и даже комментарии.
Это потрясающе, поскольку открывает не просто новую научную парадигму, а может позволить экспериментально вскрыть черный ящик мышления биологического типа разума – животных и людей.
Наиболее значимым выводом является то, что ИИ, вооруженный методами синтеза программ, может не только повторить, но и качестрвенно превзойти людей в решении самой сложной и манящей задаче человечества – понять, что такое наш разум.
Кроме того, это достижения подрывают и саму концепцию «научной мысли как человеческого исключительного дара». ИИ может стать не просто инструментом, но и активным участником научной работы. Но в этой идее скрыта ещё одна, более тревожная: можем ли мы, как человечество, контролировать процесс, который мы сами начинаем?
Перспективы
Если предположить, что эта работа — лишь начальный этап на пути к созданию более совершенных когнитивных моделей, то перед нами раскрывается несколько захватывающих, но и опасных горизонтов.
Прежде всего, мы должны наконец признать, что стоим на пороге создания искусственного разума, который способен моделировать и прогнозировать человеческое поведение не просто как набор алгоритмов, а как нечто более сложное и непредсказуемое.
Если сегодняшние системы уже могут предсказать простые поведенческие реакции, то что произойдет, когда мы научим их распознавать тончайшие нюансы человеческого сознания, его скрытые импульсы и желания?
Представьте себе программу, которая не просто предсказывает поведение в определенной задаче, а может адаптироваться, изменять свои гипотезы и даже выявлять скрытые связи, которые остаются вне досягаемости человеческого разума. В такой ситуации, мы не просто будем наблюдать за поведением ИИ, но и начнем задаваться вопросом:
• Кто контролирует эти программы?
• Мы ли остаемся главными «авторами» решений, или же ИИ, под видом синтеза, выстраивает свою логическую структуру, полностью отличную от той, что мы закладывали в неё?
Эти размышления, на первый взгляд, звучат как философский парадокс, но именно они подталкивают нас к важнейшему вопросу:
• Как мы будем взаимодействовать с машинами, которые начнут видеть и понимать мир так, как мы не в состоянии?
• И чем такое взаимодействие может закончится?
Эта работа открывает не только новые возможности, но и новые проблемы.
• Где граница, за которой машина «переосмыслит» наши предположения о сознании и восприятии?
• Что, если ИИ-разум будет так отличаться от нашего, что станет для нас абсолютно непостижимым?
• На каком уровне мы окажемся зависимыми от ИИ-разума?
#LLMvsHomo