Machinelearning @ai_machinelearning_big_data Channel on Telegram

Machinelearning

Machinelearning
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
111,021 Subscribers
3,060 Photos
351 Videos
Last Updated 05.03.2025 22:08

Открытые новинки в области машинного обучения и искусственного интеллекта

Машинное обучение (МЛ) и искусственный интеллект (AI) продолжают оставаться в центре внимания как в научных кругах, так и в бизнесе. С каждым годом появляются новые технологии и инструменты, способствующие развитию этих областей, что приводит к значительным изменениям в различных сферах жизни. В последнее время особое внимание уделяется open source проектам, которые предоставляют разработчикам доступ к передовым алгоритмам и библиотекам. Эти проекты призваны облегчить процесс интеграции AI в бизнес и образовательные учреждения, а также помогают стартапам и исследователям быстрее достигать своих целей. В этой статье мы рассмотрим некоторые из самых интересных новинок в области машинного обучения и AI, а также дадим рекомендации по запуску LLLm (Large Language Models) и другим технологиям, которые могут оказаться полезными для практического применения.

Что такое машинное обучение и как оно работает?

Машинное обучение — это подмножество искусственного интеллекта, которое позволяет компьютерам обучаться на основе данных без явного программирования. Вместо того чтобы следовать фиксированным алгоритмам, системы машинного обучения используют статистические методы для анализа данных и выработки прогнозов. Алгоритмы обучаются на основе обучающей выборки, чтобы затем применять полученные знания к новым данным.

Машинное обучение делится на несколько типов: контролируемое, неконтролируемое и полу-контролируемое обучение. В контролируемом обучении используются размеченные данные, в которых известны входные и выходные параметры. В неконтролируемом обучении система должна сама находить закономерности в незнакомых данных, что делает его более сложным, но также и более интересным.

Каковы основные open source проекты в области машинного обучения?

Некоторые из самых популярных open source проектов в области машинного обучения включают TensorFlow, PyTorch, Scikit-learn и Keras. TensorFlow, разработанный Google, предоставляет мощные методы для создания и обучения нейронных сетей, а также для работы с большими объемами данных. PyTorch, в свою очередь, более гибок и удобен для исследователей, что делает его идеальным для разработки и тестирования концепций.

Scikit-learn — это библиотека для обычного машинного обучения на Python, которая предоставляет множество инструментов для классической статистики и обработки данных. Keras — это высокоуровневая библиотека для нейронных сетей, позволяющая быстро и удобно создавать модели, и чаще всего используется вместе с TensorFlow.

Как запустить LLLm и какие инструменты для этого нужны?

Запуск LLLm требует наличия определённых инструментов, таких как GPU для ускорения вычислений, а также библиотек, таких как Hugging Face Transformers, которые содержат предобученные модели для работы с языком. Для начала необходимо установить необходимые библиотеки и окружения, такие как Anaconda или Docker, которые упрощают управление зависимостями.

Следующим шагом будет загрузка предобученной модели и подготовка данных для обучения или тестирования. Hugging Face предлагает простые в использовании интерфейсы, которые позволяют легко интегрировать разные LLLm в ваши приложения. После подготовки данных и модели можно начать процесс обучения или генерации текста.

Какие последние тренды в области AI и машинного обучения?

Одним из главных трендов является применение искусственного интеллекта в различных отраслях, таких как медицина, финансы и транспорт. AI помогает в диагностике заболеваний, анализе финансовых рисков и оптимизации логистики. Также наблюдается рост интереса к Explainable AI (объяснимый AI), который направлен на создание моделей, прозрачных для пользователей.

Другим заметным направлением является использование AI для создания творческого контента, включая создание музыки и графики. Модели, подобные GPT-3, уже продемонстрировали свои способности в создании текстов и даже программного обеспечения. Это открывает новые возможности для креативных профессий и вызывает дискуссии о будущем авторского права.

Каково будущее машинного обучения и искусственного интеллекта?

Будущее машинного обучения и искусственного интеллекта обещает быть многообещающим, с множеством инноваций и внедрений в повседневную жизнь. Ожидается, что AI станет более персонализированным и адаптивным, улучшая пользовательский опыт и предлагая решения, соответствующие индивидуальным потребностям.

Помимо этого, рост интереса к этическим аспектам AI будет определять его развитие. Вопросы, касающиеся приватности данных, предвзятости алгоритмов и их социальной ответственности, будут играть важную роль в будущем. Создание эффективных правовых и этических норм в этой области также станет неизбежной частью нашей жизни.

Machinelearning Telegram Channel

Добро пожаловать на канал Machinelearning! Здесь мы погружаемся в мир машинного обучения, делимся лучшими открытыми новинками из области машинного обучения и больших данных. На канале вы найдете интересные коды, вопросы с собеседований, а также публикуем открытые курсы и гайды для тех, кто хочет погрузиться в эту увлекательную область. Если у вас возникли вопросы или предложения, не стесняйтесь обращаться к администратору канала @haarrp. Присоединяйтесь к нашему сообществу и узнавайте все о машинном обучении!

Machinelearning Latest Posts

Post image

🍏 Apple представила чип M3 Ultra – самый быстрый процессор, когда-либо созданный для Mac.

Новый M3 Ultra дебютировал в Mac Studio и сочетает в себе 32-ядерный CPU (из которых 24 – высокопроизводительные, а 8 – энергоэффективные) с 80-ядерным GPU и поддержкой до 512 ГБ🔥

Этого хватит для 4-битного Deep Seek R1 и еще останется место.

По заявлениям Apple, этот чип работает в 1,5 раза быстрее, чем M2 Ultra, и на 1,8 раза быстрее, чем M1 Ultra.

Цены на M4 Max начинаются в США с $2000 до уплаты налогов. За эти деньги вы получите 36 ГБ объединённой памяти и SSD на 512 ГБ.

А вот M3 Ultra начинается с $4000. Внутри 96 ГБ объединённой памяти и SSD на 1 ТБ.

С M4 удалось добиться таких результатов:
► обработка изображений в Adobe Photoshop в 1,6 раза быстрее в сравнении с Mac Studio с M1 Max и до 2,9 раз быстрее по сравнению с 27-дюймовым iMac с Core i9

► до 2,1 раза выше производительность сборки при компиляции кода в Xcode по сравнению с Mac Studio с M1 Max и до 3,1 раза быстрее по сравнению с 27-дюймовым iMac с Core i9

► производительность ProRes в Compressor до 1,2 раза выше по сравнению с Mac Studio с M1 Max и до 2,8 раз быстрее по сравнению с 27-дюймовым iMac с Core i9

► производительность обработки видео в Topaz Video AI до 1,6 раз выше по сравнению с Mac Studio с M1 Max и до 5 раз быстрее по сравнению с 27-дюймовым iMac с Core i9

С M3 Ultra удалось добиться таких результатов:
► до 16,9 раз быстрее генерация токенов с использованием LLM с сотнями миллиардов параметров в LM Studio по сравнению с Mac Studio с M1 Ultra

► рендеринг сцены до 2,6 раза быстрее в Maxon Redshift по сравнению с Mac Studio с M1 Ultra и до 6,4 раза быстрее по сравнению с 16-ядерным Mac Pro на базе Intel с Radeon Pro W5700X

► до 1,4 раза выше производительность рендеринга видео 8K в Final Cut Pro по сравнению с Mac Studio с M1 Ultra и до 4 раз выше по сравнению с 16-ядерным Mac Pro на базе Intel с Radeon Pro W5700X

@ai_machinelearning_big_data


#apple #Mac #M3Ultra #M4Max

05 Mar, 16:47
7,119
Post image

✔️ OpenAI запускает программу NextGenAI.

OpenAI запускает NextGenAI — совместную программу с 15 НИИ, направленную на ускорение научных прорывов и трансформацию образования с использованием ИИ. OpenAI планирует выделить на финансирование исследований 50 млн. долларов.

Программа объединяет институты в США и за рубежом. Среди партнеров Калифорнийский технологический институт, Гарвардский университет и Массачусетский технологический институт, а также Бостонская детская больница и Бостонская публичная библиотека.

Цель NextGenAI — укрепить связи между академическими кругами и реальным сектором, гарантируя, что преимущества ИИ будут распространены на научные лаборатории и социально значимые проекты.
openai.com

✔️ Китай планирует запустить новую политику по продвижению архитектуры RISC-V.

Китай разрабатывает новую политику по расширению применения архитектуры микросхем с открытым исходным кодом RISC-V в попытке снизить свою зависимость от западных технологий микросхем.

В настоящее время многие учреждения разрабатывают чипы на базе RISC-V, а компании, например, Qualcomm уже создали специальные подразделения для популяризации этой архитектуры. Ожидается, что политика будет представлена ​​в этом месяце, а RISC-V станет альтернативой архитектурам x86 и ARM.
reuters.com

✔️ Stability AI и Arm: генеративный звук теперь на смартфонах и без интернета.

Stability AI в сотрудничестве с Arm представила возможность генерации высококачественных звуковых эффектов и аудиосэмплов прямо на мобильных устройствах, без необходимости подключения к интернету. Это стало возможным благодаря использованию библиотек Arm KleidiAI и технологии Stable Audio Open от Stability AI.

Так время генерации аудио на ARM-устройствах сократилось в 30 раз, с 240 до 8 секунд на процессорах Armv9. Увидеть демонстрацию работы Stable Audio Open можно будет на выставке MWC в Барселоне 3 марта 2025 года.
stability.ai

✔️ Operator от Opera: AI-агенты в браузере.

Opera анонсировала браузер Operator, который сам выполняет задачи пользователя в интернете. Он содержит встроенный ИИ-агент, способный покупать товары, искать информацию и выполнять другие действия по запросу пользователя. Operator также способен управлять подписками и онлайн-аккаунтами - он найдет все активные подписки и предложит отменить ненужные. Operator может автоматически оплачивать счета и загружать банковские выписки.

В отличие от обычных браузеров, Operator анализирует DOM Tree и структуру страницы, чтобы быстро и эффективно выполнять задачи. Пользователь может видеть весь процесс и контролировать его.
Operator скоро станет доступен в рамках программы Opera Feature Drop.
blogs.opera.com

✔️ Amazon готовится выпустить конкурента GPT-o

Amazon разрабатывает новую модель ризонинга - Nova, которая должна составить конкуренцию OpenAI и Anthropic. Релиз Nova запланирован в июне этого года и будет отличаться высокой производительностью и экономической эффективностью.

Amazon ставит перед собой цель войти в топ-5 лучших ИИ-моделей по результатам внешних оценок, с фокусом в задачах, связанных с разработкой программного обеспечения и математическим мышлением. Разработкой занимается команда AGI под руководством Rohit Prasad.
businessinsider.com

@ai_machinelearning_big_data

#news #ai #ml

05 Mar, 06:23
10,323
Post image

🔥 Cohere только что выпустили Aya Vision

Aya Vision 8B и 32B, превосходят конкурентов, включая Llama 3.2 на 90B Vision и Gemini Flash 1.5 8B🚀

> Модель 8B: достигает SOTA в своем классе

> 32B Модель: Превосходит модели в 2 раза большье по размеру,

> Поддерживает 23 языка

> Aya Vision 32B превосходит модели большего размера (например, Llama-3.2 90B Vision, Molmo 72B) с показателями 50%-64% на бенчмарке AyaVisionBench и 52%-72% на mWildVision

> 8B достигает лучших показателей, решая 79%-81% задач, обходя топовые модели своего класса (например, Qwen2.5-VL 7B, Gemini Flash 1.5 8B)

Динамическое изменение размера и токенизацияя: изображения с высоким разрешением делится на тайлы, а Pixel Shuffle сжимает количество токенов в 4 раза, что снижает вычислительные затраты.

Weights: https://huggingface.co/collections/CohereForAI/c4ai-aya-vision-67c4ccd395ca064308ee1484
Post: https://huggingface.co/blog/aya-vision

@ai_machinelearning_big_data

04 Mar, 15:12
12,113
Post image

CogView4-6B – свежая Text2Image
Модель генерации изображений, разработанный командой THUDM.

По качеству она конкурирует с flux/lumina.

Архитектура модели 6B DIT и 9B TextEncoder Демка показывает очень высокое качество следования заданному промпту.

CogView4 поддерживает очень длинный контекст.

Генерирует изображения от 512 до 2048 пикселей.

Ввод на китайском, и на английском.

Лицензия
: Apache 2.0

Model: https://huggingface.co/THUDM/CogView4-6B
Demo: https://huggingface.co/spaces/THUDM-HF-SPACE/CogView4
Github: https://github.com/THUDM/CogView4
Paper: https://arxiv.org/abs/2403.05121

@ai_machinelearning_big_data


#AI #CogView4 #OpenSource #TextToImage

04 Mar, 13:05
11,250