Dernières publications de PHYGITAL BUSINESS (@phygitalbusiness) sur Telegram

Publications du canal PHYGITAL BUSINESS

PHYGITAL BUSINESS
Внутренняя кухня
Основной канал https://t.me/PHYGITALCREATIVE

Metaverse, Web3, DAO, NFT, DeFi, GameFi в Phygital-мире

Цифры, кейсы, привлечения средств, стратегии, концепции

Автор:
Олег Юсупов @olegyusupov

https://linktr.ee/phygitalism
1,094 abonnés
1,912 photos
313 vidéos
Dernière mise à jour 06.03.2025 13:36

Le dernier contenu partagé par PHYGITAL BUSINESS sur Telegram

PHYGITAL BUSINESS

07 Feb, 16:53

54

https://cryptonoshi.com/product-category/crypto-cards/
PHYGITAL BUSINESS

07 Feb, 14:21

53

🤖 Amazon инвестирует $100 млрд в развитие ИИ — ранее стало известно, что Google планирует потратить $75 млрд в 2025 году на ИИ, а Meta выделяет $65 млрд на расширение своей ИИ-инфраструктуры.

@DeCenter
PHYGITAL BUSINESS

07 Feb, 10:30

56

Если вы уже забыли, то еще полтора года назад к компаниям, разрабатывающим AI-модели, было подано несколько групповых исков от имени ряда авторов книг про незаконное использование их произведений для обучения LLM моделей. Теперь в иске к Meta появился неожиданный поворот — компания не просто скачивала контент из "теневых библиотек", но и активно пыталась скрыть свои действия. Внутренние документы и переписка показывают, что компания прекрасно понимала сомнительность своих действий.

Исследователи Meta работали в "стелс-режиме", намеренно избегая использования корпоративных серверов, чтобы скрыть следы скачивания. Майкл Кларк, один из руководителей проекта, признал в показаниях, что они специально минимизировали "сидирование" — раздачу файлов другим участникам торрент-сети.

Особенно пикантно выглядят новые данные на фоне предыдущих показаний Марка Закерберга, утверждавшего, что не имел отношения к решению использовать LibGen для обучения AI. Внутренняя переписка показывает, что решение было принято после "предварительной эскалации к MZ".

Meta продолжает настаивать, что использование книг подпадает под доктрину "добросовестного использования". Однако попытки скрыть источник данных и минимизировать цифровые следы заставляют усомниться, что компания сама верила в законность своих действий.


https://arstechnica.com/tech-policy/2025/02/meta-torrented-over-81-7tb-of-pirated-books-to-train-ai-authors-say/
PHYGITAL BUSINESS

06 Feb, 14:18

65

Google выпустила три новые модели ИИ-модели

Корпорация Google представила сразу три новых модели на базе искусственного интеллекта:

- Gemini 2.0 Pro Experimental: Самая мощная модель с 2 млн токенов контекста. Подходит для обработки больших запросов и сложных задач.
- Gemini 2.0 Flash Thinking Exp: Экспериментальная модель, способная «размышлять», анализировать и предоставлять более точные ответы на сложные вопросы.
- Gemini 2.0 Flash-Lite: Легкая и быстрая модель, разработанная для эффективного выполнения задач с минимальным использованием ресурсов.

Все эти модели доступны для бесплатного тестирования в Google AI Studio.

Airdrops | News | WaitingRoom
PHYGITAL BUSINESS

06 Feb, 12:57

62

https://www.bvp.com/atlas/part-iv-ten-principles-for-building-strong-vertical-ai-businesses?utm_source=linkedin&utm_medium=social&utm_campaign=GBB020525
PHYGITAL BUSINESS

06 Feb, 12:17

61

https://www.linkedin.com/posts/rakeshgohel01_the-next-gen-ai-agent-stack-is-already-here-activity-7292549999609974784-lvWK?utm_medium=ios_app&utm_source=social_share_send&utm_campaign=copy_link
PHYGITAL BUSINESS

30 Jan, 18:41

51

Кайфовый репорт, рекомендую всем для насмотренности!

https://gamma.app/docs/a16z-AI-Voice-Update-2025--ttkorld8iy6wfnj
PHYGITAL BUSINESS

30 Jan, 14:34

60

Отчет от a16z про голосовых агентов.

Интересно, что сделано на gamma.app

"Начнем с того, что мы считаем голос одним из самых больших открытий для ИИ. За последние шесть месяцев мы стали свидетелями огромных шагов вперед со стороны моделей. Задержки и надежность теперь в значительной степени решены, а прерывистость и эмоциональность также достигли больших успехов. Голосовой искусственный интеллект теперь почти соответствует человеческим стандартам, позволяя технологиям заменить работу по телефону. В результате произошел взрыв стартапов, создающих приложения на основе этих моделей. Только в Y Combinator было представлено 90 проектов голосовых агентов. Многие из них ориентированы на конкретные вертикали - по отраслям (например, бытовые услуги, стоматология) или функциям (например, рекрутинг, поддержка клиентов) - и быстро масштабируются!

В большинстве случаев мы видим, что голос - это wedge, а не продукт. Большинству компаний необходимо задействовать смежные рабочие процессы: передавать данные о звонках в CRM, автоматизировать последующие действия и т. д.

Что мы ищем в стартапах голосовых агентов:
- Работают в отрасли, где телефон является предпочтительным или обязательным средством связи или имеет гораздо более высокий процент успеха по сравнению с другими способами
- Звонки ограничены - как по длительности, так и по формату/результату
- Голосовой агент обеспечивает снижение затрат на 50%+ при одинаковом с человеком проценте успеха
- Звонки являются "жизнью или смертью" для клиента - они заплатят значительные деньги, чтобы их совершили или ответили на них... но не для конечного потребителя
- При продаже на SMB/среднем рынке агентский продукт имеет простую интеграцию. При продажах на корпоративном рынке сложная интеграция может стать moat!"
PHYGITAL BUSINESS

30 Jan, 06:04

64

Ребята из ARC-AGI протестировали DeepSeek r1 и r1-Zero, получив 15.8% и 14% соответственно. Для сравнения, OpenAI o1 в low compute-режиме показал 20.5%.

Но это не самое интересное.

Главное отличие r1-Zero – отсутствие Supervised Fine-Tuning (SFT), модель обучалась только Reinforcement Learning (RL). То есть не использовались данные, подготовленные людьми. DeepSeek добавили SFT в r1, так как без него r1-Zero смешивала языки и её рассуждения было сложно читать.

Однако ARC-AGI считает, что это не баг, а фича: на их тестах модель работала хорошо, без явной несвязанности.

Их выводы заставляют задуматься:
1. SFT не обязателен для точного пошагового рассуждения (CoT) в верифицируемых областях.
2. RL-обучение позволяет модели создавать собственный предметно-специфический язык (DSL) в пространстве токенов.
3. RL повышает универсальность CoT в разных областях.

Занятное чтиво: https://arcprize.org/blog/r1-zero-r1-results-analysis
PHYGITAL BUSINESS

29 Jan, 14:55

70

Microsoft и OpenAI заподозрили DeepSeek в краже данных

Компании Microsoft и OpenAI начали расследование после обнаружения подозрительной активности, связанной с возможным неправомерным извлечением данных из технологического стека OpenAI.

По данным Bloomberg, масштабное скачивание информации через API было зафиксировано в конце 2024 года, что может свидетельствовать о нарушении условий использования сервисов ИИ-гиганта.

Airdrops | News | WaitingRoom