@bigdatai
Новый канал "Big Data AI" - это идеальное место для всех, кто интересуется современными технологиями в области искусственного интеллекта, машинного обучения и анализа данных. Канал предлагает уникальную возможность погружения в мир больших данных и исследований в области искусственного интеллекта.
@haarrp, администратор канала, делится самой актуальной и интересной информацией о вопросах, задаваемых на собеседованиях по Machine Learning, Data Science, Deep Learning и Нейронным сетям. Вы узнаете о последних трендах в этой области, а также сможете задать вопросы и обсудить интересующие темы с опытными специалистами.
Помимо этого, вы найдете ссылки на другие каналы, посвященные анализу данных, машинному обучению и большим данным. Каналы @data_analysis_ml, @ai_machinelearning_big_data и @itchannels_telegram помогут вам расширить свои знания и навыки в сфере программирования и аналитики данных.
Присоединяйтесь к каналу "Big Data AI" прямо сейчас и станьте частью сообщества людей, увлеченных изучением и применением передовых технологий в области искусственного интеллекта и анализа данных.
19 Nov, 14:00
17 Nov, 13:00
16 Nov, 11:00
16 Nov, 09:36
15 Nov, 16:00
15 Nov, 08:56
13 Nov, 09:20
12 Nov, 10:03
12 Nov, 08:01
11 Nov, 17:00
11 Nov, 15:02
11 Nov, 12:08
11 Nov, 10:08
SELECT *
FROM subscribers
WHERE channel_name = 'bigdatai'
AND technical_skills IN ('SQL', 'Airflow', 'MapReduce', 'DataLens')
AND data_driven_approach = true
AND analytical_mindset = true
AND years_of_experience >= 2
AND fit = true;
11 Nov, 07:11
10 Nov, 15:01
09 Nov, 14:00
08 Nov, 10:01
08 Nov, 08:01
07 Nov, 15:32
07 Nov, 14:00
07 Nov, 11:58
from transformers import AutoModelForCausalLM, AutoTokenizer
checkpoint = "HuggingFaceTB/SmolLM2-1.7B"
device = "cuda" # for GPU usage or "cpu" for CPU usage
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
model = AutoModelForCausalLM.from_pretrained(checkpoint).to(device)
inputs = tokenizer.encode("Gravity is", return_tensors="pt").to(device)
outputs = model.generate(inputs)
print(tokenizer.decode(outputs[0]))
07 Nov, 06:29
07 Nov, 04:28
01 Nov, 14:00
31 Oct, 11:01
31 Oct, 09:01
30 Oct, 15:01
30 Oct, 10:53
29 Oct, 14:01
28 Oct, 13:00
27 Oct, 12:00
27 Oct, 10:00
26 Oct, 13:28
# Clone repo
git clone https://github.com/genmoai/models
cd models
# Install using uv
pip install uv
uv venv .venv
source .venv/bin/activate
uv pip install -e .
# Inference with Gradio UI
python3 -m mochi_preview.gradio_ui --model_dir "<path_to_model_directory>"
# Inference with CLI
python3 -m mochi_preview.infer --prompt "%prompt%" --seed 1710977262 --cfg_scale 4.5 --model_dir "<path_to_model_directory>"
26 Oct, 10:00
26 Oct, 08:02
25 Oct, 08:26
24 Oct, 13:19
24 Oct, 12:02
22 Oct, 19:35
22 Oct, 17:46
22 Oct, 15:49
21 Oct, 14:01
20 Oct, 12:01
20 Oct, 10:19
use_mamba_kernels=False
при загрузке модели с помощью AutoModelForCausalLM.from_pretrained
.# Clone repo
git clone https://github.com/Zyphra/transformers_zamba2.git
cd transformers_zamba2
# Install the repository & accelerate:
pip install -e .
pip install accelerate
# Inference:
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
tokenizer = AutoTokenizer.from_pretrained("Zyphra/Zamba2-2.7B-instruct")
model = AutoModelForCausalLM.from_pretrained("Zyphra/Zamba2-2.7B-instruct", device_map="cuda", torch_dtype=torch.bfloat16)
user_turn_1 = "user_prompt1."
assistant_turn_1 = "assistant_prompt."
user_turn_2 = "user_prompt2."
sample = [{'role': 'user', 'content': user_turn_1}, {'role': 'assistant', 'content': assistant_turn_1}, {'role': 'user', 'content': user_turn_2}]
chat_sample = tokenizer.apply_chat_template(sample, tokenize=False)
input_ids = tokenizer(chat_sample, return_tensors='pt', add_special_tokens=False).to("cuda")
outputs = model.generate(**input_ids, max_new_tokens=150, return_dict_in_generate=False, output_scores=False, use_cache=True, num_beams=1, do_sample=False)
print((tokenizer.decode(outputs[0])))
18 Oct, 16:00
16 Oct, 17:09
16 Oct, 16:01
16 Oct, 14:56
# Install miniGRU-pytorch
pip install minGRU-pytorch
# Usage
import torch
from minGRU_pytorch import minGRU
min_gru = minGRU(512)
x = torch.randn(2, 1024, 512)
out = min_gru(x)
assert x.shape == out.shape
# Sanity check
import torch
from minGRU_pytorch import minGRU
min_gru = minGRU(dim = 512, expansion_factor = 1.5)
x = torch.randn(1, 2048, 512)
# parallel
parallel_out = min_gru(x)[:, -1:]
# sequential
prev_hidden = None
for token in x.unbind(dim = 1):
sequential_out, prev_hidden = min_gru(token[:, None, :], prev_hidden, return_next_prev_hidden = True)
assert torch.allclose(parallel_out, sequential_out, atol = 1e-4)
15 Oct, 11:30
15 Oct, 09:23
14 Oct, 17:00
14 Oct, 15:00
14 Oct, 10:00
14 Oct, 08:01
13 Oct, 10:01
13 Oct, 08:19
11 Oct, 16:03
11 Oct, 07:03
10 Oct, 09:07
08 Oct, 18:34
08 Oct, 16:41