Уже завтра, 20 февраля, Cloud․ru проведет вебинар, на котором расскажет про DBaaS и покажет:
Еще есть время зарегистрироваться
Если вы увлечены областью Data Science и хотите быть в курсе всех последних тенденций и новостей, то канал "Data Science" - это то, что вам нужно! Этот канал предлагает широкий спектр информации по темам Data Science, машинного обучения, искусственного интеллекта, а также программирования на Python. Здесь вы найдете ссылки на другие полезные каналы, где можно узнать больше о машинном обучении, искусственном интеллекте, и программировании. Не упустите возможность быть в курсе всех последних новостей из мира Data Science! Присоединяйтесь к нам прямо сейчас и расширьте свои знания в этой увлекательной области. По всем вопросам обращайтесь к @haarrp.
19 Feb, 16:04
18 Feb, 11:26
14 Feb, 16:43
12 Feb, 06:03
09 Feb, 08:22
08 Feb, 10:35
08 Feb, 09:01
07 Feb, 07:40
06 Feb, 09:56
05 Feb, 15:01
05 Feb, 09:02
04 Feb, 12:44
31 Jan, 15:23
31 Jan, 08:03
28 Jan, 14:03
25 Jan, 06:04
23 Jan, 10:04
23 Jan, 08:04
22 Jan, 13:41
22 Jan, 11:37
22 Jan, 09:03
20 Jan, 14:00
20 Jan, 09:31
20 Jan, 08:21
19 Jan, 15:55
19 Jan, 05:09
15 Jan, 08:01
15 Jan, 07:04
08 Jan, 09:05
07 Jan, 15:17
06 Jan, 16:04
01 Jan, 11:51
26 Dec, 16:24
21 Dec, 12:01
21 Dec, 10:25
20 Dec, 15:02
20 Dec, 09:00
19 Dec, 12:00
18 Dec, 14:02
18 Dec, 11:58
15 Dec, 09:14
13 Dec, 17:11
13 Dec, 15:01
12 Dec, 18:37
10 Dec, 15:01
10 Dec, 13:47
09 Dec, 06:09
07 Dec, 09:05
03 Dec, 16:00
03 Dec, 11:02
03 Dec, 09:01
02 Dec, 13:02
30 Nov, 13:30
30 Nov, 11:30
29 Nov, 16:01
29 Nov, 11:01
29 Nov, 09:01
27 Nov, 08:00
26 Nov, 12:01
26 Nov, 10:00
23 Nov, 13:41
22 Nov, 08:00
20 Nov, 20:57
19 Nov, 15:14
19 Nov, 12:01
18 Nov, 22:02
18 Nov, 10:05
17 Nov, 12:11
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_name = "infly/OpenCoder-8B-Instruct"
model = AutoModelForCausalLM.from_pretrained(model_name,
torch_dtype=torch.bfloat16,
device_map="auto",
trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
messages=[
{ 'role': 'user', 'content': "write a quick sort algorithm in python."}
]
inputs = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt")
outputs = model.generate(inputs, max_new_tokens=512, do_sample=False)
result = tokenizer.decode(outputs[0][len(inputs[0]):], skip_special_tokens=True)
15 Nov, 09:41
14 Nov, 10:10
14 Nov, 08:02
13 Nov, 10:01
11 Nov, 18:53
11 Nov, 15:00
11 Nov, 12:06
11 Nov, 10:05
SELECT *
FROM subscribers
WHERE channel_name = 'datascienceiot'
AND technical_skills IN ('SQL', 'Airflow', 'MapReduce', 'DataLens')
AND data_driven_approach = true
AND analytical_mindset = true
AND years_of_experience >= 2
AND fit = true;
05 Nov, 19:25
31 Oct, 08:01
30 Oct, 10:00
30 Oct, 08:00
28 Oct, 16:01
27 Oct, 16:32
27 Oct, 14:32
25 Oct, 13:01
24 Oct, 10:41
22 Oct, 15:29
22 Oct, 08:00
16 Oct, 09:26
15 Oct, 10:01
14 Oct, 16:01
14 Oct, 14:01
14 Oct, 08:00
13 Oct, 13:09
12 Oct, 09:49
11 Oct, 17:01
11 Oct, 15:00
11 Oct, 08:00
10 Oct, 12:00
10 Oct, 10:01
08 Oct, 12:02
08 Oct, 10:02
24 Sep, 09:46
21 Sep, 12:25
20 Sep, 18:02
20 Sep, 09:12
20 Sep, 08:12
18 Sep, 18:02
18 Sep, 15:41
16 Sep, 15:05
16 Sep, 08:03
11 Sep, 10:03
11 Sep, 10:03
10 Sep, 10:04
10 Sep, 07:05
09 Sep, 10:03
08 Sep, 13:04
02 Sep, 07:44
30 Aug, 15:52
20 Aug, 16:34
15 Aug, 08:31