Algorithm design & data structure @algorithmdesign_datastructuer Channel on Telegram

Algorithm design & data structure

@algorithmdesign_datastructuer


این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند.

👨‍💻Admin👉 @Se_mohamad

Algorithm design & data structure (Persian)

این کانال برای تمامی علاقه‌مندان به کامپیوتر، مخصوصاً حوزه ساختمان داده‌ها و الگوریتم‌ها، مفید می باشد. آشنایی با ریاضیات مقدماتی، برنامه‌نویسی مقدماتی و پیشرفته و همچنین شی‌گرایی می‌تواند در درک بهتر مفاهیم این درس کمک‌ کند. این کانال به منظور ارتقاء دانش و مهارت‌های شما در زمینه‌ی طراحی الگوریتم و ساختمان داده‌ها ایجاد شده است. اگر به دنبال یادگیری مفاهیم پیچیده و جذاب این حوزه هستید، حتما به این کانال ملحق شوید. ادمین این کانال آماده پاسخگویی به سوالات شما و ارائه مطالب مفید مرتبط با این حوزه می باشد. برای ارتباط با ادمین کانال، می‌توانید از طریق آیدی @Se_mohamad اقدام نمایید.

Algorithm design & data structure

06 Feb, 10:07


Demystifying Long Chain-of-Thought Reasoning in LLMs

paper:https://arxiv.org/abs/2502.03373
code :https://github.com/eddycmu/demystify-long-cot

#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

06 Feb, 06:04


مدل زبانی «هرمز با ۸ میلیارد پارامتر» آمد.
این مدل، یک مدل زبانی کوچک (زیر ۱۳ بیلیون پارامتر) محسوب میشه که بر اساس Command R و روی دیتاست‌هایی که «مانی میرزایی» عزیز در «پلتفرم ماکس» زحمت ساختش رو کشیده بود ترین شده. کل پروسه ترین حدود ۴۰۰۰ دلار و ۵۰ ساعت طول کشیده.
اطلاعات بیشتر شامل روش اجرا و بنچمارک‌ها:
https://github.com/mann-e/hormoz
و دسترسی به مدل:
https://huggingface.co/mann-e/Hormoz-8B

#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

06 Feb, 06:04


آموزش ویدیویی "Dive into LLMs like ChatGPT" از آندری کارپاتی شامل موضوعات زیر است:
- pretraining data (internet)
- tokenization
- neural network I/O
- neural network internals
- inference
- training and inference
...

https://www.youtube.com/watch?v=7xTGNNLPyMI

#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Feb, 06:48


Parameter-Inverted Image Pyramid Networks for Visual Perception and Multimodal Understanding

Github: https://github.com/opengvlab/piip

Paper: https://arxiv.org/abs/2501.07783v1

Dataset: https://paperswithcode.com/dataset/gqa

#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

03 Feb, 22:21


💡 یک پکیج فوق‌العاده برای یادگیری علوم داده و یادگیری ماشین!

👩🏻‍💻 اگر به دنبال منابع جامع و کاربردی در زمینه علوم داده و یادگیری ماشین هستید، این مخزن GitHub هر چیزی که نیاز دارید را یکجا جمع کرده است!

📌 چه چیزهایی در این مجموعه پیدا می‌کنید؟

برگه‌های تقلب کاربردی – نکات کلیدی و مهم، همه در یکجا برای دسترسی سریع.

📚 کتاب‌های ارزشمند – منابعی که وقت گذاشتن روی آن‌ها واقعا مفید است.

سوالات متداول – مباحثی که معمولا مطرح می‌شوند و دانستن آن‌ها می‌تواند درک عمیق‌تری به شما بدهد.

🚀 پروژه‌های عملی – ایده‌هایی که می‌توانید به عنوان پروژه‌های شخصی استفاده کنید و مهارت‌های خود را تقویت کنید.

🎯 در یک کلام: یک مجموعه کامل و منظم برای یادگیری و تقویت مهارت‌هایتان در علوم داده، بدون سردرگمی!

🔗 لینک مخزن را اینجا ببینید: 👇
https://github.com/khanhnamle1994/cracking-the-data-science-interview?tab=readme-ov-file

#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

03 Feb, 22:21


⚠️ انتشارات O'Reilly Media، یکی از معتبرترین ناشران در حوزه‌های برنامه‌نویسی، داده‌کاوی و هوش مصنوعی، ۱۰ کتاب ارزشمند در زمینه علم داده را به صورت رایگان در اختیار علاقه‌مندان قرار داده است.

✔️ برای دسترسی به نسخه‌های آنلاین و PDF این کتاب‌ها، می‌توانید از لینک‌های زیر استفاده کنید: 👇

Python Data Science Handbook
Online
PDF

Python for Data Analysis book
Online
PDF

Fundamentals of Data Visualization book
Online
PDF

R for Data Science book
Online
PDF

Deep Learning for Coders book
Online
PDF

DS at the Command Line book
Online
PDF

Hands-On Data Visualization Book
Online
PDF

Think Stats book
Online
PDF

Think Bayes book
Online
PDF

Kafka, The Definitive Guide
Online
PDF

#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

03 Feb, 19:03


📌 ریاضیات برای یادگیری ماشین

درک عمیق ریاضیات، کلید یادگیری ماشین و علوم داده است. این کتاب مفاهیم پایه‌ای مانند جبر خطی، آمار و حساب دیفرانسیل را پوشش می‌دهد و مسیر ورود به دنیای هوش مصنوعی را هموار می‌کند.

#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

03 Feb, 07:11


🎞 Machine Learning with Graphs: design space of graph neural networks

💥Free recorded course by Prof. Jure Leskovec

📢 بررسی جامع طراحی معماری GNN با GraphGym 🧠📊

در این مقاله، یک بررسی سیستماتیک از طراحی معماری GNN ارائه شده است که شامل سه جنبه کلیدی می‌شود:

فضای طراحی GNN: شامل طراحی درون‌لایه‌ای، بین‌لایه‌ای و تنظیمات یادگیری.
فضای وظایف GNN: همراه با معیارهای شباهت برای انتقال بهترین مدل‌ها بین وظایف مختلف.
روش ارزیابی مؤثر GNN: برای پاسخ به سؤالات مهم طراحی، مانند تأثیر BatchNorm در GNNها.

💡 همچنین، GraphGym به‌عنوان یک پلتفرم کدنویسی معرفی شده است که طراحی معماری GNN را ساده‌تر می‌کند.


Design Space for Graph Neural Networks

📽 Watch

#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

03 Feb, 07:11


🤖 عامل هوش مصنوعی (AI Agent) چیست؟

یک عامل هوش مصنوعی (AI Agent) نرم‌افزاری است که می‌تواند با محیط خود تعامل داشته باشد، داده‌ها را جمع‌آوری کند و از آن‌ها برای دستیابی به اهداف از پیش تعیین‌شده استفاده کند. این عامل قادر است بهترین اقدامات ممکن را برای رسیدن به این اهداف انتخاب کند.

ویژگی‌های کلیدی عوامل هوش مصنوعی:

عملکرد خودکار: یک عامل می‌تواند بدون نیاز به دخالت مداوم انسان اقدامات خود را انجام دهد. البته، در برخی موارد می‌تواند دارای یک حلقه انسانی (Human in the Loop) باشد تا کنترل حفظ شود.

حافظه و دانش: عامل می‌تواند ترجیحات فردی را ذخیره کرده و شخصی‌سازی انجام دهد. همچنین، می‌تواند دانش را ذخیره کرده و پردازش اطلاعات و تصمیم‌گیری را بر عهده بگیرد. مدل‌های زبانی بزرگ (LLM) نیز می‌توانند این وظایف را انجام دهند.

درک و پردازش اطلاعات محیطی: عامل باید بتواند اطلاعات موجود در محیط خود را دریافت و پردازش کند.

#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

30 Jan, 22:08


مقاله‌ی DeepSeek-R1: ارتقای توانایی استدلال در مدل‌های زبانی بزرگ با یادگیری تقویتی که توسط تیم #DeepSeek ارائه شده، بازتاب گسترده‌ای در جامعه‌ی هوش مصنوعی داشته است. 🔥🤖

این پژوهش بر بهبود قابلیت استدلال مدل‌های زبانی بزرگ (LLMs) از طریق یادگیری تقویتی تمرکز دارد. نویسندگان در این کار، چارچوبی نوآورانه به نام DeepSeek-R1 معرفی کرده‌اند که با ایجاد مشوق‌هایی برای فرآیندهای منطقی در حین آموزش، به افزایش توانایی‌های استدلالی LLMها کمک می‌کند. این روش، مدل‌های زبانی را از صرفاً پردازش متن فراتر برده و آن‌ها را قادر می‌سازد تا روش‌های استدلالی پیچیده‌تری را توسعه دهند، که این امر می‌تواند عملکردشان را در طیف وسیعی از کاربردهای پیشرفته بهبود ببخشد. 🚀📚

این رویکرد، بحث‌های فراوانی را در میان پژوهشگران و متخصصان برانگیخته، اما بی‌شک دریچه‌ای تازه به سوی پیشرفت‌های آینده در این حوزه گشوده است. 🌟🔍

Paper:https://arxiv.org/abs/2501.12948


#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

30 Jan, 07:33


ChatGPT Cheat Sheet for Business

#هوش_مصنوعی
📣👨‍💻
@AlgorithmDesign_DataStructuer

Algorithm design & data structure

30 Jan, 07:24


DeepseekAI 🐋

مدل Janus-Pro منتشر شد! این نسخه‌ی پیشرفته از Janus بهبود چشمگیری در درک چندوجهی (Multimodal Understanding) و تولید محتوای بصری دارد.

برتری در رقابت تصویرسازی:
مدل Janus-Pro-7B موفق شد در رتبه‌بندی مربوط به تولید تصویر از متن**، مدل‌های مطرحی مانند **DALL·E 3 از OpenAI و Stable Diffusion از Stability AI را پشت سر بگذارد!

🔍 DeepseekAI با این پیشرفت، گامی مهم در مسیر توسعه مدل‌های هوش مصنوعی چندوجهی برداشته است.

https://github.com/deepseek-ai/Janus/blob/main/janus_pro_tech_report.pdf

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

30 Jan, 07:24


Fast Think-on-Graph: Wider, Deeper and Faster Reasoning of Large Language Model on Knowledge Graph


Github: https://github.com/dosonleung/fasttog

Paper: https://arxiv.org/abs/2501.14300v1

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

28 Jan, 07:33


🚨 دوره آموزشی «هوش تجاری (Business Intelligence)

🟢 مناسب کلیه رشته‌ها و استخدام در #ایران
🟢 مناسب برای مهاجرت شغلی یا تحصیلی به #آمریکا، #اروپا و #استرالیا
👈 آموزش #آنلاین و با موردکاوی‎های واقعی و پروژه

⭐️ مخاطبان:
⏺️ دانشجویان کلیه رشته‌های تحصیلی
⏺️ علاقمندان به تحلیلگری داده و کسب و کار
⏺️ مدیران و کارشناسان شرکتها در تمامی لایه ها

🏛 موسسه آموزش عالی آزاد توسعه
با گواهینامه مورد تایید وزارت علوم، تحقیقات و فناوری

🔔 مشاوره رایگان و مشاهده جزئیات دوره از لینک زیر👇
httb.ir/NCULw
httb.ir/NCULw
httb.ir/NCULw

Algorithm design & data structure

26 Jan, 17:26


تمام Cheat Sheet‌های کاربردی در حوزه‌های یادگیری ماشین، یادگیری عمیق و هوش مصنوعی را یکجا در این مجموعه گردآوری شده است. 📚💡
اگر به دنبال مرجع سریع و جامع برای مفاهیم کلیدی این حوزه‌ها هستید، این مجموعه مناسب شماست.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

26 Jan, 08:53


Transformers 2: Self-adaptive LLMs
نسل دوم مدل‌های ترانسفورمر (Transformers 2 با ویژگی (Self-adaptive) طراحی شده‌اند تا بتوانند عملکرد خود را در شرایط مختلف بهینه کنند. این مدل‌ها از معماری بهبودیافته‌ای استفاده می‌کنند که قابلیت تغییر پارامترها و مقیاس‌پذیری را بر اساس پیچیدگی وظایف دارد. خودتنظیمی در این مدل‌ها، امکان یادگیری بهتر از داده‌های متنوع و ارائه پاسخ‌های دقیق‌تر در زمان واقعی را فراهم می‌کند.



Paper: https://arxiv.org/pdf/2501.06252v2.pdf

Code:
https://github.com/SakanaAI/self-adaptive-llms
https://github.com/codelion/adaptive-classifier

Datasets: GSM8K - HumanEval - MATH
MBPP - TextVQA - OK-VQA - ARC (AI2 Reasoning Challenge)

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Jan, 17:43


مجموعه‌ای گزیده از کاربردهای عوامل هوش مصنوعی در صنایع مختلف که کاربردهای عملی را نمایش داده و به پروژه‌های متن‌باز برای پیاده‌سازی لینک می‌دهد. ببینید چگونه عوامل هوش مصنوعی در حال تحول صنایع مختلف مانند بهداشت و درمان، مالی، آموزش و ... هستند! 🤖

https://github.com/DataSpoof/500-AI-Agents-Projects

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Jan, 08:28


Mamba_State_Space_Model

📢 برای علاقه‌مندان به مدل‌های جایگزین ترانسفورمرها!

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Jan, 08:10


مدل rStar-Math را معرفی می‌کنیم که نشان می‌دهد مدل‌های زبانی کوچک (SLMs) می‌توانند در استدلال ریاضی با مدل‌های بزرگ‌تری مثل OpenAI o1-mini رقابت کنند یا حتی بهتر عمل کنند، بدون نیاز به آموزش از مدل‌های برتر.

این مدل با استفاده از جستجوی درخت مونت‌کارلو (MCTS) و پاداش‌دهی توسط یک SLM، فرآیند تفکر عمیق را شبیه‌سازی می‌کند تا پاسخ‌های بهینه تولید کند.

📌 نکته مهم: rStar-Math بدون نیاز به Distillation، استدلال پیشرفته ریاضی را ممکن می‌سازد و نشان‌دهنده پیشرفت بزرگ در کارایی مدل‌های کوچک است!

https://github.com/microsoft/rStar

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Jan, 08:10


🚀 O3:
نسل جدید هوش مصنوعی با توانایی‌های فراتر از تصور

🔬 مدل O3 به سطحی از درک و پردازش رسیده که می‌تواند مسائلی را حل کند که تنها برندگان جایزه نوبل قادر به فهم آن‌ها هستند. با این پیشرفت، دسترسی به هوش فوق‌العاده دیگر محدود به نخبگان علمی نیست و هر کسی می‌تواند از مدلی استفاده کند که فراتر از توانایی ۹۹.۹۹۹٪ از انسان‌ها عمل می‌کند.

📊 مدل O1-Pro با ضریب هوشی ۱۳۳ استانداردهای جدیدی را در هوش مصنوعی تعریف کرد، و اگر O3 جهشی مشابه پیشرفت از GPT-4 به O1 داشته باشد، برآوردها نشان می‌دهد که این مدل به IQ ۱۴۵ رسیده—سطحی که امکان حل پیچیده‌ترین چالش‌های علمی و فنی را فراهم می‌کند.

🤯 در مقایسه، GPT-2 و GPT-3 به ترتیب در سطح توانایی‌های مغز موش و سگ ارزیابی می‌شدند، در حالی که GPT-4 عملکردی در حد یک دانش‌آموز دبیرستانی داشت و O1 معادل یک دانشجوی کارشناسی ارشد بود. اکنون، O3 به مرزهای نبوغ علمی نزدیک شده است.

🔎 این فناوری هنوز در مرحله بررسی است، اما نشانه‌های آن از تحولی بزرگ در آینده‌ی هوش مصنوعی حکایت دارد.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

09 Jan, 05:38


دوره Generative AI for Beginners از مایکروسافت موضوعات زیر را پوشش می‌دهد:

- Introduction to Generative AI and LLMs
- Exploring and comparing different LLM types
- Understanding Prompt Engineering Fundamentals
- Creating Advanced Prompts
- Building Text Generation Applications
- Building Chat Applications with Generative AI
- Building Low Code Generative AI Applications
- Designing UX for Generative AI Applications

https://www.youtube.com/playlist?list=PLmsFUfdnGr3zAgBMu4l1W713a0W__zAMl

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

09 Jan, 05:38


آیا LLMs می‌توانند کد بهتری بنویسند اگر از آن‌ها بخواهید "کد بهتری بنویسند"؟

به نظر می‌رسد که درخواست از LLMs برای نوشتن کد بهتر، واقعاً منجر به تولید کدهای بهتری می‌شود. همچنین، دیدن اینکه چطور Prompt Engineering می‌تواند برای تولید کدهای بهینه‌تر به کار گرفته شود، جالب است.

در مجموع، LLMs نمی‌توانند جایگزین مهندسان نرم‌افزار شوند، اما دانستن چگونگی و زمان استفاده از آن‌ها برای تولید و بهینه‌سازی کد، یک مزیت بزرگ محسوب می‌شود.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

08 Jan, 07:09


برای یادگیری بیشتر درباره LLM، در اینجا یک اسلاید از Roshan Sharma معرفی شده که در آن می‌توانید مفاهیمی مثل موارد زیر را یاد بگیرید:

👉Emergent abilities in LLMs.
👉Decoder-only architectures.
👉Multi-stage training process.
👉Prompting techniques.
👉Scaling laws for performance.
👉Multimodal capabilities.
👉Safety and efficiency challenges.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

07 Jan, 15:48


جستجوی باینری: سریع، دقیق، و قدرتمند 🔍⚡️

جستجوی باینری (Binary Search) یکی از الگوریتم‌های اساسی و فوق‌العاده سریع برای جستجو در داده‌های مرتب‌شده است. این الگوریتم با کاهش مداوم فضای جستجو به نصف، پیچیدگی زمانی بسیار کارآمدی ارائه می‌دهد:



ایده اصلی 🧠
جستجوی باینری از اصل "تقسیم و حل" (Divide and Conquer) استفاده می‌کند:
1. لیست باید مرتب باشد.
2. عنصر میانی لیست بررسی می‌شود:
- اگر مقدار هدف کوچک‌تر باشد، جستجو به نیمه‌ی چپ محدود می‌شود.
- اگر مقدار هدف بزرگ‌تر باشد، جستجو به نیمه‌ی راست محدود می‌شود.
- اگر عنصر میانی برابر مقدار هدف باشد، مکان آن پیدا شده است!



مزایا 🌟
- سرعت بالا: پیچیدگی زمانی (O(log n))، که برای داده‌های بزرگ بسیار کارآمد است.
- مصرف کم حافظه: نیاز به فضای اضافی ندارد (به جز در نسخه بازگشتی).
- کاربرد گسترده: در دیتابیس‌ها، موتورهای جستجو، و حتی مسائل گرافیکی.



معایب ⚠️
- پیش‌شرط مهم: لیست باید از پیش مرتب‌شده باشد.
- در مقایسه با جستجوی خطی (Linear Search)، در لیست‌های کوتاه ممکن است بهینه‌تر نباشد.
- نسخه بازگشتی ممکن است در داده‌های بسیار بزرگ به دلیل استفاده از پشته دچار محدودیت شود.



پیاده‌سازی جستجوی باینری

نسخه‌ی تکراری (Iterative):
def binary_search_iterative(arr, target):
left, right = 0, len(arr) - 1
while left <= right:
mid = (left + right) // 2
if arr[mid] == target:
return mid
elif arr[mid] < target:
left = mid + 1
else:
right = mid - 1
return -1




نسخه‌ی بازگشتی (Recursive):
def binary_search_recursive(arr, target, left, right):
if left > right:
return -1
mid = (left + right) // 2
if arr[mid] == target:
return mid
elif arr[mid] < target:
return binary_search_recursive(arr, target, mid + 1, right)
else:
return binary_search_recursive(arr, target, left, mid - 1)




مثال کاربردی 📚
فرض کنید لیستی از اعداد مرتب داریم:
[2, 4, 7, 10, 23, 36, 50, 72]
اگر بخواهیم عدد 23 را پیدا کنیم:
1. ابتدا عنصر میانی: (10) → مقدار هدف بزرگ‌تر است → نیمه‌ی راست.
2. عنصر میانی جدید: (36) → مقدار هدف کوچک‌تر است → نیمه‌ی چپ.
3. عنصر میانی جدید: (23) → پیدا شد!



کاربردهای عملی جستجوی باینری 🔧
1. جستجو در دیتابیس‌ها: برای پیدا کردن رکوردهای خاص.
2. الگوریتم‌های مرتب‌سازی: مثل مرتب‌سازی ادغامی و سریع (Merge Sort, Quick Sort).
3. حل مسائل بهینه‌سازی: پیدا کردن ریشه در توابع، جستجو در فضای جواب (Solution Space).
4. کدنویسی رقابتی: برای حل مسائل در ساختار داده‌های مرتب.



پیچیدگی زمانی و مکانی ⏱️
- زمانی: (O(log n)) (در بدترین، بهترین و حالت متوسط).
- مکانی:
- نسخه‌ی تکراری: (O(1))
- نسخه‌ی بازگشتی: (O(log n))به دلیل استفاده از پشته بازگشت).

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

07 Jan, 15:31


📊 معرفی لایبرری TPOT: راهکاری برای یادگیری ماشین خودکار! 🚀
💡 در واقع TPOT یک لایبرری پایتونی قدرتمند برای یادگیری ماشین خودکار (AutoML) است که با استفاده از الگوریتم ژنتیک، پایپلاین مدل‌های یادگیری ماشین را بهینه می‌کند. این ابزار می‌تواند در بسیاری از دیتاست‌ها، دقت بالاتری نسبت به سایر روش‌ها ارائه دهد.

🌟 ویژگی‌های کلیدی TPOT:
بهینه‌سازی پایپلاین: این ابزار با الگوریتم ژنتیک بهترین مدل را برای داده‌های شما انتخاب می‌کند.
سادگی استفاده: فقط با چند خط کدنویسی می‌توانید مدل یادگیری ماشین خود را بسازید.
قابلیت تنظیم پارامترها:
تعداد جمعیت اولیه
نرخ جهش
و سایر تنظیمات الگوریتم ژنتیک به راحتی قابل تنظیم هستند. 🛠
https://github.com/EpistasisLab/tpot/tree/master

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

07 Jan, 15:31


🔥 از صفر تا قهرمانی با VLMs (Vision-Language Models) 🔥

📢 معرفی دوره جدید: "VLMs Zero to Hero"

1️⃣ NLP Fundamentals
2️⃣ CV Fundamentals
3️⃣ Early Vision-Language Models
4️⃣ Scale and Efficiency
5️⃣ Modern Vision-Language Models
https://github.com/SkalskiP/vlms-zero-to-hero

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

07 Jan, 14:31


💥 پذیرفتن اینکه داده‌ها امروز به یه سرمایه‌ی بی‌قیمت تبدیل شدن،

💯 کافیه تا متوجه بشیم شرکت در بوت‌کمپ آموزشی استخدامی تحلیل داده مکتب شریف، یه فرصت استثائی برای اون‌هاییه که میخوان به کمک داده‌ها هم یه بازار کار عالی رو تجربه کنن و هم خیلی زود از رقباشون پیشی بگیرن.🥇

مشاوره و ثبت‌نام ➡️

🧑‍💻 برای کسب اطلاعات بیشتر کافیه به آی‌دی ما پیام بدی! 🔽‌‌‌‌

🆔 @MaktabSharif_Admin
▪️▫️▪️▫️▪️▫️▪️▫️▪️▫️
🌐 وبسایت |💬 کانال تلگرام |🌐 اینستاگرام

#استخدام_با_طعم_آموزش

Algorithm design & data structure

06 Jan, 15:56


💾 LLM Datasets v2.0

🚀 Updated Repository for Phi-4 Inspiration!
یه مجموعه فوق‌العاده از modern, high-quality datasets for post-training، آماده شده که نه‌تنها به درد پروژه‌های آموزشی می‌خوره، بلکه ابزار و مشاوره‌های عالی هم داره.

🔍 این مجموعه، بعد از فیلترینگ قوی، بهترین‌ها رو در ۸ دسته ارائه می‌ده:
1. General Purpose

2. Math
3. Code
4. Instruction Following 🆕
5. Multilingual
6. Agent & Function Calling
7. Real Conversations 🆕
8. Preference Alignment 🆕

💡 اگر در حال تولید datasets هستید یا دنبال داده برای training run بعدی خودتون می‌گردید، حتماً یه نگاهی بهش بندازید! 😎

لینک ریپو: https://github.com/mlabonne/llm-datasets

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

06 Jan, 15:56


📃A Survey of Graph Neural Networks for Social Recommender Systems


📎 https://arxiv.org/abs/2212.04481

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Jan, 21:16


📚 کنفرانس #NeurIPS2024 یکی از معتبرترین رویدادهای هوش مصنوعی و یادگیری ماشین در جهان برگزار شده است!
🔍 امسال، بیش از ۴,۵۰۰ مقاله پژوهشی ارزشمند ارائه شده که شما می‌توانید آن‌ها را به‌صورت تعاملی در یک بصری‌سازی جذاب بررسی کنید.

اگر به حوزه‌های مختلف هوش مصنوعی علاقه دارید، این ابزار می‌تواند بهترین راه برای یافتن موضوعات مورد علاقه‌تان باشد، مثل:

شبکه‌های عصبی عمیق 🧠
مدل‌های زبانی بزرگ (LLMs) ✍️
بینایی کامپیوتر 👁
بهینه‌سازی و الگوریتم‌ها 📈
https://jalammar.github.io/assets/neurips_2024.html

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Jan, 16:20


NeuZip: Memory-Efficient Training and Inference with Dynamic Compression of Neural Networks
اگر به بهینه‌سازی مصرف حافظه در شبکه‌های عصبی و افزایش کارایی مدل‌های بزرگ علاقه دارید، پیشنهاد می‌کنیم مقاله بالا را مطالعه کنید. NeuZip روشی نوآورانه برای فشرده‌سازی وزن‌ها است که علاوه بر کاهش چشمگیر استفاده از حافظه در آموزش و استنتاج، عملکرد مدل را کاملاً حفظ می‌کند.
💡 کد این روش به‌صورت رایگان منتشر شده است!

Paper:https://arxiv.org/pdf/2410.20650
Github:https://github.com/BorealisAI/neuzip

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Jan, 16:07


مهم‌ترین معادلات ریاضی در علم داده!
🎓 10 دوره رایگان ریاضی:https://www.mltut.com/mathematics-for-data-science-free-courses/
1️⃣ Gradient Descent: Optimization algorithm minimizing the cost function.
2️⃣ Normal Distribution: Distribution characterized by mean μ\muμ and variance σ2\sigma^2σ2.
3️⃣ Sigmoid Function: Activation function mapping real values to 0-1 range.
4️⃣ Linear Regression: Predictive model of linear input-output relationships.
5️⃣ Cosine Similarity: Metric for vector similarity based on angle cosine.
6️⃣ Naive Bayes: Classifier using Bayes’ Theorem and feature independence.
....

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Jan, 16:07


مدل‌های زبانی بزرگ مثل ChatGPT می‌توانند در برنامه‌نویسی شما بسیار مفید باشند:

ایجاد رابط‌های کاربری پویا
مدیریت و پردازش حجم زیادی از داده‌های متنی
و بسیاری موارد دیگر!

در این دوره، با مبانی مدل‌های زبانی بزرگ (LLMs) آشنا می‌شوید و یاد می‌گیرید چگونه از آن‌ها در پروژه‌های کدنویسی خود استفاده کنید. 🚀
https://www.freecodecamp.org/news/development-with-large-language-models/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Jan, 08:12


آیا به دنبال شروع قدرتمند سال 2025 با مقالات برتر در زمینه هوش مصنوعی هستید؟

1. Agents Are Not Enough
2. OLMo 2
3. Measuring Higher Level Mathematical Reasoning
4. On the Overthinking of LLMs
5. Memory Layers at Scale
6. 1.58-bit FLUX

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Jan, 08:12


💠 STORM: ابزار هوش مصنوعی دانشگاه استنفورد
🔍 بررسی صدها مقاله در چند ثانیه!
📚 خروجی: مقاله‌ای خلاصه و جامع.
مناسب برای پژوهشگران حرفه‌ای و سریع! 🚀

https://storm.genie.stanford.edu/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Jan, 20:31


🎥 دوره شبکه‌های عصبی از مبانی تا پیشرفته

این دوره شامل ویدئوهای یوتیوب است که در آن‌ها به کدنویسی و آموزش شبکه‌های عصبی می‌پردازیم. نوت‌بوک‌های Jupyter هر جلسه در پوشه lectures ذخیره می‌شوند و تمرین‌ها نیز در توضیحات ویدئو قرار دارند.
https://github.com/karpathy/nn-zero-to-hero/tree/master

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Jan, 08:16


ویدئوهای آموزشی شامل جلسات کامل کلاس دیپ‌لرنینگ دکتر ملک در دانشگاه شهید بهشتی، اکنون در دسترس شماست! این ویدئوها فرصت مناسبی برای یادگیری عمیق مفاهیم و تکنیک‌های پیشرفته در این حوزه را فراهم می‌کنند. 🎥📚💡
https://www.youtube.com/playlist?list=PLzKFqE-aHvMDyfo6wk4jBnAPszrL5XICg

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Jan, 08:16


اگر می‌خواهید کدهای مقاله‌ی Attention is All You Need را بهتر درک کنید، پیشنهاد می‌کنم از لینک زیر استفاده کنید. 🚀
https://nlp.seas.harvard.edu/annotated-transformer/

این منبع، توضیحات اصلی مقاله را به همراه کدهای پایتورچ ارائه کرده و به شما کمک می‌کند مفاهیم را سریع‌تر و دقیق‌تر یاد بگیرید. 🧑‍💻📚

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Jan, 21:39


منابع دانشگاهی رایگان درس هوش مصنوعی :

درس هوش‌مصنوعی پیشرفته
دکتر رهبان استاد دانشگاه شریف
▪️ Aparat Playlist

درس هوش مصنوعی
مدرس دکتر سلیمانی استاد دانشگاه شریف

▪️ درس افزار دانشگاه شریف

درس هوش مصنوعی
دکتر رضوی استاد سابق دانشگاه تبریز

▪️ YouTube Playlist

درس هوش مصنوعی
دکتر محمدی استاد دانشگاه علم و صنعت

▪️ Aparat Playlist

#هوش_مصنوعی #منابع #فیلم #کلاس_آموزشی

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person

Algorithm design & data structure

01 Jan, 21:31


🔍 برترین مقالات هوش مصنوعی ۲۰۲۴

اگر دنبال مقالات برتر AI در سال ۲۰۲۴ هستید، تمامی مقالات هفته به هفته همراه با خلاصه و لینک در یک فایل MD جمع‌آوری شده‌اند.

💡 این فایل را به NotebookLM اضافه کنید تا:
- خلاصه صوتی یا متنی برای هر ماه بسازید.
- با جستجوهایی مثل «مقالات درباره استدلال» مقاله‌های مرتبط را پیدا کنید.

📌 لینک: https://github.com/dair-ai/ML-Papers-of-the-Week/tree/main#top-ml-papers-of-the-week-december-23---december-29---2024

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Jan, 21:22


🔔 نکات برجسته تحقیقات LLM در سال ۲۰۲۴

سال ۲۰۲۴ یکی از پرثمرترین سال‌ها در حوزه تحقیقات هوش مصنوعی و مدل‌های زبانی بزرگ (LLM) بود. برای شروع سال جدید، مقاله‌ای درباره دستاوردهای برتر تحقیقات LLM در این سال آماده شده است. 🌟

این مقاله، مجموعه‌ای از مهم‌ترین پیشرفت‌ها را در زمینه‌هایی چون مدل‌های Mixture-of-Experts و قوانین جدید مقیاس‌بندی LLM بررسی می‌کند. با تمرکز بر نیمه اول سال ۲۰۲۴ (ژانویه تا ژوئن)، در هر ماه یک مقاله برجسته معرفی شده است.


👀 مطالعه این مقاله برای افرادی که به دنبال درک جدیدترین روندها و ایده‌های نوآورانه در حوزه LLM هستند، یک منبع عالی خواهد بود.

🔗 لینک به مقاله:
https://magazine.sebastianraschka.com/p/ai-research-papers-2024-part-1

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Jan, 12:07


🎥 معرفی معماری MAMBA 🚀
🔍 اگر به معماری‌های مدرن و پیشرفته در یادگیری ماشین علاقه دارید، حتماً باید با معماری MAMBA آشنا شوید! 🌟
این معماری با تمرکز بر مدیریت بهینه داده‌ها و مدل‌سازی چندمنظوره توانسته عملکردی بسیار قوی در تحلیل داده‌های بزرگ ارائه دهد. 💡

🧩 MAMBA
دز واقع MAMBA، یک معماری ترکیبی و هوشمند است که به حل چالش‌های پیچیده در پردازش داده‌های متنوع کمک می‌کند. از جمله ویژگی‌های کلیدی آن:
🔹 انعطاف‌پذیری بالا در پردازش داده‌ها
🔹 سرعت بیشتر در یادگیری مدل‌ها
🔹 و افزایش دقت در تحلیل اطلاعات

📲 برای آشنایی بیشتر، ویدیوی کامل رو ببینید 👇
https://youtu.be/N6Piou4oYx8?si=Exl-WkPxFI8MknxO

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Dec, 23:15


💡 آیا مدل‌های هوش مصنوعی واقعاً خلاق هستند؟ بیایید محدودیت‌های آن‌ها و کمبودهایشان را بررسی کنیم.

🧪 مدل‌های LLM و دیگر مدل‌های Generative AI به تشخیص و ترکیب الگوهای موجود متکی هستند، اما در خلق ایده‌های جدید ضعف دارند. برای مثال، generative AI نمی‌تواند مفاهیم انقلابی پیکاسو را بازآفرینی کند، مگر اینکه نمونه‌هایی برای یادگیری در اختیارش قرار گیرد. کسانی که از این مدل‌ها برای ایده‌پردازی استفاده می‌کنند، معمولاً متوجه می‌شوند که پیشنهادات آن‌ها اصالت کافی ندارند.

🔍 مشکل واضح است: این مدل‌ها generalize می‌کنند اما innovate نمی‌کنند. آن‌ها اطلاعات شناخته‌شده را بازآرایی می‌کنند، اما نمی‌توانند مفاهیمی کاملاً جدید تولید کنند، که این همان جوهره‌ی خلاقیت واقعی است.

🛠 راه‌حل: هوش مصنوعی باید یاد بگیرد چگونه ایده‌های جدید کشف و تولید کند، به جای اینکه صرفاً به الگوهای منطقی تکیه کند. در حال حاضر، این مدل‌ها فاقد جنبه‌های chaotic و هنری مغز انسان هستند که نوآوری واقعی را به پیش می‌برد. ادغام مدل‌هایی که قادر به شبیه‌سازی divergent thinking و randomness باشند، می‌تواند به هوش مصنوعی کمک کند از رویکرد منطقی‌محور خود خارج شده و مرزهای خلاقیت را جابه‌جا کند.

👩🏻‍💻 برای متخصصان: این به معنای درک محدودیت‌های هوش مصنوعی در کنار استفاده از نقاط قوت آن است. از آن به عنوان یک همکار استفاده کنید که ایده‌ها را اصلاح و بهبود می‌بخشد، اما بدانید که خلاقیت انسانی همچنان در حوزه‌هایی که نیاز به نوآوری‌های خلاقانه دارند، بی‌رقیب است.

📃 Source:https://thethoughtprocess.xyz/language/en/science-en/computer-science/artificial-intelligence/2024/12/26/artificial-general-intelligence-agi-why-openais-o3-isnt-enough/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Dec, 23:15


کاوش در Multi-Modal Vision-Language Models (VLMs)؟ 🌟
اگر به دنیای هیجان‌انگیز مدل‌های multi-modal vision-language
برای computer vision tasks علاقه‌مندید، پیشنهاد می‌کنم حتماً این منبع از Hugging Face را بررسی کنید:

https://huggingface.co/learn/cookbook/en/fine_tuning_vlm_trl
تجربه‌ای عالی برای گسترش دانش شما در این حوزه!

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Dec, 17:34


📄 Graph Artificial Intelligence in Medicine

📎 Study the paper

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Dec, 11:57


⭕️ معرفی مدل سوم DeepSeek: رایگان و متن‌باز

✔️ این مدل، مشابه ChatGPT، امکان جستجوی وب را فراهم می‌کند و با ویژگی Think Deep توانایی جستجوی عمیق‌تر و دقیق‌تری را ارائه می‌دهد.
در حوزه‌های برنامه‌نویسی و ریاضیات عملکردی بهتر از GPT-4o و Claude Sonnet 3.5 دارد.

### ویژگی‌های فنی کلیدی:
🔸 با ۲.۸ میلیون ساعت GPU آموزش دیده است که نسبت به مدل‌های مشابه، زمان کمتری محسوب می‌شود.
🔸 از رویکردی بهره می‌برد که محاسبات را به طور یکنواخت در لایه‌های MoE توزیع می‌کند، بدون اینکه پیچیدگی محاسباتی بیشتری ایجاد شود.

مدلی قدرتمند برای استفاده گسترده!

https://chat.deepseek.com/sign_in

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Dec, 07:17


انتشار رایگان اپلیکیشن‌های Gradio در Hugging Face Spaces

آیا می‌خواهید مدل‌های یادگیری ماشینی خود را به شکلی تعاملی ارائه کنید؟ 🚀
در واقع Hugging Face Spaces این امکان را به شما می‌دهد تا اپلیکیشن‌های Gradio خود را به‌صورت رایگان منتشر کرده و آن‌ها را با دیگران به اشتراک بگذارید. 🌟
با این پلتفرم، تجربه‌ای ساده و جذاب برای نمایش پروژه‌هایتان خواهید داشت! 🎨

https://pyimagesearch.com/2024/12/30/deploy-gradio-apps-on-hugging-face-spaces/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Dec, 07:17


💡 Natural Language Processing with PyTorch
کتابی جامع برای یادگیری پردازش زبان طبیعی (NLP) با استفاده از PyTorch، یکی از قدرتمندترین فریم‌ورک‌های یادگیری عمیق.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

30 Dec, 17:12


🔹 دسترسی به دوره جامع LLM Agents 🔹

اگر به یادگیری عمیق درباره مدل‌های زبانی بزرگ (LLMs) و کاربردهای پیشرفته آن‌ها در اتوماسیون وظایف، تولید کد، رباتیک و تعامل انسان و ماشین علاقه دارید، می‌توانید به اسلایدها، کویزها و منابع این دوره دسترسی پیدا کنید.

موضوعات کلیدی:
- مبانی LLMها
- ابزارها و زیرساخت‌های LLM Agents
- امنیت، اخلاق و حریم خصوصی

📚 مناسب برای دانشجویان و علاقه‌مندان به هوش مصنوعی!
https://chatgpt.com/c/6772d236-570c-8013-b335-ab1af4f7a7a3

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

30 Dec, 17:12


KAG: Boosting LLMs in Professional Domains via Knowledge Augmented Generation

Paper: https://arxiv.org/pdf/2409.13731v3.pdf

Code: https://github.com/openspg/kag

Dataset: 2WikiMultiHopQA

این مقاله به بررسی چارچوب KAG پرداخته است. KAG یک ابزار قدرتمند برای مدیریت و پردازش اطلاعات به ویژه در حوزه هوش مصنوعی است. این چارچوب به دو بخش اصلی تقسیم می‌شود: KAG Builder که داده‌های خام را به یک پایگاه دانش ساخت‌یافته تبدیل می‌کند و KAG Solver که از این پایگاه دانش برای پاسخگویی به پرسش‌ها و استدلال استفاده می‌کند. کاربردهای KAG شامل سیستم‌های پرسش و پاسخ، چت‌بات‌ها، سیستم‌های توصیه‌گر و خلاصه‌سازی متن است.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

30 Dec, 08:40


💡 دوره‌های رایگان و آنلاین دانشگاه MIT

دانشگاه معتبر MIT دوره‌های آنلاین و رایگانی را در موضوعات مختلف از جمله علوم کامپیوتر و امور مالی ارائه کرده است. این دوره‌ها فرصتی بی‌نظیر برای یادگیری علاقه‌مندان به این حوزه‌ها هستند! 🌟

مزایا:
- دسترسی رایگان به محتوای آموزشی باکیفیت
- یادگیری از اساتید برتر جهان

📜 نکته: شرکت در دوره‌ها رایگان است، اما اگر به گواهی پایان‌دوره نیاز دارید، باید هزینه آن را پرداخت کنید.

📥 لینک دوره‌ها 👇
https://digiato.com/interdisciplinary/mit-online-free-courses

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

29 Dec, 20:38


Deep Dive into Activation Functions


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

29 Dec, 19:13


Large Language Models Course: Learn by Doing LLM Projects

🖥 Github: https://github.com/peremartra/Large-Language-Model-Notebooks-Course

📕 Paper: https://doi.org/10.31219/osf.io/qgxea

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

29 Dec, 19:13


🌟 تحولی بزرگ در هوش مصنوعی: از LLMs به LCMs با متا

متا به‌تازگی یک گام بزرگ در دنیای هوش مصنوعی برداشته و Large Concept Models (LCMs) را معرفی کرده است. این مدل‌ها با تغییر پارادایم رایج در مدل‌های زبانی بزرگ (LLMs)، قابلیت‌هایی جدید و پیشرفته‌ای را ارائه می‌دهند.

🔹 چرا این تغییر مهم است؟
مدل‌های زبانی بزرگ (LLMs) اگرچه در پردازش توکن‌ها عالی هستند، اما در استدلال‌های پیچیده و انسجام در متون بلند دچار محدودیت‌اند. از سوی دیگر، LCMs با تمرکز بر *مفاهیم معنایی* و پردازش در سطح جمله، مشکلات موجود را برطرف کرده‌اند.

ویژگی‌های برجسته LCMs:
1️⃣ برنامه‌ریزی سلسله‌مراتبی: توانایی تولید خروجی‌هایی با ساختارهای دقیق‌تر.
2️⃣ مدیریت متون بلند: پردازش مؤثرتر زمینه‌های طولانی بدون افت دقت.
3️⃣ چندزبانه بودن: پشتیبانی از بیش از 200 زبان بدون نیاز به بازآموزی.

Paper: https://ai.meta.com/research/publications/large-concept-models-language-modeling-in-a-sentence-representation-space/
GitHub:https://github.com/facebookresearch/large_concept_model

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

29 Dec, 06:36


50 سوال کلیدی برای آمادگی در مصاحبه‌های مدل‌های زبان بزرگ (LLM)

🚀 اگر به دنبال موفقیت در مصاحبه‌های تخصصی یادگیری ماشین و هوش مصنوعی هستید، این مجموعه سؤالات بهترین راهنما برای شماست.

🔑 موضوعات پوشش داده شده:

اصول اولیه مثل Tokenization
مفاهیم پیشرفته مانند LoRA
تکنیک‌های به‌روز مثل Chain-of-Thought Prompting
و نکات مهمی که در پروژه‌ها و تحقیقات مدرن استفاده می‌شوند.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

27 Dec, 16:02


25 معادله ریاضی Data Science

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

27 Dec, 16:02


🌟 قدم به قدم به سمت دانشمند داده شدن!

اگر دنبال یه راه مشخص برای ورود به دنیای جذاب علم داده هستین، باید بدونین که این مسیر نیازمند یه برنامه‌ریزی دقیق و کاربردیه. منابع آموزشی زیادی وجود داره، اما چیزی که واقعاً کار شما رو راحت می‌کنه، یه راهنمای منظم و شفافه که نشون بده چی یاد بگیرین و از کجا شروع کنین.

این هندبوک رو حتما ذخیره کنید! یه منبع قدرتمند که هم برای شروع، هم برای مراحل پیشرفته یادگیری علم داده، به دردتون می‌خوره.

https://github.com/andresvourakis/data-scientist-handbook

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

27 Dec, 08:01


🎯 جزوه‌ای برای مرور سریع هوش مصنوعی

یه جزوه خلاصه و کاربردی براتون آماده کردیم که مناسب افرادیه که قبلاً هوش مصنوعی رو خوندن و می‌خوان یه مرور سریع داشته باشن. 🌟
🔻 توجه: این جزوه برای افراد مبتدی پیشنهاد نمی‌شه؛ بهتره اول منابع جامع‌تر رو مطالعه کنید.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

27 Dec, 07:45


اگر به دنبال یک منبع فارسی ساده و روان برای یادگیری عمیق هستید، پیشنهاد می‌کنم حتماً به سایت «هوسم» سر بزنید. این سایت یکی از بهترین منابع فارسی در زمینه یادگیری عمیق است که مفاهیم را به زبانی قابل فهم توضیح داده و برای شروع یادگیری بسیار مناسب است. 🌟

https://howsam.org/free-deep-learning-tutorial/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

27 Dec, 07:45


5 Free Python Courses for Data Science Beginners

1️⃣ Python for Beginners – freeCodeCamp

2️⃣ Python – Kaggle

3️⃣ Python Mini-Projects – freeCodeCamp

4️⃣ Python Tutorial – W3Schools

5️⃣ oops with Python- freeCodeCamp

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

26 Dec, 17:07


🧠 مدل‌های زبانی بزرگ (LLMs) مثل GPT ابزارهایی قدرتمند برای درک و تولید زبان هستند. اما وقتی با قابلیت‌هایی مثل حافظه و ابزارهای مختلف ترکیب شوند، به اوج پتانسیل خود می‌رسند:

𝟭. 𝗟𝗟𝗠𝘀:
این مدل‌ها برای تولید متن و پاسخ به سوالات طراحی شده‌اند، اما تنها به ورودی‌های لحظه‌ای پاسخ می‌دهند و از زمینه طولانی‌مدت بی‌بهره‌اند.

𝟮. 𝗟𝗟𝗠𝘀 + 𝗣𝗹𝗮𝗻𝗻𝗶𝗻𝗴:
با اضافه شدن برنامه‌ریزی، مدل‌ها قادر می‌شوند به‌جای پاسخ‌های تک‌مرحله‌ای، راه‌حل‌های چندمرحله‌ای ارائه دهند و برای اهداف خاص استراتژی طراحی کنند.

𝟯. 𝗟𝗟𝗠𝘀 + 𝗣𝗹𝗮𝗻𝗻𝗶𝗻𝗴 + 𝗠𝗲𝗺𝗼𝗿𝘆:
حافظه، مدل را قادر می‌سازد تا اطلاعات جلسات یا مکالمات طولانی‌مدت را به خاطر بسپارد و تجربه‌ای روان‌تر و کارآمدتر ارائه دهد.

𝟰. 𝗔𝗜 𝗔𝗴𝗲𝗻𝘁𝘀 (𝗟𝗟𝗠 + 𝗣𝗹𝗮𝗻𝗻𝗶𝗻𝗴 + 𝗠𝗲𝗺𝗼𝗿𝘆 + 𝗧𝗼𝗼𝗹𝘀):
اینجا نقطه‌ی اوج ماجراست! مدل‌هایی که علاوه بر برنامه‌ریزی و حافظه، به ابزارهایی مثل APIها، پایگاه‌های داده یا حتی وب دسترسی دارند. این عامل‌ها نه‌تنها پاسخ می‌دهند، بلکه می‌توانند وظایفی مثل تحقیق، تصمیم‌گیری، خودکارسازی فرآیندها یا نوشتن گزارش‌ها را هم انجام دهند.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

26 Dec, 10:33


🚀 معرفی ابزار قدرتمند FlashRAG برای پژوهش‌های پیشرفته RAG

در واقع FlashRAG یک ابزار پایتون حرفه‌ای است که برای بازتولید و توسعه تحقیقات در حوزه Retrieval Augmented Generation (RAG) طراحی شده است. این ابزار با امکانات گسترده، کار پژوهشگران و توسعه‌دهندگان را بسیار ساده‌تر می‌کند.

ویژگی‌های برجسته فلش‌رگ:
۳۲ مجموعه داده بنچمارک پردازش‌شده برای ارزیابی و آزمایش مدل‌های RAG
۱۲ الگوریتم پیشرفته RAG از پیش پیاده‌سازی‌شده با قابلیت بازتولید نتایج
چارچوب انعطاف‌پذیر برای ساخت خطوط پردازشی پیچیده با اجزایی مانند retrievers، rerankers و generators
ابزارهای بهینه‌سازی مانند vLLM و Faiss برای افزایش سرعت و کارایی

https://github.com/RUC-NLPIR/FlashRAG

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

26 Dec, 10:33


حل مسئله در انسان‌ها در مقابل مورچه‌ها 😬😬

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

26 Dec, 06:03


💡 معرفی مدل I-JEPA از Meta 💡

🔍 مدل جدیدی از Meta در Hugging Face Transformers منتشر شده که این بار خبری از LLM یا GenAI نیست! این مدل، I-JEPA نام دارد و بر اساس دیدگاه Yann LeCun طراحی شده تا هوش مصنوعی واقعی‌تری ایجاد کند؛ هوشی که جهان را همانند ما انسان‌ها درک کند.


https://ai.meta.com/blog/yann-lecun-ai-model-i-jepa/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Dec, 20:42


🔥 کاوش در مجموعه داده‌های عظیم - Stanford 🔥

📂 Distributed file system
🔄 MapReduce
📈 PageRank
🔍 Nearest Neighbor Search
📌 Locality Sensitive Hashing
🌸 Bloom Filters
👥 Collaborative Filtering
📊 Clustering
🌳 Decision Trees
... و بسیاری موضوعات جذاب دیگر!

https://www.youtube.com/playlist?list=PLLssT5z_DsK9JDLcT8T62VtzwyW9LNepV

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Dec, 20:42


Transformer Explainer

در واقعTransformer Explainer یک ابزار بصری و تعاملی است که برای درک بهتر عملکرد مدل‌های مبتنی بر Transformer، مانند GPT، طراحی شده است. 🌟 این ابزار، مدل زنده‌ی GPT-2 را مستقیماً در مرورگر شما اجرا می‌کند و به شما این امکان را می‌دهد که با متن‌های خود آزمایش کنید و به‌صورت زنده مشاهده کنید که اجزای داخلی و عملیات Transformer چگونه برای پیش‌بینی توکن‌های بعدی با یکدیگر هماهنگ می‌شوند. 🔍📖

https://poloclub.github.io/transformer-explainer/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Dec, 14:21


هوش مصنوعی بسیار سریع در حال یادگیری است😁

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Dec, 09:43


DEYOLO: Dual-Feature-Enhancement YOLO for Cross-Modality Object Detection

Topic: Object detection

Paper
: https://arxiv.org/pdf/2412.04931v1.pdf

GitHub: https://github.com/chips96/deyolo

معماری DEYOLO برای تشخیص اشیاء در محیط‌های کم‌نور با ترکیب تصاویر RGB و مادون قرمز (IR) طراحی شده است. این مدل از دو ماژول تقویتی DECA و DEPA استفاده می‌کند تا ویژگی‌های معنایی و فضایی هر دو مدالیته را تقویت کرده و تداخل آن‌ها را کاهش دهد. همچنین، با بهره‌گیری از Bi-Directional Decoupled Focus میدان دید شبکه را گسترش می‌دهد. این روش در مقایسه با الگوریتم‌های پیشرفته موجود، عملکرد بهتری در تشخیص اشیاء نشان داده است.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Dec, 09:24


📚 معرفی پروژه Mini-Torch: یک تجربه یادگیری متفاوت در دنیای PyTorch! 🔥

پروژه Mini-Torch یه کتابخونه آموزشی خلاقانه‌ست که توسط دو فارغ‌التحصیل ریاضی از دانشگاه‌های امیرکبیر و مک‌گیل طراحی شده. این کتابخونه، با الهام از PyTorch ساخته شده و قراره فرآیندهای داخلی این کتابخونه محبوب رو به زبان ساده و قابل فهم توضیح بده. 🎓

هدف اصلی Mini-Torch اینه که شما رو با مفاهیم پشت صحنه PyTorch آشنا کنه و اگه این پروژه با استقبال روبه‌رو بشه.

https://github.com/omidiu/Mini-Torch

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Dec, 09:24


🌐 تولید متن به تصویر با GANها

Generative Adversarial Networks (GANs)
انقلابی در زمینه تولید متن به تصویر ایجاد کرده‌اند و امکان ساخت تصاویر واقعی و معنادار را از توضیحات متنی فراهم کرده‌اند. این پیشرفت، فرصت‌های هیجان‌انگیزی را در حوزه‌هایی مانند تولید محتوای خلاقانه و بصری‌سازی شخصی فراهم کرده است.

📦 نحوه عملکرد GANها برای تولید متن به تصویر

- Generator:
این شبکه عصبی توضیحات متنی را دریافت کرده و تصویری متناسب با متن تولید می‌کند.
- Discriminator:
این شبکه نقش داور را دارد و تصاویر تولید شده را برای تعیین واقعی بودنشان ارزیابی می‌کند. این شبکه تفاوت بین تصاویر واقعی (از مجموعه داده آموزشی) و تصاویر جعلی (ایجاد شده توسط Generator) را تشخیص می‌دهد.

💸 فرآیند آموزش Adversarial

آموزش GANها شامل رقابت بین Generator و Discriminator است:
- بهبود Generator: Generator تلاش می‌کند تصاویری تولید کند که بتوانند Discriminator را گمراه کرده و به عنوان واقعی شناسایی شوند.
- بهبود Discriminator: Discriminator تلاش می‌کند تصاویر جعلی تولید شده را دقیق‌تر شناسایی کند.

با این فرآیند تکراری، هر دو شبکه بهبود می‌یابند. Generator یاد می‌گیرد تصاویر واقعی‌تر و با جزئیات بیشتر ایجاد کند و Discriminator در شناسایی ظرافت‌های تصاویر جعلی بهتر می‌شود.

🚀 چالش‌ها و پیشرفت‌های اخیر

در حالی که GANها موفقیت چشمگیری در تولید متن به تصویر داشته‌اند، چالش‌هایی همچنان وجود دارد:
- Mode Collapse: Generator
ممکن است تنها یک مجموعه محدود از تصاویر تولید کند که تنوع را محدود می‌کند.
- بی‌ثباتی در آموزش: فرآیند آموزش GANها می‌تواند ناپایدار باشد و هماهنگی بین Generator و Discriminator از بین برود.

🐧 پیشرفت‌های اخیر این چالش‌ها را کاهش داده‌اند:
- Improved Architectures:
معماری‌های پیشرفته مانند StyleGAN و ProGAN کیفیت و تنوع تصاویر را بهبود بخشیده‌اند.
- Conditional GANs:
با اضافه کردن اطلاعات شرطی (مانند متن) به Generator، این مدل‌ها می‌توانند تصاویر متناسب با توضیحات متنی خاص تولید کنند.

🤖 مدل‌های محبوب Text-to-Image GAN
- StackGAN:
در دو مرحله تصاویر را ایجاد می‌کند؛ ابتدا تصاویر با وضوح پایین و سپس تصاویری با وضوح بالا.
- AttnGAN:
از مکانیزم توجه (Attention) برای تمرکز بر بخش‌های مرتبط توضیحات متنی استفاده می‌کند.
- DF-GAN:
با استفاده از معماری دو مسیری کیفیت و تنوع تصاویر را بهبود می‌بخشد.

👨🏻💻 کاربردهای Text-to-Image GANs
- Creative Content Generation:
تولید هنر، تصاویر و طراحی بر اساس متن.
- Personalized Visualizations:
ساخت بصری‌سازی‌های سفارشی برای تحلیل داده و داستان‌سرایی.
- Image Editing and Manipulation:
ویرایش و تغییر تصاویر موجود بر اساس توضیحات متنی.
- Virtual and Augmented Reality:
تولید محیط‌ها و اشیاء واقعی برای واقعیت مجازی و افزوده.

📗 نتیجه‌گیری
در واقع Text-to-Image GANها به عنوان ابزاری قدرتمند برای تولید تصاویر باکیفیت و واقعی از توضیحات متنی ظاهر شده‌اند. با ادامه تحقیقات و توسعه، شاهد پیشرفت‌های بیشتری خواهیم بود که به آینده‌ای منجر می‌شود که در آن ماشین‌ها بتوانند زبان انسانی را به تصاویری خیره‌کننده تبدیل کنند.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Dec, 06:13


Towards Natural Image Matting in the Wild via Real-Scenario Prior


Topic: Semantic Segmentation

Paper
: https://arxiv.org/pdf/2410.06593v1.pdf

#هوش_مصنوعی

📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Dec, 06:13


#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

24 Dec, 17:35


5 دوره رایگان برای تسلط بر مدل‌های زبانی بزرگ (LLMs)

1. Introduction to Large Language Models by Google :-
Course Link

2. AI for Educators by Microsoft:- Course Link

3. Cohere’s LLM University:-
Course Link

4. Anthropic Prompt Engineering Courses:-
Course Link

5. Large Language Model Agents:- Course Link

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

24 Dec, 16:20


✔️ 7 پیچیدگی زمانی مهم که باید بدانید!

𝐎(1) - زمان ثابت
زمان اجرا بدون توجه به اندازه ورودی تغییر نمی‌کند.
مثال: دسترسی به یک عنصر در آرایه با استفاده از ایندکس.

𝐎(𝐥𝐨𝐠 𝐧) - زمان لگاریتمی
زمان اجرا به‌آرامی با افزایش اندازه ورودی رشد می‌کند. معمولاً در الگوریتم‌هایی دیده می‌شود که مسئله را در هر مرحله نصف می‌کنند.
مثال: جستجوی دودویی در یک آرایه مرتب.

𝐎(𝐧) - زمان خطی
زمان اجرا به صورت خطی با اندازه ورودی افزایش می‌یابد.
مثال: یافتن یک عنصر در آرایه با پیمایش تمام عناصر.

𝐎(𝐧 𝐥𝐨𝐠 𝐧) - زمان خطی لگاریتمی
زمان اجرا کمی سریع‌تر از زمان خطی رشد می‌کند. این پیچیدگی معمولاً شامل تعداد لگاریتمی عملیات برای هر عنصر ورودی است.
مثال: مرتب‌سازی آرایه با استفاده از الگوریتم‌هایی مانند quick sort یا merge sort.

𝐎(𝐧^2) - زمان درجه دوم
زمان اجرا به مربع اندازه ورودی وابسته است.
مثال: الگوریتم حبابی که هر جفت از عناصر را مقایسه و در صورت نیاز جابجا می‌کند.

𝐎(2^𝐧) - زمان نمایی
زمان اجرا با هر واحد افزایش در ورودی دو برابر می‌شود. این الگوریتم‌ها برای ورودی‌های بزرگ غیرعملی هستند.
مثال: تولید تمام زیرمجموعه‌های یک مجموعه.

𝐎(𝐧!) - زمان فاکتوریل
زمان اجرا متناسب با فاکتوریل اندازه ورودی است.
مثال: تولید تمام جایگشت‌های یک مجموعه.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

24 Dec, 11:44


یک سایت عالی برای دستیابی به یک نقشه جامع و کاربردی در زمینه هوش مصنوعی!

🔹 اگر به دنبال یک راهنمای کامل برای یادگیری هوش مصنوعی هستید، این سایت یکی از بهترین گزینه‌هاست. با ارائه منابع، مسیرهای یادگیری و ابزارهای کاربردی، این نقشه می‌تواند شما را در مسیر یادگیری و تسلط بر مفاهیم هوش مصنوعی هدایت کند.

💻🌐https://addgraph.com/ai

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

24 Dec, 11:44


Programming PyTorch for Deep Learning

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Dec, 19:01


Building Blocks for Theoretical Computer Science

https://mfleck.cs.illinois.edu/building-blocks/index-sp2020.html

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Dec, 16:11


Dual-Branch Subpixel-Guided Network for Hyperspectral Image Classification


Publication date
: 5 Dec 2024

Topic: Image Classification

Paper
: https://arxiv.org/pdf/2412.03893v1.pdf

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Dec, 16:06


ایجاد اعداد دست‌نویس فارسی با استفاده از Deep Convolutional Generative Adversarial Networks (DCGANs) و PyTorch
1-Loading Handwritten Persian numerals dataset
2-Generator and Discriminator (for DCGANs)
2-1-Building the Generator
2-2-Building the Discriminator
2-3-Defining Loss Functions
2-4-Defining Optimizers
3-Training DCGANs

Github:https://github.com/omid-sakaki-ghazvini/Projects/blob/main/handwritten-persian-numerals-dcgans-pytorch.ipynb
Kaggle:https://www.kaggle.com/code/omidsakaki1370/handwritten-persian-numerals-dcgans-pytorch

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Dec, 09:18


این وبلاگ دنیای پیچیده Large Language Models (LLMs) را رمزگشایی می‌کند و تحقیقات پیشرفته را به مفاهیمی شفاف و قابل‌فهم تبدیل می‌کند.
مناسب برای درک معماری‌های Transformer، فرآیندهای آموزشی و آخرین اخبار در تحقیقات AI.

هر کسی که سعی دارد مفاهیم مربوط به Transformers یا Large Language Models را درک کند، حتماً باید این وبلاگ را مطالعه کند!

https://magazine.sebastianraschka.com/p/understanding-large-language-models

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

02 Dec, 06:31


🧑‍💻 5 کورس رایگان برای فهمیدن یادگیری ماشین


1. Machine Learning by Stanford University (Coursera)


2. Introduction to Machine Learning for Coders (fast.ai)


3. Machine Learning Crash Course by (Google)


4. Applied Machine Learning with Python (University of Michigan)


5. Elements of AI by the University of Helsinki and Reaktor

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

02 Dec, 06:31


اسلاید آموزشی خوب برای درس هوش مصنوعی

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Dec, 16:09


Is DPO Superior to PPO for LLM Alignment?
A Comprehensive Study


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Dec, 12:54


💡 مدل QwQ-32B-Preview توسط Qwen عرضه شد و توانست در بنچمارک‌های AIME و MATH عملکردی فراتر از مدل‌های قدرتمندی مانند OpenAI o1 و Anthropic Sonnet ارائه دهد. این مدل قابلیت‌های برجسته‌ای در زمینه‌های استدلال و محاسبات ریاضی نشان داده است.


🚀 نسخه کوآنتایزشده اکنون در Hugging Face در دسترس است.
این حرکت، گامی مهم برای دسترس‌پذیرتر کردن مدل‌های پیشرفته زبانی محسوب می‌شود و به جامعه تحقیقاتی این امکان را می‌دهد که با منابع کمتر، به قدرت بیشتری دست یابند.

https://huggingface.co/Satwik11/QwQ-32B-Preview-quantized-autoround-GPTQ-sym-4bit

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Dec, 12:54


یه ایده‌ی خلاقانه به نام GraphRAG برای تقویت توانایی‌ LLMها

یکی از چالش‌های کلیدی در مدل‌های زبانی بزرگ (LLM) استفاده از آن‌ها برای حل مسائل فراتر از داده‌های آموزش است. به‌منظور برآورده شدن این هدف، تیم تحقیقاتی مایکروسافت GraphRAG را معرفی کرده که به‌عنوان یک تکنیک پیشرفته
برای بهبود عملکرد Retrieval-Augmented Generation (RAG) استفاده می‌شود.

ویژگی‌های کلیدی GraphRAG:

ایجاد گراف دانش توسط LLM: این روش به‌صورت خودکار گرافی از موجودیت‌ها و روابط موجود در داده‌های خصوصی تولید می‌کند.

خوشه‌بندی معنایی: با ایجاد ساختارهای معنایی سلسله‌مراتبی، داده‌ها به خوشه‌هایی معنادار تقسیم‌بندی می‌شوند که امکان پیش‌خلاصه‌سازی اطلاعات را فراهم می‌کند.

افزایش دقت بازیابی: با استفاده از گراف تولید شده، GraphRAG محتوای مرتبط‌تری را برای ورود به پنجره زمینه LLM فراهم می‌آورد و پاسخ‌های دقیق‌تری تولید می‌کند.

پشتیبانی از پرسش‌های پیچیده: این تکنیک توانایی پردازش سوالاتی که نیاز به تجمیع
اطلاعات پراکنده یا تحلیل تم‌های کلان دارند را افزایش می‌دهد.

📊 عملکرد: در یک آزمایش با داده‌های خبری پیچیده، GraphRAG توانسته مفاهیم
کلیدی مانند فعالیت‌های سیاسی و نظامی مرتبط با "Novorossiya" را با دقت بالا شناسایی کند. این نتایج، بهبود چشمگیری را نسبت به روش‌های RAG پایه (که عملکرد آن‌ها صرفا با استفاده از فاصله وکتور سوال و جواب است) نشان داد که معمولاً در اتصال اطلاعات پراکنده ناکام بودند.

🔗 مزایای GraphRAG:

منبع‌نگاری دقیق: هر پاسخ به داده‌های اصلی مرتبط است و امکان تأیید صحت اطلاعات را فراهم می‌کند.

تحلیل کل‌نگر داده‌ها: خوشه‌بندی معنایی امکان شناسایی تم‌های اصلی و پاسخ‌دهی به سوالات کلی‌تر را بهبود می‌بخشد.

تطبیق با داده‌های خصوصی: این روش برای داده‌هایی که مدل‌های LLM به آن‌ها آموزش ندیده‌اند، مانند اسناد تجاری یا داده‌های اختصاصی سازمانی، ایده‌آل است.

مطالعه‌ی مقاله کامل

بخوانید: RAG چیست؟

بخوانید: LLM چیست؟


@Ai_Events

Algorithm design & data structure

01 Dec, 12:34


مقاله "Learning Transferable Visual Models From Natural Language Supervision" یکی از آثار برجسته در حوزه بینایی کامپیوتر و پردازش زبان طبیعی است. در این مقاله، نویسندگان یک مدل جدید به نام CLIP (Contrastive Language–Image Pretraining) را معرفی کرده‌اند که از یک روش نوآورانه برای یادگیری مدل‌های بصری قابل انتقال از طریق نظارت زبانی استفاده می‌کند.

در واقع CLIP با استفاده از مجموعه عظیمی از داده‌های تصویر و متن، به‌صورت همزمان تصاویر و توضیحات متنی مرتبط را آموزش می‌دهد. این مدل به گونه‌ای طراحی شده که می‌تواند بدون نیاز به داده‌های برچسب‌خورده خاص، وظایف جدیدی را تنها با ارائه دستورالعمل‌های متنی انجام دهد. از جمله کاربردهای این مدل می‌توان به تشخیص تصویر، دسته‌بندی، و حتی وظایف ترکیبی تصویر-متن اشاره کرد.

Paper:https://arxiv.org/abs/2103.00020

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Dec, 12:34


Example NLP inputs and outputs

Algorithm design & data structure

01 Dec, 12:34


The typical architecture of a Recurrent Neural Network (RNN)

Algorithm design & data structure

01 Dec, 12:34


Preparing a notebook for our first NLP with TensorFlow project

Algorithm design & data structure

01 Dec, 12:34


Splitting data into training and validation sets

Algorithm design & data structure

01 Dec, 12:34


Becoming one with the data and visualising a text dataset

Algorithm design & data structure

01 Dec, 12:34


Converting text data to numbers using tokenisation and embeddings (overview)

Algorithm design & data structure

01 Dec, 12:34


Introduction to Natural Language Processing (NLP) and Sequence Problems

Algorithm design & data structure

30 Nov, 20:39


اگر به Computer Vision علاقه دارید این کتاب رو حتما پیشنهاد میکنم بخونید✌🏻

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

30 Nov, 14:04


🤖 𝐔𝐧𝐡𝐚 𝐨𝐟 𝐋𝐚𝐧𝐠𝐮𝐚𝐠𝐞 𝐌𝐨𝐝𝐞𝐥𝐬 (2018-𝐏𝐫𝐞𝐬𝐞𝐧𝐭) 🌟

از 𝐁𝐄𝐑𝐓 تا 𝐋𝐥𝐚𝐦𝐚 3.2، مدل‌های زبانی نحوه‌ی پردازش زبان طبیعی را به کلی تغییر داده‌اند! 🚀 در اینجا نگاهی به سفر آن‌ها داریم:

🔴 𝐁𝐄𝐑𝐓 𝐅𝐚𝐦𝐢𝐥𝐲 (2018):
اولین گام‌های یادگیری مبتنی بر زمینه را برداشت، و مدل‌هایی مانند RoBERTa و DistilBERT الهام گرفته شدند.
🟢 𝐓5 𝐅𝐚𝐦𝐢𝐥𝐲 (2019):
پردازش زبان طبیعی را با چارچوب text-to-text ساده‌تر کرد و نوآوری‌هایی مانند BART و Flan-T5 به وجود آمد.
🔵 𝐆𝐏𝐓 𝐒𝐞𝐫𝐢𝐞𝐬 𝐚𝐧𝐝 𝐆𝐞𝐧𝐞𝐫𝐚𝐭𝐢𝐯𝐞 𝐌𝐨𝐝𝐞𝐥𝐬 (2019-2024):
سری GPT انقلاب بزرگی ایجاد کرد و منجر به مدل‌های عظیمی مانند o1-preview، Llama 3.2 و DeepSeek 2.5 شد.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

30 Nov, 12:25


OrientedFormer: An End-to-End Transformer-Based Oriented Object Detector in Remote Sensing Images


Publication date:
IEEE Transactions on Geoscience and Remote Sensing 2024

Topic: Object detection

Paper
: https://arxiv.org/pdf/2409.19648v1.pdf

GitHub: https://github.com/wokaikaixinxin/OrientedFormer

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

30 Nov, 06:55


🖥 Free Courses on Large Language Models

ChatGPT Prompt Engineering for Developers

LangChain for LLM Application Development

Building Systems with the ChatGPT API

Google Cloud Generative AI Learning Path

Introduction to Large Language Models with Google Cloud

LLM University

Full Stack LLM Bootcamp

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

29 Nov, 22:18


Programming PyTorch for Deep Learning

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

29 Nov, 21:03


🌟 خبر هیجان‌انگیز برای عاشقان داده و NLP! 🌟

تصور کنید کل محتوای ویکی‌پدیای فارسی به صورت یک دیتاست مرتب و قابل استفاده، در دسترستون باشه! 🗂 این دیتاست عالی، یک گنجینه بی‌نظیر برای پروژه‌های پردازش زبان طبیعی، تحلیل داده یا حتی آموزش و یادگیریه. اگه دنبال منابع قدرتمند هستید، این دیتاست دقیقاً همون چیزیه که لازمش دارید! 🚀

لینک دیتاست:
https://huggingface.co/datasets/codersan/Persian-Wikipedia-Corpus

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

29 Nov, 21:03


در حوزه GenAI/LLM، یوتیوبر مورد علاقه‌ام: Umar Jamil
🔹 ویدیوهاش شاید طولانی باشه، ولی محتواش عمق فوق‌العاده‌ای داره!
🔹 ترکیب عالی تئوری و کدنویسی – دقیقاً همون سبکی که می‌پسندم! 🚀

💻 اگر دنبال یادگیری جدی و مفید در این حوزه هستید، پیشنهاد می‌کنم حتماً کارهاش رو دنبال کنید. 🌟

https://www.youtube.com/@umarjamilai/videos

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

24 Nov, 14:51


مجموعه‌ای از منابع به صورت eBooks مرتبط با **Data Science**، **Machine Learning** و موضوعات مشابه.

https://github.com/aniketpotabatti/Data-Science-EBooks

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

24 Nov, 14:51


📖 A Data-Centric Introduction to Computing
یک کتاب جامع که به معرفی مباحث Data-Centric در زمینه محاسبات می‌پردازد. مناسب برای علاقه‌مندان به علم داده و محاسبات پیشرفته.

https://dcic-world.org/2023-02-21/index.html

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

24 Nov, 05:06


چگونه ChatGPT کار می‌کند؟

https://arxiv.org/pdf/2203.02155.pdf?ref=assemblyai.com

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

24 Nov, 05:06


🚀 میتوان گفت YOLOv9 بهتر از هر مدل شناسایی شیء مبتنی بر convolution یا transformer است

YOLOv9: Learning What You Want to Learn Using Programmable Gradient Information


این پژوهش رویکردی جدید ارائه می‌دهد که در آن YOLOv9 توانسته با بهره‌گیری از تکنیک‌های مدرن و استفاده از اطلاعات گرادیان برنامه‌پذیر (Programmable Gradient Information)، عملکرد فوق‌العاده‌ای نسبت به مدل‌های رایج convolutional و transformer داشته باشد.

ویژگی‌های کلیدی YOLOv9:
- دقت بالا در شناسایی شیء، حتی در شرایط پیچیده.
- **سرعت پردازش بهینه**، مناسب برای کاربردهای real-time.
- استفاده از رویکردهای جدید در مدیریت گرادیان‌ها برای یادگیری دقیق‌تر.

این مدل نشان‌دهنده نسل بعدی الگوریتم‌های شناسایی شیء است و می‌تواند چالش‌های موجود در این حوزه را به طور مؤثری حل کند.
📝 Paper
💻 Code
💾 Models
🎞 Demo
⌨️ Colab

#هوش_مصنوعی
👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Nov, 21:05


کتاب یادگیری ماشین و علم داده: مبانی، مفاهیم، الگوریتم‌ها و ابزارها
اثر میلاد وزان

این کتاب یک مرجع ارزشمند و کاربردی است که مبانی پایه‌ای، مفاهیم کلیدی، الگوریتم‌های پرکاربرد و ابزارهای اساسی در حوزه یادگیری ماشین و علم داده را با زبانی ساده و دقیق توضیح می‌دهد. اگر به دنبال یادگیری اصولی این حوزه‌های جذاب و پرتقاضا هستید، این کتاب می‌تواند راهنمای شما در مسیر رشد و پیشرفت باشد.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Nov, 21:05


مقاله‌ای با عنوان “A Survey of the State-of-the-Art” نوشته Tanujit Chakraborty و گروهی از پژوهشگران، به بررسی روند پیشرفت GANs در دهه گذشته پرداخته و دیدگاه‌های جالبی ارائه داده است.

در واقع GANs شامل دو شبکه عصبی است: یکی وظیفه تولید داده‌های مصنوعی را بر عهده دارد و دیگری با ارزیابی آن‌ها، شبکه تولیدکننده را به چالش می‌کشد. این تعامل مداوم باعث بهبود عملکرد هر دو شبکه می‌شود تا جایی که داده‌های تولید شده کاملاً واقعی به نظر می‌رسند.


Paper : https://arxiv.org/abs/2308.16316

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Nov, 16:23


LLM cheatsheet

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Nov, 16:23


۲۳ نوامبر، روز جهانی فیبوناچی🥳

فیبوناچی چیست؟

اعداد فیبوناچی در هستی کشف شده اند. در قسمت لاک حلزون از زاویه فی استفاده شده است. شاخ و برگ درخت ها به صورت تصادفی در جهات مختلف رشد نمی کنند. اندازه گیری زاویه شاخه ها نشان می دهد که در الگوی رشد آن ها، نظمی شبیه دنباله فیبوناچی و نسبت طلایی وجود دارد.

سری فیبوناچی
اگر به ریاضیات علاقه داشته باشید، حتما با "سری فیبوناچی" آشنا هستید. سری فیبوناچی رشته ‌ای از اعداد است که در آن اعداد غیر از دو عدد اول با محاسبه‌ ی مجموع دو عدد قبلی ایجاد می‌شوند.

اولین اعداد سری فیبوناچی عبارت‌اند از:
۰٬ ۱٬ ۱٬ ۲٬ ۳٬ ۵٬ ۸٬ ۱۳٬ ۲۱٬ ۳۴٬ ۵۵٬ ۸۹٬ ۱۴۴٬ ۲۳۳٬ ۳۷۷٬ ۶۱۰٬ ۹۸۷٬ ۱۵۹۷٬ ۲۵۸۴٬، ...

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Nov, 05:32


Confusion matrix (TP, FP, TN, FN), clearly explained

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Nov, 05:32


10 تا از بهترین دوره های یادگیری ماشین در Coursera که باید در سال 2024 از آن خبر داشته باشید.

Link:https://www.mltut.com/best-courses-for-machine-learning-on-coursera/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Nov, 20:30


اسلایدهای یادگیری_عمیق (Deep Learning)
دکترسیدناصررضوی

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Nov, 20:30


Mini-Omni: Language Models Can Hear, Talk While Thinking in Streaming

Paper: https://arxiv.org/pdf/2408.16725v2.pdf

Code: https://github.com/gpt-omni/mini-omni

Dataset: LibriSpeech

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Nov, 18:52


هیپ فیبوناچی 🌟
هیپ فیبوناچی (Fibonacci Heap) یک ساختار داده پیشرفته و کارآمد است که برای بهینه‌سازی عملیات روی صف‌های اولویت‌دار طراحی شده است. این ساختار توسط مایکل فردمان و رابرت تارجان معرفی شد و در الگوریتم‌هایی مثل دایکسترا یا پرایم بسیار کاربرد دارد. 🚀

📚 ویژگی‌های کلیدی هیپ فیبوناچی
خاصیت هیپ:

مقدار هر گره کوچک‌تر یا مساوی مقادیر فرزندانش است (برای Min-Heap). 📉
ساختار چند درختی:

شامل مجموعه‌ای از درخت‌هاست که ریشه‌هایشان در یک لیست پیوندی دایره‌ای قرار دارند. 🔗
انعطاف‌پذیری در عملیات:

برخی عملیات‌ها مانند ادغام یا کاهش کلید بهینه‌تر از سایر هیپ‌ها انجام می‌شوند. 🛠
🌟 مزایا
بسیار مناسب برای کاهش کلید مکرر: کاهش زمان در عملیات‌هایی مانند الگوریتم دایکسترا. 🕒
ادغام سریع: ساختار لیست پیوندی دایره‌ای امکان ادغام سریع را فراهم می‌کند. 🔀
🛠 کاربردها
الگوریتم دایکسترا: برای یافتن کوتاه‌ترین مسیر. 🛤
الگوریتم پرایم: برای پیدا کردن حداقل درخت پوشا. 🌳
سیستم‌های اولویت‌دار و شبکه‌ها: برای مدیریت داده‌ها و اولویت‌ها. 📡

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Nov, 12:49


📕 آموزش ساده مفاهیم پایه پایتون!

📷 دوره: AI Python for Beginners
👨‍💻 مدرس: Andrew Ng

در سری دوره‌های #AIPythonforBeginners یاد می‌گیرید که چگونه با استفاده از تابع type() انواع داده‌ای مثل *strings*، *integers* و *floats* را تشخیص دهید و پایه‌ای محکم برای مسیر یادگیری هوش مصنوعی خود بسازید.

🎓 ثبت‌نام رایگان:
https://learn.deeplearning.ai/courses/ai-python-for-beginners

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Nov, 11:28


مقاله "On the Surprising Effectiveness of Attention Transfer for Vision Transformers" به بررسی روشی مؤثر برای بهبود عملکرد *Vision Transformers (ViTs)* می‌پردازد. این روش با انتقال توجه از مدل‌های بزرگ‌تر به مدل‌های کوچک‌تر، ضمن کاهش هزینه‌های محاسباتی، دقت و کارایی مدل را افزایش می‌دهد. مطالعه این مقاله برای علاقه‌مندان به بهینه‌سازی مدل‌های یادگیری عمیق توصیه می‌شود. 🌟

Paper : https://arxiv.org/abs/2411.09702

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Nov, 06:39


کتاب "Algorithms Notes for Professionals" یکی از بهترین منابعی هست که تاکنون در حوزه الگوریتم مطالعه کرده‌ام! 📘
این کتاب نه‌تنها توضیحات جامع و کاربردی ارائه می‌دهد، بلکه با نمونه‌کدهای متنوع همراه است. 💻
مطالعه این کتاب به شما کمک می‌کند مفاهیم پیچیده را به‌راحتی درک کنید و دید عمیق‌تری نسبت به الگوریتم‌ها پیدا کنید. 🧠📈

اگر به یادگیری الگوریتم علاقه‌مندید یا قصد تقویت مهارت‌های خود را در این زمینه دارید، این کتاب به شدت توصیه می‌شود! 🔥🎯
حتماً مطالعه‌اش را در برنامه خود قرار دهید. 📖

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

21 Nov, 21:19


🐍 Python from Scratch
📚 ارائه شده توسط دانشگاه واترلو

اگر به دنبال یادگیری برنامه‌نویسی پایتون از پایه هستید، این دوره یکی از بهترین انتخاب‌هاست. دوره‌ای جامع که توسط دانشگاه واترلو طراحی شده و تمام مبانی مورد نیاز برای شروع برنامه‌نویسی به زبان پایتون را پوشش می‌دهد.

مباحث عبارت اند از:
0. Introduction
1. First steps
2. Built-in functions
3. Storing and using information
4. Creating functions
5. Booleans
6. Branching
7. Building better programs
8. Iteration using while
9. Storing elements in a sequence
10. Iteration using for
11. Bundling information into objects
12. Structuring data
13. Recursion


https://open.cs.uwaterloo.ca/python-from-scratch/
🎯 مناسب برای مبتدیان و حتی کسانی که می‌خواهند دانش خود را تقویت کنند!

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

21 Nov, 21:07


📚 کتاب هوش مصنوعی راسل

این کتاب یکی از منابع اصلی درس هوش مصنوعی در دانشگاه‌های معتبر است و مطالعه آن برای دانشجویان این حوزه بسیار توصیه می‌شود. همچنین، داوطلبان کنکور ارشد اگر زمان کافی داشته باشند، با مطالعه این کتاب می‌توانند دانش عمیق‌تری به دست آورند که در موفقیتشان تأثیرگذار خواهد بود.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

21 Nov, 20:36


OmniGen: Unified Image Generation

Paper: https://arxiv.org/pdf/2409.11340v1.pdf

Code: https://github.com/vectorspacelab/omnigen

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

16 Nov, 16:15


آیا به GenAI/LLMs علاقه دارید؟
🔥🔥 444 دیتاست آماده! 🔥🔥

774.5 ترابایت8 زبان32 حوزه

Pre-trainingFine-tuningEvaluation

تشکر ویژه از Yang Liu و همکارانش! 🙏

این مجموعه بزرگ برای پروژه‌های یادگیری زبان‌های مدل بزرگ بی‌نظیر است. 🌐

Paper : https://arxiv.org/abs/2402.18041
Github:https://github.com/lmmlzn/Awesome-LLMs-Datasets

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

16 Nov, 16:15


معرفی دوره
دوره‌ای در سطح کارشناسی درباره ساختمان داده، مبتنی بر زبان برنامه‌نویسی ++C، تدریس‌شده توسط پروفسور *Yung Yi* از دانشگاه *KAIST*، کره جنوبی. فرصتی برای یادگیری برنامه‌نویسی شیء‌گرا (++C) و آشنایی با الگوریتم‌های پایه‌ای.

Link:https://yung-web.github.io/home/courses/datastructure.html

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

16 Nov, 15:32


کانال دانشکده مهندسی کامپیوتر دانشگاه صنعتی شریف

برای کنکور ارشد کمک نیاز به کمک داری ؟
نمیدونی برای دروس کنکور ارشدت کدوم استاد بهتره ؟
میخوای از تجربه دوستات و ترم بالاییا استفاده کنی؟
💯نمونه سوال و جزوه رو لازم داری ؟
https://t.me/CEinUse

همراه با فعالترین و پر عضوترین گروه دانشکده مهندسی کامپیوتر دانشگاه شریف
✌️ با حضور امیررضا آبانی رتبه ۹۰ کنکور ارشد
جوین شو که جزوه و کتاب نیازت میشه😁👇👇
https://t.me/CEinUse

Algorithm design & data structure

16 Nov, 12:58


اگر به یادگیری MLOps، راه‌اندازی مدل‌ها در محیط تولیدی و طراحی سیستم‌های یادگیری ماشین از صفر تا صد علاقه‌مند هستید اما نمی‌دانید از کجا شروع کنید، پیشنهاد می‌کنم نگاهی به دوره CS 329S: Machine Learning Systems Design بیندازید.

این دوره یکی از جامع‌ترین منابع آموزشی در این حوزه است و مباحثی از اصول طراحی سیستم‌های یادگیری ماشین گرفته تا نکات پیشرفته را پوشش می‌دهد.

یکی از جذاب‌ترین ویژگی‌های این دوره، حضور سرمایه‌گذاران مطرح (VCs) در جلسات پایانی آن است، جایی که درباره ارائه ایده‌ها و استراتژی‌های ورود به بازار صحبت می‌شود. این نشان می‌دهد که اگر در طراحی سیستم‌های یادگیری ماشین حرفه‌ای شوید، احتمالاً قدم در مسیر ساخت یک استارتاپ خواهید گذاشت!

این دوره از دانشگاه استنفورد است و همان‌طور که انتظار می‌رود، جامعیت فوق‌العاده‌ای دارد. این فرصت را از دست ندهید! 🚀

the link to the course : https://stanford-cs329s.github.io/syllabus.html

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

16 Nov, 12:58


دوره آموزشی LLM Agents MOOC

این دوره موضوعات زیر را پوشش می‌دهد:
- Foundation of LLMs
- Reasoning
- Planning, tool use
- LLM agent infrastructure
- Retrieval-augmented generation
- Code generation, data science
- Multimodal agents, robotics
- Evaluation and benchmarking on agent applications
- Privacy, safety and ethics
- Human-agent interaction, personalization, alignment
- Multi-agent collaboration

این دوره برای کسانی که علاقه‌مند به یادگیری عمیق در زمینه طراحی و توسعه عوامل هوشمند مبتنی بر LLM هستند، بسیار مفید است. 🚀

Link:https://www.youtube.com/playlist?list=PLS01nW3RtgopsNLeM936V4TNSsvvVglLc

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

16 Nov, 05:13


مقاله "Visualization-of-Thought Elicits Spatial Reasoning in Large Language Models" به بررسی روشی نوین برای بهبود توانایی مدل‌های زبانی بزرگ (LLMs) در انجام استدلال فضایی می‌پردازد. ایده اصلی این تحقیق بر اساس استفاده از تصویرسازی ذهنی است؛ به این معنا که مدل‌ها به جای پردازش صرفاً متنی، قادر به ایجاد بازنمایی‌های بصری از مسائل می‌شوند. این بازنمایی‌ها به مدل کمک می‌کند تا مفاهیمی نظیر فاصله، جهت و ارتباطات فضایی را بهتر درک و تحلیل کند.

Paper:https://arxiv.org/abs/2404.03622

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

15 Nov, 20:38


💡 خداحافظ Adam، سلام ADOPT!
به نظر می‌رسه وقتش رسیده که بهینه‌ساز (Optimizer) مدل‌های Deep Learning و LLM‌ها رو ارتقا بدیم!
بهینه ساز ADOPT به‌عنوان جایگزینی برای Adam معرفی شده و تونسته یکی از مشکلات اساسی Adam، یعنی عدم تضمین هم‌گرایی (Convergence) در آپدیت وزن‌ها رو حل کنه.

🔬 این برتری فقط یک ادعای تئوری نیست؛ بلکه در عمل هم در اکثر مسائل، از جمله pretraining مدل GPT-2، عملکرد بهتری داشته است.

💡 ایده اصلی و راهکار ADOPT برای تضمین هم‌گرایی:

1️⃣ حذف گرادیان کنونی از تخمین momentum دوم
2️⃣ نرمال‌سازی گرادیان پیش از آپدیت momentum

به کمک این بهینه‌ساز، فرآیند یادگیری مدل‌ها نه‌تنها پایدارتر بلکه کارآمدتر شده است. 🚀


Paper : https://arxiv.org/abs/2411.02853
code : https://github.com/iShohei220/adopt

Algorithm design & data structure

15 Nov, 18:30


۱۰ کتاب برتر برای یادگیری ماشین

اگر به دنبال منابعی عالی برای شروع یا پیشرفت در یادگیری ماشین هستید، این لیست شامل ۱۰ کتاب برتر در این زمینه می‌تواند به شما کمک کند:

1️⃣ Machine Learning نوشته‌ی *Tom M. Mitchell*
این کتاب یکی از پایه‌ای‌ترین و معتبرترین منابع برای یادگیری اصول یادگیری ماشین است و مباحث را به صورت جامع و قابل درک ارائه می‌دهد.

2️⃣ Pattern Recognition and Machine Learning نوشته‌ی *Christopher M. Bishop*
یک منبع پیشرفته که به شناسایی الگوها و مبانی یادگیری ماشین می‌پردازد، مناسب برای علاقه‌مندان به تئوری‌های عمیق‌تر.

3️⃣ The Hundred-Page Machine Learning Book نوشته‌ی *Andriy Burkov*
یک کتاب جمع‌وجور و کاربردی که مفاهیم اصلی یادگیری ماشین را تنها در ۱۰۰ صفحه توضیح می‌دهد.

4️⃣ Machine Learning For Absolute Beginners نوشته‌ی *Oliver Theobald*
این کتاب، یادگیری ماشین را برای مبتدیان از صفر و با زبانی ساده توضیح می‌دهد و برای شروعی آسان بسیار مفید است.

5️⃣ Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow نوشته‌ی *Geron Aurelien*
یکی از محبوب‌ترین منابع برای یادگیری عملی یادگیری ماشین با استفاده از کتابخانه‌های مطرح مانند Scikit-Learn، Keras و TensorFlow.

6️⃣ Fundamentals of Machine Learning for Predictive Data Analytics نوشته‌ی *John D. Kelleher, Brian Mac Namee, و Aoife D’Arcy*
این کتاب تمرکز خاصی بر تجزیه‌وتحلیل داده‌ها و پیش‌بینی دارد و به شما کمک می‌کند اصول پایه‌ای این حوزه را بیاموزید.

7️⃣ Machine Learning for Humans نوشته‌ی *Vishal Maini و Samer Sabri*
یک منبع رایگان و جذاب که مفاهیم یادگیری ماشین را به زبان ساده و داستانی توضیح می‌دهد.

8️⃣ Introduction to Machine Learning with Python: A Guide for Data Scientists نوشته‌ی *Andreas Müller*
این کتاب، راهنمایی جامع برای استفاده از زبان پایتون در پروژه‌های یادگیری ماشین است.

9️⃣ Advanced Machine Learning with Python نوشته‌ی *John Hearty*
برای کسانی که می‌خواهند دانش خود را در یادگیری ماشین و پایتون به سطح پیشرفته‌تری برسانند، این کتاب انتخاب مناسبی است.

🔟 Machine Learning With TensorFlow نوشته‌ی *Nishant Shukla*
این کتاب به آموزش یادگیری ماشین با استفاده از فریم‌ورک قدرتمند TensorFlow می‌پردازد و برای علاقه‌مندان به کار با شبکه‌های عصبی بسیار مفید است.

هر یک از این کتاب‌ها می‌تواند شما را در مسیر یادگیری ماشین به خوبی هدایت کند، بسته به اینکه تازه‌کار هستید یا به دنبال گسترش دانش پیشرفته خود هستید! 📚

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

15 Nov, 11:42


جزوه‌های درسی استنفورد درباره "نظریه احتمالات" (سطح دکتری)

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

15 Nov, 07:46


برای استفاده راحت‌تر از ChatGPT، شما می‌توانید آن را مستقیماً روی دسکتاپ خود نصب کنید. این کار به شما این امکان را می‌دهد که بدون نیاز به مرورگر، به‌راحتی به ChatGPT دسترسی داشته باشید و از امکانات آن بهره‌مند شوید.

Link: ChatGPT on your desktop

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

15 Nov, 07:29


دوره رایگان Harvard CS50 – دوره علوم کامپیوتر (نسخه 2023)

این دوره شامل موارد زیر است:

- Lecture 0 - Scratch
- Lecture 1 - C
- Lecture 2 - Arrays
- Lecture 3 - Algorithms
- Lecture 4 - Memory
- Lecture 5 - Data Structures
- Lecture 6 - Python
- Lecture 7 - SQL
- Lecture 8 - HTML, CSS, JavaScript
- Lecture 9 - Flask
- Lecture 10 - Emoji
- Cybersecurity (امنیت سایبری)

https://www.freecodecamp.org/news/harvard-university-cs50-computer-science-course-2023/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

15 Nov, 07:23


قدرت AI Hype و LinkedIn

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

15 Nov, 04:04


نماینده‌های زبانی (LLM Agents)

این ارائه در مورد Language (LLM) Agents به موضوعات زیر می‌پردازد:

- تعریف Language Agents
- تکامل AI Agents
- قدرت Language در Agents
- مسیرهای جذاب آینده مانند Planning، Synthetic Data، Multimodal Perception، Continual Learning، Safety و موارد دیگر

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

15 Nov, 04:04


الگوریتم Minimum Spanning Tree (MST)، یا درخت پوشای کمینه، یکی از الگوریتم‌های مهم در گراف‌هاست. این الگوریتم برای پیدا کردن زیرگرافی از یک گراف وزن‌دار استفاده می‌شود که تمامی رأس‌ها را شامل شود و مجموع وزن‌های یال‌های آن کمترین مقدار ممکن باشد. این زیرگراف که به عنوان درخت پوشای کمینه شناخته می‌شود، تمامی رأس‌ها را بدون تشکیل حلقه به هم متصل می‌کند. 🌳

مثال کاربردی
تصور کنید که می‌خواهیم شبکه‌ی برق را در یک شهر طراحی کنیم. هدف این است که تمام ایستگاه‌ها به هم متصل شوند، اما هزینه‌ها نیز کمینه باشند. الگوریتم MST به ما کمک می‌کند با کمترین هزینه، ارتباط بین تمام ایستگاه‌ها را برقرار کنیم. ⚡️

الگوریتم‌های معروف برای MST
دو الگوریتم رایج برای حل مسئله‌ی درخت پوشای کمینه، الگوریتم پریم (Prim)
و کریسکال (Kruskal) هستند. هرکدام از این الگوریتم‌ها از روش متفاوتی برای پیدا کردن درخت پوشای کمینه استفاده می‌کنند. 🔍



1. الگوریتم Prim
الگوریتم پریم از یک رأس شروع می‌کند و یال‌های با کمترین وزن را به درخت اضافه می‌کند، به شرطی که ایجاد چرخه نکند. این فرایند تا زمانی که تمام رأس‌ها به درخت اضافه شوند، ادامه می‌یابد. ⛓️
مراحل الگوریتم پریم:
1. انتخاب یک رأس به عنوان نقطه شروع.
2. اضافه کردن یال‌های با کمترین وزن که رأس‌های جدید را به درخت متصل کنند.
3. تکرار این کار تا تمام رأس‌ها به درخت اضافه شوند.
2. الگوریتم Kruskal
الگوریتم کریسکال با مرتب‌سازی تمام یال‌ها از کمترین وزن به بیشترین وزن شروع می‌کند و یال‌ها را یکی یکی به درخت اضافه می‌کند. در این الگوریتم، اطمینان حاصل می‌شود که اضافه کردن یال جدید منجر به ایجاد چرخه نشود. 🔄
مراحل الگوریتم کریسکال:
1. مرتب‌سازی یال‌ها از کمترین به بیشترین وزن.
2. اضافه کردن یال‌ها به درخت، در صورتی که چرخه ایجاد نشود.
3. تکرار تا زمانی که درخت شامل تمام رأس‌ها شود.

مقایسه Prim و Kruskal
- پریم برای گراف‌های متراکم مناسب‌تر است، زیرا از یال‌های نزدیک رأس‌ها استفاده می‌کند.
- کریسکال برای گراف‌های پراکنده مناسب‌تر است، زیرا با یال‌های سبک شروع می‌کند. 🎯

پیچیدگی زمانی
پیچیدگی زمانی برای هر دو الگوریتم:
- الگوریتم Prim: O(E log V)
- الگوریتم Kruskal:O(E log E)

🔍 توضیح: در اینجا \(E\) تعداد یال‌ها و \(V\) تعداد رأس‌ها هستند. این پیچیدگی نشان می‌دهد که هر دو الگوریتم برای گراف‌های بزرگ بهینه عمل می‌کنند.

جمع‌بندی
درخت پوشای کمینه یک ساختار مهم در گراف‌هاست که کاربردهای زیادی در شبکه‌های ارتباطی، طراحی جاده‌ها، شبکه‌های برق و سایر حوزه‌ها دارد. این الگوریتم به ما کمک می‌کند هزینه‌ها را کاهش دهیم و ارتباط مؤثری بین تمام نقاط برقرار کنیم. 🌐

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

14 Nov, 06:53


📚 جزوه خلاصه و نکات مهم ساختمان داده 📚

این جزوه، مجموعه‌ای از نکات کلیدی و خلاصه‌های کاربردی درس ساختمان داده‌ها رو در بر داره که به‌صورت تخصصی و ساده تنظیم شده. 👨‍💻 این مجموعه مناسب دوستانیه که دارن برای آزمون‌های استخدامی و کنکور آماده میشن. 🎓 با مطالعه این جزوه، می‌تونید به درک بهتری از ساختارهای داده و الگوریتم‌های مرتبط برسید و زمان مطالعاتی خودتون رو مدیریت کنید.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

14 Nov, 06:53


🌐 وبسایتی فوق‌العاده برای تجسم یادگیری ماشین

این وبسایت شگفت‌انگیز به شما کمک می‌کند تا شهود خود را در زمینه یادگیری ماشین تقویت کنید و مفاهیم پیچیده را به شکل بصری درک کنید.

https://mlu-explain.github.io/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

13 Nov, 18:07


در مقاله‌ی اخیر ما با عنوان "Reverse Stable Diffusion: What prompt was used to generate this image" که برای انتشار در Computer Vision and Image Understanding پذیرفته شده، به بررسی وظیفه‌ی پیش‌بینی prompt embedding بر اساس یک تصویر تولید شده توسط یک مدل دیفیوژن مولد می‌پردازیم. شاید جالب‌ترین کشف این مطالعه این است که آموزش یک مدل دیفیوژن بر روی وظیفه‌ی تولید prompt می‌تواند باعث شود مدل تصاویری تولید کند که همخوانی بسیار بیشتری با input prompts داشته باشند؛ به‌ویژه زمانی که مدل معکوس به‌طور مستقیم برای text-to-image generation استفاده شود.

https://arxiv.org/abs/2308.01472

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

12 Nov, 18:36


🔍 دنبال بهترین‌های یادگیری ماشین با پایتون هستید؟
این گیت‌هاب را بررسی کنید که بیش از ۹۲۰ کتابخانه ML را در دسته‌بندی‌های مختلف مانند NLP، بصری‌سازی داده، OCR، AutoML و غیره رتبه‌بندی کرده! این مخزن، با منابع متن‌باز ارزشمند، به‌صورت هفتگی به‌روزرسانی می‌شود. توجه داشته باشید که هر پروژه بر اساس معیارهای کیفی رتبه‌بندی شده است، بنابراین در پیدا کردن ابزارهای مطمئن، زمان زیادی صرفه‌جویی می‌کنید.

https://github.com/ml-tooling/best-of-ml-python

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

12 Nov, 18:36


🌟 معرفی مقاله: 🌟
A Comprehensive Survey of Small Language Models in the Era of Large Language Models: Techniques, Enhancements, Applications, Collaboration with LLMs, and Trustworthiness

این مقاله، یک بررسی جامع از مدل‌های زبانی کوچک (SLMs) ارائه می‌دهد و به تکنیک‌ها، بهبودها، کاربردها، و همکاری آن‌ها با مدل‌های زبانی بزرگ (LLMs) می‌پردازد. همچنین، به موضوع مهم قابلیت اطمینان این مدل‌ها اشاره دارد و نشان می‌دهد که چگونه می‌توان از مدل‌های کوچک برای کاربردهای خاص و بهینه‌تر استفاده کرد. اگر به مدل‌های زبانی و پیشرفت‌های آن‌ها علاقه‌مندید، این مقاله اطلاعات ارزشمندی را در اختیارتان می‌گذارد. 📘

📄 لینک مقاله:
https://arxiv.org/abs/2411.03350

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

12 Nov, 15:55


📚 Reinforcement Learning, Stanford
دو هفته پیش، دانشگاه استنفورد دوره CS234 - 2024 را منتشر کرد.

پروفسور Emma Brunskill و تیم‌شون آموزش می‌دهند:
- Policy search
- Offline RL
- Multi-Agent Game playing
- and much more

https://www.youtube.com/playlist?list=PLoROMvodv4rN4wG6Nk6sNpTEbuOSosZdX

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

12 Nov, 15:45


سلام دوستان عزیز
خوشحال می‌شم که همدیگر رو در گیت‌هاب و لینکدین دنبال کنیم و باهم در ارتباط باشیم. منتظر تعاملات خوب با شما هستم! 🌟

🔗 لینک گیت‌هاب:
https://github.com/MohammadHossini

🔗 لینک لینکدین:
https://www.linkedin.com/in/mohammad-hosseini-3b823724b/

Algorithm design & data structure

11 Nov, 16:35


درخت جستجوی بهینه (Optimal Binary Search Tree) یک نوع خاص از درخت دودویی جستجو (BST) است که با هدف بهینه‌سازی سرعت جستجو طراحی شده است. 🌲 در این درخت، هدف این است که میانگین زمان جستجو برای دسترسی به گره‌های مختلف به حداقل برسد. این نوع درخت برای مجموعه‌ای از کلیدهایی که هر کدام احتمال جستجوی مشخصی دارند، ساخته می‌شود. 📈

ساختار و هدف 🎯
درخت جستجوی بهینه برای کاهش هزینه‌های جستجو در یک مجموعه داده طراحی شده است که هر کلید آن با یک احتمال دسترسی مشخص مشخص می‌شود. هر کلیدی که بیشتر جستجو می‌شود، باید به ریشه یا گره‌های نزدیک‌تر به ریشه نزدیک‌تر باشد تا زمان دسترسی به آن کاهش یابد.

کاربرد درخت جستجوی بهینه 💼
این نوع درخت معمولاً در مواردی استفاده می‌شود که نیاز به تعداد زیادی عملیات جستجو باشد و بخواهیم بهینه‌ترین ساختار داده را برای کاهش زمان جستجو داشته باشیم. نمونه‌هایی از این کاربردها:

- کامپایلرها برای تحلیل جملات برنامه 🖥
- سیستم‌های پایگاه داده برای سرعت بخشیدن به عملیات جستجو در داده‌های پرتکرار 🗃
- موتورهای جستجو و الگوریتم‌های جستجوی سریع 🔍

مراحل ساخت درخت جستجوی بهینه 🔄
برای ساخت درخت جستجوی بهینه، الگوریتم‌های برنامه‌نویسی پویا (Dynamic Programming) به کار می‌روند. مراحل به شرح زیر هستند:

1. تعریف احتمالات دسترسی: هر کلید (K_i) از کلیدهای مجموعه یک احتمال دسترسی (P(i)) دارد که بیانگر احتمال جستجوی آن کلید است. 📊

2. محاسبه هزینه جستجو: هزینه جستجو معمولاً به صورت مجموع حاصل ضرب عمق هر گره در احتمال دسترسی آن تعریف می‌شود. هدف این است که این هزینه کمینه شود. 🔽

3. ساخت جدول هزینه‌ها: از طریق **برنامه‌نویسی پویا**، یک جدول هزینه ساخته می‌شود که نشان‌دهنده کمترین هزینه جستجو برای زیرمجموعه‌های مختلف کلیدها است. 📅

4. ساخت درخت: با استفاده از جدول هزینه‌ها، درخت بهینه با قرار دادن کلیدها در سطوح مناسب ساخته می‌شود. 🌳

پیاده‌سازی الگوریتم 🔧
درخت جستجوی بهینه معمولاً با استفاده از برنامه‌نویسی پویا پیاده‌سازی می‌شود. این الگوریتم به صورت بازگشتی یا از پایین به بالا عمل می‌کند تا با در نظر گرفتن تمامی حالت‌های ممکن برای چیدمان کلیدها، بهترین چیدمان را پیدا کند. 🔍

پیچیدگی زمانی ⏱️
پیچیدگی زمانی این الگوریتم در حالت کلی (O(n^3)) است، چرا که برای هر زیرمسئله به مقایسه تمامی ترکیب‌های ممکن برای کلیدها نیاز دارد. با این حال، می‌توان آن را بهینه‌تر کرد، اما همچنان زمان‌بر است.

مزایا و معایب 🔄
- مزایا:
- بهینه‌سازی شدهبرای شرایطی که احتمال دسترسی به کلیدها متفاوت است.
- زمان جستجوی میانگین کمتر از درخت جستجوی دودویی ساده در شرایطی که احتمال دسترسی مشخص است. 📉

- معایب:
- ساخت درخت پیچیده و زمان‌بر است. 🚧
- در صورت تغییر در احتمالات دسترسی کلیدها، نیاز به بازسازی درخت وجود دارد. 🔄

مثال 📘
فرض کنید مجموعه کلیدهای ما ([K1, K2, K3]) باشد و احتمال دسترسی به آن‌ها به ترتیب (P1=0.2)، (P2=0.5)، و (P3=0.3) باشد. برای یافتن بهینه‌ترین ساختار، کلید (K2) که احتمال دسترسی بیشتری دارد، باید در سطح بالاتر (نزدیک به ریشه) قرار گیرد.

این فرآیند کمک می‌کند که جستجوها با میانگین زمان کمتری انجام شوند. 📈

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

11 Nov, 11:53


Neural Networks Basic Cheat Sheet

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

11 Nov, 11:53


سرویس مخفی آمریکا پس از پیروزی دونالد ترامپ در انتخابات، برای افزایش امنیت در املاک او از سگ‌های رباتیک استفاده کرده است.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

11 Nov, 04:07


معرفی بورس کشور چین-دانشگاه هاربین

Algorithm design & data structure

11 Nov, 03:43


Mathematics of machine learning

به طور کلی، یادگیری ماشین به شناسایی خودکار الگوها در داده‌ها اشاره دارد. به همین دلیل، این حوزه بستر مناسبی برای پیشرفت‌های جدید در آمار و الگوریتم‌ها بوده است. هدف این دوره ارائه‌ی مقدمه‌ای دقیق و ریاضی‌محور به این پیشرفت‌ها با تمرکز بر روش‌ها و تحلیل آن‌ها است.

https://ocw.mit.edu/courses/18-657-mathematics-of-machine-learning-fall-2015/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

10 Nov, 13:44


🌟 اسلایدهای درس ساختمان داده و طراحی الگوریتم دانشگاه صنعتی شریف 🌟

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

10 Nov, 13:13


عنوان پروژه‌ای که پیاده‌سازی شده، "ساخت Bot مبتنی بر LLM به عنوان دستیار فروش در تلگرام با Python" است.کارهایی که در این پروژه انجام می‌شود به شرح زیر است:

1. فرض شده که در حوزه فروش آنلاین کفش و لباس فعالیت داریم و گروهی برای این منظور در تلگرام راه‌اندازی کرده‌ایم.
2. یک Bot در تلگرام می‌سازیم و از طریق Python به آن متصل می‌شویم تا بتواند به پیام‌های کاربران در گروه پاسخ دهد.
3. لیست محصولات فروشگاه و توضیحات آن‌ها را در یک vectorDB ذخیره می‌کنیم.
4. این Bot توانایی درک پیام‌های کاربران (مثل "یک کفش بنددار مشکی می‌خواهم") را با استفاده از یک مدل retrieval دارد و می‌تواند محصولات مرتبط را پیشنهاد دهد.
5. علاوه بر آن، این Bot می‌تواند بر اساس توصیف کاربران از خودشان (مثل "من یک خانم ۲۷ ساله هستم، قد ۱۷۲، علاقه‌مند به رنگ‌های تیره و استایل رسمی")، ترکیب‌های کامل لباس را پیشنهاد دهد و گزینه‌های مشابه را از vectorDB جستجو کند.

لینک ویدئو:
https://www.youtube.com/watch?v=1R-sMhOnLeo
لینک کد:
https://github.com/aix64-main/LLM_Fashion_Telegram

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

09 Nov, 20:35


"TABPFN: A Transformer That Solves Small Tabular Classification Problems in a Second"
این مقاله با معرفی مدلی به نام TabPFNبه یک راهکار جدید برای مسائل طبقه بندی دادههای جدولی کوچک میپردازد. TabPFN یک شبکه ترنسفورمر پیش آموزشیافته است که میتواند طبقهب ندی دادههای جدولی را در کمتر از یک ثانیه انجام دهد. این مدل نیاز به تنظیم ابرپارامترها ندارد و در مقایسه با روشهای پیشرفته طبقه بندی، عملکردی رقابتی ارائه میدهد.

Paper :https://arxiv.org/abs/2207.01848
Code : https://github.com/automl/TabPFN

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

09 Nov, 17:51


🧬 Cellpose 🧬

در واقعCellpose یک الگوریتم یادگیری عمیق منبع بازه که برای cell segmentation در biological images طراحی شده. این ابزار که توسط MouseLand توسعه داده شده، از CNNs استفاده می‌کنه تا دقت بالایی رو در زمینه‌های مختلف تصویربرداری ارائه بده. 🧫

💡 Human-in-the-Loop 💡
یکی از ویژگی‌های منحصربه‌فرد Cellpose، قابلیت Human-in-the-Loop هست که به کاربر اجازه می‌ده به صورت تعاملی نتایج segmentation رو بهبود بده. این ویژگی باعث می‌شه الگوریتم به شرایط خاص و نیازهای کاربران بهتر تطبیق پیدا کنه. 🛠🔍

🖥 User-Friendly Interface 🖥
میتوان گفتCellpose دارای رابط گرافیکی کاربرپسند هست که حتی برای پژوهشگرانی که تجربه برنامه‌نویسی زیادی ندارن، استفاده از اون آسونه. این ابزار به همه اجازه می‌ده که بدون نیاز به دانش عمیق محاسباتی از قابلیت‌های پیشرفته deep learning بهره ببرن. 📊🔓


source : https://github.com/MouseLand/cellpose?tab=readme-ov-file

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

09 Nov, 15:58


📚 برترین مقالات RAG هفته اول نوامبر ۲۰۲۴

۱. RAGViz Tool
ابزار RAGViz یک ابزار تشخیص پیشرفته برای سیستم‌های RAG است که با استفاده از رابط کاربری جذاب و مدل LLM داخلی، توجه توکن‌ها را در اسناد بازیابی شده به صورت بصری نمایش می‌دهد. این ابزار دو ویژگی اصلی دارد:
- نمایش توجه توکن‌ها و اسناد در سطح جزئیات بالا
- مقایسه تولیدات پس از اضافه یا حذف اسناد زمینه‌ای
عملکرد این ابزار بسیار سریع است، با زمان پاسخ‌دهی متوسط ۵ ثانیه.
Paper : https://arxiv.org/abs/2411.01751

۲.RAGulator (Irrelevant LLM output Detectors in RAG)
در این مقاله، RAGulator معرفی شده که یک مدل سبک و سریع برای تشخیص خروجی‌های خارج از زمینه در سیستم‌های RAG است. این مدل از DeBERTa برای شناسایی متن‌های تولید شده نامربوط استفاده می‌کند و بدون نیاز به پردازش اضافی یا مهندسی ویژگی‌ها، دقت بالایی دارد.
Paper:https://arxiv.org/abs/2411.03920

۳. Long Context RAG
این تحقیق به بررسی اثرات طول زمینه در عملکرد RAG در ۲۰ مدل LLM مختلف پرداخته است. نتایج نشان می‌دهد که در حالی که بازیابی اسناد بیشتر می‌تواند دقت را بهبود بخشد، تنها مدل‌های پیشرفته‌ای که طول زمینه بیشتری از ۶۴ هزار توکن را پشتیبانی می‌کنند، می‌توانند دقت ثابت را حفظ کنند.
Paper:https://arxiv.org/abs/2411.03538

۴. Rationale-Guided RAG
این مقاله به معرفی RAG2 می‌پردازد که برای کاربردهای زیست‌پزشکی طراحی شده است و با استفاده از رشنال‌های LLM بهبود می‌یابد. RAG2 با فیلتر کردن اطلاعات بی‌ربط و بهبود بازیابی، موفق به افزایش دقت سیستم‌های RAG تا ۶.۱٪ شده است.
Paper:https://arxiv.org/abs/2411.00300

۵. Adaptive Filtering for RAG
مدل E2E-AFG یک مدل تمام‌عیار برای فیلترگذاری تطبیقی در سیستم‌های RAG است. این مدل به صورت خودکار تمرکز بیشتری بر محتوای مرتبط می‌کند و باعث کاهش تاثیر اطلاعات غیرمرتبط و افزایش دقت تولیدات می‌شود. E2E-AFG در تمام وظایف، نتایج بهتری نسبت به مدل‌های پایه داشته است.
Paper:https://arxiv.org/abs/2411.00437

۶. Data Extraction Attacks in RAG
این مقاله به حملات استخراج داده در سیستم‌های RAG پرداخته و روش‌هایی برای تزریق داده‌های مسموم به مدل‌های LLM معرفی کرده است. نتایج نشان می‌دهند که حتی با ۳٪ داده مسموم، می‌توان به طور مؤثر به داده‌های حساس دسترسی پیدا کرد و این مسئله تهدیدات امنیتی بزرگی برای سیستم‌های RAG به همراه دارد.
Paper:https://arxiv.org/abs/2411.01705

۷. CORAG (Retrieval Optimization System for RAG)
در واقع CORAG یک سیستم بهینه‌سازی جدید برای بازیابی در RAG است که با استفاده از JST به صورت پیوسته به دنبال انتخاب بهینه اسناد می‌گردد و توانایی در نظر گرفتن ارتباطات بین بخش‌ها را دارد. این مدل به طور چشمگیری کارایی را نسبت به مدل‌های سنتی بهبود می‌بخشد.
Paper:https://arxiv.org/abs/2411.00744

۸. M3DocRAG (Multimodal RAG)

مدل M3DocRAG به عنوان یک چارچوب چندوجهی جدید، توانایی تطبیق با انواع مختلف اسناد، دامنه‌های مختلف و سوالات چندگانه را دارد. این مدل با استفاده از ColPali و Qwen2-VL 7B عملکرد بسیار بهتری نسبت به مدل‌های پایه نشان داده است و قادر است انواع مختلف شواهد (متن، نمودار، تصویر و...) را در فرآیند بازیابی اطلاعات به کار گیرد.
Paper:https://arxiv.org/abs/2411.04952


با اشتراک این مقالات پیشرفته، از آخرین دستاوردها در دنیای RAG مطلع شوید و با محققان دیگر در ارتباط باشید! 🚀

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

09 Nov, 12:58


🤖 Fall Detection System | ایمنی با هوش مصنوعی 🛡

⚠️ هر سال، میلیون‌ها نفر از سالمندان دچار سقوط‌های خطرناک می‌شوند که اغلب برای ساعت‌ها نادیده می‌مانند. این تأخیر در واکنش می‌تواند به مشکلات جدی یا حتی بدتر منجر شود.

سیستم تشخیص سقوط با هوش مصنوعی که:
📹 بلافاصله لحظه‌ی سقوط را شناسایی می‌کند
🚨 به‌طور خودکار هشدارها را با مدرک تصویری ارسال می‌کند
💬 در زمان واقعی مراقبان را از طریق Telegram مطلع می‌سازد

مناسب برای:
🏥 مراکز نگهداری سالمندان
🏠 Home monitoring
🏭 High-risk workplaces

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

09 Nov, 12:43


آموزش نوشتن پروپوزال

#علوم_پزشکی #مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person

Algorithm design & data structure

06 Nov, 03:29


"حمله‌ی یک پیکسل" (One Pixel Attack) به نقطه‌ضعفی در شبکه‌های عصبی اشاره دارد که با تغییر تنها یک پیکسل در تصویر، مدل دچار اشتباه در تشخیص (misclassification) می‌شود. برای مثال، یک شبکه‌ی عصبی ممکن است با تغییر کوچک یک پیکسل در تصویر، آن را اشتباه دسته‌بندی کند، حتی اگر تغییر بسیار جزئی باشد. این مشکل، به‌ویژه در کاربردهای امنیتی، نگرانی‌هایی ایجاد می‌کند. یکی از راهکارها استفاده از روش‌های بهینه‌سازی مانند "تکامل تفاضلی" (Differential Evolution) است که به شبکه کمک می‌کند تا در برابر این حملات مقاوم‌تر شود. با اضافه کردن یک بردار به ورودی، حساسیت شبکه نسبت به این تغییرات کاهش پیدا می‌کند و باعث می‌شود که شبکه در مواجهه با چنین حملاتی پایدارتر عمل کند.

Paper : https://arxiv.org/abs/1710.08864

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

06 Nov, 03:13


آیا واقعا میشه LLM هارو روی گوشی بالا اورد؟

امیدوارم نگی که من همین الانشم با گوشی از ChatGPT استفاده میکنم که دلم میشکنه 😕

در واقع اینجا منظور ما استفاده از
On-Device Use Cases
هست که محاسبات و پردازش داده‌ها به‌صورت مستقیم رو خود دستگاه انجام میشه. و نیازی به استفاده از سرویس ابری نیست.

آیا مدل Llama-7B رو میشه روی گوشی استفاده کرد؟ گوشی های امروزی میانگین 8 گیگ رم (DRAM) دارن، این یعنی یک مدل با 7 میلیارد وزن رو میشه تو 7 گیگ رم ذخیره کرد. الان شاید بگی چقدر عالی 1 گیگ رم هم اضافه داریم 😂

ولی نه از اونجایی سیستم عامل و خیلی از اپلیکیشن های دیگه باید رو رم اجرا بشن پس این چالش انگیزه‌ای هست که مدل‌های LLM کوچکتر (پارامترهای کمتر) ساخته بشه و میزان پارامتر ها خیلی کمتر بشه طبق استاندارد ها یک اَپ موبایل نباید بیشتر از 10% DRAM رو اشغال کنه

چند روز پیش تو این پست مدل سبک جدید Llama3.2 رو معرفی کردیم. که با دو وزن 1 و 3 میلیارد پارامتری ارائه شده.

اگه بخواییم مدل Llama3.2 با 1 میلیارد پارامتر رو رو گوشی سرو کنیم منطقی تر هست اما باز 1 میلیارد عدد قابل توجهی هست و برای همین تو این مقاله با عنوان:

MobileLLM: Optimizing Sub-billion Parameter Language Models for On-Device Use Cases


لینک مقاله | هاگینگ فیس
اومدن تعداد پارامترها رو کمتر هم کردن و یک مدل اصطلاحا Small Language Model درست کردن که مفهومی به اسم Sub-billion Parameter Language Models داره یعنی این مدل به بزرگی مدل‌های LLM بیلیونری مانند Llama و GPT-4 و غیره نیست و 125 و 350 میلیون پارامتر داره

در ادامه باید بدونید از چالش های ساختن یک مدل LLM خیلی سبک وزن، به رم محدود نمیشه و میزان مصرف باتری، سرعت Generate مدل و معماری استفاده در مدل هم تاثیر زیادی دارن که میتونه موضوع تحقیقات شما باشه (به زودی در مورد اینا هم مینویسم)

@silicon_brain | از هوش مصنوعی عقب نمانید

Algorithm design & data structure

05 Nov, 20:44


در این مجموعه ویدیوها، به صورت ساده و کاربردی نحوه استفاده و تنظیم (tuning) مدل‌های LLM با استفاده از زبان برنامه‌نویسی Python آموزش داده شده است. این دوره به شکلی طراحی شده که شما بتوانید به راحتی با ابزارهای مربوطه کار کرده و به طور عملی مهارت‌های لازم را کسب کنید.

سرفصل‌های این دوره شامل موارد زیر است:

11. مقدمه‌ای بر LLMها
2. کار با ابزارهای Transformers برای شروع استفاده از مدل‌های زبانی
3. مهندسی Prompt برای بهبود تعامل با مدل‌ها
4. ساخت خودکار Prompt و بهینه‌سازی آن
5. مبحث In-Context Learning برای یادگیری در بستر ورودی‌ها
6. مبحث Retrieval Augmented Generation (RAG) و کار با vectorDBها
7. مبحث Fine-tuningو تنظیم Alignment
مدل‌ها روی داده‌های جدید
8. بررسی روش‌های ارزیابی کیفیت مدل‌های LLM



این دوره برای کسانی که به دنبال یادگیری عملی و کاربردی در زمینه مدل‌های زبانی هستند، بسیار مفید خواهد بود.

Link course : https://www.youtube.com/playlist?list=PLHldQ76_k1klWQE7GyGfLH6m4iHOdVogN

Linl code : https://github.com/aix64-main/LLMs

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Nov, 20:44


Graphs In Data Structures | Graph Representation In Data Structure | Data Structures | Simplilearn


#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Nov, 17:07


Formal Explanations for Neuro-Symbolic AI

این مقاله به بررسی نقاط ضعف سیستم‌های هوش مصنوعی عصبی (Neural AI) مانند bias و brittleness پرداخته و راهکاری تحت عنوان Neuro-Symbolic AI ارائه می‌دهد. این رویکرد ترکیبی از neural perception و symbolic reasoning است که می‌تواند این مشکلات را برطرف کند.

همچنین، مقاله به اهمیت Explainable AI (XAI) اشاره می‌کند، که در آن تلاش می‌شود تا رفتار سیستم‌های هوش مصنوعی شفاف و قابل‌فهم شود. در این راستا، مقاله رویکردی به نام formal abductive explanations معرفی می‌کند که توضیحات سیستم‌های نوروسمبولیک را به‌صورت سلسله‌مراتبی ارائه می‌دهد. در این رویکرد ابتدا قسمت سمبولیک سیستم توضیح داده می‌شود و سپس ورودی‌های عصبی مرتبط به‌صورت مستقل بررسی می‌شوند تا توضیحاتی مختصر و کارآمد ارائه شود.

این مقاله برای کسانی که به دنبال مطالعه در زمینه neuro-symbolic AI و explainability هستند، یک منبع بسیار ارزشمند است و به ویژه به افرادی که به کاربرد هوش مصنوعی در complex reasoning tasks علاقه دارند، توصیه می‌شود.

https://arxiv.org/abs/2410.14219

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Nov, 14:50


برای شروع مسیر در هوش مصنوعی، یک نقشه راه گام به گام ضروریه که مبانی پایه، ابزارها، و پیاده‌سازی عملی رو پوشش بده. در ادامه یه نقشه راه جامع رو باهات به اشتراک می‌ذارم که می‌تونی با توجه به نیازت اون رو شخصی‌سازی کنی:

1. 📚یادگیری مبانی ریاضیاتی

- جبر خطی: کار با ماتریس‌ها، بردارها، ضرب نقطه‌ای و ماتریسی.
- احتمالات و آمار: توزیع‌ها، احتمال شرطی، آزمون فرضیه.
- حساب دیفرانسیل و انتگرال: مشتق و گرادیان.
- بهینه‌سازی: الگوریتم‌های گرادیان نزولی.

2. 💻 زبان‌های برنامه‌نویسی
- پایتون: محبوب‌ترین زبان برای هوش مصنوعی. کتابخانه‌های مهم:
-کتابخانه NumPy: برای کار با آرایه‌ها.
-کتابخانه Pandas: برای تحلیل داده‌ها.
-کتابخانه Matplotlib و Seaborn: برای مصورسازی داده‌ها.

3. 🤖 مفاهیم پایه در هوش مصنوعی
- یادگیری ماشین (Machine Learning):
- مدل‌های کلاسیک: رگرسیون خطی، لجستیک، SVM، درخت تصمیم‌گیری.
- یادگیری نظارت‌شده و بدون نظارت: کلاسیفیکیشن و خوشه‌بندی.
- یادگیری عمیق (Deep Learning):
- شبکه‌های عصبی مصنوعی (ANN): توابع فعال‌سازی.
- شبکه‌های عصبی کانولوشنی (CNN): برای داده‌های تصویری.
- شبکه‌های عصبی بازگشتی (RNN) و LSTM: برای داده‌های ترتیبی.

4. 📊 مبانی یادگیری ماشین
- مفاهیم کلیدی:
-مفاهیم Overfitting و Underfitting: چگونگی تشخیص و پیشگیری.
-مفهوم Regularization (تنظیم): Ridge و Lasso.
- Validation (اعتبارسنجی): Cross-validation.
- الگوریتم‌ها:
- KNN، SVM، Random Forest، Gradient Boosting.

5. 🛠 کار با ابزارها و کتابخانه‌ها
-کتابخانه Scikit-learn: برای الگوریتم‌های یادگیری ماشین.
-کتابخانه TensorFlow و PyTorch: برای پیاده‌سازی شبکه‌های عصبی.

6. 🏗 یادگیری پروژه‌محور
- پروژه‌های پیشنهادی:
- دسته‌بندی تصاویر: استفاده از CNN.
- پیش‌بینی سری‌های زمانی: داده‌های آب و هوا.
- تشخیص احساسات: برای پردازش متون.
- استفاده از منابع داده مثل Kaggle و UCI.

7. 🚀 مطالعه الگوریتم‌های پیشرفته
- بعد از تسلط بر پایه‌ها:
-الگوریتم Transformer: برای داده‌های ترتیبی.
-الگوریتم GANs: برای تولید داده مصنوعی.
-الگوریتم Reinforcement Learning (یادگیری تقویتی): تصمیم‌گیری‌های پویا.

8. 📝 ساخت پروفایل و رزومه
- پروژه‌ها رو در GitHub به اشتراک بذار.
- پروفایل LinkedIn رو تقویت کن و با متخصصان شبکه‌سازی کن.

9. 🏆 شرکت در مسابقات و چالش‌ها
- در Kaggle و DrivenData شرکت کن تا مهارت‌هات رو در پروژه‌های واقعی محک بزنی.

با دنبال کردن این مسیر می‌تونی به تدریج مهارت‌های خودت رو در حوزه هوش مصنوعی تقویت کنی و به مسائل پیچیده‌تر و پروژه‌های حرفه‌ای‌تر برسی.

#هوش_مصنوعی
👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Nov, 10:48


اگر به موضوعاتی مانند یادگیری ماشین، ترنسفورمرها و مطالعه مقالات علمی علاقه‌مند هستید، پیشنهاد می‌کنم حتماً کانال یوتیوب Deep Hosh را دنبال کنید. برای دسترسی به آن، به لینک زیر مراجعه کنید.

http://www.youtube.com/@deephoosh

#هوش_مصنوعی
👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

05 Nov, 10:48


binary search

#الگوریتم
👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Nov, 22:34


🎉 معرفی مدل Gooya v1 – دقیق‌ترین مدل تشخیص گفتار فارسی! 🎉

امروز مفتخریم که مدل پیشرفته‌ی Gooya v1 را معرفی کنیم، مدلی که در حوزه تشخیص گفتار فارسی (ASR) یک قدم بزرگ به جلو برداشته است. این مدل روی یک مجموعه داده بزرگ ۳۲ گیگابایتی (بیش از ۳۰۰ ساعت داده صوتی فارسی) آموزش داده شده و در صدر لیدربرد Open Persian ASR قرار گرفته است! 🚀

نکته جالب توجه اینجاست که Gooya v1 حتی از مدل Whisper ساخته‌شده توسط OpenAI نیز پیشی گرفته است و توانسته جایگاه اول را به خود اختصاص دهد.

📌 برای تست این مدل می‌توانید به دمو در Huggingface مراجعه کنید:
https://huggingface.co/spaces/navidved/gooya-v1

پ.ن :طبق گفته های خودشون مدل رو به اشتراک نمیزارن.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Nov, 20:43


پشته (Stack) یکی از مهم‌ترین ساختارهای داده‌ای است که بر اساس اصل LIFO (Last In, First Out) عمل می‌کند. این به این معنی است که آخرین عنصری که وارد پشته می‌شود، اولین عنصری است که خارج می‌شود. پشته به عنوان یک ساختار ساده و در عین حال قدرتمند در بسیاری از الگوریتم‌ها و برنامه‌های کاربردی استفاده می‌شود.

ویژگی‌ها و عملکرد پشته:
1. LIFO (آخرین ورودی، اولین خروجی): پشته به این صورت عمل می‌کند که وقتی عنصری را وارد آن می‌کنیم (عملیات push)، آن عنصر در بالای پشته قرار می‌گیرد. زمانی که نیاز به خارج کردن عنصری داریم (عملیات pop)، آخرین عنصری که وارد شده است، خارج می‌شود.

2. توابع اصلی پشته:
-تابع push(item): این تابع یک عنصر جدید را به بالای پشته اضافه می‌کند.
-تابع pop(): این تابع آخرین عنصر اضافه‌شده به پشته را حذف و بازمی‌گرداند.
-تابع peek(): این تابع مقدار بالاترین عنصر موجود در پشته را بدون حذف آن بازمی‌گرداند.
-تابع isEmpty(): این تابع بررسی می‌کند که آیا پشته خالی است یا خیر.
-تابع size(): این تابع اندازه پشته (تعداد عناصر موجود) را بازمی‌گرداند.

3. پیاده‌سازی:
پشته می‌تواند به صورت آرایه یا لیست پیوندی پیاده‌سازی شود. در پیاده‌سازی آرایه، برای عملیات push و pop باید به ابتدای یا انتهای آرایه مراجعه کنیم که بسته به نوع آرایه ممکن است بهینه نباشد. لیست‌های پیوندی به‌خاطر دینامیک بودن و عدم نیاز به تعریف اندازه اولیه، برای پیاده‌سازی پشته‌های پویا مفیدتر هستند.

4. کاربردها:
- محاسبات ریاضی (Postfix و Prefix): از پشته در ارزیابی عبارات ریاضی استفاده می‌شود.
- برگرداندن رشته‌ها: پشته‌ها برای معکوس کردن رشته‌ها بسیار مفید هستند. به عنوان مثال، اگر بخواهیم کلمه‌ای را معکوس کنیم، می‌توانیم حروف را یکی‌یکی در پشته قرار دهیم و سپس آنها را به ترتیب خارج کنیم.
- کنترل دسترسی به توابع (Recursion): در برنامه‌نویسی بازگشتی، سیستم پشته برای نگه‌داری وضعیت فعلی تابع استفاده می‌شود.
- مدیریت حافظه: در زمان اجرای برنامه‌ها، سیستم عامل برای مدیریت حافظه و ذخیره داده‌های موقت از پشته‌ها استفاده می‌کند.

مثال از پیاده‌سازی پشته در پایتون:
class Stack:
def __init__(self):
self.items = []

def isEmpty(self):
return self.items == []

def push(self, item):
self.items.append(item)

def pop(self):
if not self.isEmpty():
return self.items.pop()
else:
return None

def peek(self):
if not self.isEmpty():
return self.items[-1]
else:
return None

def size(self):
return len(self.items)

# استفاده از پشته
stack = Stack()
stack.push(5)
stack.push(10)
print(stack.pop()) # خروجی: 10
print(stack.peek()) # خروجی: 5


در این مثال، ما یک کلاس Stack ایجاد کرده‌ایم که با استفاده از لیستی از عناصر پشته پشتیبانی می‌کند و توابع اصلی مثل push، pop و peek را پیاده‌سازی می‌کند.

پیچیدگی زمانی:
-تابع push: در حالتی که پشته به صورت لیست آرایه‌ای پیاده‌سازی شود، این عمل دارای پیچیدگی زمانی O(1) است.
-تابع pop: عمل حذف نیز مانند اضافه کردن، دارای پیچیدگی O(1) است.
-تابع peek: این عمل نیز زمان ثابت O(1) دارد.

پشته‌ها یکی از ساده‌ترین و در عین حال پرکاربردترین ساختارهای داده‌ای هستند که در بسیاری از الگوریتم‌های پایه و پیشرفته استفاده می‌شوند.

#الگوریتم
👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Nov, 20:43


مقاله جدیدی با عنوانBuzz: KV Caching algorithm with beehive-structured sparse cache to prioritize important tokens for Efficient LLM Inference
منتشر شده است. این مقاله به ارائه یک روش بدون نیاز به آموزش برای بهینه‌سازی مکانیزم کش KV در مدل‌های ترنسفورمر می‌پردازد. BUZZ با استفاده از یک کش پراکنده ساختارمند، از پنجره لغزان برای به‌روز نگه‌داشتن اطلاعات استفاده می‌کند و توکن‌های قدیمی را در بخش‌های مختلف سازماندهی می‌کند تا توکن‌های مهم‌تر اولویت داده شوند.

مزایای BUZZ:
- کاهش قابل‌توجه استفاده از حافظه (2.5 برابر) در استنتاج LLM‌ها در حالی که دقت بالای 99٪ در خلاصه‌سازی متن‌های طولانی را حفظ می‌کند.
- بهبود 7.69 درصدی در پرسش و پاسخ چندسندی تحت محدودیت حافظه نسبت به روش‌های پیشرفته.
- پیچیدگی زمانی O(n) به لطف مکانیسم جستجوی محلی و بهینه‌سازی با log n.

این مقاله برای علاقه‌مندان به بهینه‌سازی حافظه و استنتاج سریع در مدل‌های زبانی بزرگ مفید خواهد بود.

Paper : https://arxiv.org/abs/2410.23079

#هوش_مصنوعی
👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Nov, 14:27


۱_مباحث پایه و شبکه های تماما متصل MLP

مهمترین و پایه ای ترین قسمت درس اینجاست از بقیه مباحث جدی تر بگیرینش در واقع بقیه مباحث صرفا ایده شبکه های عصبی رو تو جاهای مختلف به کار برده و اصل قضیه همین شبکه های عصبی fully connected (یا multi layer perceptron) هستش

Algorithm design & data structure

04 Nov, 06:59


دسته بندی الگوریتم های یادگیری ماشین

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Nov, 06:59


🔍 پدیده‌ای جدید در مدل‌های زبانی بزرگ: انجام چندین کار هم‌زمان با یک فراخوانی! 🔍

مدل‌های زبانی بزرگ (LLMs) هر روز ما را شگفت‌زده‌تر می‌کنند، اما آخرین کشف در مورد توانایی آن‌ها ممکن است حتی از حد انتظارمان فراتر رود! 😯 در مقاله‌ای با عنوان "Everything Everywhere All at Once: LLMs Can In-Context Learn Multiple Tasks in Superposition"، محققان یک قابلیت جدید به نام برهم‌نهی وظایف (Task Superposition) را بررسی کرده‌اند.

🔸 این پدیده به ما نشان می‌دهد که مدل‌های زبانی می‌توانند چندین وظیفه مختلف را به‌طور هم‌زمان و تنها در یک مرحله پردازش کنند. فرض کنید یک مدل نه تنها به سؤالات متنی پاسخ دهد، بلکه هم‌زمان مسئله ریاضی را حل کند و حتی ترجمه‌ای هم ارائه دهد! 😲

🔹 جالب‌تر اینکه هرچه مدل‌ها بزرگ‌تر شوند، می‌توانند وظایف بیشتری را هم‌زمان انجام دهند و نتیجه‌های دقیق‌تری ارائه کنند. این یعنی قدرت پردازشی LLMها به حدی رسیده که می‌توانند بدون نیاز به آموزش جداگانه برای هر وظیفه، چندین وظیفه متفاوت را به طور هم‌زمان انجام دهند. 🌐

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Nov, 03:26


📚پاورپوینت کتاب هوش مصنوعی
👨‍🏫استاد علی رمزی
✏️ راسل و نورویگ
✒️زبان فارسی

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

04 Nov, 03:26


📚میان‌ترم و پایان ترم ساختمان داده‌ها و الگوریتم
👨‍🏫استاد سید مجید رضویان

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

03 Nov, 20:44


سلام به همگی

قصد دارم جزوه‌های دروس کاربردی مثل هوش مصنوعی، ساختمان داده، طراحی الگوریتم و… رو از دانشگاه‌های مختلف جمع‌آوری کنم و در کانال به اشتراک بگذارم تا همگی استفاده کنیم. اگر جزوه مفیدی دارید، ممنون میشم از هر دانشگاهی که هستید به آی‌دی زیر ارسال کنید. 🙏📘

🆔: @Se_mohamad
تشکر از همراهی‌تون! 😊

Algorithm design & data structure

03 Nov, 20:36


سایت HackerRank یکی از بهترین منابع برای یادگیری و تمرین مفاهیم برنامه‌نویسی و ساختار داده‌ها است. این پلتفرم چالش‌های مختلفی در حوزه‌های گوناگون مانند ساختار داده‌ها، الگوریتم‌ها، هوش مصنوعی و یادگیری ماشین ارائه می‌دهد. کاربران می‌توانند با حل این چالش‌ها مهارت‌های خود را بهبود بخشند و حتی گواهی‌نامه‌های معتبری برای مهارت‌هایشان کسب کنند.

بخش Data Structures در HackerRank شامل تمرین‌های متنوعی از جمله آرایه‌ها، لیست‌های پیوندی، درخت‌ها، پشته‌ها، صف‌ها و گراف‌ها است. این تمرین‌ها به کاربران کمک می‌کنند تا با مفاهیم بنیادی ساختار داده‌ها آشنا شوند و با حل مسائل عملی، دانش خود را در این زمینه تقویت کنند.

به علاوه، HackerRank فرصتی برای شرکت در رقابت‌های برنامه‌نویسی و یادگیری از جامعه‌ای بزرگ از برنامه‌نویسان فراهم می‌کند.

https://www.hackerrank.com/domains/data-structures

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

03 Nov, 20:36


اگر هنوز با بخش رمزگذار (Encoder) ترانسفورمر آشنا نیستید، در این لینک، توضیحات گام‌به‌گام و دقیقی از این بخش را پیدا خواهید کرد. با دنبال کردن این راهنما، می‌توانید یک "مدل ذهنی" شفاف از ترانسفورمر بسازید و اصول و عملکرد رمزگذار را به سادگی درک کنید.

https://towardsdatascience.com/drawing-the-transformer-network-from-scratch-part-1-9269ed9a2c5e

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

03 Nov, 13:56


🔍 تحقیقات جدید در زمینه مدل‌های چندمدلی LLM

در زمینه‌ی مدل‌های LLM چندمدلی، تحقیقات جدیدی صورت گرفته است، از جمله مدل‌های دیداری Llama 3.2 که استراتژی‌های معماری متنوعی را برای یکپارچه‌سازی انواع مختلف داده‌ها مانند متن و تصویر به کار می‌برند.

به عنوان مثال، روش تنها رمزگذار از یک پشته واحد از بلوک‌های رمزگذار برای پردازش تمام حالت‌ها به صورت توالی استفاده می‌کند.

از سوی دیگر، روش‌های توجه متقابل (مانند آنچه در Llama 3.2 استفاده شده) شامل رمزگذارهای جداگانه برای حالت‌های مختلف با یک لایه توجه متقابل است که به این رمزگذارها اجازه می‌دهد تا با هم تعامل داشته باشند.

📄 مقاله‌ی جدید به توضیح نحوه‌ی عملکرد این انواع مختلف LLM چندمدلی می‌پردازد. علاوه بر این، به بررسی و خلاصه‌سازی حدود دوازده مقاله و مدل چندمدلی اخیر که در هفته‌های گذشته منتشر شده‌اند، را مورد بررسی قرار می دهد تا رویکردهای آن‌ها را مقایسه کنم.

📰 برای اطلاعات بیشتر، حتماً این مقاله رو مطالعه کنید:
https://www.linkedin.com/pulse/understanding-multimodal-llms-sebastian-raschka-phd-t7h5c/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

03 Nov, 11:41


🖥 All Data Structures

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

02 Nov, 20:35


روی مدل‌های زبان تصویری (Vision Language Models یا VLMs) حساب کنید.

با انتشار مدل‌های Llama 3.2 و ColQwen2، مدل‌های چندوجهی (multimodal) توجه زیادی به خود جلب کرده‌اند.

در واقع VLMها مدل‌های چندوجهی هستند که می‌توانند با ورودی‌های تصویری و متنی کار کنند:

ورودی: تصویر و متن
خروجی: متن

این مدل‌ها کاربردهای متنوعی دارند، از جمله پاسخ به پرسش‌های بصری یا درک اسناد (همان‌طور که در ColQwen2 دیده می‌شود).

چگونه این مدل‌ها کار می‌کنند؟

چالش اصلی در VLMها، یکپارچه‌سازی نمایشی‌های تصویر و متن است.

برای این منظور، معماری معمول VLM شامل اجزای زیر است:

- انکودر تصویر (مانند CLIP، SigLIP)
- پروژکتور تعبیه‌ای (embedding projector) برای هماهنگی نمایشی‌های تصویر و متن
- دیکودر متن (مانند Vicuna، Gemma)

More : https://huggingface.co/blog/vlms

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

02 Nov, 18:40


در اینجا نکات مهم و کاربردی درباره کد هافمن همراه با استیکرهای مناسب ارائه شده است:


💡 ۱. فشرده‌سازی بهینه بدون اتلاف
کد هافمن یک روش فشرده‌سازی بدون اتلاف است، به این معنا که تمام اطلاعات اصلی حفظ می‌شود و در عین حال حجم داده‌ها کاهش می‌یابد. کاراکترهای پرتکرار، کدهای کوتاه‌تر می‌گیرند و کاراکترهای نادر، کدهای طولانی‌تر**؛ این باعث کاهش حجم کلی فایل می‌شود.

🌳 ۲. ساخت درخت هافمن
برای ساخت درخت هافمن، هر کاراکتر بر اساس **فراوانی
آن به یک گره تبدیل می‌شود. سپس، دو گره با کمترین فراوانی انتخاب شده و با هم ترکیب می‌شوند. این فرایند ادامه دارد تا به یک درخت دودویی نهایی برسیم. درخت هافمن نقش مهمی در تولید کدها دارد، چرا که بر اساس مسیر درخت**، کد هر کاراکتر تعیین می‌شود.

🔑 ۳. کدهای پیشوندی و بدون ابهام
یکی از ویژگی‌های مهم کد هافمن **پیشوندی بودن
آن است؛ یعنی هیچ کدی پیشوند کد دیگری نیست. این ویژگی باعث می‌شود که دیکودینگ ساده و بدون ابهام باشد. برای مثال، اگر کد یک کاراکتر "۱۰۱" باشد، هیچ کد دیگری نمی‌تواند با "۱۰۱" شروع شود و همین امر باعث دقت در دیکود کردن می‌شود.

🚀 ۴. پیچیدگی و کارایی زمانی
پیچیدگی ساخت درخت هافمن برابر با ( O(n log n) ) است که n تعداد کاراکترهای منحصربه‌فرد است. این بهینه‌سازی در ساخت درخت باعث می‌شود که کد هافمن در مقایسه با روش‌های دیگر فشرده‌سازی سریع‌تر و کارآمدتر باشد. پس از ساخت درخت، دیکودینگ و کدگذاری هر کاراکتر به صورت خطی انجام می‌شود.

🛠 ۵. کاربردهای گسترده
کد هافمن در فشرده‌سازی فایل‌ها (مانند ZIP و GZIP)، تصاویر (مانند JPEG) و حتی در انتقال داده‌ها در شبکه‌ها برای کاهش مصرف پهنای باند کاربرد دارد. در کل، این روش به دلیل سادگی و اثربخشی خود در بسیاری از زمینه‌ها همچنان محبوب و کاربردی است.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

02 Nov, 18:30


🔥 دوره آنلاین متخصص ماشین لرنینگ با مدرک دو زبانه
ــــــــــــــــــــــــــــــــــــ
⁉️ چرا این دوره:
✔️ مدرک دو زبانه از سازمان پژوهش های علمی و صنعتی ایران
✔️ انجام، ۱۵ مینی پروژه و ۵ پروژه مستقل و یک پروژه جامع در طول دوره .
✔️ پشتیبانی علمی ۲۴ ساعته
ــــــــــــــــــــــــــــــــــــــ
⁉️ مخاطبین این دوره چه کسانی هستند؟
🔸 دانشجویان و فارغ التحصیلان رشته های فنی و مهندسی
🔹 افرادی که قصد مهاجرت تحصیلی یا کاری دارند
🔸 شاغلین در حوزه هوش مصنوعی
🔹 مدیران ارشد و میانی سازمان ها
🔸 علاقمندان به حوزه هوش مصنوعی
ــــــــــــــــــــــــــــــــــــــ
☯️ جهت دریافت مشاوره رایگان و اطلاعات تکمیلی؛
از طریق لینک زیر اقدام نمایید
📌 httb.ir/T8CDU
ــــــــــــــــــــــــــــــــــــ

02188905269
02191096546
@onacademy

Algorithm design & data structure

02 Nov, 16:26


#هوش_مصنوعی خیلی داره پیشرفت و عجیبتر و ترسناکتر میشه
الان این امکان فراهم شده ک میشو بوی گل رو از اونسر دنیا بفرستی ایران

https://www.techradar.com/computing/artificial-intelligence/you-could-start-smelling-the-roses-from-far-away-using-ai

دیگه کارو کاسبی گل فروشها هم میخوابه😂! ولی جدی دیگه نیازی نیست دو نفر برای هم گل بخرن یا در لانگ دیستنس ها هم میشه قشنگ بوی گل رو براش ارسال کنی😂

قبلا هم یادم نیست یک مقاله در این حیطه در کانال معرفی کردم که پیداش نمیکنم داری تی وی نگاه میکنی بوی اون فیلم و جنگل و طبیعت رو برات تداعی کنه

#علوم_پزشکی #مقاله #ایده_جذاب

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person

Algorithm design & data structure

02 Nov, 16:13


Open Contextual RAG 🌐

نحوه‌ی عملکرد

بازیابی اطلاعات:

اطلاعات مرتبط از منابع مختلف مانند وب، دیتابیس‌ها و اسناد بزرگ بازیابی می‌شود.
این مرحله معمولاً با استفاده از موتورهای جستجو یا تکنیک‌های خاصی انجام می‌شود.
ادغام با مدل تولیدی:

متن‌های بازیابی شده به مدل زبانی وارد می‌شوند.
مدل با تحلیل این متن‌ها، پاسخ بهینه‌ای تولید می‌کند.
تولید پاسخ:

خروجی نهایی شامل یک متن دقیق و مرتبط با درخواست کاربر است.. ادغام با مدل تولیدی: متن بازیابی شده به مدل زبانی داده می‌شود تا پاسخ بهینه‌ای تولید کند.
3. تولید پاسخ: خروجی نهایی به سؤال کاربر پاسخ دقیق‌تری می‌دهد.

کاربردها :
- پاسخ‌دهی به‌روز در چت‌بات‌ها
- دسترس‌پذیری اطلاعات تخصصی در جستجوهای علمی و پزشکی
- پشتیبانی از زبان‌های مختلف


برای اطلاعات بیشتر در مورد کارکرد بازیابی اطلاعات، لطفاً به لینک زیر مراجعه کنید:
https://github.com/MohammadHossini/IR-Project

Contextual RAG:https://github.com/togethercomputer/together-cookbook/blob/main/Open_Contextual_RAG.ipynb

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

02 Nov, 07:17


تصویر 👆🏻👆🏻به شکلی ساده و گویا رابطه‌ی بین کلاس‌های پیچیدگی در علوم کامپیوتر را نشان می‌دهد و فرض می‌کند که P!=NP است. در ادامه توضیح مختصری برای هر بخش ارائه می‌شود:

🔹 کلاس P: این کلاس شامل مسائلی است که می‌توان آن‌ها را با الگوریتم‌های قطعی و در زمان چندجمله‌ای (polynomial time) حل کرد. به عبارت دیگر، این مسائل برای کامپیوترها قابل حل هستند و زمان زیادی نیاز ندارند. این دسته از مسائل ساده‌تر هستند و الگوریتم‌های کارآمدی برای آن‌ها وجود دارد.
💡 مثال: مسئله‌ی "کوتاه‌ترین مسیر" که در آن می‌خواهیم کوتاه‌ترین مسیر بین دو نقطه را پیدا کنیم.

🔹 کلاس NP: این کلاس شامل مسائلی است که اگر جوابشان به ما داده شود، می‌توانیم در زمانی چندجمله‌ای (با استفاده از یک الگوریتم) آن را تأیید کنیم، اما پیدا کردن جواب خود مسئله ممکن است زمان زیادی ببرد. این بدان معناست که اگر جوابی داشته باشیم، تأیید آن آسان است؛ ولی یافتن جواب قطعی ممکن است زمان‌بر باشد.
💡 نکته: NP شامل P هم می‌شود؛ چراکه اگر بتوانیم مسئله‌ای را سریع حل کنیم، قطعاً می‌توانیم جواب آن را هم سریع تأیید کنیم.

🔸 کلاس NP-کامل (NP-Complete): این دسته از مسائل، پیچیده‌ترین مسائل در NP هستند. این مسائل هم در NP هستند و هم ویژگی خاصی دارند که اگر بتوانیم یک مسئله NP-کامل را در زمانی چندجمله‌ای حل کنیم، می‌توانیم تمام مسائل NP را نیز در زمانی چندجمله‌ای حل کنیم. این مسائل برای پژوهشگران و متخصصان علوم کامپیوتر چالش‌برانگیز هستند.
💡 مثال: مسئله‌ی "پوشش رأس" (Vertex Cover) که یک مسئله‌ی کلاسیک NP-کامل است و پیدا کردن راه‌حل آن به‌ویژه برای ورودی‌های بزرگ دشوار است.

🔸 کلاس NP-سخت (NP-Hard): این کلاس شامل مسائلی است که سختی آن‌ها حداقل به اندازه‌ی مسائل NP-کامل است، اما لزوماً در NP نیستند. به این معنی که حتی ممکن است نتوانیم به راحتی جواب آن‌ها را تأیید کنیم. این دسته شامل مسائلی مانند "مشکل توقف تورینگ" (Turing Halting Problem) است که در آن حتی تأیید کردن جواب نیز دشوار و در برخی موارد غیرممکن است.
💡 مثال: "مشکل توقف تورینگ" که یکی از پیچیده‌ترین مسائل محاسباتی است.

🔍 جمع‌بندی: این نمودار به خوبی رابطه و تفاوت بین این کلاس‌ها را نشان می‌دهد و به ما کمک می‌کند تا بدانیم هر کدام از این دسته‌ها شامل چه نوع مسائلی می‌شوند و چرا بررسی هرکدام از آن‌ها اهمیت دارد.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

02 Nov, 07:14


📄 اگر به موضوع شبکه‌های عصبی پیچشی (CNN) برای طبقه‌بندی داده‌ها علاقه‌مند هستید، این فایل PDF می‌تواند منبع بسیار مفیدی برای شما باشد. این فایل به طور خلاصه و کاربردی، نحوه عملکرد CNNها و استفاده از آن‌ها در مسائل طبقه‌بندی داده‌ها را توضیح می‌دهد. با مطالعه این فایل، می‌توانید دید بهتری نسبت به ساختار و کاربرد CNNها پیدا کنید و آن‌ها را در پروژه‌های خود به کار بگیرید. 🌐📊

حتماً مطالعه‌اش کنید و اگر سوالی داشتید، در بخش نظرات بپرسید! 🧑‍💻📚

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

02 Nov, 03:04


انگیزه یادگیری تئوری در داده‌کاوی و یادگیری ماشین

مطالعه مبانی نظری برای ورود به حوزه داده‌کاوی یا یادگیری ماشین، با پیچیدگی‌های فراوانی همراه است. این مسیر به دلیل پوشش مباحث متنوع ریاضی و انبوهی از منابع آنلاین، ممکن است برای بسیاری چالش‌برانگیز باشد.

هدف این راهنما

در این راهنما قصد دارم منابعی را معرفی کنم که می‌توانند پایه‌های ریاضی لازم برای کارهای عملی یا پژوهشی در داده‌کاوی را تقویت کنند. این پیشنهادها حاصل تجربه‌های شخصی و همچنین جدیدترین منابعی است که جامعه علمی معرفی کرده است.

رویکرد مناسب برای مبتدیان

اگر تازه به یادگیری ماشین علاقه‌مند شده‌اید و قصد دارید در این زمینه شغلی پیدا کنید، پیشنهاد نمی‌کنم که ابتدا سراغ تمام مباحث تئوری بروید. چرا که اگر پیش از تجربه کار عملی، به مطالعه نظریات (که گاه کسل‌کننده هستند) بپردازید، احتمالاً دلسرد خواهید شد. رویکرد "از پایین به بالا" اغلب اثر معکوس دارد.

پیشنهاد من: رویکرد "از بالا به پایین"

ابتدا مهارت‌های برنامه‌نویسی را یاد بگیرید، با ابزارهای PyData مثل Pandas، sklearn و Keras کار کنید، پروژه‌های واقعی انجام دهید و از مستندات کتابخانه‌ها و آموزش‌های آنلاین بهره ببرید. با این روش، وقتی در کار عملی به مشکلات برمی‌خورید، نیاز به مبانی تئوری را بهتر درک می‌کنید؛ در این مرحله، مطالعه ریاضیات برایتان مفهومی‌تر و جذاب‌تر خواهد بود.

معرفی منابع

در ادامه، منابع مفید را به سه دسته تقسیم کرده‌ام: جبر خطی، حساب دیفرانسیل و انتگرال، و آمار و احتمال. هر بخش شامل ترکیبی از آموزش‌های ویدیویی، کتاب‌ها، وبلاگ‌ها و دوره‌های آنلاین است.

- جبر خطی
جبر خطی از مفاهیم کلیدی در یادگیری ماشین است که به درک بهتر نحوه عملکرد الگوریتم‌ها کمک می‌کند. این موضوع شامل عملیات وکتور، ماتریس و تنسور می‌شود و پیچیدگی خاصی ندارد.

1-Khan Academy Linear Algebra series (beginner-friendly).
2-
Coding the Matrix course (and book).
3-
3Blue1Brown Linear Algebra series.
4-
fast.ai Linear Algebra for coders course, highly related to modern ML workflow.
5-The first course in Coursera Mathematics for
Machine Learning specialization.
6-“
Introduction to Applied Linear Algebra — Vectors, Matrices, and Least Squares” book.
7-
MIT Linear Algebra course, highly comprehensive.
7-
Stanford CS229 Linear Algebra review.

- حساب دیفرانسیل و انتگرال
در یادگیری ماشین، حساب دیفرانسیل و انتگرال برای تعریف و ایجاد توابعی استفاده می‌شود که هدف و کارایی الگوریتم‌ها را مشخص می‌کنند؛ این توابع به عنوان توابع هزینه یا هدف شناخته می‌شوند.

1-Khan Academy Calculus series (beginner-friendly).
2-
3Blue1Brown Calculus series.
3-The second course in Coursera
Mathematics for Machine Learning specialization.
4-
The Matrix Calculus You Need For Deep Learning paper.
5-
MIT Single Variable Calculus.
6-
MIT Multivariable Calculus.
7-
Stanford CS224n Differential Calculus review.

- آمار و احتمال
آمار و احتمال در داده‌کاوی و یادگیری ماشین به تحلیل داده‌ها، کشف الگوهای پنهان و استخراج بینش‌های ارزشمند کمک می‌کنند.

1-Khan Academy Statistics and probability series (beginner-friendly).
2-
Seeing Theory: A visual introduction to probability and statistics.
3-
Intro to Descriptive Statistics from Udacity.
4-
Intro to Inferential Statistics from Udacity.
5-
Statistics with R Specialization from Coursera.
6-
Stanford CS229 Probability Theory review.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Nov, 16:21


کتیبه‌های میخی فارسی باستان ارزش تاریخی فراوانی دارند، و اکنون هوش مصنوعی می‌تواند در ترجمه و حفظ آن‌ها نقشی مهم ایفا کند. با توسعه مدل جدیدی به نام "easyocr old persian" و استفاده از OCR و NLP، امکان ترجمه این متون باستانی به زبان‌های مدرن فراهم شده است. همچنین این پروژه به گسترش ابزارهای هوشمند برای زبان‌های باستانی دیگر و بازسازی متون شکسته اشاره دارد، تا از این طریق به حفظ و فهم بهتر فرهنگ‌های باستانی کمک کند.

Paper : https://www.researchgate.net/publication/382528886_Translating_Old_Persian_cuneiform_by_artificial_intelligence_AI

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Nov, 11:18


Shortest Path Algorithms Explained (Dijkstra's & Bellman-Ford)

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Nov, 11:18


توضیح مختصری از مصرف پشته در الگوریتم‌های مرتب‌سازی با استیکر مرتبط برای هر کدام آورده‌ام:



🌟 مرتب‌سازی انتخابی (Selection Sort)
- بازگشتی نیست و از پشته استفاده نمی‌کند.
- پیچیدگی فضایی: O(1) (فقط فضای ثابت نیاز دارد).



🛁 مرتب‌سازی حبابی (Bubble Sort)
- بازگشتی نیست و نیازی به پشته ندارد.
- پیچیدگی فضایی: O(1) (فضای ثابت).



✍️ مرتب‌سازی درجی (Insertion Sort)
- بازگشتی نیست و از پشته استفاده نمی‌کند.
- پیچیدگی فضایی: O(1) (صرفاً فضای ثابت).



📐 مرتب‌سازی ادغامی (Merge Sort)
- بازگشتی است و برای فراخوانی‌های بازگشتی از پشته استفاده می‌کند.
- پیچیدگی فضایی: (O(n (نیازمند آرایه موقت)، فضای پشته: O(log n).



⚡️ مرتب‌سازی سریع (Quick Sort)
- بازگشتی است و از پشته استفاده می‌کند.
- پیچیدگی فضایی در بدترین حالت: O(n)؛ در حالت متوسط: O(log n)).



🔺 مرتب‌سازی هرمی (Heap Sort)
- غیربازگشتی است و از پشته استفاده نمی‌کند.
- پیچیدگی فضایی: O(1) (فقط فضای ثابت نیاز دارد).


به طور خلاصه، الگوریتم‌های بازگشتی مثل Merge Sort و Quick Sort به پشته نیاز دارند، در حالی که سایر الگوریتم‌های غیربازگشتی بدون استفاده از پشته و در فضای ثابت اجرا می‌شوند.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Nov, 06:10


🚀 الگوریتم بلمن فورد (Bellman-Ford)

الگوریتم بلمن فورد یکی از الگوریتم‌های مهم برای یافتن کوتاه‌ترین مسیرها در گراف‌های وزن‌دار است. 💡 این الگوریتم به شما اجازه می‌دهد که از یک رأس شروع کرده و مسیرهای با کمترین وزن را به تمام رأس‌های دیگر گراف پیدا کنید. یک ویژگی بارز بلمن فورد این است که با یال‌های دارای وزن منفی هم به خوبی کار می‌کند و حتی چرخه‌های منفی را هم می‌تواند شناسایی کند. 🔍

🎯 مراحل اجرای الگوریتم
مقداردهی اولیه: ابتدا فاصله (وزن مسیر) از رأس شروع به خودش برابر با صفر و برای سایر رأس‌ها بی‌نهایت در نظر گرفته می‌شود. 🟢

به‌روزرسانی وزن‌ها: الگوریتم برای هر یال در گراف، |V|-1 بار تکرار می‌شود، که در آن |V| تعداد رأس‌ها است. در هر مرحله، اگر مسیر کوتاه‌تری یافت شود، وزن آن مسیر به‌روزرسانی می‌شود. 🔄

بررسی چرخه‌های منفی: در پایان، همه یال‌ها یک بار دیگر بررسی می‌شوند. اگر وزنی تغییر نکرد، گراف چرخه منفی ندارد؛ در غیر این صورت، الگوریتم چرخه منفی را شناسایی کرده و می‌تواند اطلاع دهد که گراف شامل یک چرخه منفی است. ⚠️

⏱️ پیچیدگی زمانی
پیچیدگی زمانی الگوریتم بلمن فورد O(V×E) است، که در آن V تعداد رأس‌ها و E تعداد یال‌هاست. به دلیل این پیچیدگی زمانی، این الگوریتم نسبت به الگوریتم‌هایی مثل دایکسترا کمی کندتر است، اما می‌تواند یال‌های منفی را مدیریت کند. 🕰

🌐 کاربردهای بلمن فورد
شناسایی چرخه‌های منفی: این ویژگی در مدل‌سازی مسائل مالی و اقتصادی کاربرد دارد، جایی که چرخه‌های منفی ممکن است نشان‌دهنده فرصت‌های آربیتراژ یا خطاهای سیستمی باشند. 📉
یافتن کوتاه‌ترین مسیرها در شبکه‌های دارای وزن منفی: این ویژگی در شبکه‌های جریان کالا و مسیر‌یابی بهینه در سیستم‌های ارتباطی استفاده می‌شود. 🌍
📝 مثال کاربردی
فرض کنید یک گراف با یال‌های دارای وزن مثبت و منفی داریم. الگوریتم بلمن فورد می‌تواند از یک رأس شروع کرده و به تمامی رأس‌های دیگر دسترسی پیدا کند و اگر چرخه منفی‌ای وجود داشته باشد، آن را شناسایی کند. 🔄

در کل، الگوریتم بلمن فورد با توانایی‌های منحصربه‌فرد خود برای شناسایی یال‌های منفی و چرخه‌های منفی در بسیاری از کاربردهای واقعی مثل مسیریابی در شبکه‌ها و تحلیل اقتصادی بسیار مفید است.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

01 Nov, 06:10


📌 RAG Showdown: Vector vs. Graph - Shaping the Future of AI Applications! 🔥
پیاده‌سازی RAG (ترکیب بازیابی و تولید) با دو روش متفاوت امکان‌پذیر است: یکی با استفاده از دیتابیس برداری و دیگری با استفاده از گراف دانش. هر دو روش با هدف بازیابی داده‌های مرتبط و تولید پاسخ دقیق به کاربر استفاده می‌شوند، اما هر کدام ویژگی‌های خاص خود را دارند:

💠 RAG با دیتابیس برداری:
در این روش، پرسش به بردار تبدیل شده و جستجو بر اساس شباهت معنایی بین بردارها صورت می‌گیرد. این روش برای داده‌های غیرساختاریافته و بزرگ کارایی بالایی دارد و به ارتباطات مستقیمی بین داده‌ها نیاز ندارد.

🔗 RAG با گراف دانش:
اینجا از روابط و ساختار داده‌ها استفاده می‌شود. جستجو در گراف انجام شده و نهادها و ارتباطات مرتبط استخراج می‌شوند. این روش برای حوزه‌هایی که نیاز به فهم عمیق روابط دارند، بسیار مفید است.

🔍 جمع‌بندی:
هر دو روش قابل پیاده‌سازی در پلتفرم‌های داده‌ای مانند SingleStore هستند و بسته به نیازهای شما، می‌توانید یکی از این روش‌ها را انتخاب کنید.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Oct, 21:23


این ویدیو الگوریتم‌های مختلف مرتب‌سازی را به تصویر می‌کشد و به نمایش می‌گذارد که چگونه هر کدام از آن‌ها عملیات مرتب‌سازی را انجام می‌دهند. 🌟📊

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Oct, 21:23


حتماً برای شما هم این سوال پیش آمده که مدل‌های بزرگ زبانی (LLM) چگونه اطلاعات را ذخیره می‌کنند. مثلاً یک مدل مانند ChatGPT چطور می‌تواند حجم زیادی از اطلاعات را از کل اینترنت جمع‌آوری و یاد بگیرد؟ این داده‌ها در کجای شبکه‌های عصبی ذخیره می‌شوند؟

پیشنهاد می‌کنم ویدئوی از 3blue1brown را ببینید! 📹

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Oct, 18:59


Accelerating Transformers with Spectrum-Preserving Token Merging

Github: https://github.com/hchautran/PiToMe

Paper: https://arxiv.org/abs/2405.16148

Dataset: https://paperswithcode.com/dataset/flickr30k

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Oct, 16:41


📘 جزوه هوش مصنوعی استاد زارچی
نیمسال 99 | دانشگاه صنعتی شریف

سلام دوستان! 🌟
امروز یکی از جزوات مفید هوش مصنوعی رو معرفی می‌کنم که توسط استاد زارچی در دانشگاه صنعتی شریف تدریس شده. اگر علاقه‌مند به مباحث عمیق هوش مصنوعی هستید، این جزوه می‌تونه منابع خوبی برای یادگیری مباحث پایه و پیشرفته باشه! 🚀🤖

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Oct, 04:19


پیچیدگی‌های زمانی ساختارهای داده:
جدول تهیه شده خلاصه‌ای از هر سه نوع پیچیدگی زمانی را برای ساختارهای داده، الگوریتم‌های جستجو و مرتب‌سازی می باشد.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

31 Oct, 04:19


در این مدل ترنسفورمر برای پیش‌بینی سری‌های زمانی چندمتغیره و یادگیری بازنمایی خودنظارت‌شده، دو بخش کلیدی وجود دارد: تقسیم سری زمانی به بخش‌های کوچک‌تر که به‌عنوان ورودی به مدل داده می‌شود، و استقلال کانالی که هر کانال شامل یک سری زمانی جداگانه است و وزن‌های مشترکی برای همه سری‌ها به‌کار می‌رود. این طراحی به حفظ اطلاعات محلی، کاهش مصرف حافظه و محاسبات، و در نظر گرفتن تاریخچه طولانی‌تر کمک می‌کند. مدل PatchTST با دقت بیشتری نسبت به مدل‌های ترنسفورمر فعلی عمل کرده و در وظایف پیش‌تمرین خودنظارت‌شده نتایج قابل‌توجهی ارائه می‌دهد.

Paper : https://arxiv.org/abs/2211.14730

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

29 Oct, 03:30


📚 کتاب ساختمان داده - مقسمی📚
اگر به‌تازگی مطالعه‌ی ساختمان داده را آغاز کرده‌اید و می‌خواهید سطح دانش خود را بسنجید، این کتاب را به شما پیشنهاد می‌کنم. این کتاب شامل سوالاتی است که اگر به‌صورت متوسط مطالب را مرور کرده باشید، می‌توانید به آن‌ها پاسخ دهید. برای افرادی که تازه به دنیای ساختمان داده وارد شده‌اند، این کتاب انتخابی عالی و کاربردی است.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

29 Oct, 03:18


مدل‌های زبانی جدید مثل Claude از Anthropic، GPT از OpenAI، Llama و دیگر مدل‌ها، از معماری‌های Decoder-only به جای Encoder-Decoder استفاده می‌کنند. این معماری Decoder-only یا Auto-regressive در سال ۲۰۱۸ با عرضه مدل‌های GPT توسط OpenAI محبوب شد. بعدتر، سری Claude هم با همین معماری ساخته شد.

🤔 چرا معماری فقط رمزگشا (Decoder-only) محبوب شده است؟

در معماری Decoder-only، مدل به شکل Unsupervised و بر روی داده‌های متنی بدون برچسب آموزش داده می‌شود که به‌راحتی قابل دسترسی است. در این حالت، مدل برای پیش‌بینی توکن بعدی آموزش می‌بیند که داده‌های آموزشی را به آسانی در دسترس قرار می‌دهد.

📌 تفاوت اصلی؟
نحوه ترکیب اطلاعات Input Source در رمزگشا.

- Decoder-only از Unidirectional Cross Attention استفاده می‌کند که همزمان به هر دو ماتریس منبع و هدف توجه می‌کند.
- به دلیل توجه به تمام ویژگی‌ها در یک Attention، ماتریس خروجی لایه توجه به ماتریس منبع کمتر حساس می‌شود؛ به‌خصوص وقتی که مدل کلمات زیادی تولید کرده و جمله نسبتاً طولانی شده باشد.

این مشکل به نام Attention Degeneration
شناخته می‌شود، که البته قابل حل است.



💡 مزایای مدل‌های فقط رمزگشا (Language Model یا LM) نسبت به رمزگذار-رمزگشا

1️⃣ از تکنیک Parameter Sharing استفاده می‌کند که باعث می‌شود پارامترها برای شبکه‌هایی که هر دو دنباله منبع و هدف را مدیریت می‌کنند، مشترک باشد. این کار اندازه مدل را کاهش داده و عملکرد را بهبود می‌بخشد.

2️⃣ مدل Decoder-only شامل مکانیزم Layer-wise Coordination است که به رمزگشا امکان می‌دهد به خروجی لایه‌های متناظر رمزگذار دسترسی داشته باشد، و به این شکل، به اطلاعات در سطوح مختلف منبع دسترسی پیدا کند.

3️⃣ ماتریس توجه برای Decoder-only یک ماتریس Full Rank است چرا که به شکل Triangular است. این ویژگی آن را از ماتریس توجه Encoder-Decoder برتر می‌سازد.



آیا معماری Encoder-Decoder کاملاً منسوخ شده است؟ خیر!

مدل Encoder-Decoder در Machine Translation یا ترجمه ماشینی بهتر عمل می‌کند. این زمانی است که Input و Output از اساس متفاوت باشند یا هدف خروجی به‌طور قابل توجهی کوتاه‌تر از ورودی باشد. در چنین حالتی دو پشته مجزا مورد نیاز است. به عنوان مثال در ترجمه از انگلیسی به زبان‌های دیگر، معماری Encoder-Decoder بهتر کار می‌کند.

همچنین، مدل‌های فقط رمزگشا محدودیت‌هایی در Transfer Learning دارند.

🔍 جمع‌بندی:

اکثر Language Models جدید به سمت Generalization گرایش دارند. در نتیجه، مدل‌های فقط رمزگشا برای این هدف بهتر کار می‌کنند و نسبت به معماری سنتی Encoder-Decoder آسان‌تر آموزش داده می‌شوند.


📄 برای اطلاعات بیشتر و مقایسه تجربی میان ED و LM (Decoder-only) به مقاله زیر مراجعه کنید:

https://arxiv.org/pdf/2304.04052

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

29 Oct, 03:18


"یک نمایش مشترک با استفاده از ویژگی‌های Continuous و Discrete برای پیش‌بینی ریسک Cardiovascular Diseases روی اسکن‌های Chest CT"

Github: https://github.com/yhygao/cbim-medical-image-segmentation

Paper: https://arxiv.org/abs/2410.18610v1

Supported models: https://arxiv.org/abs/2203.00131

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

28 Oct, 06:20


اینم برا کسایی که Image Segmentation سوالات زیادی رو براشون به وجود آورده.

Deep Learning based Image Segmentation

#یادگیری_عمیق #کتابچه #کد #منابع

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person

Algorithm design & data structure

28 Oct, 05:48


دسترسی به صدها کتاب و منابع ارزشمند در حوزه دیتاساینس!

در Witaik، یک بخش کتابخانه راه‌اندازی شده که قراره بهترین منابع و کتاب‌های این حوزه رو در اختیار شما قرار بدیم. تا الان چندین کتاب قرار دادیم و هر هفته منابع جدیدی اضافه می‌کنیم تا این مجموعه به مرور کامل‌تر بشه. پیشنهاد می‌کنم این صفحه رو دنبال کنید تا از آپدیت‌های هفتگی و کتاب‌های جدید باخبر بشید.

https://witaik.com/book/programming/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

28 Oct, 05:48


🔰 Complete DSA Roadmap 🔰

🌐 Basic Data Structures
📂 Arrays
    📌 Basics of Array Operations (Insert, Delete, Search)
    📌 2D Arrays, Multidimensional Arrays
📂 Strings
    📌 Common String Manipulation Techniques
    📌 String Matching Algorithms (KMP, Rabin-Karp)
📂 Linked Lists
    📌 Singly, Doubly, and Circular Linked Lists
    📌 Linked List Operations (Insert, Delete, Reverse)
📂 Stacks
    📌 Applications of Stacks (Expression Evaluation, Backtracking)
📂 Queues
    📌 Circular Queue, Priority Queue
    📌 Deque (Double-ended Queue)

🌐 Advanced Data Structures
📂 Trees
    🌳 Binary Trees
    🌳 Binary Search Trees
    🌳 AVL Trees (Self-Balancing)
    🌳 B-Trees (Database Applications)
📂 Graphs
    🔍 Graph Representation (Adjacency List, Adjacency Matrix)
    🔍 Depth-First Search, Breadth-First Search
    🔍 Shortest Path Algorithms (Dijkstra's, Bellman-Ford)
    🔍 Minimum Spanning Tree (Prim’s, Kruskal’s)
📂 Heaps
    🔺 Min and Max Heap
    🔺 Heap Sort
📂 Hash Tables
📂 Disjoint Set Union (Union-Find, Path Compression)
📂 Trie (Efficient Prefix-based Search)
📂 Segment Tree (Range Queries, Lazy Propagation)
📂 Fenwick Tree (Binary Indexed Tree)

🌐 Algorithmic Paradigms
📌 Brute Force
📌 Divide and Conquer (Merge Sort, Quick Sort)
📌 Greedy Algorithms (Optimal Substructure, Real-world Applications)
📌 Dynamic Programming (Overlapping Subproblems)
📌 Backtracking (Recursive Problem Solving, Constraint Satisfaction)
📌 Sliding Window Technique
📌 Two Pointer Technique
📌 Divide and Conquer Optimization (Efficient Range Updates, Segment Trees)

🌐 Searching Algorithms
📌 Linear Search (Basic Search Technique)
📌 Binary Search (Efficient Search on Sorted Data)
📌 Depth-First Search (Graph Traversal)
📌 Breadth-First Search (Graph Traversal)

🌐 Sorting Algorithms
📌 Bubble Sort, Selection Sort, Insertion Sort
📌 Merge Sort, Quick Sort
📌 Heap Sort

🌐 Graph Algorithms
📌 Depth-First Search, Breadth-First Search
📌 Topological Sort (DAG Applications)
📌 Strongly Connected Components (Kosaraju’s, Tarjan’s)
📌 Articulation Points and Bridges

🌐 Dynamic Programming (DP)
📌 Introduction to DP Concepts
📌 Fibonacci Series using DP (Base Case, Recursion, Memoization)
📌 Longest Common Subsequence, Longest Increasing Subsequence
📌 Knapsack Problem (0/1, Fractional, Unbounded)
📌 Matrix Chain Multiplication (Dynamic Partitioning)
📌 Dynamic Programming on Trees

🌐 Mathematical and Bit Manipulation Algorithms
📌 Prime Numbers and Sieve of Eratosthenes
📌 Greatest Common Divisor, Least Common Multiple
📌 Modular Arithmetic, Modular Exponentiation
📌 Bit Manipulation Tricks (Efficient Bitwise Operations)

🌐 Advanced Topics
📌 Trie-based Algorithms
    🔍 Auto-completion, Spell Checker
📌 Suffix Trees and Arrays (Efficient String Matching)
📌 Computational Geometry (Convex Hull, Line Intersection)
📌 Number Theory (Modular Arithmetic, Primality Tests)
📌 String Algorithms (Efficient String Matching and Processing)

🌐 Online Platforms
📌 LeetCode (Practice for Coding Interviews)
📌 HackerRank (Competitive Programming Challenges)



این Roadmap شامل مفاهیم اساسی، مسائل رایج و منابع تمرینی است و برای پیگیری هر بخش و پیشرفت در یادگیری کمک می‌کند! 🌟

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

27 Oct, 03:36


دوره "الگوریتم و ساختمان داده" دانشگاه استنفورد، به تدریس اصول الگوریتم‌ها برای افرادی با تجربه پایه‌ای برنامه‌نویسی می‌پردازد. این دوره بر درک مفاهیم و دیدگاه کلی تمرکز دارد و کمتر به جزئیات پیاده‌سازی و مباحث ریاضی می‌پردازد. تکمیل این دوره به شما کمک می‌کند تا در مصاحبه‌های فنی موفق شوید و بتوانید با اطمینان درباره الگوریتم‌ها صحبت کنید.

مدرس دوره، پروفسور تیم راگگاردن، از اساتید برجسته علوم کامپیوتر در دانشگاه استنفورد است و تجربه گسترده‌ای در تدریس و تحقیق در حوزه الگوریتم‌ها دارد.

https://github.com/suhassrivats/Stanford-Data-Structures-and-Algorithms

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

27 Oct, 03:36


این مقاله راهی ساده و مؤثر برای بهبود کیفیت پاسخ‌دهی LLMها ارائه می‌دهد که در آن مدل‌ها با افزودن سبک Chain-of-Thought به پرامپت‌ها و استفاده از یک مدل داور (LLM Judge) برای ارزیابی پاسخ‌ها، یاد می‌گیرند بهتر "فکر کنند" و پاسخ‌های دقیق‌تری بدهند. نتایج نشان می‌دهد که فاین‌تیون این مدل‌ها روی داده‌های Preference Pairs (با و بدون فکر) عملکردشان را به‌طور قابل توجهی بهبود می‌بخشد و بهبود بیشتری نیز با Thought Preference Optimization (TPO) حاصل می‌شود.

https://arxiv.org/abs/2410.10630

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

26 Oct, 12:31


مراحل اصلی آموزش مدل‌های زبانی بزرگ (مثل GPT-4):

1. جمع‌آوری داده‌ها: متون وسیع برای یادگیری الگوهای زبانی 📚
2. تبدیل به توکن: تقسیم متن به اجزای کوچک‌تر برای پردازش بهتر 🧩
3. آموزش شبکه عصبی: یادگیری پیش‌بینی توکن بعدی و بهینه‌سازی مدل 🧠
4. تنظیم دقیق: بهبود مدل برای کارهای خاص 📈
5. یادگیری تقویتی: بهبود پاسخ‌ها با بازخورد انسانی 🤝

آموزش مدل‌های بزرگ منابع محاسباتی زیادی می‌خواهد، اما نتیجه‌شان تولید متن‌های همگرا و مرتبط برای کارهای مختلف است! 🚀

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

26 Oct, 12:31


جزوه‌ای جامع از پیچیدگی زمانی به همراه نمونه کد! 📈 اگر در درک پیچیدگی زمانی الگوریتم‌ها مشکل داری یا دنبال مثال‌هایی واقعی هستی، این جزوه می‌تونه کمکت کنه تا با پیچیدگی‌های مختلف آشنا بشی و یاد بگیری چطور کدها رو بهینه کنی. مناسب برای دانشجویان و علاقه‌مندان به برنامه‌نویسی و الگوریتم 💻

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Oct, 06:57


در اینجا توابع اصلی برای کار با ساختار داده پشته (stack) در زبان پایتون را آورده‌ام. این توابع شامل عملیات‌های اساسی مانند اضافه کردن (push)، حذف کردن (pop)، بررسی تهی بودن پشته و مشاهده عنصر بالای پشته هستند.

class Stack:
def __init__(self):
self.items = []

# اضافه کردن عنصر به بالای پشته
def push(self, item):
self.items.append(item)

# حذف و بازگرداندن عنصر بالای پشته
def pop(self):
if not self.is_empty():
return self.items.pop()
else:
return "Stack is empty"

# بازگرداندن عنصر بالای پشته بدون حذف آن
def peek(self):
if not self.is_empty():
return self.items[-1]
else:
return "Stack is empty"

# بررسی تهی بودن پشته
def is_empty(self):
return len(self.items) == 0

# بازگرداندن تعداد عناصر موجود در پشته
def size(self):
return len(self.items)


نحوه استفاده
می‌توانید از این کلاس برای ایجاد یک پشته و کار با توابع آن استفاده کنید:

stack = Stack()
stack.push(1)
stack.push(2)
stack.push(3)
print("Top item:", stack.peek()) # نمایش عنصر بالای پشته
print("Size:", stack.size()) # نمایش تعداد عناصر
print("Pop item:", stack.pop()) # حذف عنصر بالای پشته
print("Is empty?", stack.is_empty()) # بررسی تهی بودن پشته


این کد عملکرد‌های اصلی برای مدیریت پشته را به شما ارائه می‌دهد.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

25 Oct, 06:56


سلام دوستان عزیز 🌟
اگر در انجام تمرینات یا پروژه‌های خود نیاز به کمک دارید، ما آماده‌ایم تا با مناسب‌ترین قیمت در کنارتان باشیم. هر زمان که نیاز به راهنمایی یا انجام پروژه‌هایتان داشتید، روی ما حساب کنید! 👨‍💻💡

🆔 : @se_mohamad

Algorithm design & data structure

25 Oct, 06:56


اگر به دنبال منبعی برای درک فرآیند تنظیم دقیق (fine-tuning) مدل‌های زبان بزرگ (LLMs) هستید، یک نوت‌بوک وجود دارد که مراحل تنظیم دقیق را از پایه پیاده‌سازی می‌کند:

https://github.com/rasbt/LLMs-from-scratch/blob/main/ch07/01_main-chapter-code/ch07.ipynb
در این نوت‌بوک به موارد زیر پرداخته شده است:
1. چگونگی قالب‌بندی داده‌ها به 1100 جفت دستور-پاسخ
2. نحوه استفاده از قالب‌های مبتنی بر پرامپت
3. و چگونگی به‌کارگیری ماسک‌گذاری.

همچنین یک بخش برای پیاده‌سازی یک فرآیند خودکار مبتنی بر LLM جهت ارزیابی نیز در نظر گرفته شده است.

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

24 Oct, 14:46


Insertion-Sort

Algorithm design & data structure

24 Oct, 14:46


الگوریتم مرتب‌سازی درج (Insertion Sort) یکی از الگوریتم‌های ساده مرتب‌سازی است که شباهت زیادی به مرتب کردن کارت‌های بازی 🃏 در دست دارد. فرض کنید اولین کارت به‌طور پیش‌فرض مرتب است و سپس کارت‌های نامرتب دیگر را به ترتیب انتخاب می‌کنیم. اگر کارت انتخاب‌شده بزرگتر از کارت‌های مرتب‌شده قبلی باشد، در سمت راست آن قرار می‌گیرد و در غیر این صورت در سمت چپ 🡐🡒. این روند ادامه دارد تا همه کارت‌ها به درستی مرتب شوند.

در الگوریتم مرتب‌سازی درج نیز همین ایده به کار گرفته می‌شود. ابتدا یک عنصر انتخاب می‌شود و سپس در میان عناصر مرتب‌شده جستجو می‌شود تا جایگاه مناسب آن پیدا شود. با وجود سادگی، این روش برای مجموعه داده‌های بزرگ کارایی خوبی ندارد، زیرا پیچیدگی زمانی آن در حالت متوسط و بدترین حالت برابر با O(n²) است . الگوریتم‌های مرتب‌سازی دیگر مثل Heap Sort**، **Quick Sort و Merge Sort عملکرد بهتری دارند 🚀.

با این حال، مرتب‌سازی درج چند مزیت دارد:

- پیاده‌سازی ساده
- کارایی مناسب برای مجموعه داده‌های کوچک 🧮
- سازگاری با داده‌های تا حد زیادی مرتب 🔄

الگوریتم:
مراحل ساده الگوریتم مرتب‌سازی درج به شکل زیر است:

1️⃣. اگر عنصر اولین عنصر است، فرض می‌شود که مرتب است. به مرحله بعد بروید.
2️⃣. عنصر بعدی را انتخاب کرده و در یک متغیر کلیدی ذخیره کنید 🔑.
3️⃣. کلید را با همه عناصر موجود در آرایه مرتب‌شده مقایسه کنید.
4️⃣. اگر عنصر موجود در آرایه مرتب‌شده از کلید کوچکتر است، به عنصر بعدی بروید 🡒. در غیر این صورت، عناصر بزرگتر را به سمت راست منتقل کنید 🡐.
5️⃣. کلید را در جایگاه مناسب خود درج کنید ✔️.
6️⃣. این روند را تا مرتب شدن کل آرایه ادامه دهید.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

24 Oct, 14:46


وقتی LaTeX با شبکه عصبی ترکیب می‌شود

PlotNeuralNet
اگر می‌خواهید شبکه‌های عصبی خود را با دقت و کیفیت مقالات علمی ترسیم کنید، PlotNeuralNet یک گزینه عالی است.
این ابزار با استفاده از LaTeX به شما امکان می‌دهد تا مدل‌ها و لایه‌های شبکه عصبی را با جزئیات و به صورت کاملاً قابل تنظیم نمایش دهید.
نتیجه؟ یک تصویر واضح و دقیق که همه اجزای شبکه را به زیبایی و دقت نمایش می‌دهد.

میخای ازش استفاده کنی؟ رو لینک زیر کلیک کن 👇
https://github.com/HarisIqbal88/PlotNeuralNet

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Oct, 20:33


مقدمه سریع و کاربردی گوگل به یادگیری ماشین 🚀، شامل مجموعه‌ای از درس‌های آموزنده است که همراه با ویدیوهای آموزشی 🎥، شبیه‌سازی‌های تعاملی 🌀 و تمرین‌های عملی 💻 ارائه می‌شود تا شما را به سرعت در مبانی یادگیری ماشین ماهر کند. این دوره با رویکردی عملی، به شما کمک می‌کند تا با مفاهیم کلیدی یادگیری ماشین آشنا شوید و آن‌ها را در دنیای واقعی به کار بگیرید 🌍.

https://developers.google.com/machine-learning/crash-course

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Oct, 18:44


📚 مسیر یادگیری ساختمان داده‌ها و الگوریتم‌ها 💡

آماده‌ای تا هوش و خلاقیت خودت رو به چالش بکشی؟ 🚀 با یادگیری مفاهیمی مثل لیست‌های پیوندی، پشته‌ها، صف‌ها، گراف‌ها، درخت‌ها و بسیاری از الگوریتم‌های جذاب دیگه، می‌تونی قدم به دنیای برنامه‌نویسی حرفه‌ای بذاری! 🔥

از الگوریتم‌های حریصانه تا برنامه‌نویسی پویا، همه این‌ها ابزارهایی هستن که می‌تونی با حل بیش از 450 مسئله بهشون تسلط پیدا کنی! 🌟

https://www.codechef.com/roadmap/data-structures-and-algorithms

لطفاً این محتوا را با دوستانتان به اشتراک بگذارید تا همه با هم از یادگیری لذت ببریم! 🚀🎯

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

23 Oct, 18:44


Large Language Model Course

https://github.com/mlabonne/llm-course?tab=readme-ov-file

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Oct, 20:35


استنفورد به‌تازگی سخنرانی جدیدی با عنوان «ساخت مدل‌های زبانی بزرگ (LLMs)» منتشر کرده است. تماشای این ویدئو را به همه توصیه می‌کنم.

«این سخنرانی نمای کلی و مختصری از فرآیند ساخت مدلی شبیه به ChatGPT ارائه می‌دهد که شامل پیش‌آموزش (مدل‌سازی زبان) و پس‌آموزش (تنظیم دقیق با داده‌های برچسب‌دار و تقویت یادگیری از طریق بازخورد انسانی) است.

در هر بخش، به بررسی روش‌های رایج جمع‌آوری داده‌ها، الگوریتم‌ها و روش‌های ارزیابی پرداخته می‌شود.»

https://www.youtube.com/watch?v=9vM4p9NN0Ts

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Oct, 15:31


ریاضیات یادگیری ماشین:

چه تازه با یادگیری ماشین آشنا شده باشید و چه بخواهید دانش ریاضی خود را تقویت کنید، این مجموعه از منابع به شما کمک خواهد کرد. به مباحث مهمی مانند جبر خطی، حساب دیفرانسیل و بهینه‌سازی بپردازید تا پایه‌های قوی برای الگوریتم‌های یادگیری ماشین بسازید.

https://github.com/dair-ai/Mathematics-for-ML

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Oct, 12:41


مقاله با عنوان "SAM2Long: Enhancing SAM 2 for Long Video Segmentation with a Training-Free Memory Tree" احتمالاً بهبودهایی در روش SAM 2 برای بخش‌بندی ویدئوهای طولانی را بررسی می‌کند. این بهبودها شامل استفاده از درخت حافظه بدون نیاز به آموزش است.

Github: https://github.com/mark12ding/sam2long

Paper: https://arxiv.org/abs/2410.16268v1

HF: https://huggingface.co/papers/2410.16268

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Oct, 05:11


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

22 Oct, 05:11


الگوریتم Longest Common Subsequence (LCS) یکی از مسائل پایه‌ای در نظریه رشته‌ها و الگوریتم‌های پویا است. این الگوریتم طولانی‌ترین زیررشته‌ی مشترک بین دو رشته را پیدا می‌کند که نیازی به پیوسته بودن ندارد اما ترتیب کاراکترها باید حفظ شود.

کاربردهای اصلی:
1. مقایسه و تشخیص شباهت رشته‌ها: در بررسی متون، رشته‌های DNA، یا مقایسه‌ی کدها استفاده می‌شود.
2. ویرایش فاصله (Edit Distance): محاسبه تعداد عملیات لازم (افزودن، حذف یا تغییر) برای تبدیل یک رشته به دیگری.
3. تطبیق نسخه‌های فایل‌ها: در ابزارهایی مثل Git برای بررسی تغییرات بین نسخه‌های مختلف فایل‌ها کاربرد دارد.

روش حل:
الگوریتم LCS با استفاده از برنامه‌ریزی پویا حل می‌شود و یک جدول دو بعدی برای ذخیره طول LCS تا هر نقطه از رشته‌ها تشکیل می‌دهد.

پیچیدگی زمانی:
این الگوریتم با پیچیدگی زمانی O(n * m) اجرا می‌شود که در آن n و m طول رشته‌های ورودی هستند.

مثال:
رشته‌های ABCBDAB و BDCAB را در نظر بگیرید. LCS این دو رشته زیررشته‌ی BCAB با طول ۴ است.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

20 Oct, 13:13


💡 توجه ترکیبی از سرها (MoH) روشی جدید برای بهبود کارایی توجه چندسر در ترنسفورمرهاست. MoH هر سر توجه را مانند یک متخصص می‌بیند و به هر توکن اجازه می‌دهد مرتبط‌ترین سرها را انتخاب کند. این روش بدون افزایش پارامترها، کارایی استنتاج را بهبود می‌بخشد. MoH به جای جمع ساده، از جمع وزنی استفاده کرده و انعطاف‌پذیری بیشتری ارائه می‌دهد.

توجه ترکیبی از سرها (MoH) در مدل‌های مختلف مانند ViT، DiT و LLMs نتایج چشمگیری داشته است. مثلاً MoH-ViT-B با فعال‌سازی 75٪ از سرهای توجه به دقت 84.9٪ در ImageNet-1K رسیده است.

همچنین مدل‌هایی مثل LLaMA3-8B با تنظیم به MoH، دقت بیشتری با سرهای کمتری دارند. MoH-LLaMA3-8B با 75٪ سرها، 2.4٪ بهتر از نسخه قبلی عمل کرده است.

https://arxiv.org/abs/2410.11842

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

20 Oct, 13:13


پیچیدگی زمانی (Time Complexity) برای عملیات‌های مختلف روی پشته (Stack)

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

19 Oct, 15:16


سلام دوستان عزیز👋🏻😉

امیدوارم حالتون خوب باشه. 🌟

اگر در درس‌های رشته کامپیوتر نیاز به راهنمایی یا کمک دارین مخصوصا دوستانی که تازه وارد این رشته شدن، حتماً از ادمین کمک بگیرین. ادمین‌ کانال ما همیشه آماده پاسخگویی به سوالات شما و ارائه مشاوره هست.

پس بدون هیچ نگرانی سوالاتتون رو بپرسید و از راهنمایی‌های مفید ادمین استفاده کنید. موفق باشید! 💻📚

برای ارتباط با ادمین به آیدی زیر پیام بدید.👇🏻👇🏻

@Se_mohamad

Algorithm design & data structure

19 Oct, 13:36


دموکراتیزه کردن کارآمد مدل‌های زبانی بزرگ (LLMs) پزشکی برای ۵۰ زبان از طریق ترکیبی از متخصصان خانواده‌های زبانی

Github: https://github.com/freedomintelligence/apollomoe

Paper: https://arxiv.org/abs/2410.10626v1

Dataset: https://paperswithcode.com/dataset/mmlu

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

19 Oct, 13:36


جزوه‌ای جامع و خلاصه از درس ساختمان داده از دانشگاه خواجه نصیرالدین طوسی، عالی برای مرور مطالب و همراه با نمونه سوالات کاربردی. 📝🔍
یک منبع مفید و ارزشمند برای آمادگی بهتر در امتحانات! 📚🚀

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

18 Oct, 05:44


یک Heap یک نوع داده ساختار درختی است که ویژگی‌های زیر را دارد:

🌳 ساختار کامل: یک heap همیشه یک درخت کامل است، به این معنی که تمام سطوح آن (به جز آخرین سطح) به طور کامل پر شده‌اند و همه گره‌ها در آخرین سطح به سمت چپ قرار دارند.

⚖️ ویژگی heap:
- Max-Heap: در هر گره، مقدار والد بزرگتر یا مساوی مقدار فرزندانش است. بنابراین، بزرگترین عنصر در ریشه قرار دارد.
- Min-Heap: در هر گره، مقدار والد کوچکتر یا مساوی مقدار فرزندانش است. بنابراین، کوچکترین عنصر در ریشه قرار دارد.

🚀 دسترسی سریع به ریشه: در heap، عنصر ریشه همیشه بزرگترین (در max-heap) یا کوچکترین (در min-heap) عنصر است که دسترسی به آن با زمان ثابت O(1) انجام می‌شود.

🛠 درج و حذف: عملیات درج و حذف در heap به صورت منطقی انجام می‌شود، به طوری که پس از هر عملیات، ساختار درخت و ویژگی heap حفظ می‌شود. این عملیات معمولاً در زمان O(log n) انجام می‌شوند، زیرا باید از ریشه به برگ یا بالعکس پیمایش کنیم.

💡 کاربردها:
- صف اولویت: heap اغلب برای پیاده‌سازی صف‌های اولویت استفاده می‌شود.
- الگوریتم‌های مرتب‌سازی: مثل Heap Sort که از ویژگی‌های heap برای مرتب‌سازی داده‌ها استفاده می‌کند.
- الگوریتم‌های مسیریابی: مثل الگوریتم دیکسترا برای پیدا کردن کوتاه‌ترین مسیرها.

این ویژگی‌ها heap را به یک داده ساختار کارآمد برای بسیاری از کاربردها تبدیل کرده‌اند. 🎯

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

18 Oct, 05:44


این ابزار برای کسانی که از PyTorch استفاده می‌کنند.

معرفی روش : VisualTorch
یک ابزار اپن‌سورس در پایتون که به شما امکان می‌دهد مدل‌های PyTorch را خیلی سریع و آسان بصری‌سازی کنید.
به جای بررسی دستی شبکه‌های عصبی‌تان، با این ابزار می‌توانید لایه‌ها، پارامترها و گراف‌های محاسباتی را به‌صورت تصویری مشاهده کنید. این کار به شما کمک می‌کند تا سریع‌تر دیباگ کرده و مدل‌هایتان را بهینه‌تر تنظیم کنید.

🔗 برای دانلود و استفاده، فقط کافیست به گیت‌هاب زیر مراجعه کنید 👇
https://github.com/willyfh/visualtorch

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

17 Oct, 07:46


معرفی سایت nn.labml.ai
در این سایت پیاده سازی #پایتورچ مدل ها و الگوریتم های مهم هوش مصنوعی به همراه توضیح خط به خط کد و فرمول های ریاضی به کار رفته در کد مقالات است.
و منبع عالی برای #کدخوانی #مقالات هست.
لیست موضوعات پیاده سازی شده در این سایت:
Transformers
Low-Rank Adaptation (LoRA)
Eleuther GPT-NeoX
Diffusion models
Generative Adversarial Networks
Recurrent Highway Networks
LSTM
HyperNetworks - HyperLSTM
ResNet
ConvMixer
Capsule Networks
U-Net
Sketch RNN
Graph Neural Networks
Reinforcement Learning
Counterfactual Regret Minimization (CFR)
Optimizers
Normalization Layers
Distillation
Adaptive Computation
Uncertainty
Activations
Language Model Sampling
Scalable Training/Inference
#منابع #هوش_مصنوعی
#مقاله_خوانی

🔸 مطالب بیشتر 👇👇

@AI_DeepMind
🔸 @AI_Person

Algorithm design & data structure

17 Oct, 04:22


ترانسفورمر دیفرانسیلی در مقابل ترانسفورمر معمولی

ترانسفورمر معمولی 🎯 تمایل به توجه به زمینه‌های نامربوط دارد، در حالی که ترانسفورمر دیفرانسیلی 🔍 توجه را به زمینه‌های مرتبط تقویت می‌کند و نویز را حذف می‌کند (بی‌توجهی به زمینه‌های نامربوط).

چگونه ترانسفورمر دیفرانسیلی زمینه‌های نامربوط را نادیده می‌گیرد؟

- مکانیزم توجه دیفرانسیلی (differential attention) نمرات توجه را به‌عنوان تفاوت بین دو نقشه توجه softmax جداگانه محاسبه می‌کند.
- این تفریق، نویز را حذف کرده و باعث ایجاد الگوهای توجه پراکنده می‌شود. 🌿

مزایای ترانسفورمر دیفرانسیلی

- ترانسفورمر دیفرانسیلی (DIFF Transformer) در مقایسه با ترانسفورمر معمولی در مقیاس‌های مختلف، چه از نظر افزایش اندازه مدل و چه از نظر تعداد داده‌های آموزشی، عملکرد بهتری دارد.
- مهم‌تر از آن، در کاربردهای عملی مانند مدل‌سازی با زمینه طولانی (long-context modeling) و بازیابی اطلاعات کلیدی (key information retrieval) مزیت‌های قابل توجهی دارد. 🧠📚

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

17 Oct, 04:22


انواع گراف :

1. بدون جهت (Undirected): یال‌ها بدون جهت. 🎯
2. جهت‌دار (Directed): یال‌ها با جهت مشخص. ➡️
3. خلوت (Sparse): یال‌ها نسبت به گره‌ها کم. 🌿
4. متراکم (Dense): یال‌ها نسبت به گره‌ها زیاد. 🏗
5. بدون وزن (Unweighted): یال‌ها بدون وزن. ⚖️
6. وزندار (Weighted): یال‌ها وزندار. 🏋️
7. بدون دور (Acyclic): بدون دور. 🚫🔄
8. چرخه‌ای (Cyclic): دارای دور. 🔄
9. ساده (Simple): بدون حلقه یا یال موازی.
10. غیر ساده (Non-simple): با حلقه یا یال موازی. 🚧
11. بدون برچسب (Unlabeled): بدون برچسب. 🏷
12. برچسب‌دار (Labeled): با برچسب. 🏷

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

16 Oct, 10:16


#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

16 Oct, 10:16


ویژن ترنسفورمر (Vision Transformer یا به اختصار ViT) یک معماری مدل است که ترنسفورمرها، که در اصل برای پردازش زبان‌های طبیعی (NLP) طراحی شده‌اند، را برای داده‌های تصویری به کار می‌گیرد. برخلاف شبکه‌های عصبی کانولوشنی (CNNs) که سال‌ها در این زمینه غالب بوده‌اند، ویژن ترنسفورمرها نیازی به استفاده از کانولوشن‌ها برای پردازش تصاویر ندارند. به جای آن، تصاویر را به چندین بخش (پچ) تقسیم کرده، این پچ‌ها را مانند توالی‌های کلمات در نظر می‌گیرند، و سپس مدل ترنسفورمر را برای استخراج ویژگی‌ها به کار می‌گیرند.

ایده اصلی در اینجا ساده اما قدرتمند است: همان‌طور که ترنسفورمرها در درک روابط بین کلمات یک جمله عالی هستند، می‌توانند روابط بین بخش‌های مختلف یک تصویر را نیز یاد بگیرند. این موضوع به ViT‌ها امکان می‌دهد که زمینه‌ی کلی تصویر را با کارایی بیشتری نسبت به CNNها درک کنند.

Paper https://arxiv.org/abs/2010.11929
code https://github.com/google-research/vision_transformer

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

15 Oct, 19:08


اگر به دنبال یک منبع عالی برای مرور سریع الگوریتم‌ها و ساختارهای داده هستید، Algorithms and Data Structures Cheatsheet رو از دست ندید! این سایت یک راهنمای جامع و مختصر ارائه میده که بهتون کمک می‌کنه مفاهیم کلیدی رو به سرعت یاد بگیرید یا مرور کنید. حتماً بهش سر بزنید و از مطالبش بهره‌مند بشید!

https://algs4.cs.princeton.edu/cheatsheet/

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

15 Oct, 19:08


پایتورچ را به صورت رایگان (و با کیفیت) یاد بگیرید!
یک دوره عالی برای یادگیری پایتورچ پیدا کردم که واقعا ارزشمند است. خواستم آن را با شما به اشتراک بگذارم.

https://howsam.org/downloads/pytorch-course/

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

14 Oct, 20:30


📑 - دوره ی تدریس سیگنال و سیستم ها
♾️ - مدرس: پروفسور آلن وی اوپنهایم
🏛 مؤسسه فناوری ماساچوست 𝐌𝐈𝐓

https://ocw.mit.edu/courses/res-6-007-signals-and-systems-spring-2011/download/


📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

14 Oct, 20:30


Are you ready for free online courses from the world’s #No1 university?

#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

14 Oct, 14:09


اگر تازه‌کار هستید، بسیار مهم است که اهمیت ساختارهای داده و الگوریتم‌ها را در آمادگی خود برای ورود به مسیر نرم‌افزار درک کنید. در اینجا یک نقشه راه جامع ارائه شده است که می‌توانید با هر زبان برنامه‌نویسی از آن استفاده کنید. اگر به دنبال گسترش مهارت‌های خود در حوزه علم داده هستید، می‌توانید از طریق زبان برنامه‌نویسی پایتون 🐍 اقدام کنید.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

14 Oct, 12:26


هرکسی ازتون پرسید مشتق و انتگرال کجا بدرد میخوره این ویدیو رو نشونش بدید

هنر مهندسی یعنی یه جسم ۳۵۰۰ تنی رو با سرعت ۶ هزار کیلومتر به سمت زمین برگردونی و اینجوری بگیری بغلت. زنده باد علم...

@silicon_brain | از هوش مصنوعی عقب نمانید

Algorithm design & data structure

14 Oct, 07:14


استفاده از گراف‌ها یکی از قوی‌ترین ابزارها برای حل مسائل پیچیده است. دلایل متعددی برای این استفاده وجود دارد که به طور خلاصه به آن‌ها می‌پردازیم:

1. مدل‌سازی ساختارهای پیچیده 🔄
گراف‌ها به ما اجازه می‌دهند تا روابط پیچیده بین اشیاء را به‌صورت ساده و قابل درک نشان دهیم. به عنوان مثال:
- در شبکه‌های اجتماعی 👥، کاربران به عنوان گره‌ها و دوستی‌ها به عنوان یال‌ها نمایش داده می‌شوند.
- در شبکه‌های حمل‌ونقل 🚗، شهرها گره‌ها و جاده‌ها یال‌ها هستند.

2. حل مسائل مسیریابی و بهینه‌سازی 🚦
گراف‌ها ابزاری عالی برای یافتن بهترین مسیر هستند:
- در الگوریتم‌های مسیریابی 📍، مانند الگوریتم دایکسترا (Dijkstra)، کوتاه‌ترین مسیر بین دو گره در گراف محاسبه می‌شود.
- مسئله فروشنده دوره‌گرد 🤹، که به دنبال کم‌هزینه‌ترین مسیر بازدید از تمام شهرها است.

3. نمایش روابط پیچیده 🔗
گراف‌ها به‌خوبی روابط پیچیده میان داده‌ها را نشان می‌دهند. برای مثال، در تحلیل شبکه‌های اجتماعی 🌐 یا تعاملات بیولوژیکی 🧬 بین ژن‌ها و پروتئین‌ها، می‌توان تعاملات چندگانه را به وضوح مشاهده کرد.

4. کاربردهای گسترده در علوم مختلف 🌍
گراف‌ها در زمینه‌های گوناگون به کار می‌روند:
- هوش مصنوعی 🤖 و یادگیری ماشین برای مدل‌سازی و پردازش زبان طبیعی.
- زیست‌شناسی 🧬 برای بررسی تعاملات ژنتیکی.
- مهندسی نرم‌افزار 💻 برای نمایش وابستگی‌ها بین ماژول‌ها.

5. الگوریتم‌های کارآمد ⚙️
گراف‌ها به ما امکان می‌دهند تا مسائل پیچیده را با الگوریتم‌های کارآمد حل کنیم:
- الگوریتم BFS 🔍 (جستجوی سطح به سطح) و الگوریتم DFS 🔎 (جستجوی عمقی) برای پیمایش و جستجوی گراف‌ها.

6. حل مسائل پویایی شبکه‌ها 🌐
گراف‌ها می‌توانند پویایی شبکه‌ها را در طول زمان مدل‌سازی کنند:
- گراف‌های زمانی برای نمایش تغییرات سیستم‌ها.
- الگوریتم‌های جریان بیشینه 💧 برای مدیریت بهینه جریان‌ها در شبکه‌ها مانند توزیع انرژی.

7. کاربردهای عملی و روزمره 📱
در زندگی روزمره هم گراف‌ها نقش دارند:
- مسیریابی GPS 🗺 برای یافتن بهترین مسیر بین نقاط مختلف.
- مدیریت شبکه‌های توزیع 🏗 برای اطمینان از تخصیص بهینه منابع.

نتیجه‌گیری ✔️
به طور کلی، گراف‌ها به دلیل سادگی در نمایش و حل مسائل مرتبط با روابط و اتصالات، ابزاری فوق‌العاده برای یافتن راه‌حل‌های بهینه هستند و در بسیاری از زمینه‌های علمی و کاربردی استفاده می‌شوند.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

14 Oct, 07:14


"دوره رایگان AI Python برای مبتدیان، برای مدت محدود توسط آندره"

https://www.deeplearning.ai/short-courses/ai-python-for-beginners/
#هوش_مصنوعی
📣👨‍💻 @AlgorithmDesign_DataStructuer

Algorithm design & data structure

13 Oct, 13:33


یادآوری مهم برای ثبت‌نام کنکور کارشناسی ارشد

دوستان عزیز،
به اطلاع می‌رساند مهلت ثبت‌نام برای کنکور کارشناسی ارشد از ۲۲ مهر ۱۴۰۳ تا ۲۸ مهر ۱۴۰۳ می‌باشد. لطفاً برای جلوگیری از هرگونه مشکل در آخرین لحظات، هرچه سریع‌تر نسبت به ثبت‌نام خود اقدام نمایید.

🔹 مهلت ثبت‌نام: ۲۲ مهر ۱۴۰۳ تا ۲۸ مهر ۱۴۰۳
🔹 وب‌سایت ثبت‌نام: (سایت سنجش)


در صورت بروز هرگونه مشکل یا نیاز به راهنمایی، می‌توانید با ما در تماس باشید. موفقیت شما برای ما مهم است!

💠 https://t.me/Se_mohamad

Algorithm design & data structure

13 Oct, 12:26


الگوریتم Kruskal برای یافتن درخت پوشای کمینه (Minimum Spanning Tree - MST)

الگوریتم Kruskal یکی از معروف‌ترین روش‌ها برای یافتن درخت پوشای کمینه در یک گراف وزن‌دار است. درخت پوشای کمینه یک زیرمجموعه از یال‌های گراف است که تمام رأس‌ها را به هم متصل کرده و مجموع وزن یال‌ها را به کمترین مقدار می‌رساند. این الگوریتم از نوع حریصانه (Greedy) است، یعنی در هر مرحله بهترین انتخاب ممکن را انجام می‌دهد تا به نتیجه بهینه برسد.



🌟 گام‌های الگوریتم Kruskal:

1. مرتب‌سازی یال‌ها: ابتدا تمام یال‌های گراف را به ترتیب وزن از کم به زیاد مرتب می‌کنیم.

2. ایجاد مجموعه‌های ناپیوسته: برای هر رأس یک مجموعه مجزا تشکیل می‌دهیم (در ابتدا هر رأس به تنهایی یک مجموعه است).

3. اضافه کردن یال‌ها به MST:
- یال‌ها را یکی یکی از کمترین وزن به بزرگترین بررسی می‌کنیم.
- اگر اضافه کردن یک یال باعث ایجاد حلقه نشود، آن را به درخت پوشا اضافه می‌کنیم.
- اگر یال باعث ایجاد حلقه شود، آن را نادیده می‌گیریم.

4. اتمام الگوریتم: این روند تا زمانی ادامه دارد که تمام رأس‌ها به هم متصل شده و یک درخت پوشای کمینه ساخته شود.



⏱️ پیچیدگی زمانی الگوریتم:

الگوریتم Kruskal شامل دو بخش اصلی است:

1. مرتب‌سازی یال‌ها: با استفاده از الگوریتم‌های مرتب‌سازی سریع مانند Merge Sort یا Quick Sort، پیچیدگی زمانی این مرحله O(Elog E) است که E تعداد یال‌های گراف است.

2. جستجوی مجموعه‌ها و ترکیب آن‌ها: برای مدیریت مجموعه‌ها از ساختار داده‌ای Union-Find استفاده می‌شود که با بهینه‌سازی‌هایی مانند فشرده‌سازی مسیر (Path Compression) و اتحاد بر اساس رتبه (Union by Rank)، پیچیدگی زمانی این عملیات‌ها به O(α(V)) کاهش می‌یابد.

به طور کلی، پیچیدگی زمانی الگوریتم برابر است با:


O(E log E + E α(V))


که در آن E تعداد یال‌ها و V تعداد رأس‌های گراف است. از آنجایی که E log E سریع‌تر از E α(V) رشد می‌کند، پیچیدگی زمانی کلی O(E log E) است.



📊 ویژگی‌ها و کاربردها:

- نوع الگوریتم: حریصانه (Greedy)
- کاربردها:
- ساخت درخت پوشای کمینه در شبکه‌های ارتباطی.
- کاهش هزینه‌های طراحی شبکه.
- حل مسائل بهینه‌سازی گراف‌ها.

- محدودیت‌ها:
- مناسب برای گراف‌های پراکنده (Sparse). برای گراف‌های متراکم (Dense)، الگوریتم‌های دیگر مانند Prim ممکن است عملکرد بهتری داشته باشند.



با پیروی از این مراحل و فهمیدن پیچیدگی‌ها، الگوریتم Kruskal به یکی از بهترین انتخاب‌ها برای ساخت درخت پوشای کمینه تبدیل می‌شود.

#الگوریتم
📣👨‍💻 @AlgorithmDesign_DataStructuer