👩🏻💻 من همیشه دنبال ایدههای جدید برای ساخت نمودارهای خلاقانه برای پروژههام بودم، اما پیدا کردن نمونههای جدید همیشه برام یه چالش بود. تا اینکه با dataviz-inspiration.com آشنا شدم!
✔️ سایت Dataviz Inspirationیه آرشیو فوقالعاده از صدها پروژهی خفن ویژوالسازی دادهس که میتونین بر اساس نوع نمودار فیلترش کنین.
⭐دقیقاً مثل پینترست، اما مخصوص تحلیلگرها!😎
✏️ چرا انقدر کاربردیه؟ وقتی ایده نداری، سریع یه عالمه نمونه جذاب پیدا میکنی. پروژهها به دستهبندیهای مختلف تقسیم شدن و لازم نیست ساعتها دنبال نمونهی مناسب بگردی. مهمتر از همه اینکه مرتب آپدیت میشه و پروژههای جدیدتر بهش اضافه میشه!🤩
📚 میخوای بهترین کتابهای توسعه فردی و بیزینس رو بشناسی؟ 🧠 دنبال مقالاتی هستی که بهت کمک کنه خودت رو عمیقتر بشناسی؟ ✨ دوست داری ذهنت رو با محتوای جذاب و علمی به چالش بکشی؟
پس جای درستی اومدی! اینجا محتوایی میخونی که نگرشت رو تغییر میده و کمکت میکنه در مسیر رشد فردی و حرفهای قدم برداری.
🚀 همین حالا عضو شو و سطح فکرت رو ارتقا بده!
🔗https://t.me/scientificmindset
Data Science | علم داده
09 Feb, 18:29
8,126
💡جزوهای که هر دیتاساینتیستی باید داشته باشه!
✅جزوه فارسی Data Storytelling — داستان پردازی با دادهها؛ از تحلیل تا تأثیرگذاری!
👨🏻💻 تابحال شده یه تحلیل قوی از دادهها انجام بدی ولی نتونی نتایجت رو درست به بقیه منتقل کنی؟
✏️ داستانپردازی با دادهها یا (Data Storytelling) همون مهارتیه که باعث میشه دادههای خام رو به داستانهای قانعکننده و تاثیرگذار تبدیل کنی و مدیران رو متقاعد کنی تا استراتژیهای سازمان رو تغییر بدن!
👤 توی این جزوه یاد میگیری:
🔢 چطور دادهها رو طوری ارائه بدی که همه بفهمن و بپذیرن.
🔢 چه تکنیکهایی باعث میشه مدیران و تصمیمگیرندگان به تحلیل تو اعتماد کنن؟
🔢 چه نوع تصویریسازیهایی (Data Visualization) بهترین تاثیر رو دارن؟
▶️ پس اگه میخوای تحلیلهات فقط یه سری عدد نباشن و واقعاً روی تصمیمگیریها اثر بذارن، این جزوه رو از دست نده!
🔎دادههای متنی رو به راحتی از تصاویر و اسناد استخراج کن!
👨🏻💻 اگه تاحالا دادههای متنی رو از اسناد و تصاویر استخراج کرده باشین، احتمالاً با دردسر این کار خوب آشنا هستین. معمولاً مجبور میشی چندین کتابخونه رو کنار هم بچینی (مثلاً Tesseract برای OCR یا OpenCV برای پردازش تصویر) و چند ابزار دیگه رو برای مرتبسازی خروجیها آماده کنی تا بالاخره به یه نتیجهای برسی.
✏️ اما مشکل اینجاست که این کار هم وقتگیره، هم ممکنه خطاهای زیادی توی خروجی داشته باشی، تازه هر تغییری توی دادهها هم میتونه کل (Pipeline) رو به هم بزنه!
✔️از وقتی با Sparrow آشنا شدم، خیلی کارم راحت شده! یه API یکپارچه که همهیِ این کارها رو خودش انجام میده، بدون اینکه نیاز باشه خودت چندین ابزار مختلف رو مدیریت کنی. یعنی چی؟
🔢 از هر مدل و بکاندی که بخوای میتونی استفاده کنی؛ (مثلاً OpenAI, Hugging Face، یا ابزارهای OCR اختصاصی).
🔢خروجی کارت همیشه یکدست و دقیق میمونه؛ فارغ از اینکه از کدوم روش استخراج استفاده کنی!
🔢توسعه و پیادهسازی رو فوقالعاده ساده میکنه؛ چون دیگه لازم نیست برای هر سند، الگوریتم جداگانه بنویسی.
🔢با انواع اسناد و فرمتها کار میکنه؛ از PDF گرفته تا رسیدهای خرید، فاکتورها و حتی تصاویر و جزوات دستنویس!
🖥خلاصه، دیگه لازم نیست برای استخراج اطلاعات از اسناد کد نویسی کنی یا نگران ناپایداری پردازشهات باشی. فقط به Sparrow بگو چی میخوای، اون خودش کامل برات انجام میده.👇
👨🏻💻 به عنوان یه تحلیلگر داده، چه بخوایم کد یه مقاله رو بررسی کنیم، چه یه پروژه مرتبط با محصولمون رو آنالیز کنیم همیشه سر و کارمون با ریپویهای گیتهاب زیاده.
✏️ تو اینجور مواقع، یه دستیار هوشمند که بتونه اطلاعات لازم رو سریع بهمون بده، خیلی میتونه کمک کننده باشه!
✅روش اول: استفاده از GithubChat! یه پروژه اِپن سورس که با AdalFlow ساخته شده.👇
┌ 💬 GithubChat └ 🐱GitHub-Repos
☑️روش دوم: فقط کافیه توی لینک (URL) گیتهاب، "hub" رو با "ingest" جایگزین کنی، بعدش یه نسخه متنی از کل کدبیس رو میگیری! اینطوری خیلی راحت هر ریپوی گیتهاب رو به متن تبدیل میکنی و ازش توی مدلهای زبان بزرگ (LLMs) استفاده میکنی.
📹نحوه پیاده سازی هر دو روش هم داخل ویدیوی بالا هست.
🥇ترجمه فارسی و رایگان ✅ کتاب «شروع حرفهای در علم داده»
👨🏻💻 از حدود پنج سال پیش کار با اکسل و داشبورسازی حرفهای رو شروع کردم و اتفاقات به گونهای پیش رفت که عجیب به دنیای علم داده علاقه مند شدم و تصمیم گرفتم برای خودم و تمام کسانی که به تازگی وارد حوزه علم داده شدن کتاب «شروع حرفهای مسیر علم داده» رو از پلتفرم 365datascience به فارسی ترجمه کنم و و در اختیار علاقه مندان این حوزه قرار بدم:👇
💥شروع شد.. مسیرهای حرفه ای: 🎯 دانشمند داده و مهندس هوش مصنوعی دایکه 🎯 Dayche Data Scientist & ML/AI Engineer
👈ثبت نام در طرح های پرداخت متنوع نقد . اقساط . دانشجویی . شهریه معوق
🌐 t.me/daycheapply
👈 برنامه نویسی پایتون . آمار و داده کاوی . تحلیل بیگ دیتا . مهارتهای نرمافزاری . ریاضیات AI . یادگیری ماشین پیشرفته . یادگیری عمیق پیشرفته . MLOps . SDLC . پردازش ابری AWS/GCP . مدلهای مولد و زبانی LLM/VLM
✍️مشاوره کامل قبل ثبت نام:👇👇
✅دایرکت: ➡️ @daycheapply
✅تماس مستقیم: 📞 021-910-96122
✅پیامک: ارسال کد 1 به 📲 0930-0214441
✅اطلاعات بیشتر: 🌐 Dayche.com
Data Science | علم داده
06 Feb, 14:45
6,772
🔰 چطور در سال 2025 دانشمند داده بشیم؟
👨🏻💻 اگه میخواین تو دیتا ساینس حرفهای بشین، این مسیر رو دنبال کنین! من یه نقشه راه کامل با بهترین منابع رایگان آماده کردم که میتونین مهارتهای ضروری این حوزه رو یاد بگیریم.
🔢گام اول: ریاضیات و آمارت رو قوی کن!
✏️ پایه و اساس یادگیری علم داده، ریاضیات، جبر خطی و آمار و احتمالاته. مباحثی که باید روشون مسلط بشین:
✅جبر خطی: ماتریسها، بردارها، مقادیر ویژه.
🔗دوره:MIT 18.06 Linear Algebra
✅حساب دیفرانسیل و انتگرال: مشتق، انتگرال، بهینهسازی.
🔗دوره:MIT Single Variable Calculus
✅آمار و احتمال: قضیه بیز، آزمون فرضیه.
🔗دوره:Statistics 110
➖➖➖➖➖
🔢گام دوم: برنامهنویسی یاد بگیر
✏️ زبان پایتون رو یاد بگیرین و باهاش حسابی کدنویسی کنین. مهمترین مباحثی که باید روش مسلط بشین:
✅پایتون: کتابخونههای Pandas, NumPy, Matplotlib
🔗دوره:FreeCodeCamp Python Course
✅زبان SQL: دستورات Join، توابع Window، بهینهسازی کوئریها.
🔗دوره:Stanford SQL Course
✅ساختمان داده و الگوریتمها: آرایهها، لیستهای پیوندی، درختها.
🔗دوره:MIT Introduction to Algorithms
➖➖➖➖➖
🔢گام سوم: تمیز کردن و مصورسازی دادهها
✏️ یاد بگیرین چطور دادهها رو پردازش و تمیز کنین و بعدش یه داستان جذاب ازشون بسازین!
✅پاکسازی داده: کار با مقادیر گمشده و تشخیص دادههای پرت.
🔗دوره:Data Cleaning
✅مصورسازی داده: Matplotlib, Seaborn, Tableau
🔗دوره:Data Visualization Tutorial
➖➖➖➖➖
🔢گام چهارم: یادگیری یادگیری ماشین
✏️ وقتشه وارد دنیای جذاب یادگیری ماشین بشین! باید این مباحث رو بلد باشین:
✅یادگیری تحت نظارت: رگرسیون، دستهبندی.
✅یادگیری بدون نظارت: خوشهبندی، PCA، کشف ناهنجاری.
✅یادگیری عمیق: شبکههای عصبی، CNN, RNN
🔗دوره:CS229: Machine Learning
➖➖➖➖➖ 🔢 گام پنجم: کار با دادههای حجیم و تکنولوژیهای ابری
✏️اگه قراره تو دنیای واقعی کار کنین، باید بلد باشین با دادههای بزرگ (Big Data) و پردازش ابری کار کنین.
✅ابزارهای دادههای حجیم: Hadoop, Spark, Dask
✅پلتفرمهای ابری: AWS, GCP, Azure
🔗دوره:Data Engineering
➖➖➖➖➖
🔢گام ششم: پروژههای واقعی انجام بده!
✏️ تئوری کافیه، وقتشه دست به کد بشین! پروژههای واقعی انجام بدین و یه پورتفولیوی قوی بسازین.
🔹 سمپوزیوم روانکاوی و هوش مصنوعی 🔹 " دیدگاهی نوین به هوش مصنوعی از دریچه روانکاوی "
🔸 سخنرانان: 🎙 لوکا پوساتی– تئوریسین و استاد دانشگاه تونته، هلند _موضوع:_ هوش مصنوعیِ Deadbotها*و [فرآیند] سوگواری
🎙 فاطمه ناجی میدانی– درمانگر تحلیلی و عضو رسمی iPSA
_موضوع_ : ادیسهای بیپایان: روانکاوی،AI و پیچیدگی [مسألهی] جنسیت
🔹 گروه پژوهشی GRT: خشایار غفاری حسینی،کیارش رحمانی و سوگند کریمی_ سخنران: خشایار غفاریحسینی، پژوهشگر هوش مصنوعی، ژاپن _موضوع_ : آیا روانشناسی میتواند به درک هوش مصنوعی کمکی کند؟
**Deadbots به رباتهایی مبتنی بر هوش مصنوعی گفته میشود که از دادههای دیجیتالی افراد فوتشده برای شبیهسازی تعاملات با آنها استفاده میکنند. این فناوری در فرایند سوگواری، همراه کاربران میشود.
🗓 جمعه ۱۹ بهمن ⏰ ساعت ۱۷:۳۰ به وقت ایران
«فارسی و انگلیسی»
✉️ هزینه این نشست ۳۰۰ هزار تومان می باشد، جهت ثبتنام لطفا نام و نام خانوادگی و فیش واریزی را به @mahoor_psychoanalysis در تلگرام ارسال نمایید.
با تشکر دپارتمان تحلیلی ماهور
Data Science | علم داده
06 Feb, 09:58
1,978
💥 جشن یادگیری با تخفیف ۵ تا ۲۵٪ به مناسبت اعیاد شعبانیه‼️
🔄 سه دوره آموزشی، یک فرصت طلایی🔄
✅دوره اول: دوره جامع علم داده و هوش مصنوعی 09377516759 ✅دوره دوم: دوره جامع هوش تجاری 09377516682 ✅دوره سوم: دوره تحلیل دادههای کسبوکار و آمادگی آزمون IIBA®-CBDA 09377516835
⏰فرصت محدود - همین امروز ثبتنام کنید!
🕘 برای اطلاعات بیشتر و ثبتنام، با کارشناس هر یک از دوره ها ارتباط برقرار نمایید یا به [لینک سایت] مراجعه فرمایید.