Data world with Mina @datalook_ir Channel on Telegram

Data world with Mina

@datalook_ir


[email protected]
منبع مطالب يادگيري ماشين،پايتون ،داده كاوي ،هوش مصنوعي، دانلود داده، فيلم هاي آموزشي رايگان، داده
ارتباط با ادمین
@Datalook_mina
اینستاگرام:mina.rabti

Data world with Mina (Persian)

Welcome to 'Data world with Mina' Telegram channel, managed by Mina Rabti. This channel is dedicated to providing valuable content on machine learning, Python, data mining, artificial intelligence, data download, and free educational videos. If you are interested in expanding your knowledge in the field of data science, this is the perfect channel for you. Mina Rabti, the admin of the channel, is a knowledgeable expert in the field and is committed to sharing useful resources and insights with the members. You can also reach out to Mina directly by contacting @Datalook_mina on Telegram or following her on Instagram at mina.rabti. Don't miss out on the opportunity to enhance your skills and stay updated with the latest trends in data science. Join 'Data world with Mina' today!

Data world with Mina

29 Jan, 18:16


https://jobinja.ir/companies/snappmarket/jobs/AlvG

Data world with Mina

29 Jan, 09:51


تحلیل‌گر داده (Data Analyst)

داستان گویان داده Story Teller
→ تمرکز: ایجاد بصری‌سازی‌ها، داشبوردها و گزارش‌ها.
→ مهارت‌ها: Excel، Tableau، SQL.
→ ابزارها: Power BI، Looker، Google Sheets.
→ هدف: کمک به کسب‌وکارها برای تصمیم‌گیری مبتنی بر داده.
مثال: تحلیل داده‌های یک کمپین برای بهینه‌سازی استراتژی‌های بازاریابی.

مهندس یادگیری ماشین (ML Engineer)

ارتباط‌دهندگان بین علم داده و مهندسی نرم‌افزار.
→ تمرکز: استقرار مدل‌های یادگیری ماشین در محیط عملیاتی.
→ مهارت‌ها: Python، APIها، سرویس‌های ابری (AWS، Azure).
→ ابزارها: Kubernetes، Docker، FastAPI.
→ هدف: مقیاس‌پذیر کردن مدل‌ها و آماده‌سازی آن‌ها برای برنامه‌های کاربردی در دنیای واقعی.
مثال: استقرار یک مدل شناسایی تقلب برای یک بانک.


---

کدام مسیر را باید انتخاب کنید؟

علاقه‌مند به حل مسائل پیچیده هستید؟
→ دانشمند داده (Data Scientist)

از کار با سیستم‌ها و کلان‌داده (Big Data) لذت می‌برید؟
→ مهندس داده (Data Engineer)

به داستان‌سرایی بصری علاقه دارید؟
→ تحلیل‌گر داده (Data Analyst)

هیجان‌زده هستید که سیستم‌های هوش مصنوعی را مقیاس‌پذیر کنید؟
→ مهندس یادگیری ماشین (ML Engineer)

هر نقش مهم و پرتقاضا است—مسیر خود را بر اساس نقاط قوت و آرزوهای شغلی‌تان انتخاب کنید.

Data world with Mina

29 Jan, 09:50


یک پست برای تازه‌واردین و علاقه‌مندان ورود به دنیای داده

آشنایی با شغل‌های حوزه داده و هوش مصنوعی

دانشمند داده (Data Scientist)

آن‌ها را به‌عنوان کارآگاهان داده در نظر بگیرید.
→ تمرکز: شناسایی الگوها و ساخت مدل‌های پیش‌بینی‌کننده.
→ مهارت‌ها: یادگیری ماشین، آمار، Python/R.
→ ابزارها: Jupyter Notebooks، TensorFlow، PyTorch.
→ هدف: استخراج بینش‌های کاربردی از داده‌های خام.
مثال: ایجاد یک سیستم توصیه‌گر مانند نتفلیکس.
مهندس داده (Data Engineer)

معماران زیرساخت داده.
→ تمرکز: توسعه خطوط پردازش داده، سیستم‌های ذخیره‌سازی و زیرساخت‌ها.
→ مهارت‌ها: SQL، فناوری‌های کلان‌داده (Hadoop، Spark)، پلتفرم‌های ابری.
→ ابزارها: Airflow، Kafka، Snowflake.
→ هدف: اطمینان از جریان بی‌وقفه داده در سراسر سازمان.
مثال: طراحی یک خط پردازش داده برای مدیریت میلیون‌ها تراکنش در
لحظه.

Data world with Mina

27 Jan, 21:36


واقعا اگر مدلی با 7 میلیارد جواب بده، عالیه😄

Data world with Mina

27 Jan, 21:35


"دیپ‌سیک امروز یک محصول ارزشمند دیگر منتشر کرده است – 🚀
Janus-Pro

این مدل درک یکپارچه از محتوای چندوجهی و قابلیت‌های تولید تصویر ارائه می‌دهد. پیشرفت‌های قابل توجهی در درک چندوجهی و توانایی پیروی از دستورات متن به تصویر ایجاد کرده است، در حالی که پایداری تولید متن به تصویر را نیز بهبود می‌بخشد. کدها و مدل‌ها به صورت عمومی در دسترس هستند و در اندازه‌های ۱ میلیارد و ۷ میلیارد عرضه می‌شوند. این مدل تحت مجوز MIT ارائه شده است. اپلیکیشن به زودی در Huggingface منتشر می‌شود."

Data world with Mina

27 Jan, 21:30


"

Data world with Mina

27 Jan, 21:14


😄😄😄😄
غیر از این موضوع که خیلی عجیبه
امروز در یک گروه دیدم، یک نفر پرسیده بود چرا وقتی ویژگی کتگوریکال رو scale کردم. اینجور جواب داده و چیکار باید بکنم.
واقعا چطور ممکنه این بی توجهی رو داشته باشیم. 😑😑😑🙄 اصلا دلیل نرمال کردن چیه. داده های کتگوری رو انکد میکنیم و تمام. نرمال کرذن فقط و فقط برای داده های عددی. اینجاست که میگن به تئوری توجه کن.
یه مورد دیگه متاسفانه یه عده البته به خاطر بی تجربگی مرحله تشخیص داده پرت و حذفش رو در همه پروژه ها انجام میدن. خیلی مهمه که بدونیم روی چه نوع داده ای و با چه هدفی جلو میریم. همیشه پرتها بد نیستن و در کارگاه ها همیشه اینا رو بررسی کردیم. کار ما اکثر اوقات تست و خطاست.
همین رعایت نکات کوچیک روی پروژه های بزرگ هم اهمیت داره و روی دقتی که میخوای به مشتری تحویل بدی تاثیر داره.

Data world with Mina

25 Jan, 19:06


5 کتابخانه پایتون برای ساختن سیستم‌ RAG

لینک

Data world with Mina

25 Jan, 12:40


https://www.linkedin.com/posts/activity-7288898207747604480-OKrl?utm_source=social_share_send&utm_medium=android_app&utm_campaign=copy_link

Data world with Mina

24 Jan, 16:11


خالق ChatGPT از ابزار جدید Operator رونمایی کرد: تحولی در انجام کارهای اینترنتی

شرکت OpenAI، خالق هوش مصنوعی ChatGPT از ابزار جدید Operator رونمایی کرده است که می‌تواند به‌طور خودکار وظایف آنلاین را انجام دهد و با صفحات وب تعامل کند.

این ابزار با استفاده از یک مرورگر داخلی، قادر است صفحات وب را مشاهده کرده و با آن‌ها تعامل برقرار کند. کاربران می‌توانند از این ابزار برای تایپ، کلیک و اسکرول در صفحات استفاده کنند. این قابلیت ابتدا در آمریکا برای مشترکان نسخه پولی ChatGPT Pro در دسترس قرار خواهد گرفت.

اپراتور همچنین به‌طور هوشمند قادر است خود را اصلاح کرده و در مواقع نیاز کنترل را به کاربر واگذار کند. این ابزار هنگام درخواست اطلاعات حساس مانند نام کاربری و رمز عبور، از کاربر خواسته تا وارد عمل شود و پیش از ارسال ایمیل یا انجام اقدامات مشابه، تأیید کاربر را دریافت کند. OpenAI اعلام کرده است که Operator برای جلوگیری از درخواست‌های نامناسب و مسدود کردن محتوای غیرمجاز طراحی شده است.

این ابزار در آینده برای کاربران پلن‌های Plus، Team و Enterprise نیز قابل دسترسی خواهد بود و OpenAI برنامه دارد تا این قابلیت‌ها را به طور کامل در ChatGPT ادغام کند.

Data world with Mina

21 Jan, 16:16


https://dub.ai/en/omp/

Data world with Mina

21 Jan, 11:17


بیمارستان‌های هوشمند مبتنی بر هوش مصنوعی

معرفی اولین بیمارستان هوش مصنوعی در جهان، جایی که پزشکان رباتیک قادر خواهند بود روزانه هزاران بیمار را ویزیت کنند.

"بیمارستان Agent" که توسط دانشگاه تسینگهوا در پکن توسعه یافته، با هدف دسترسی به خدمات درمانی و افزایش بهره‌وری طراحی شده و می‌تواند با تعامل خودکار خود "میلیون‌ها نفر " را نجات دهد.

با دقت چشمگیر 93.06٪، این رویکرد نوآورانه نه تنها آماده است تا بهداشت و درمان را دوباره تعریف کند، بلکه به طور قابل توجهی به نفع بیماران و متخصصان پزشکی نیز خواهد بود.

Data world with Mina

21 Jan, 08:01


Data world with Mina pinned Deleted message

Data world with Mina

20 Jan, 15:35


خروجی‌های ممکن از GeoAI:

📍 نقشه‌برداری خودکار:
استخراج ویژگی‌ها در مقیاس و سرعت بالا. این نقشه‌ها ممکن است دقت یا کیفیت نقشه‌برداری دستی را نداشته باشند، اما برای نیازهای گسترده یا سریع مناسب‌تر هستند تا وظایف خاص مانند کاداستر( cadaster)

📍 پیش‌بینی‌ها:
شناسایی مناطق در معرض خطر سیل، رشد شهری یا پیش‌بینی تغییرات محیطی.

📍 طبقه‌بندی‌ها:
انواع پوشش زمین، تشخیص اشیا (مانند ساختمان‌ها یا وسایل نقلیه).

📍 تحلیل فضایی - نقشه‌های حرارتی:
تراکم جمعیت، ترافیک یا نقاط پرخطر جرایم.

📍 الگوها و بینش‌ها:
روندهای مهاجرت، تأثیر بلایا و برنامه‌ریزی منابع.

📍 بصری‌سازی تعاملی:
نقشه‌هایی با لایه‌های مبتنی بر هوش مصنوعی برای تفسیر آسان‌تر.

ابزار GeoAI می‌تواند به‌صورت سفارشی در سازمان‌ها یا سیستم‌های تولیدی بدون وابستگی به ارائه‌دهندگان نرم‌افزار خاص پیاده‌سازی شود.

این لینک را ببینید
https://medium.com/@julialeonardi/the-roadmap-of-geoai-part-1-e3fefa2575a9

@mina_rabti

Data world with Mina

20 Jan, 15:35


مفهوم GeoAI جایی است که هوش مصنوعی با GIS ترکیب می‌شود.

ادغام هوش مصنوعی، تصاویر و داده‌های مکانی.

ورودی‌های معمول برای GeoAI:

📌 داده‌های مکانی:
مجموعه داده‌های GIS یا جغرافیایی (برداری، شطرنجی)، مختصات و مدل‌های ارتفاعی/سطحی.

📌 تصاویر:
تصاویر ماهواره‌ای، هوایی یا پهپادی، True-Orthophotos، داده‌های چندطیفی/فراطیفی.

📌 داده‌های محیطی:
آب‌وهوا، اقلیم، خاک و متغیرهای زیست‌محیطی.

📌 داده‌های فعالیت انسانی:
سرشماری، الگوهای جابه‌جایی و مجموعه داده‌های شهری.

📌 داده‌های زمینه‌ای خارجی:
شاخص‌های اقتصادی، تراکم جمعیت، داده‌های استفاده از زمین، و داده‌های لحظه‌ای.

📌 داده‌های آموزشی هوش مصنوعی:
مجموعه داده‌های برچسب‌گذاری‌شده، مدل‌های آموزش‌دیده نظارتی و...

Data world with Mina

19 Jan, 14:28


مایکروسافت از MatterGen رونمایی کرد؛ هوش مصنوعی مولد برای طراحی مواد جدید

مایکروسافت از MatterGen رونمایی کرد. MatterGen ابزار هوش مصنوعی مولد است و می‌تواند نحوه درک ما از کشف مواد را متحول کند. به گفته مایکروسافت، این هوش مصنوعی می‌تواند پارادایم جدیدی در مهندسی مواد ایجاد کند.

براساس اعلام مایکروسافت و مقاله منتشرشده در نیچر، MatterGen سیستم هوش مصنوعی پیشرفته‌ای است که می‌تواند مواد جدید را با کیفیت بالا توسعه دهد. برخلاف رویکردهای مرسوم، سیستم جدید از زاویه دیگری به توسعه مواد می‌پردازد. «ساتیا نادلا»، مدیرعامل مایکروسافت، نیز درباره این دستاورد در لینکدین گفت: «مدل MatterGen ما از هوش مصنوعی مولد برای ایجاد ترکیبات جدید با ویژگی‌های خاص و دقت بی‌سابقه‌ای استفاده می‌کند.»


اکنون MatterGen کشف مواد را از زاویه‌ای متفاوت بررسی می‌کند. این سیستم به‌جای غربالگری کاندیدها، باتوجه‌به اهداف و الزامات مهندسان مواد جدید را مستقیم تولید می‌کند. این هوش مصنوعی می‌تواند موادی با خواص شیمیایی، مکانیکی، الکترونیکی یا مغناطیسی دلخواه طراحی کند. مایکروسافت می‌گوید MatterGen پارادایم جدیدی از طراحی مواد ایجاد خواهد کرد که امکان کاوش کارآمد مواد را فراهم می‌کند.
ابزار MatterGen مدل انتشاری (Diffusion Model) است که بر پایه هندسه سه‌بعدی مواد عمل می‌کند. همانند مدل‌های انتشاری تولید تصویر که عکس را از پرامپت متنی تولید می‌کنند، MatterGen ساختارهای پیشنهادی را با تنظیم موقعیت‌ها، عناصر و شبکه‌ها می‌سازد.

Data world with Mina

17 Jan, 11:10


رونمایی ChatGPT از ویژگی جدید Tasks

چت‌بات ChatGPT ویژگی Tasks را معرفی کرد که امکان برنامه‌ریزی یادآوری‌ها و کارها را فراهم می‌کند. این قابلیت برای کاربران پولی در دسترس است و در مرحله بتا قرار دارد.

این ویژگی که از امروز برای کاربران اشتراک‌های Plus ،Team و Pro در دسترس است، گامی مهم در تبدیل ChatGPT به یک دستیار دیجیتال همه‌کاره محسوب می‌شود.

با این قابلیت، ChatGPT می‌تواند وظایفی مانند ارسال گزارش آب‌وهوا در ساعت ۷ صبح، یادآوری تاریخ انقضای پاسپورت یا حتی گفتن جوک قبل از خواب را به‌صورت یکباره یا تکراری انجام دهد.😁

چگونه از Tasks استفاده کنیم؟

برای استفاده از این ویژگی، کاربران باید در بخش انتخاب مدل ChatGPT، گزینه «4o with scheduled tasks» را انتخاب کنند. سپس می‌توانند درخواست‌های خود را تایپ و زمان انجام آنها را مشخص کنند.

سیستم همچنین می‌تواند بر اساس مکالمات، وظایفی را پیشنهاد دهد، اما کاربران باید این پیشنهادها را تایید کنند تا ایجاد شوند. تمامی وظایف را می‌توان درون چت‌ها یا از طریق بخش جدید Tasks در منوی پروفایل مدیریت کرد.
این بخش تنها در نسخه وب در دسترس است و به کاربران امکان می‌دهد وظایف را ویرایش یا لغو کنند. اعلان‌های مربوط به تکمیل وظایف نیز در پلتفرم‌های وب، دسکتاپ و موبایل ارسال می‌شوند. با این حال، کاربران تنها می‌توانند ۱۰ وظیفه فعال را همزمان اجرا کنند.

بر اساس گزارش‌ها، OpenAI قصد دارد قابلیت‌های Tasks را گسترش دهد. به عنوان مثال، پروژه‌ای به نام «Operator» در حال توسعه است که یک عامل هوش مصنوعی خودمختار است و می‌تواند به‌ طور مستقل کامپیوترها را کنترل کند.

Data world with Mina

17 Jan, 09:44


یازدهمین جشنواره فناوری اطلاعات کشور- ITWEEKEND 2025

🗓30 دی ماه 1403 ساعت 9:00 الی 17:30

📍دانشگاه صنعتی شریف ( دانشکده مهندسی کامپیوتر، سالن استاد ربیعی)
https://itweekend.sharif.ir

به صورت رایگان میتونین شرکت کنید

Data world with Mina

16 Jan, 09:24


نشت داده (Data leakage)
#درس_یادگیری_ماشین

#نشت_داده در #یادگیری_ماشین  به وضعیتی اشاره دارد که در آن اطلاعات خارج از مجموعه داده آموزشی برای ایجاد مدل استفاده می شود که منجر به تخمین عملکرد بیش از حد خوش بینانه می شود. این
می تواند به روش های مختلفی رخ دهد، مانند:

🔶گنجاندن ناخواسته داده‌های آینده: اگر مدلی بر روی داده‌هایی که شامل اطلاعات آینده (نسبت به پیش‌بینی‌های انجام شده) است آموزش داده شود، می‌تواند منجر به عملکرد غیرواقعی شود. برای مثال، اگر قیمت سهام را پیش‌بینی می‌کنید و داده‌های آموزشی شما شامل قیمت‌های آتی می‌شود، این مدل ممکن است در طول آزمایش عملکرد خوبی داشته باشد اما در برنامه‌های دنیای واقعی شکست بخورد.

🔶نشت پیش پردازش(Preprocessing Leakage): اگر مراحل پیش پردازش داده ها (مانند نرمالسازی یا انتخاب ویژگی) قبل از تقسیم داده ها به مجموعه های آموزشی و آزمایشی اعمال شود، اطلاعات مجموعه آزمایشی می تواند بر روند آموزش تأثیر بگذارد. به عنوان مثال، اگر کل مجموعه داده را قبل از تقسیم استاندارد کنید، میانگین و انحراف استاندارد مورد استفاده برای استانداردسازی شامل اطلاعاتی از مجموعه آموزشی و آزمایشی خواهد بود.


🔶نشت فیچرها(Feature Leakage)این زمانی اتفاق می‌افتد که ویژگی‌هایی که در زمان پیش‌بینی در دسترس نباشند در مدل گنجانده می‌شوند. به عنوان مثال، استفاده از یک ویژگی که به طور مستقیم یا غیرمستقیم به متغیر هدف اشاره می کند، می تواند منجر به نشت شود.

🔶نشت داده از طریق اعتبار سنجی متقاطع(Cross-validation): اگر نقاط داده یکسان در هر دو مجموعه آموزشی و اعتبار سنجی در حین اعتبارسنجی متقابل گنجانده شود، می تواند حس نادرستی از عملکرد مدل بر روی داده های دیده نشده به دست دهد.

برای کاهش نشت ، مدیریت دقیق نحوه تقسیم و پردازش داده ها ضروری است تا اطمینان حاصل شود که هیچ اطلاعاتی از مجموعه آزمایشی در طول آموزش یا پیش پردازش استفاده نمی شود. تکنیک های اعتبارسنجی مناسب، مانند اعتبارسنجی متقاطع k-fold با پارتیشن بندی دقیق، می تواند به کاهش خطر نشت کمک کند.
اطلاعات بیشتر در لینک زیر : 

https://medium.com/@swethac42/data-leakage-and-its-effect-on-machine-learning-models-67c8edc588d4

@datalook_ir

Data world with Mina

15 Jan, 19:38


کتاب فوق‌العاده پردازش گفتار
ویرایش سوم
نوشته دن جورافسکی و جیمز اچ. مارتین

اگر به NLP، هوش مصنوعی یا شناسایی گفتار علاقه‌مند هستید، این کتاب یک گنجینه است. از مبدل‌ها و مدل‌های زبانی بزرگ گرفته تا ترجمه ماشینی و چت‌بات‌ها، پر از بینش‌های پیشرفته و منابع کاربردی است.

Data world with Mina

15 Jan, 15:17


گزارش مجمع جهانی اقتصاد نشان می‌دهد: هوش مصنوعی دیگر تهدیدی برای بازار کار نیست.

خبر خوب اینکه داده‌های جدید مجمع جهانی اقتصاد درباره آینده پیش‌بینی متفاوت می‌کند، به نظر می‌رسد بشر با شناخت خوبی که از هوش مصنوعی پیدا کرده، دیگر نه‌فقط آن را تهدید نمی‌داند، بلکه معتقد است فرصت‌های شغلی بیشتری هم با کمک آن خلق خواهند شد.

هر اختراع و کشف جدیدی ابتدا هیولا دیده می‌شود تا زمانی که یاد بگیریم چطور با آن زندگی کنیم.

این را می‌توان از مقایسه گزارش‌های چند سال اخیر مجمع جهانی اقتصاد برداشت کرد. از سال 2018 تا سال 2023 که اثرات فراگیری هوش مصنوعی چندان مشخص نبود، پیش‌بینی‌ها درباره فرصت‌های شغلی آینده بدبینانه بود اما در نظرسنجی جدید، شاهد جهشی قابل‌توجه درباره ایجاد موقعیت‌های شغلی جدید هستیم.
منبع خبر
https://digiato.com/business/artificial-intelligence-is-not-threat-job-market

Data world with Mina

14 Jan, 19:01


امروز به فکرم رسید مهارتهای مهم زندگی رو نام ببرم. فکر خودم به انگلیسی بود. فکر خودم رو مینویسم، ترجمه هم میکنم اما ممنون میشم شما در بهتر کردن ترجمه کمک کنید. چرا؟ چون فکر میکنم همین‌ها تِم زیر بنایی خیلی از ویدیوهای یوتیوب هم میتونند باشند یا اصولا همین‌ها رو پیگیری کنیم:

There are seven life skills that I think will make a tangible difference in the quality of our life and extent of our success:

1. Learn to have fun
2. Learn to practice care and compassion towards yourself and others
3. Learn to enjoy hard work
4. Learn to enjoy challenging your intellect
5. Learn to master the art of acceptance & resilience
6. Learn to communicate effectively
7. Learn to nurture meaningful relationships

۱. مهارت خوش بودن
۲. مهارت مراقبت از خود و دیگران
۳. مهارت لذت بردن از سخت‌کوشی
۴. مهارت لذت بردن از یادگیری (اینو واقعا نمیدونم چی ترجمه کنم - اینتلکت از یادگیری خیلی وسیعتره)
۵. مهارت پذیرش و تاب‌آوری
۶. مهارت ایجاد ارتباط موثر
۷. مهارت ایجاد رابطه‌های معنی‌دار (این هم الان ۶ و ۷ توی انگلیسی فرقشون قشنگ معلومه اما توی فارسی که من نوشتم نه)

Data world with Mina

13 Jan, 08:42


https://hooshio.com/artificial-intelligence-a-revolution-in-supply-chain-management-and-logistics/


خلاصه ای از ارائه من در این رویداد

Data world with Mina

13 Jan, 08:41


یادگاری از رویداد پاندورا (دومین رویداد #هوش_مصنوعی با محوریت هوش مصنوعی و فعالین صنعت. خوشحالم عضو کوچکی از این تیم و رویداد بودم.
امیدوارم اگر در رویداد حضور داشتید رویداد مفیدی براتون بوده باشه.

Data world with Mina

12 Jan, 14:34


سایت شرکت ایسوس بدون vpn باز نمی‌شود. به نظر می‌رسد که این شرکت ایران را تحریم کرده است.

Data world with Mina

12 Jan, 11:36


یک دانشمند داده بودن به این معنا نیست که:
→ مدل‌های یادگیری ماشین را بدون هدف مناسب fit کنید.
→ هفته‌ها وقت خود را صرف کار در نوت‌بوک‌ها کنید.
→ فایل‌های pickle را به تیم MLOps تحویل دهید.
→ به جای تمرکز بر شاخص‌های کسب‌وکار، فقط به دنبال دقت باشید.

یک دانشمند داده بودن به این معناست که:

→ مدل‌هایی بسازید که ارزش ایجاد کنند.
→ آزمایش کنید، شکست بخورید و دوباره تکرار کنید.
→ بینش‌هایی استخراج کنید که تصمیم‌گیری‌ها را هدایت کند.
→ مسئولیت تحویل راه‌حل‌های یادگیری ماشین را از ابتدا تا انتها بر عهده بگیرید.

به یاد داشته باشید:
"مدل‌ها را برای ساخت مدل نسازید.
مدل‌ها را برای ایجاد تأثیر بسازید."

Data world with Mina

31 Dec, 19:00


کاربران گلکسی S25 احتمالاً به پیشرفته‌ترین مدل هوش مصنوعی گوگل دسترسی رایگان خواهند داشت.

با نزدیک‌شدن به تاریخ رونمایی سری گلکسی S25 در ۲۲ ژانویه (۳ بهمن)، شایعات بیشتری از پرچمداران جدید کره‌ای‌ها منتشر می‌شود. ظاهراً سامسونگ به‌جای تمرکز صرف بر ارتقای مشخصات فنی، بیشتر بر تجربه‌ی کاربری و هوش مصنوعی تمرکز خواهد کرد.

گفته می‌شود سامسونگ با همکاری گوگل، اشتراک رایگان سرویس Gemini Advanced را به خریداران گلکسی S25 ارائه خواهد کرد.
احتمال زیادی وجود دارد که سه دوره‌ی آزمایشی ذکرشده مربوط به مدل‌های مختلف سری گلکسی S25 باشد. بدین ترتیب، گلکسی S25 شاید سه ماه، گلکسی S25 پلاس ۶ ماه و گلکسی S25 اولترا یک سال اشتراک رایگان Gemini Advanced را دریافت کنند.

Data world with Mina

31 Dec, 11:07


https://chat.deepseek.com/a/chat/

هوش مصنوعی چینی ها

Data world with Mina

30 Dec, 07:34


✔️یکی از سینور دیتا ساینتیست و تیم لیدهای هوش مصنوعی با سابقه غیر ایرانی در لیندکین از تجربیات مسیر Ai خودش نکاتی رو گفته که گفتم اینجا براتون بگذارم.

🔶حتما فرصت کنم من هم از تجربیات مشابه خودم در مسیر کاری و یادگیری میگم.😉
اگر شما هم تجربه ای دارید زیر این پست بنویسید.


-> ترس از استفاده از کتابخانه‌های پایتون
-> دو هفته صرف انجام اولین تکلیف برنامه‌نویسی
-> شکست در انجام آن و کپی کردن راه‌حل از اینترنت


-> یادگیری پایتون در چندماه برای پاس کردن تکالیف
-> صرف ۶ ماه برای یادگیری عمیق و یادگیری ماشین
-> رد شدن در ۳ مصاحبه کاری

-> رد شدن در ۵ مصاحبه کاری دیگر
-> پیدا کردن شغل در زمینه هوش مصنوعی صنعتی
-> صرف ساعت‌ها برای آپلود کد در گیت

-> راه‌اندازی محصول شخصی در داخل شرکت
-> شروع به رهبری تیم‌های یادگیری و ماشین و کسب اعتماد به نفس
-> هدایت تیم‌ها برای کسب درآمد +۹۰ میلیون دلار از طریق هوش مصنوعی


نتیجه اخلاقی؟
هر کسی با پشتکار و اشتیاق می‌تواند در هوش مصنوعی به سطحی که می‌خواهد برسد.

به خاطر داشته باشید:
"هر شکست فقط یک قدم دیگر به سوی موفقیت است"

Data world with Mina

29 Dec, 09:04


🌟 به جمع فعالان #هوش_مصنوعی بپیوندید! 🌟

آیا شما نیز به دنبال فرصتی برای گسترش شبکه ارتباطی‌تان و یادگیری از بهترین‌های صنعت هستید؟ ما به شما رویداد منحصر به فرد «شبکه‌سازی صنایع با فعالان هوش مصنوعی» را معرفی می‌کنیم! 🤖

🌟رویداد #رایگان هست ،ولی جهت ورود به رویداد باید ثبت‌نام انجام گیرد🌟

📅 تاریخ: ۱۹ و ۲۰ دی ماه
📍 محل برگزاری: تهران - ونک - صندوق نوآوری و شکوفایی ریاست جمهوری
🕒 زمان: ۹ الی ۱۷

💡 چرا باید شرکت کنید؟

- یادگیری از برترین‌ها: تجربه‌های ناب و آموزنده از مدرسان و متخصصان برجسته در زمینه هوش مصنوعی.

- #شبکه_سازی ارزشمند: ارتباط با فعالان و کارآفرینان موفق این حوزه و تبادل ایده‌ها.

- فرصت‌های همکاری: شناسایی و ایجاد همکاری‌های جدید که می‌تواند به رشد حرفه‌ای شما کمک کند.

این یک فرصت استثنائی است که نباید از دست بدهید! ثبت‌نام کنید و با ما به سوی آینده‌ای روشن‌تر حرکت کنید.

🔗 اینجا ثبت‌نام کنید:

https://lnkd.in/d5SqHFku

ما منتظرتان هستیم!
https://t.me/Steam_Startup

https://t.me/paradisehub

https://paradisehub.ir/

Data world with Mina

28 Dec, 09:54


برخی از کسب‌وکارها ترجیح می‌دهند داده‌های خود را به طور کامل آفلاین نگه دارند تا حریم خصوصی بیشتری داشته باشند.

ابزارهای محبوب برای اجرای مدل‌های زبانی بزرگ (LLM) به‌صورت محلی

LMStudio

Ollama

LlamaCpp

Jan

Llamafile

GPT4All


مزایای اجرای مدل‌های زبانی باز به‌صورت محلی

حریم خصوصی: شما می‌توانید مدل‌های زبانی بزرگ را به‌صورت چندمرحله‌ای روی سیستم محلی خود اجرا کنید، بدون اینکه داده‌های شما از سیستم‌تان خارج شود.

اتصال: گاهی اوقات اتصال به سرویس‌های ابری مانند OpenAI ممکن است با سیگنال ضعیف و مشکلات اتصال مواجه شود.

گزینه‌های سفارشی‌سازی: مدل‌های زبانی محلی تنظیمات پیشرفته‌ای را برای پردازنده (CPU)، دما، طول زمینه، تنظیمات کارت گرافیک (GPU) و موارد دیگر ارائه می‌دهند.

بدون اشتراک و هزینه: این ابزارها رایگان هستند و نیازی به پرداخت هزینه اشتراک ماهانه ندارند. در سرویس‌های ابری مانند OpenAI، هر درخواست API هزینه دارد. مدل‌های محلی به صرفه‌جویی در هزینه کمک می‌کنند زیرا اشتراک ماهانه‌ای وجود ندارد.

از صفحه لیندکین kaylan KS

Data world with Mina

27 Dec, 11:01


🔶معرفی چند کتاب رایگان و غیر رایگان برای یادگیری داکر

✔️مقدمه‌ای بر داکر (رایگان)

این کتاب الکترونیکی رایگان به‌طور خاص برای مبتدیان نوشته شده و داکر را از پایه آموزش می‌دهد. این کتاب با مفاهیم پایه‌ای، مانند اینکه کانتینرها چه هستند، شروع می‌کند و شما را گام‌به‌گام با ایجاد و مدیریت اولین کانتینرهای داکر آشنا می‌سازد. از آنجا که به‌صورت رایگان در گیت‌هاب قابل دانلود است، نقطه شروع بسیار مناسبی برای افرادی است که قصد دارند با داکر آشنا شوند.

✔️کتابچه راهنمای داکر نوشته فرهان حسن (رایگان)

این کتاب که توسط FreeCodeCamp منتشر شده است، یکی از بهترین منابع رایگان برای مبتدیان محسوب می‌شود. محتوای آن ساده و همراه با مثال‌های عملی است. این کتاب مفاهیم اصلی داکر را توضیح می‌دهد و شما را با ساخت و اجرای کانتینرها، ایجاد تصاویر (Images) و حتی کار با Docker Compose آشنا می‌کند.

✔️ورود عمیق به دنیای داکر نوشته نایجل پولتون (غیررایگان)

اگر قصد دارید به‌صورت جدی داکر را یاد بگیرید، این کتاب یکی از جامع‌ترین منابع موجود است. نایجل پولتون مفاهیم داکر را به زبانی ساده توضیح می‌دهد و تمرین‌های عملی را برای کمک به یادگیری شما ارائه می‌کند. فرقی نمی‌کند که در حال یادگیری کانتینرها، ولوم‌ها یا Docker Swarm باشید، این کتاب تمام نیازهای شما را پوشش می‌دهد.

✔️داکیومنت رسمی داکر (رایگان)

اگرچه یک کتاب نیست، اما داکیومنت رسمی داکر یکی از بهترین منابع رایگان موجود است. این داکیومنت برای مبتدیان مناسب، به‌طور منظم به‌روزرسانی می‌شوند و شامل آموزش‌هایی از مراحل نصب تا موارد استفاده پیشرفته هستند. اگر در هر مرحله‌ای با مشکلی مواجه شدید، این داک رسمی یک مرجع قابل‌اعتماد برای پیدا کردن پاسخ‌ها هستند.

Data world with Mina

26 Dec, 14:31


نمونه سوالات مصاحبه استخدامی دیتا ساینتیست

Most asked interview questions for #NLP #BERT #ML #Datascientist

1. Introduce yourself and highlight your key achievements as a data scientist.


2. Can you explain one of your favorite projects and the impact it had?


3. How to handle missing data in a dataset?


4. Explain the difference between a NumPy array and a Pandas DataFrame. When to use each?


5. Write a Python function to calculate the mean, median, and mode of a given list of numbers.


6. What is the difference between supervised, unsupervised, and reinforcement learning? Provide examples of each.


7. Can you explain the bias-variance tradeoff in machine learning? How do you address it in your models?


8. When would you prefer a Random Forest over a Decision Tree?


9. What are the key differences between BERT and GPT models?


10. Explain the concept of fine-tuning in LLMs and provide an example of when it is necessary.


11. How to optimize a Transformer model for a low-resource language dataset?


12. When visualizing data, how do you decide which type of chart or graph to use?


13. Create a plot in Matplotlib to show the distribution of a dataset and overlay it with its mean and median.


14. What are the challenges of prompt engineering for large language models?


15. How to design a prompt to generate summaries of legal documents using GPT?


16. Explain cosine similarity and how it is used in semantic analysis.


17. Imagine you’re working on a sentiment analysis project. The dataset is imbalanced with 90% positive reviews and 10% negative reviews. How would you address this issue?

Data world with Mina

25 Dec, 19:22


فرم ثبت نام استارتاپ های هوش مصنوعی

https://raichi.ir/aistartup

Data world with Mina

25 Dec, 08:48


توهم یا Hallucination در مدلهای زبانی یک چالش اخلاقی و تکنیکی مهم است که حتما باید مورد بررسی قرار گیرد. این مطلب درمورد چالشها و روشهای شناسایی توهم در LLMها است که حتما براتون مفیده

Data world with Mina

24 Dec, 09:54


😁😁😁😅😅😅😅
#machineLearning #training #deeplearning #overfitting #Accuracy

Data world with Mina

23 Dec, 17:59


Data world with Mina pinned «11 حقیقت در خصوص علم داده در پروژه های واقعی به زبان اصلی گذاشتم. چون خیلی از اصطلاحات تخصصی هستند. و متن کاملا واضح است. --- 11 hard truths about Data Science: 1. No Silver Bullet Model: You'll need to iterate all the time, even after deployment. 2.…»

Data world with Mina

23 Dec, 11:46


پیاده سازی ایده و راه اندازی استارتاپ در حوزه هوش مصنوعی هزینه های زیادی می خواد... تا جایی که بعضی ایده ها بعضی استارتاپ ها بدون حمایت مالی و زیرساختی نمی تونند عملی بشند!

شرایط بسیار آسون و سریعی فراهم کردیم که بتونیم به بچه های فعال حوزه هوش مصنوعی کمک کنیم. لطفاً این ویدئو رو با دقت و تا آخر ببینید و اگر ایده یا استارتاپ یا تیم شما نیاز به حمایت داره با من ، حسام ذوالفقاری نیا در ارتباط باشید.
۰۹۰۳۲۲۲۸۱۷۲ واتساپ
@HesamZolfaghariniaCC

Data world with Mina

21 Dec, 11:24


11 حقیقت در خصوص علم داده در پروژه های واقعی
به زبان اصلی گذاشتم. چون خیلی از اصطلاحات تخصصی هستند. و متن کاملا واضح است.

---

11 hard truths about Data Science:

1. No Silver Bullet Model:
You'll need to iterate all the time, even after deployment.


2. Data is never perfect:
Data will always be incomplete, inconsistent, and biased. Always.


3. Domain knowledge matters:
Good models need domain knowledge. Integrating both takes time and effort.( concept drift)


4. Data cleaning is 80% of the job:
Most of your time is spent wrangling messy data, not building models.


5. Accuracy isn’t everything:
Often simple and robust models [are] preferred over complex more accurate ones.


6. You will hit dead ends:
Experimentation means lots of failed ideas before finding what works.


7. Imposter syndrome is real:
The field is vast, and you’ll always feel behind. It's a good sign, this means you're learning.
سندرم خودکم بینی در این حوزه خیلی رایجه. اونقدر این حوزه گسترده است و هر روز در حال به روز رسانی که حس عقب ماندن کاملا طبیعی است. نگران نباشید.


8. 90% of the projects are not cutting-edge:
Real-world data science has many routine tasks, simple models and reports. Very different from ML course hype.


9. You need to choose 1-2 niches:
If you try to learn all the niches, you'll suck at all of them. You need to choose and dig deep.

10. Stakeholders think differently:
Your "great model" means little if it doesn’t solve a business problem.
مدل شما هر چقدر هم عالی train شده باشد و زمان و هزینه زیادی برای ساخت اون گذاشته باشید، اگر دست یکم یک مشکل تجاری را حل نکند یا بهبود ندهد، بی ارزش است.

11. Tools don’t solve problems:
It's your thinking and problem-solving skills that matter — not the latest frameworks.
این تفکر و مهارتهای حل مساله است که در پروژه به دادتون میرسن نه دونستن انواع ابزارها

Data world with Mina

20 Dec, 17:37


یلداتون مبارک ❤️❤️
قصه غصه رو واسه فردا بگذارید😍🥳🤎
سلامت و شاد باشید.

Data world with Mina

20 Dec, 10:26


Top LLM Papers of the Week (November Week 2, 2024)


https://www.linkedin.com/pulse/top-llm-papers-week-november-2-2024-kalyan-ks-eyphc?utm_source=share&utm_medium=member_android&utm_campaign=share_via

Data world with Mina

19 Dec, 16:06


پیشاپیش یلداتون مبارک🥂🥂🥂🍻

Data world with Mina

18 Dec, 19:42


ماژول‌های LangChain برای استخراج متن از فایل‌های PDF عمدتاً به عنوان ابزارهایی برای پردازش و تحلیل اسناد استفاده می‌شوند. لیستی از این ابزارها که دو موردشو خودم استفاده کردم برای پروژه ChatPdf, براتون آوردم:
1. ابزار PyPDFLoader

خواندن فایل‌های PDF و استخراج متون از صفحات مختلف به صورت جداگانه.

2.ابزار PDFMinerLoader

استخراج متن با جزئیات دقیق‌تر از فایل‌های PDF، به ویژه برای فایل‌هایی با ساختار پیچیده.

3.ابزار PyMuPDFLoader (FitzLoader)

استخراج متن، تصاویر و متادیتا از فایل‌های PDF. قابلیت خوبی در تحلیل فایل‌های PDF سنگین و پیچیده دارد. توصیه میکنم 👌

4. ابزار UnstructuredPDFLoader

مناسب برای استخراج متون از فایل‌های PDF بدون ساختار یا فایل‌هایی با محتوای غیرمرتب.

5. ابزار PDFPlumberLoader

تمرکز بر استخراج متن با فرمت‌بندی دقیق، مناسب برای فایل‌هایی که شامل جداول، تصاویر و نمودارها هستند. توصیه میشه 👌👌

6. ابزار OnlinePDFLoader

استخراج متن از فایل‌های PDF موجود در اینترنت به صورت مستقیم.

7. ابزار MathpixPDFLoader

مناسب برای فایل‌هایی که شامل فرمول‌های ریاضی یا داده‌های پیچیده علمی هستند.

8. ابزار PDF.jsLoader

مناسب برای پردازش فایل‌های PDF در محیط‌های جاوااسکریپت و مرورگرها.
1. ابزار PyPDFLoader

خواندن فایل‌های PDF و استخراج متون از صفحات مختلف به صورت جداگانه.

2.ابزار PDFMinerLoader

استخراج متن با جزئیات دقیق‌تر از فایل‌های PDF، به ویژه برای فایل‌هایی با ساختار پیچیده.

3.ابزار PyMuPDFLoader (FitzLoader)

استخراج متن، تصاویر و متادیتا از فایل‌های PDF. قابلیت خوبی در تحلیل فایل‌های PDF سنگین و پیچیده دارد.

4. ابزار UnstructuredPDFLoader

مناسب برای استخراج متون از فایل‌های PDF بدون ساختار یا فایل‌هایی با محتوای غیرمرتب.

5. ابزار PDFPlumberLoader

تمرکز بر استخراج متن با فرمت‌بندی دقیق، مناسب برای فایل‌هایی که شامل جداول، تصاویر و نمودارها هستند.

6. ابزار OnlinePDFLoader

استخراج متن از فایل‌های PDF موجود در اینترنت به صورت مستقیم.

7. ابزار MathpixPDFLoader

مناسب برای فایل‌هایی که شامل فرمول‌های ریاضی یا داده‌های پیچیده علمی هستند.

8. ابزار PDF.jsLoader

مناسب برای پردازش فایل‌های PDF در محیط‌های جاوااسکریپت و مرورگرها.

#langChain
#Ai
#rag
#LLM

Data world with Mina

18 Dec, 11:30


هوش مصنوعی گوگل Whisk معرفی شد؛ تولید تصویر بدون نیاز به دستور متنی


این ابزار از جدیدترین محصولات آزمایشگاه هوش مصنوعی گوگل است که مانند اغلب سرویس‌های مشابه در زمینه تولید تصویر فعالیت می‌کند. مهم‌ترین تفاوت Whisk با رقبا این است که کاربران می‌توانند تصاویری مشابه آن چیزی را که می‌خواهند، به Whisk بدهند و این سرویس نیز شبیه‌ترین تصویر به آن را تولید می‌کند.

برخلاف اغلب مدل‌های هوش مصنوعی تصویرساز موجود Whisk به پرامپت‌های متنی برای تولید تصویر وابسته نیست. درعوض از تصاویری که کاربران به‌عنوان نمونه به آن می‌دهند، ایده می‌گیرد. همچنین اگر تصویر خاصی مدنظر ندارید، می‌توانید روی آیکون طاس کلیک کنید تا گوگل با تصاویر هوش مصنوعی خود درخواست‌ها را پر کند.

درصورت تمایل کاربران همچنان می‌توانند از روش سنتی دستور متنی استفاده کنند و در پایان نیز اگر به جزئیات بیشتری در تصویر نیاز داشتند، از طریق نوشتن دستور متنی، ادیت‌های لازم را در تصویر ایجاد کنند.

Data world with Mina

17 Dec, 18:22


هیچی همین طوری بدون شرح

Data world with Mina

16 Dec, 17:01


8 Best Coursera Courses for Artificial Intelligence You Must Know in 2025

معرفی بهترین دوره های هوش مصنوعی کورسرا


https://www.mltut.com/best-coursera-courses-for-artificial-intelligence/

آشنایی با نحوه ثبت نام در کورسرا و گرفتن مدرک

Data world with Mina

03 Dec, 15:07


آموزش پذیر باش. همیشه تو درست نمیگی. همیشه حق با تو نیست. این جمله سر لوحه من تو کارم، روابطم و خیلی چیزاست.
🌹🌹

Data world with Mina

03 Dec, 14:06


📚 آموزش کامل Git و ابزارهای کاربردی آن
اگر می‌خواهید مدیریت نسخه‌ها و همکاری تیمی در پروژه‌هایتان را به سطح جدیدی ببرید، Git ابزاری است که نباید از آن غافل شوید! 🚀

در این فایل آموزشی، همه چیز از مبانی Git تا ابزارهای حرفه‌ای برای توسعه‌دهندگان به زبان ساده توضیح داده شده است.

🔗 دانلود آموزش در فایل پیوست
💡 سوالات و تجربیات خود را در کامنت‌ها با ما به اشتراک بگذارید!

#Git #توسعه_دهندگان #آموزش_فنی #مدیریت_نسخه

Data world with Mina

03 Dec, 13:44


🚨Data Science Interview Questions


1.     Multiple Linear Regression?

3.     OLS vs MLE?

4.     R2 vs Adjusted R2?
During Model Development which one do we consider?

5.     Lift chart, drift chart

6.     Sigmoid Function in Logistic regression

7.     ROC what is it? AUC and Differentiation?

8.     Linear Regression from Multiple Linear Regression

9.     P-Value what is it and its significance? What does P in P-Value stand for? What is Hypothesis Testing? Null hypothesis vs Alternate Hypothesis?

10.  Bias Variance Trade off?
11.  Over fitting vs Underfitting in Machine learning?

12.  Estimation of Multiple Linear Regression

13.  Forecasting vs Prediction difference? Regression vs Time Series?

14.  p,d,q values in ARIMA models
      1.     What will happen if d=0
      2.     What is the meaning of p,d,q values?

16.  How to find the node to start with in a Decision tree.

17.  TYPES of Decision trees - CART vs C4.5 vs ID3

18.  Gini index vs entropy

19.  Linear vs Logistic Regression

20.  Decision Trees vs Random Forests

21.  Questions on liner regression, how it works and all
22.  Asked to write some SQL queries

23.  Asked about past work experience

24.  Some questions on inferential statistics (hypothesis testing, sampling techniques)

25.  Some questions on table (how to filter, how to add calculated fields etc)


27.  What certification Have u done?

28.  What is a Confidence Interval?

29.  What are Outliers? How to Detect Outliers?

30.  How to Handle MissingValue?

Data world with Mina

02 Dec, 07:59


زمان محدود است، پس همین حالا ثبت‌نام کنید تا از این تحول بزرگ بی‌نصیب نمانید!

🔗 برای ثبت‌نام در بخش ارائه های اسانسوری و کسب اطلاعات بیشتر، با شماره تماس  زیر در ارتباط باشید:

09302364570 سرکار خانم فتحی

🧡💛 این یک فرصت استثنائی است که نباید از دست بدید!

🔗 لینک ثبت‌نام حضار در رویداد :
http://Evand.com/events/pandora3-ai

https://t.me/paradisehub

علی رشیدی
بنیانگذار استارتاپ شبکه اجتماعی استیم (STeam)

Data world with Mina

01 Dec, 16:32


واقعیت پشت شغل یک دانشمند داده 💡

تفاوت بین انتظارات و واقعیت در شغل یک دانشمند داده. در اینجا یک مرور کلی آورده شده است:

📝 انتظارات:

80٪ یادگیری ماشین: بسیاری تصور می‌کنند که بیشتر کار یک دانشمند داده حول ساخت مدل‌های پیچیده یادگیری ماشین می‌چرخد.

20٪ یادگیری عمیق: همچنین انتظار دارند که یادگیری عمیق بخش کوچک اما قابل‌توجهی از نقش را تشکیل دهد.


🔍 واقعیت:

30٪ درک مسئله: بخش قابل‌توجهی از کار، درک عمیق مسئله‌ای است که قرار است حل شود.

20٪ جمع‌آوری داده: جمع‌آوری و آماده‌سازی داده‌های مرتبط از منابع مختلف.

20٪ نگهداری: به‌روزرسانی مدل‌ها و اطمینان از اینکه سیستم‌ها همان‌طور که باید عمل می‌کنند.

10٪ پاکسازی داده: آماده‌سازی داده‌ها برای اطمینان از اینکه برای تحلیل مناسب هستند—که اغلب به عنوان خسته‌کننده‌ترین بخش شناخته می‌شود.

10٪ مهندسی ویژگی: ایجاد ویژگی‌هایی که به مدل‌ها کمک می‌کند مؤثرتر یاد بگیرند.

10٪ یادگیری ماشین/عمیق: برخلاف انتظارات، وظایف مربوط به یادگیری ماشین و یادگیری عمیق تنها بخش کوچکی از نقش را تشکیل می‌دهند.

@datalook_ir
#هوش_مصنوعی #دانشمند_داده
#دیتا_ساینس #یادگیری_ماشین

Data world with Mina

01 Dec, 16:17


https://www.linkedin.com/feed/update/urn:li:activity:7269018616019214337?utm_source=share&utm_medium=member_android

Data world with Mina

29 Nov, 13:04


کپشن پست رویداد



🌟 به جمع فعالان هوش مصنوعی بپیوندید! 🌟

آیا شما نیز به دنبال فرصتی برای گسترش شبکه ارتباطی‌تان و یادگیری از بهترین‌های صنعت هستید؟ ما به شما رویداد منحصر به فرد «شبکه‌سازی صنایع با فعالان هوش مصنوعی» را معرفی می‌کنیم! 🤖

🌟رویداد رایگان هست ،ولی جهت ورود به رویداد باید ثبت‌نام انجام گیرد🌟

📅 تاریخ: ۲۱ و ۲۲ آذرماه
📍 محل برگزاری: تهران - ونک - صندوق نوآوری و شکوفایی ریاست جمهوری
🕒 زمان: ۹ الی ۱۷

💡 چرا باید شرکت کنید؟ 
- یادگیری از برترین‌ها: تجربه‌های ناب و آموزنده از مدرسان و متخصصان برجسته در زمینه هوش مصنوعی.
- شبکه‌سازی ارزشمند: ارتباط با فعالان و کارآفرینان موفق این حوزه و تبادل ایده‌ها.
- فرصت‌های همکاری: شناسایی و ایجاد همکاری‌های جدید که می‌تواند به رشد حرفه‌ای شما کمک کند.

این یک فرصت استثنائی است که نباید از دست بدهید! ثبت‌نام کنید و با ما به سوی آینده‌ای روشن‌تر حرکت کنید.

🔗 اینجا ثبت‌نام کنید: http://Evand.com/events/pandora3-ai

ما منتظرتان هستیم! بیایید در کنار هم آینده‌ساز باشیم! 💪🌐

#هوش_مصنوعی #شبکه‌سازی #فرصت_یادگیری #کارآفرینی #هوشمندانه

Data world with Mina

27 Nov, 15:08


🔹 ترم جدید غیرحضوری
مسیر شغلی دانشمند داده 11 آذر شروع می شود.

یکساله دیتاساینتیست کارآزموده شوید و روزمه قوی برای خود بسازید.

🔸 330 ساعت . 150 جلسه . 50 هفته . 27 پروژه . 8 کورس . 7 مدرس

شیرجه در علم داده . آمار و احتمال . داده کاوی و حل مساله . پایتون . منابع داده . ماشین لرنینگ . دیپ لرنینگ . بیگ دیتا . لینوکس و داکر

💲 5% کدتخفیف مخصوص این کانال: HY38PG66
t.me/daychecatalog
t.me/daycheapply

Data world with Mina

26 Nov, 11:17


محققان نشان دادند: هوش مصنوعی می‌تواند شخصیت افراد را تقلید کند.

پژوهشی جدید نشان داده مصاحبه‌ای ۲ ساعته با هوش مصنوعی برای تقلید شخصیت افراد و آشنایی با علایق و ارزش‌های آنها کفایت می‌کند.

طبق مقاله جدیدی که پژوهشگران دانشگاه استنفورد و بخش دیپ‌مایند شرکت گوگل منتشر کرده‌اند، یک مدل هوش مصنوعی می‌تواند فقط طی ۲ ساعت، از شخصیت افراد الگوبرداری و تقلید کند. طی زمان گفته‌شده، اطلاعات گوناگونی از فرد خواسته می‌شود که شامل خاطرات، افکار و نظرات درباره موضوعات مختلف است. برای چنین مدلی هوش مصنوعی مقلد نام برازنده‌ای به نظر می‌رسد که در مقابل هوش مصنوعی مولد قرار می‌گیرد.

هزار نفر با سن، جنسیت، نژاد، سطح سواد و سوگیری سیاسی متفاوت در پژوهش اخیر که یکی از دانشجویان دکترای دانشگاه استنفورد آن را هدایت کرده است. به هر فرد ۱۰۰ دلار پرداخت شد تا با هوش مصنوعی مصاحبه کند و مدلی از شخصیت آنها ساخته شد. در ادامه مجموعه‌ای از پرسش‌ها و نظرسنجی‌ها انجام شد تا هماهنگی مدل مجازی و شخصیت حقیقی فرد سنجیده شود. نتایج نشان می‌دهد هوش مصنوعی توانسته به‌صورت میانگین تا ۸۵ درصد انتخاب‌های افراد را به‌درستی پیش‌بینی کند.

Data world with Mina

26 Nov, 07:20


  مجموعه سخنرانی های علمی هوش مصنوعی

Adapting AI: Explainability and Distributability
Tackling Challenges in Self-supervised EEG Representation Learning
Universal Novelty Detection

زمان برگزاری: چهارشنبه 7 آذر 1403  ساعت 11 الی 15
محل برگزاری: دانشگاه صنعتی امیرکبیر
شرکت برای عموم آزاد است.

جهت کسب اطلاعات بیشتر به آدرس زیر مراجعه کنید.
https://aaic.aut.ac.ir/workshop/3
@aaic_aut


@Ai_Events

Data world with Mina

25 Nov, 17:10


اثری شنیدنی از استاد بابک بیات
موسیقی بی‌کلام
❤️❤️❤️❤️

🗓️ ۵ آذر، سالگرد درگذشت بابک بیات

@ChelcheraghMag

Data world with Mina

25 Nov, 14:30


کپشن پست رویداد



🌟 به جمع فعالان هوش مصنوعی بپیوندید! 🌟

آیا شما نیز به دنبال فرصتی برای گسترش شبکه ارتباطی‌تان و یادگیری از بهترین‌های صنعت هستید؟ ما به شما رویداد منحصر به فرد «شبکه‌سازی صنایع با فعالان هوش مصنوعی» را معرفی می‌کنیم! 🤖

🌟رویداد رایگان هست ،ولی جهت ورود به رویداد باید ثبت‌نام انجام گیرد🌟

📅 تاریخ: ۲۱ و ۲۲ آذرماه
📍 محل برگزاری: تهران - ونک - صندوق نوآوری و شکوفایی ریاست جمهوری
🕒 زمان: ۹ الی ۱۷

💡 چرا باید شرکت کنید؟ 
- یادگیری از برترین‌ها: تجربه‌های ناب و آموزنده از مدرسان و متخصصان برجسته در زمینه هوش مصنوعی.
- شبکه‌سازی ارزشمند: ارتباط با فعالان و کارآفرینان موفق این حوزه و تبادل ایده‌ها.
- فرصت‌های همکاری: شناسایی و ایجاد همکاری‌های جدید که می‌تواند به رشد حرفه‌ای شما کمک کند.

این یک فرصت استثنائی است که نباید از دست بدهید! ثبت‌نام کنید و با ما به سوی آینده‌ای روشن‌تر حرکت کنید.

🔗 اینجا ثبت‌نام کنید: http://Evand.com/events/pandora3-ai

ما منتظرتان هستیم! بیایید در کنار هم آینده‌ساز باشیم! 💪🌐

#هوش_مصنوعی #شبکه‌سازی #فرصت_یادگیری #کارآفرینی #هوشمندانه

Data world with Mina

23 Nov, 17:49


https://jobinja.ir/companies/nikamooz/jobs/AjW7/1

Data world with Mina

20 Nov, 15:52


گوگل با هوش مصنوعی سایت‌های ناشر محتوایی با «سئوی انگلی» را تنبیه می‌کند


گوگل به‌عنوان بزرگ‌ترین موتور جست‌وجوی جهان، همواره تلاش می‌کند تا کیفیت نتایج جستجو را بهبود بخشد و تجربه کاربری را بهینه‌سازی کند. در همین راستا، این شرکت اخیراً تغییرات قابل‌توجهی در الگوریتم‌های خود اعمال کرده که هدف اصلی آن‌ها، مقابله با محتوای بی‌کیفیت و سئو انگلی (parasite SEO) است.

درواقع، سئو انگلی به محتوایی گفته می‌شود که به‌جای تمرکز بر نیازهای کاربران و ارائه‌ی اطلاعات مفید، صرفاً برای بهبود رتبه در نتایج جستجو تولید می‌شود. این نوع محتوا معمولاً کم‌کیفیت، تکراری و فاقد ارزش محسوب می‌شوند و تجربه‌ی کاربری نامطلوبی را برای کاربران ایجاد می‌کند.

یکی‌از نمونه‌های بارز محتوای سئو انگلی، انتشار مقالات و صفحاتی است که ارتباط کمی با موضوع اصلی سایت دارند، اما بیش‌از‌حد از کلمات کلیدی پرکاربرد استفاده می‌کنند. همچنین، تولید انبوه محتواهای تکراری با تغییر جزئی در کلمات و عبارات، از دیگر روش‌های رایج سئو انگلی محسوب می‌شود.

گوگل با به‌روزرسانی‌های اخیر الگوریتم‌های خود، به‌شدت روی شناسایی و کاهش رتبه‌ی این نوع محتوا تمرکز کرده است. غول دنیای جست‌و‌جو با استفاده از هوش مصنوعی پیشرفته، قادر است محتوای باکیفیت را از محتوای بی‌کیفیت تشخیص دهد و سایت‌هایی را که از روش‌های سئو انگلی استفاده می‌کنند با اعمال جریمه، تنبیه کند. همچنین، گوگل به سایت‌هایی که از خدمات تولید محتوا به‌صورت انبوه و بی‌کیفیت استفاده می‌کنند نیز هشدار داده است.

Data world with Mina

19 Nov, 18:17


در مورد یادگیری آنلاین قبلا
در این پست توضیح دادم.

https://t.me/datalook_ir/1303

Data world with Mina

19 Nov, 17:52


🔶رانش مفهوم یا گذار مفهوم
  (Concept Drift)

تغییر تدریجی مفهوم_Concept Drift در یادگیری ماشین به معنی تغییر ویژگی‌های آماری متغیر مورد مطالعه است به طوری که مدل در طول زمان به صورت پیش‌بینی نشده‌ای تغییر می‌کند. رانش مفهوم باعث می‌شود که پیش‌بینی‌ها با گذر زمان دقت خود را از دست بدهند.

این پدیده می‌تواند باعث کاهش دقت و عملکرد مدل یادگیری ماشین شود، زیرا روابطی که مدل در زمان آموزش یاد گرفته است دیگر با الگوهای داده‌های جدید مطابقت ندارند.
🔶 انواع تغییر مفهوم Concept Drift

1-تغییر ناگهانی: توزیع داده‌ها به طور ناگهانی تغییر می‌کند.
مثال: تغییر ناگهانی در سیاست‌های یک کسب‌وکار که رفتار مشتریان را تحت تأثیر قرار می‌دهد.
2- تغییر تدریجی: توزیع داده‌ها به مرور زمان تغییر می‌کند.
مثال: تغییرات آرام در ترجیحات مشتریان به دلیل روندهای بازار.
3-تغییر دوره‌ای: الگوها در بازه‌های زمانی مختلف تکرار می‌شوند، اغلب به صورت فصلی.
مثال: تغییرات فصلی در روند فروش محصولات. و در این حالت مدل‌های ثابت نمی‌توانند در چرخه‌های تکراری پیش‌بینی دقیقی داشته باشند.
4-تغییر پیوسته: تغییرات تدریجی و مداوم در توزیع داده‌ها.
مثال: تغییر آرام در داده‌های حسگرها به دلیل فرسودگی تجهیزات. که در این حالت مدل به مرور زمان منسوخ می‌شود.
برای مقابله با رانش داده‌ها روش‌های مختلف و متعددی موجود است. برای مثال می‌توان الگوریتم را با استفاده از روش‌های یادگیری آنلاین بر روی داده‌ها برازش کنیم. همچنین با استفاده از راهکارهای آماری و مقایسه‌ی توزیع داده‌ها با روش‌هایی مانند
روش KL Divergence
یا جنسون شنون (Jenson Shannon نمونه‌ای از داده‌های جدید را به صورت دوره‌ای با داده‌های قبلی (که الگوریتم بر روی آن‌ها یادگرفته شده است)، مقایسه کرده تا بفهمیم که آیا داده‌ها دچار رانش شده است یا خیر. با این کار می‌توانیم به صورت دوره‌ای یک مجموعه‌ی داده‌ی آموزشی ایجاد کرده و الگوریتم را هر چند وقت یک بار بر روی داده‌های جدید برازش کنیم.

🔺سایر روشهای مقابله: بازآموزی دوره‌ای مدل Periodic Model Retraining،  به‌روزرسانی مداوم پارامترهای مدل با ورود داده‌های جدید مانند الگوریتم گرادیان نزولی تصادفی (SGD)، آموزش مدل با استفاده از یک پنجره متحرک از داده‌های اخیر Window-based Approaches

#یادگیری_ماشین
#concept_drift
@datalook_ir

Data world with Mina

19 Nov, 15:11


🔶در #یادگیری_ماشین ، هایپرپارامترها تنظیماتی هستند که شما قبل از آموزش مدل خود پیکربندی می کنید.
برخلاف پارامترهایی که مدل شما در طول آموزش یاد می گیرد، هایپرپارامترها باید از قبل تنظیم شوند. یافتن هایپرپارامترهای مناسب می تواند عملکرد مدل شما را تا حد زیادی افزایش دهد و بهینه سازی هایپرپارامتر را ضروری می کند.

✔️فراپارامترهای بهینه سازی مناسب
می توانند دقت و قابلیت اطمینان مدل را به طور قابل توجهی افزایش دهند.
آنها به مدل شما کمک می کنند تا به خوبی تعمیم یابد و از overfitting (در مواردی که مدل بیش از حد با داده های آموزشی متناسب است) و underfitting (که در آن مدل به اندازه کافی پیچیده نیست تا الگوهای اساسی را به تصویر بکشد) اجتناب می کنند.


🔶پروژه متن باز optana توسط Preferred Networks, Inc. ایجاد شد و در سال 2018 به یک پروژه متن باز تبدیل شد. این پروژه برای مقابله با چالش های بهینه سازی هایپرپارامتر طراحی شده است و رویکردی کارآمدتر و سازگارتر از روش های قبلی ارائه می دهد. از زمان انتشار، Optuna طرفداران زیادی پیدا کرده است.

این روش Optuna چندین ویژگی برجسته را ارائه می دهد که آن را به ابزاری قدرتمند برای بهینه سازی هایپرپارامتر تبدیل می کند. جستجو برای بهترین هایپرپارامترها را خودکار می کند، حدس و گمان را از تنظیم خارج می کند و به شما امکان می دهد روی توسعه مدل خود تمرکز کنید.

در این مقاله می توانید آموزش نصب، و استفاده از متد برای بهینه سازی هایپرپارامترهای مدلهای Xgboost و شبکه عصبی با #pytorch را ببینید.

https://towardsdatascience.com/machine-learning-optimization-with-optuna-57593d700e52

Data world with Mina

19 Nov, 11:47


استارتاپ فرانسوی Mistral از مدل‌های جدید هوش مصنوعی خود و قابلیت‌های مختلف چت‌بات Le Chat رونمایی کرد. اکنون این چت‌بات بیش‌ازپیش می‌تواند با ChatGPT رقابت کند.

براساس اعلام وب‌سایت Mistral، این شرکت از مدل بزرگ Pixtral Large خود پرده برداشت. این مدل 124 میلیارد پارامتری بر پایه مدل قبلی Mistral Large 2 که تابستان 2024 رونمایی شد و اولین مدل چندوجهی آن، Pixtral 12-B که در سپتامبر منتشر شد، توسعه یافته است.

مدل جدید با پنجره زمینه 128 هزار توکنی می‌تواند تا 30 تصویر با وضوح بالا یا کتابی 300 صفحه‌ای را در هر ورودی هندل کند که تقریباً می‌تواند با مدل‌های جدید OpenAI رقابت داشته باشد. این مدل عملکرد پیشرفته‌ای را در بنچمارک‌های مختلف ازجمله MathVista ،DocVQA و VQAv2 نشان داده است و آن را برای کارهایی مانند تفسیر نمودار، تجزیه‌وتحلیل اسناد و درک تصویر ایده‌آل می‌کند.

Data world with Mina

17 Nov, 18:21


کتابخانه های مفید استخراج ویژگی برای سری زمانی


🔸کتابخانه Tsfresh یک کتابخانه قدرتمند است که به صورت خودکار صدها ویژگی از داده‌های سری زمانی استخراج می‌کند. این کتابخانه طیف گسترده‌ای از ویژگی‌های سری زمانی را از معیارهای آماری ساده گرفته تا الگوریتم‌های پیچیده محاسبه می‌کند.
این قابلیت باعث می‌شود که Tsfresh به ویژه برای استخراج جامع ویژگی‌ها بدون نیاز به مداخله دستی بسیار کاربردی باشد.

🔶کتابخانه SKtime یک فریمورک یکپارچه برای یادگیری ماشین با سری‌های زمانی است که شامل قابلیت‌هایی برای استخراج ویژگی نیز می‌باشد.
این فریمورک ابزارهایی برای تبدیل سری‌های زمانی و استخراج ویژگی‌های مرتبط ارائه می‌دهد.

🔺 فریمورک Featuretools یک چارچوب برای مهندسی ویژگی خودکار است که در مدیریت مجموعه داده‌های زمانی و رابطه‌ای بسیار قدرتمند عمل می‌کند.
این ابزار از روش Deep Feature Synthesis استفاده می‌کند تا به صورت خودکار ویژگی‌هایی را از چندین جدول داده مرتبط ایجاد کند و امکان تولید ویژگی‌های پیچیده از روابط وابسته به زمان را فراهم می‌سازد.

کتابخانه Scipy Stats مجموعه‌ای جامع از توابع آماری و توزیع‌های احتمالی ارائه می‌دهد که برای استخراج ویژگی‌های آماری از داده‌های سری زمانی بسیار مفید است.

مجموعه Scipy.signal ابزارهای پردازش سیگنال ارائه می‌کند که برای تحلیل سری زمانی بسیار کاربردی هستند. این ابزارها شامل توابعی برای فیلترگذاری، نمونه‌برداری مجدد، و تحلیل طیفی هستند که می‌توان از آن‌ها برای استخراج ویژگی‌ها در حوزه فرکانس استفاده کرد.

🔸کتابخانه Tsfel یک کتابخانه کاربردی است که به طور خاص برای استخراج ویژگی از داده‌های سری زمانی طراحی شده است.
این کتابخانه طیف گسترده‌ای از ویژگی‌های سری زمانی را در حوزه‌های مختلف (آماری، طیفی، زمانی) ارائه می‌دهد، که آن را به ابزاری متمرکز و کارآمد برای وظایف مهندسی ویژگی سری‌های زمانی تبدیل می‌کند.

کتابخانه Feature-engine یک کتابخانه عمومی برای مهندسی ویژگی است که شامل قابلیت‌هایی قابل استفاده برای داده‌های سری زمانی می‌باشد.
اگرچه این کتابخانه به طور خاص برای سری‌های زمانی طراحی نشده است، اما تکنیک‌هایی برای تبدیل متغیرها و روش‌های کدگذاری ارائه می‌دهد که می‌توانند در زمینه‌های مرتبط با سری زمانی مفید واقع شوند.
@datalook_ir

Data world with Mina

17 Nov, 17:37


7 Computer Vision Projects for All Levels

1. Plant Disease Detection
2. Optical Character Recognition (English)
3. American Sign Language Image Classification
4. Car Number Plate Recognition
5. Flickr Image Captioning
6. Multi-person Pose Estimation and Tracking in Videos
7. Anomaly Detection

Link projects

Data world with Mina

17 Nov, 07:13


خداحافظ Adam
با معرفی ADOPT بهتره Optimizer مدل‌های Deep Learning و LLM رو تغییر بدیم. مشکل اساسی Adam در واقع عدم تضمین convergence در فرآیند آپدیت وزن‌ها بود که در ADOPT حل شده. اما این برتری فقط در تئوری نیست و در عمل هم در اکثریت مسائل از جمله pretraining در GPT-2 بهتر بوده.

ایده اصلی و راه حل برای تضمین هم‌گرایی هم دو مورد هست:

۱_ حذف گرادیان کنونی از تخمین momentum دوم
۲_ نرمالایز کردن گرادیان، قبل از آپدیت momentum

Paper
Github
کد:

from adopt import ADOPT
#optimizer = Adam(model.parameters(), lr=1e-3)
optimizer = ADOPT(model.parameters(), lr=1e-3)

Data world with Mina

14 Nov, 06:41


📝استارتاپ در 13 جمله | از ترجمه Startups in 13 Senteces از Paul Graham


1. هم بنیانگذار خوب انتخاب کنید.

هم بنیانگذار برای استارتاپ همانند زمین برای بنگاه املاک هست. شما هر چیزی رو درمورد خانه می تونید تغییر بدین جز اینکه زمینش کجا واقع شده. در استارتاپ هم همینه، شما می تونید ایده تون رو به راحتی تغییر بدین، اما تغییر بنیانگذاران کار بسی دشواریه (عملا نشدنیه مگر اینکه ماشین زمان داشته باشین).

2. سریع لانچ کنید.
دلیل سریع لانچ کردن این نیست که ضروریه محصول رو زود به بازار ببرین بلکه تا زمانی که محصول رو عرضه نکنید درست روی اون نمی تونید کار کنید. عرضه محصول به شما یاد میده که چه چیزی باید بسازین.

3. اجازه بدین ایده شما تکامل پیدا کند.
این لبه دوم از عرضه سریع است. سریع عرضه کن و دائما تکرار کن (iterate). این اشتباه خیلی بزرگیه که با یک استارتاپ به عنوان یک ایده اولیه محشر برخورد کنین و تا آخر اون رو ادامه بدین. اکثریت ایده حین اجرا ظاهر میشه.

4. کاربران خودتون رو بشناسید.
اون چیز ارزشمندی که کاربرها از نداشتنش رنج می برن رو پیدا کنید. هر چه بهتر این رو پیدا کنید، بهتر از اینه که اون رو انجام بدین. به همین دلیل است که بسیاری از استارتاپ ها یک چیزی را بوجود آوردند که بنیان گذاران اون شرکت‌ها به آن نیاز داشتند.

5. بهتره که کاربر اندکی عاشق شما باشن تا اینکه تعداد خیلی بیشتری ابراز تمایل کنن.
به طور ایده آل شما می خواین کاری کنین که گروه خیلی بزرگی عاشق استارتاپ تون باشن اما نمی تونین انتظار داشته باشین از ابتدا اینطوری باشه. در ابتدا شما باید انتخاب کنین که تمام نیاز یک قشر محدودی از کاربران احتمالی تون رو بر طرف کنین یا قسمت محدودی از نیاز تمام کاربران احتمالی رو. مورد اول رو انجام بدین، چون گسترش کاربرمحور از گسترش رضایت محور آسون تر خواهد بود.

6. خدمات مشتریان خیلی خوبی ارائه بدین.
عموما کسب و کار ها مشتری ها رو کمی آزار میدن! این کسب و کارها با انحصار طلبی که دارن مشتری ها رو با تجربه بی رحمانه ای رو به رو می کنند. سعی کنید تجربه پشتیبانی مشتری خودتون رو نه تنها خوب بلکه به طرز خیره کننده ای خوب کنید. بیرون برید و سعی کنید مردم رو خوش حال کنید. اونها در این همه محبت و خدمات خوب شما غرق می شن، باور کنید.


7. شما طبق اون چیزی که اندازه میگیرین می سازین.
اگر که می خواین تعداد کاربرهاتون افزایش پیدا کنه، یک کاغذ خیلی بزرگ روی دیوار نصب کنید و هر روز تعداد کاربرهاتون رو روی اون بنویسید. هر وقت که این تعداد بالا میره شما ذوق زده میشین و وقتی هم که افت می کنه نا امید. خیلی زود متوجه میشین چه چیزی این عدد رو بالا میبره و شروع می کنین بیشتر اون فعالیت رو انجام بدین.

8. کم هزینه کنید.
اکثر استارتاپ ها قبل از اینکه چیزی بسازن که ملت بخوان از بین میرن، و شایع ترین دلیل هم تموم شدن سرمایه مالی شون هست. بنابراین کم خرج بودن تقریبا با تست و تکامل سریع (rapid iterate) قابل جایگزینی است.

9. به اندازه خرج زندگی بنیانگذاران درآمد کسب کنید.
در مراحل اولیه به اندازه ای درآمد کسب کنید که خرج زندگی و روزمره بنیانگذاران تامین شود. این خیلی پروسه جذب سرمایه رو آسون تر می کنه. زمانی که به این مرحله رسیدین، رابطه شما با سرمایه گذار ها دیگه یک طرفه نیست و حتی برای روحیه تیم هم خیلی خوبه.

10. حواس پرتی رو کنار بگذارین.
هیچ چیزی به اندازه حواس پرتی باعث مرگ استارتاپ ها نمیشه. بدترین استارتاپ ها اونهایی اند که پول هم خرج می کنند: بابت حقوق، مشاوره، پروژه های ثانویه. استارتاپ ها ممکنه پتانسیل و توجیه بلند مدتی داشته باشند، اما همین که کسی که به شما پول میده با شما تماس میگیره شما حواستون از استارتاپ پرت میشه.

11. روحیه خودتون رو نبازید.

اگر چه علت مرگ فوری استارتاپ ها کمبود سرمایه پنداشته می شه ولی در واقع علت اصلی آن کمبود تمرکز است. احتمالا شرکت توسط افراد کم هوشی اداره میشه (که در این صورت با پند و نصیحت حل نمیشه) یا اینکه افراد باهوشی در کار هستند ولی فقط روحیه خودشون رو از دست دادن. شروع کردن یک استارتاپ روحیه خیلی بالایی می خواد.

12. جا نزنید.

حتی اگر روحیه خودتون رو از دست دادید، هرگز جا نزنید. صرفا با اینکه جا نزنید و مسیرتون رو عوض نکنید به تنهایی می تونید دست آورد های ارزشمندی رو در میان مدت بدست بیارین.

13. معاملات از بین می روند.

یاد بگیرید که معامله های فروش رو به عنوان فعالیت های پس زمینه ببینید و تا زمانی که به پایان برسند باید اونها رو نادیده بگیرید این خیلی خطرناکه که معاملات رو بسته شده ببینید چون اول اگر این اتفاق نیوفته برای روحیه شما خیلی بده میشه در ثانی احتمال موفق شدن اون معامله رو خیلی کمتر می کنه.



Telegram | twitter | Linkedin | Instagram

Data world with Mina

13 Nov, 21:29


بلومبرگ به نقل از منابع آگاه گزارش داد که عربستان با هدف توسعه یک مرکز فناوری در صدد است پروژه جدیدی با عنوان «Project Transcendence» را در زمینه هوش مصنوعی با حمایت مالی صد میلیارد دلاری راه‌اندازی کند.

به گزارش جیتکس ایران به نقل از میدل ایست نیوز، طبق گفته منابع آگاه، این پروژه جدید ریاض به سرمایه‌گذاری در مراکز داده‌ها، شرکت‌های نوپا و زیرساخت‌های لازم برای توسعه هوش مصنوعی خواهد پرداخت.

همچنین گفته شده است که این پروژه بر هدف جذب استعدادها به عربستان، توسعه فضای بومی فناوری و تشویق شرکت‌های فناوری جهانی به تخصیص منابع خود به بازار این کشور تمرکز دارد.

پروژه جدید ریاض بر تلاش‌های عظیمی که عربستان عملا برای تثبیت جایگاه خود به عنوان یک قدرت جهانی در زمینه توسعه هوش مصنوعی انجام داده است، بنا خواهد شد.

Data world with Mina

12 Nov, 18:03


سلام به دو نیرو با شرایط زیر نیازمندیم:
👇👇👇
3+ years of hands-on blockchain development experience.

Expertise in smart contract development, particularly with Solidity and/or Rust.

Strong understanding of token standards such as ERC-20 and BEP-20.

Familiarity with tokenomics, liquidity pools, and decentralized exchanges.
Experience with blockchain security auditing and performance optimization.
Proven track record of successfully integrating blockchain with web applications (preferably MERN stack).

Excellent communication skills and ability to work collaboratively with both technical and non-technical team members.

Knowledge of DeFi protocols and token distribution strategies is a plus.

حقوق مناسبی در نظرگرفته شده و همچنین حتی اگر چند تا از موارد بالا رو دارید هم لطفا رزومه را به مشخصات زیر ارسال کنید.

Telegram:@meysamk90
Tel :09121145739

Data world with Mina

11 Nov, 12:53


این مقاله بر 5 مورد از ابزارهای موجود و پرکاربردی ایجاد LLM تمرکز دارد که همگی بدون هزینه هستند و برای استفاده از انواع مدل‌های زبان موجود ایجاد شده‌اند: Transformers، LlamaIndex، Langchain، Ollama، و Llamafile.


لینک مقاله

1- یکی از برجسته‌ترین فریمورک های مدل پردازش زبان طبیعی مدرن (NLP)، Transformers از منبع NLP Hugging Face است. انواع مدل های از پیش آموزش دیده موجود در Transformers بسیار زیاد است، با هر دو مدل پایه و تنظیم دقیق برای کارهایی مانند طبقه بندی متن، ترجمه، پاسخگویی به سؤال و موارد دیگر.
۲_فریمورک LlamaIndex
یک چارچوب داده است که برای ایجاد و استفاده از LLM ها خصوصا Gpt، به ویژه همراه (RAG) سفارشی شده است. این اتصالات بین LLM ها و منابع داده های مختلف را ساده می کند، بنابراین ساخت آسان برنامه های کاربردی LLM مبتنی بر داده را ممکن می سازد.

۳_لانگ چین Langchain
چارچوبی است که به مهندسان هوش مصنوعی اجازه می‌دهد تا مدل‌های زبان را با مجموعه وسیعی از منابع داده و همچنین با سایر LLM‌ها متصل کنند. Langchain همچنین مسیرهایی را برای کاربردهای استدلال آگاه از زمینه ارائه می دهد و ابزارهایی را برای ساخت عوامل توانا ارائه می دهد که می توانند وظایف استدلالی پیچیده را برای حل مسئله انجام دهند.

3_فریمورک Ollama
به گونه ای طراحی شده است که دسترسی آسان به چندین LLM مانند Llama 3، Mistral، Gemma و موارد دیگر را فراهم می کند و با کاهش هزینه های استقرار و مدیریت، مدیریت آنها را بدون دردسر می کند. می‌توانید از Olama برای راه‌اندازی سریع LLM‌های محلی هم برای تعامل و هم برای توسعه استفاده کنید.

برای مبتدیان خوب است زیرا تعداد زیادی از مدل های زبان بزرگ را گرد هم می آورد و استقرار و اجرای آنها را آسان تر می کند. به عنوان مثال، Llama 3 را به صورت محلی در اختیار داشته باشید، و سپس از طریق Ollama در چارچوب توسعه LLM مورد علاقه خود (Langchain، LlamaIndex، و غیره) به همان مدل متصل شوید. این واقعاً چندین مشکل را همزمان حل می کند.

Data world with Mina

06 Nov, 16:32


🔶یادگیری آنلاین (Online Learning)

در یادگیری ماشین به شیوه‌ای از آموزش مدل‌های هوش مصنوعی گفته می‌شود که در آن مدل به صورت پیوسته و تدریجی با داده‌های جدید به‌روز می‌شود، به‌جای اینکه کل مجموعه داده‌ها را در یک مرحله آموزش دهد.

در یادگیری آنلاین، داده‌ها به صورت دنباله‌ای از نمونه‌ها به مدل می‌رسند و مدل به‌جای ذخیره کل داده‌ها، فقط از اطلاعات جاری استفاده می‌کند. این رویکرد برای کاربردهایی مناسب است که در آن‌ها داده‌ها به صورت مستمر وارد می‌شوند یا داده‌ها به قدری بزرگ هستند که نگهداری و پردازش کل آن‌ها ممکن نیست.

ویژگی‌ها و مزایای یادگیری آنلاین

۱. بروزرسانی مستمر مدل: مدل به مرور زمان با داده‌های جدید خود را تطبیق می‌دهد و در نتیجه تغییرات در داده‌ها را بهتر مدیریت می‌کند. این ویژگی در کاربردهایی مثل تشخیص اسپم، تشخیص تقلب و تحلیل احساسات کاربردی است، زیرا این داده‌ها مدام در حال تغییرند.

۲. صرفه‌جویی در حافظه: یادگیری آنلاین به مدل اجازه می‌دهد بدون نیاز به ذخیره و دسترسی به کل داده‌ها، یادگیری را ادامه دهد و مدل را به‌روز کند. این مسئله در زمانی که منابع محاسباتی محدود هستند یا داده‌ها بسیار بزرگ هستند اهمیت دارد.

۳. سرعت پاسخگویی: مدل‌های یادگیری آنلاین می‌توانند به سرعت داده‌های جدید را پردازش و در پاسخ‌دهی سریع‌تر عمل کنند. برای مثال، سیستم‌های توصیه‌گر که بر اساس فعالیت‌های کاربران به روز می‌شوند از یادگیری آنلاین بهره می‌برند تا پیشنهادات بهتری ارائه دهند.

🔶روش‌ها و الگوریتم‌های یادگیری آنلاین

روش‌های مختلفی برای پیاده‌سازی یادگیری آنلاین وجود دارد که به نوع مدل و پیچیدگی داده‌ها وابسته است. برخی از الگوریتم‌های پرکاربرد عبارتند از:

1-گرادیان نزولی تصادفی (Stochastic Gradient Descent): یکی از روش‌های محبوب برای تنظیم وزن‌های مدل در هر مرحله از داده‌های جدید.
2-درخت‌های تصمیم آنلاین: این روش‌ها درخت تصمیم را به‌طور پیوسته و با داده‌های جدید به‌روز می‌کنند.
3-مدل‌های احتمالاتی و فیلتر کالمن: برای کاربردهایی که داده‌ها به صورت سری زمانی وارد می‌شوند، این روش‌ها کمک می‌کنند مدل داده‌های جدید را به‌صورت پویا تحلیل کند.

Data world with Mina

01 Nov, 12:22


7 Computer Vision Projects for All Levels

https://www.kdnuggets.com/7-computer-vision-projects-for-all-levels

Data world with Mina

31 Oct, 13:34


وبینار رایگان عصر گجت‌های هوش مصنوعی و تاثیر آن بر تحول دنیای دیجیتال

🗓️شنبه 19 آبان
🕓ساعت 16 الی 18
📣به همراه پرسش و پاسخ و رفع ابهامات

📌موضوعات وبینار
گجت های هوشمند در پزشکی
گجت های هوشمند
دستیار گجت ها در حمل و نقل
روش های جدید برای حفاظت از حریم خصوصی
استفاده از رمز نگاری
پردازش لبه Edge Computing
یادگیری فدرالی

🔶 مدرس: مهندس مینا ربطی (دانشمند داده شرکت سوشیانست در کانادا)
هزینه وبینار: رایگان

ثبت‌نام: https://B2n.ir/a76340

🆔 @nextera_factory

Data world with Mina

31 Oct, 07:03


مدیرعامل گوگل: بیش از یک‌چهارم کدهای جدید شرکت توسط هوش مصنوعی ساخته می‌شود.

«ساندار پیچای»، مدیرعامل گوگل، در جریان ارائه گزارش مالی سه‌ماهه سوم این شرکت اظهار کرد بیش از 25 درصد کدهای جدید ساخته‌شده در گوگل توسط هوش مصنوعی طراحی و ایجاد شده است.

پیچای در صحبت‌های خود با اشاره به بهبود کارایی کارمندان گفت: «تولید کدها توسط هوش مصنوعی اجازه انجام کارهای بیشتر در زمان کمتر را به مهندسان ما می‌دهد؛ در نتیجه ما روی استفاده از فرصت‌های پیش‌رو و ساخت محصولاتی بهتر تمرکز کرده‌ایم.» وی افزود این کدها پس از تولید توسط کارمندان و مهندسان سازمان بررسی می‌شوند.

پیش‌ازاین گزارش‌های برخی رسانه‌ها ازجمله «Business Insider» در فوریه (بهمن 1402) نشان می‌داد غول فناوری مدل هوش مصنوعی «Goose» را برای کمک به کارمندان در کدنویسی راه‌اندازی کرده است.

مدیران گوگل پیش‌ازاین قول داده بودند هوش مصنوعی جای کارمندان را در لیست مشاغل گوگل نمی‌گیرد اما ۲۵ درصد رقمی قابل‌توجهی است. این رقم سرعت بهبود فرایند کاری گوگل را نشان می‌دهد و مزایای استفاده از این فناوری را برجسته می‌کند.

Data world with Mina

29 Oct, 20:28


🌹🌹☺️☺️

Data world with Mina

29 Oct, 17:40


صرافی کوین‌بیس ابزاری برای ساخت هوش مصنوعی مبتنی بر کریپتو معرفی کرد.

صرافی کوین‌بیس ابزار جدیدی با نام «Based Agent» معرفی کرده که ادعا می‌کند کاربران به کمک آن می‌توانند دستیار هوش مصنوعی خود را در کمتر از 3 دقیقه بسازند. این عامل هوش مصنوعی می‌تواند وظایف رمزارزی مختلفی مانند انجام معاملات را نیز انجام بدهد.
مور می‌گوید Based Agent قالبی است که به کاربران اجازه می‌دهد دستیارهای هوش مصنوعی (بات‌های طراحی‌شده برای کارهای خاص) خود را با دسترسی به عملکردهای مختلف بسازند. سپس این بات می‌تواند در قراردادهای هوشمند، مبادلات، معاملات و سهام به شما کمک کند.

توسعه‌دهنده کوین‌بیس می‌گوید این ابزار با کیت توسعه نرم‌افزار خود این صرافی در کنار OpenAI و پلتفرم ایجاد نرم‌افزار Replit ساخته شده است. برای استفاده از ابزار نیز کاربران باید کلید API برنامه توسعه‌دهنده کوین‌بیس، «کلیدی از OpenAI و قالب Replit» را دریافت کنند.
پیش‌ازاین، در گزارش‌ها گفته شده بود آرمسترانگ اولین تراکنش رمزارزی خود با ربات‌های هوش مصنوعی را انجام داده است. در این دستاورد، از توکن‌های کریپتو برای تعامل با عوامل هوش مصنوعی دیگر و به‌دست‌آوردن توکن‌های آن استفاده شده است. مدیرعامل کوین‌بیس همچنین به‌تازگی در ایکس به چت‌بات هوش مصنوعی Truth Terminal پیشنهاد داده بود کیف‌پول کریپتو شخصی خود را دریافت کند.

Data world with Mina

29 Oct, 10:41


به‌هم زدن داده‌ها(Shuffling the data)
#یادگیری_ماشین

🔶به‌هم زدن داده‌ها(Shuffling the data) پیش از آموزش یک مدل یادگیری عمیق از اهمیت بالایی برخوردار است و برای اثربخشی و قابلیت تعمیم مدل نقش کلیدی ایفا می‌کند. این کار به جلوگیری از یادگیری الگوها یا وابستگی‌هایی که ممکن است از ترتیب نمونه‌ها ناشی شود کمک می‌کند. با به‌هم زدن تصادفی داده‌ها، سطحی از تصادفی‌سازی وارد فرآیند می‌شود که مدل را قادر می‌سازد الگوهای پنهان در داده‌ها را به شکلی دقیق‌تر و انعطاف‌پذیرتر بیاموزد.

🔶 یکی از دلایل اصلی برای Data Shuffling شکستن الگوهای احتمالی مبتنی بر ترتیب در مجموعه‌داده است. در بسیاری از سناریوهای واقعی، نمونه‌های داده به‌طور متوالی یا بر اساس معیار خاصی جمع‌آوری می‌شوند. بدون به‌هم زدن، مدل ممکن است به‌طور ناخواسته به ترتیب نمونه‌ها تکیه کند، به جای اینکه ویژگی‌های اصلی داده را بسنجد.

به‌عنوان مثال، فرض کنید نمونه‌ها در یک مجموعه‌داده بر اساس روزهای مختلف جمع‌آوری شده و متغیر هدف نیز الگوی زمانی خاصی را نشان می‌دهد. در صورتی که مدل بدون به‌هم زدن داده‌ها آموزش داده شود، ممکن است تنها به ترتیب زمانی نمونه‌ها اتکا کند، که این به ضعف در تعمیم و کارایی مدل در برابر داده‌های جدید و دیده‌نشده می‌انجامد.

به‌هم زدن داده‌ها همچنین به کاهش سوگیری‌هایی که ممکن است در فرآیند آموزش ایجاد شوند کمک می‌کند. اگر داده‌ها به‌هم زده نشوند، ممکن است مدل بیشتر در معرض یک زیرمجموعه خاص از نمونه‌ها قرار بگیرد که این امر به بیش‌برازش(overfitting) منجر می‌شود. بیش‌برازش زمانی رخ می‌دهد که مدل به‌طور بیش از حد روی جزئیات مجموعه داده آموزشی تمرکز کرده و عملکرد ضعیفی در مواجهه با داده‌های جدید از خود نشان می‌دهد. با به‌هم زدن داده‌ها، اطمینان حاصل می‌شود که هر دسته‌ی آموزشی شامل نمونه‌هایی متنوع از داده‌ها باشد، که این موضوع خطر بیش‌برازش را کاهش داده و توانایی تعمیم مدل را بهبود می‌بخشد.

علاوه بر این، DataShuffling برای استفاده از الگوریتم‌های بهینه‌سازی تصادفی مانند نزول گرادیان تصادفی (SGD) اهمیت ویژه‌ای دارد. این الگوریتم‌ها در هر تکرار آموزش، پارامترهای مدل را بر اساس یک زیرمجموعه تصادفی از نمونه‌ها به‌روزرسانی می‌کنند.

به‌هم زدن داده‌ها تضمین می‌کند که هر تکرار فرآیند آموزش، مجموعه متفاوتی از نمونه‌ها را مشاهده می‌کند، که مانع از ایجاد سوگیری نسبت به زیرمجموعه‌های خاص داده‌ها می‌شود. این تصادفی‌سازی حاصل از به‌هم زدن داده‌ها به مدل کمک می‌کند تا فضاهای مختلف پارامترها را بررسی کرده و به راه‌حل‌های بهتری دست یابد.

Data world with Mina

27 Oct, 17:44


دعوت به همکاری
از دوستانی که مسلط به الگوریتم های یادگیری ماشین در نرم افزار پایتون هستند برای انجام چند پروژه شرکتی دعوت به همکاری میشود.
لطفا رزومه خود را به ایمیل زیر ارسال بفرمایید.
ممنون میشم فقط رزومه رو به ایمیل زیر ارسال کنید و اگر سوالی دارید در خصوص پروژه و نحوه همکاری از خودشون سوال کنید.
با تشکر
[email protected]

Data world with Mina

26 Oct, 07:31


نکته اشو گرفتی دیگه😄😄

@datalook_ir

Data world with Mina

25 Oct, 11:20


برای تازه واردان عزیز لینک کانال یوتیوب
وبینارها و دوره های رایگان🙂

https://youtube.com/@minarabti5416?si=SaTcLxcevBixuBAd

Data world with Mina

21 Oct, 16:46


نشت داده (Data leakage)
#درس_یادگیری_ماشین

#نشت_داده در #یادگیری_ماشین  به وضعیتی اشاره دارد که در آن اطلاعات خارج از مجموعه داده آموزشی برای ایجاد مدل استفاده می شود که منجر به تخمین عملکرد بیش از حد خوش بینانه می شود. این
می تواند به روش های مختلفی رخ دهد، مانند:

🔶گنجاندن ناخواسته داده‌های آینده: اگر مدلی بر روی داده‌هایی که شامل اطلاعات آینده (نسبت به پیش‌بینی‌های انجام شده) است آموزش داده شود، می‌تواند منجر به عملکرد غیرواقعی شود. برای مثال، اگر قیمت سهام را پیش‌بینی می‌کنید و داده‌های آموزشی شما شامل قیمت‌های آتی می‌شود، این مدل ممکن است در طول آزمایش عملکرد خوبی داشته باشد اما در برنامه‌های دنیای واقعی شکست بخورد.

🔶نشت پیش پردازش(Preprocessing Leakage): اگر مراحل پیش پردازش داده ها (مانند نرمالسازی یا انتخاب ویژگی) قبل از تقسیم داده ها به مجموعه های آموزشی و آزمایشی اعمال شود، اطلاعات مجموعه آزمایشی می تواند بر روند آموزش تأثیر بگذارد. به عنوان مثال، اگر کل مجموعه داده را قبل از تقسیم استاندارد کنید، میانگین و انحراف استاندارد مورد استفاده برای استانداردسازی شامل اطلاعاتی از مجموعه آموزشی و آزمایشی خواهد بود.


🔶نشت فیچرها(Feature Leakage)این زمانی اتفاق می‌افتد که ویژگی‌هایی که در زمان پیش‌بینی در دسترس نباشند در مدل گنجانده می‌شوند. به عنوان مثال، استفاده از یک ویژگی که به طور مستقیم یا غیرمستقیم به متغیر هدف اشاره می کند، می تواند منجر به نشت شود.

🔶نشت داده از طریق اعتبار سنجی متقاطع(Cross-validation): اگر نقاط داده یکسان در هر دو مجموعه آموزشی و اعتبار سنجی در حین اعتبارسنجی متقابل گنجانده شود، می تواند حس نادرستی از عملکرد مدل بر روی داده های دیده نشده به دست دهد.

برای کاهش نشت ، مدیریت دقیق نحوه تقسیم و پردازش داده ها ضروری است تا اطمینان حاصل شود که هیچ اطلاعاتی از مجموعه آزمایشی در طول آموزش یا پیش پردازش استفاده نمی شود. تکنیک های اعتبارسنجی مناسب، مانند اعتبارسنجی متقاطع k-fold با پارتیشن بندی دقیق، می تواند به کاهش خطر نشت کمک کند.
اطلاعات بیشتر در لینک زیر : 

https://medium.com/@swethac42/data-leakage-and-its-effect-on-machine-learning-models-67c8edc588d4

@datalook_ir

Data world with Mina

19 Oct, 18:22


کورس جدید دانشگاه برکلی

CS294/194-196 Large Language Model Agents

https://rdi.berkeley.edu/llm-agents/f24

Data world with Mina

18 Oct, 21:04


هوش مصنوعی جدید انویدیا با قدرت بیشتر از GPT-4o معرفی شد.

انویدیا هوش مصنوعی جدید خود را برای رقابت با هوش مصنوعی‌های برتر بازار معرفی کرد.
بنابر گزارش WCCF Tech، انویدیا از مدل زبانی بزرگ و متن‌باز خود با نام Llama-3.1-Nemotron-70B-Instruct رونمایی کرد؛ بنابر گفته‌ی تیم سبز، جدیدترین مدل هوش مصنوعی آموزش‌دیده‌ی این شرکت با ۷۰ میلیارد پارامتر متنوع، به‌طور محسوسی از مدل‌های فعلی مانند GPT-4o و Claude 3.5 برتر است.
انویدیا این مدل را بر اساس مدل پایه Llama-3.1-70B-Instruct متا توسعه داده و یکی از ویژگی‌های کلیدی این مدل، استفاده از تکنیکی به‌نام «مدل پاداش رگرسیونی SteerLM» است. این تکنیک به جدیدترین هوش مصنوعی انویدیا کمک می‌کند تا با استفاده از مجموعه‌داده‌های باکیفیت و الگوریتم‌های پیچیده، پاسخ‌های دقیق‌تر و مرتبط‌تری تولید کند.

انویدیا با معرفی مدل زبانی بزرگ Llama-3.1-Nemotron-70B-Instruc، گام بزرگی در جهت توسعه‌ی هوش مصنوعی برداشته است.

منبع: زومیت

Data world with Mina

17 Oct, 13:05


به مرور که الگوریتم‌های یادگیری ماشین پیچیده‌تر می‌شوند، تفسیرپذیری یادگیری ماشین اهمیت فزاینده‌ای پیدا می‌کند. اگر الگوریتم‌های یادگیری ماشین شما قابل توضیح نباشند، احتمال پذیرش آنها توسط دیگران هم کمتر است. مدل‌های با عملکرد پایین‌تر اما قابل توضیح (مانند رگرسیون خطی) گاهی بر مدل‌های جعبه سیاه کارآمدتر (مانند شبکه‌های عصبی) ترجیح داده می‌شوند. به همین دلیل است که تحقیقات پیرامون هوش مصنوعی قابل توضیح (Explainable AI) اخیراً با پروژه‌های شگفت انگیزی مانند SHAP در حال ظهور است.
اگر نتوانید توضیح دهید که یک مدل یادگیری ماشین چه کاری انجام می‌دهد، آیا به آن اطمینان می‌کنید؟اینجاست که SHAP value می‌تواند بسیار کمک کننده باشد: SHAP می‌تواند هر مدل یادگیری ماشین را توضیح دهد و علاوه بر آن اثرگذاری هر یک از ویژگی‌ها روی هدف را مشخص کند.

Data world with Mina

14 Oct, 11:45


13. Histogram: Illustrates the frequency distribution of a single numerical variable.

14. Pie Chart: Represents proportions of a whole.

15. Area Chart: Similar to line charts, but filled to show volume over time.

Data world with Mina

14 Oct, 11:45


1. Bar Chart: Compares quantities across categories.
2. Line Graph: Displays trends over time.
3. Scatter Plot: Shows relationships between two numerical variables.
4. Box Plot: Visualizes the distribution and identifies outliers.

5. Heatmap: Displays data values in a matrix format with colors.
6. Bubble Chart: A scatter plot with a third variable represented by the size of bubbles.

7. Violin Plot: Combines box plot and density plot to show distribution and frequency.

8. Radar Chart: Compares multiple quantitative variables on a circular graph.

9. Step Chart: Shows changes in data values over time with steps.

10. Tree Map: Displays hierarchical data as nested rectangles.

11. Candlestick Chart: Used in financial analysis to show price movements.

12. Funnel Chart: Represents stages in a process and shows drop-off.

Data world with Mina

14 Oct, 09:14


ربات‌های اپتیموس در رویداد سایبرکب تسلا از راه دور کنترل می‌شدند

تسلا چند روز قبل در مراسم رونمایی پرزرق‌و‌برق خودرو سایبرکب، جدیدترین نسخه از ربات انسان‌نمای آپتیموس را نیز به‌نمایش گذاشت. این ربات‌ها در میان جمعیت پرسه می‌زدند، برای مهمانان نوشیدنی سرو می‌کردند، با آن‌ها بازی می‌کردند و حتی داخل آلاچیق می‌رقصیدند. بااین‌حال، نکته‌ای که بیش‌ از همه باعث تعجب شد، توانایی صحبت‌کردن آن‌ها بود. به‌هر‌حال، اکنون می‌دانیم بخش زیادی از این نمایش صرفاً جنبه سرگرمی داشته است و از راه دور کنترل می‌شدند.

ا تماشای ویدئوهای منتشرشده از رویداد اخیر تسلا، به‌سادگی می‌توان این موضوع را درک کرد که حرکات آپتیموس به‌طور خودکار انجام نمی‌شوند. همان‌طورکه Jalopnik اشاره می‌کند، اگر این ربات واقعاً به‌طور کامل خودمختار بود و می‌توانست به‌صورت لحظه‌ای به نشانه‌های صوتی و تصویری واکنش نشان دهد و با انسان‌های حاضر در مراسم در محیط کم‌نور به‌صورت تک‌به‌تک صحبت کند، قطعاً با جهش تکنولوژیکی شگفت‌انگیزی روبه‌رو می‌شدیم.

به‌نظر نمی‌رسد تسلا تلاشی برای القای این حس کرده باشد که ربات‌های آپتیموس به‌طور مستقل عمل می‌کنند. در ویدئویی دیگر، صدای یکی از ربات‌ها به‌گوش می‌رسد که با لحنی طنزآمیز در پاسخ به سؤالی درباره‌ی میزان کنترل هوش مصنوعی بر آن می‌گوید: «امکان دارد کمی تحت‌کنترل هوش مصنوعی باشم.»

منبع:زومیت

Data world with Mina

14 Oct, 05:11


ارائه آقای حسین محسنی
مدلهای زبانی و چالش ها
رویداد پاندورا
مهرماه ۱۴۰۳

Data world with Mina

12 Oct, 13:11


مصرف انرژی سیستم‌های هوش مصنوعی، به‌خصوص مدل‌های زبانی بزرگ، توی چند سال اخیر خیلی بحث‌برانگیز شده.

آمارها نشون می‌ده که اوایل سال ۲۰۲۳، مصرف روزانه برق مدل ChatGPT به‌طور میانگین ۵۶۴ مگاوات ساعت بوده که برابر با مصرف روزانه برق ۱۸ هزار خونه‌ی آمریکاست.

تو بدترین حالت، سرویس‌های هوش مصنوعی گوگل ممکنه به اندازه‌ی کل کشور ایرلند برق مصرف کنن، یعنی چیزی حدود ۲۹.۳ تراوات ساعت در سال.

در مدل‌های زبانی بزرگ مبتنی بر transformator مکانیزم توجه (attention) یکی از موانع اصلی محسوب می‌شه که کارایی محاسبات رو محدود می‌کنه

با داشتن یه ورودی شامل N توکن، پیچیدگی محاسبات مکانیزم توجه استاندارد O(N²) هست که شامل ضرب کردن تنسورهای با ابعاد بالا می‌شه. 

علاوه بر مکانیزم توجه، مقدار زیادی محاسبات ضرب عنصر به عنصر (element-wise) و تبدیلات خطی هم وجود داره که به افزایش حجم محاسبات کمک می‌کنه.

ادامه داره...

Data world with Mina

11 Oct, 14:15


شرکت خودروسازی تسلا پنجشنبه شب از محصول جدید خود به نام «روبوتاکسی» رونمایی کرد.

با این حال طرفداران برند تسلا و خودروهای الکتریکی آن باید حداقل تا سال ۲۰۲۶ برای عرضه «روبوتاکسی» به بازار صبر کنند.

ایلان ماسک، مدیرعامل تسلا در مراسم رونمایی از «روبوتاکسی» گفت که این خودروی مجهز به هوش مصنوعی نه پدال دارد و نه فرمان. او ابراز اطمینان کرد که پیشرفت تسلا در زمینه تولید خودروهای خودران به سطحی رسیده است که دیگر خودروها از مداخله عامل انسانی بی‌نیاز شده‌اند.

https://www.instagram.com/reel/DA-9WqXy7mp/?igsh=dGE3eXZ2dW8za2Nu

Data world with Mina

11 Oct, 13:00


🔶در #یادگیری_ماشین ، هایپرپارامترها تنظیماتی هستند که شما قبل از آموزش مدل خود پیکربندی می کنید.
برخلاف پارامترهایی که مدل شما در طول آموزش یاد می گیرد، هایپرپارامترها باید از قبل تنظیم شوند. یافتن هایپرپارامترهای مناسب می تواند عملکرد مدل شما را تا حد زیادی افزایش دهد و بهینه سازی هایپرپارامتر را ضروری می کند.

✔️فراپارامترهای بهینه سازی مناسب
می توانند دقت و قابلیت اطمینان مدل را به طور قابل توجهی افزایش دهند.
آنها به مدل شما کمک می کنند تا به خوبی تعمیم یابد و از overfitting (در مواردی که مدل بیش از حد با داده های آموزشی متناسب است) و underfitting (که در آن مدل به اندازه کافی پیچیده نیست تا الگوهای اساسی را به تصویر بکشد) اجتناب می کنند.


🔶پروژه متن باز optana توسط Preferred Networks, Inc. ایجاد شد و در سال 2018 به یک پروژه متن باز تبدیل شد. این پروژه برای مقابله با چالش های بهینه سازی هایپرپارامتر طراحی شده است و رویکردی کارآمدتر و سازگارتر از روش های قبلی ارائه می دهد. از زمان انتشار، Optuna طرفداران زیادی پیدا کرده است.

این روش Optuna چندین ویژگی برجسته را ارائه می دهد که آن را به ابزاری قدرتمند برای بهینه سازی هایپرپارامتر تبدیل می کند. جستجو برای بهترین هایپرپارامترها را خودکار می کند، حدس و گمان را از تنظیم خارج می کند و به شما امکان می دهد روی توسعه مدل خود تمرکز کنید.

در این مقاله می توانید آموزش نصب، و استفاده از متد برای بهینه سازی هایپرپارامترهای مدلهای Xgboost و شبکه عصبی با #pytorch را ببینید.

https://towardsdatascience.com/machine-learning-optimization-with-optuna-57593d700e52

Data world with Mina

08 Oct, 14:55


آکادمی سلطنتی علوم سوئد جایزه نوبل فیزیک ۲۰۲۴ رو به جان جی. هاپفیلد و جفری هینتون اهدا کردن «به خاطر کشفیات و اختراعات بنیادی که یادگیری ماشین با شبکه‌های عصبی مصنوعی رو ممکن کردن.»
https://youtu.be/SBGG4WNweEc

کاملاً سزاوار بود برای کسانی که در عمل بک‌پراپگیشن، شبکه‌های پیش‌خور و «یادگیری عمیق» رو توسعه دادن.

این دو نفر در واقع نیوتون دنیای یادگیری ماشین هستن. نه تنها الگوریتم‌هایی رو پایه‌گذاری کردن که به سیستم‌هایی که امروزه استفاده می‌کنیم مقیاس دادن، بلکه برای اولین بار تئوری‌هایی رو فرموله کردن که می‌تونستن رفتار آینده مدل‌ها رو پیش‌بینی کنن، که این کار، به جای اینکه فقط یه نقطه عطف مهندسی باشه، واقعا یه تحول در فیزیک محسوب می‌شه.

Data world with Mina

08 Oct, 13:20


😁😁😁😁
از کانال خانم وزیری که حسرت میخورم چرا زودتر باهاشون اینجا و یوتیوب آشنا نشدم. 😊😊

Data world with Mina

08 Oct, 13:19


امروز جلسه داشتیم هی گفتند فلان آنالیز پیچیده و فلان تحلیل مجلسی رو هم نمیشه بکنیم؟

برگشتم گفتم والا یک نقلی هست از یک پادشاه پرشین که می‌فرمایند

Our everything should match our everything

با این سطح دیتایی که الان داریم اون آنالیز مجلسی در نمیاد.

بنده‌های خدا یک سکوتی کردند بعد سری تکون دادند که اوکی. 🤌🏼😅

Data world with Mina

06 Oct, 05:23


🚨💻لینک‌ پنج ریپوی مهم برای آماده سازی مصاحبه شغلی در زمینه هوش مصنوعی و یادگیری ماشین:


1. Machine Learning Interviews from MAANG
https://github.com/khangich/machine-learning-interview

2. 100 Days of ML code https://github.com/Avik-Jain/100-Days-Of-ML-Code

3. Machine learning Cheat Sheet
https://github.com/soulmachine/machine-learning-cheat-sheet

4. System Design Primer
https://github.com/donnemartin/system-design-primer

5. Python Algorithm Implementation https://github.com/TheAlgorithms/Python


کانال #اپلای
T.me/safarname7

Data world with Mina

05 Oct, 17:13


همکاری بهتر با ChatGPT

با محصول جدید OPEN AI کنواس(canvas)، ChatGPT می‌تواند زمینه کاری را که می‌خواهید انجام دهید را بهتر درک کند. می‌توانید بخش‌های خاصی را برجسته کنید تا دقیقاً نشان دهید که می‌خواهید ChatGPT روی چه چیزی تمرکز کند. مانند یک ویرایشگر کپی یا مرورگر کد، می تواند فیدبک و پیشنهادات را با در نظر گرفتن کل پروژه ارائه دهد.

شما پروژه را در canvas کنترل می کنید.
می توانید مستقیماً متن یا کد را ویرایش کنید. یک منوی میانبر برای شما وجود دارد که می توانید از ChatGPT بخواهید طول نوشتن را تنظیم کند، کد شما را اشکال زدایی کند و سایر اقدامات مفید را به سرعت انجام دهد. همچنین می توانید نسخه های قبلی کار خود را با استفاده از دکمه برگشت در کنواس بازیابی کنید.
کمپانی OpenAI اطلاع داد از 4 اکتبر، کنواس (که الان نسخه بتا آن انتشار یافته) را برای کاربران ChatGPT Plus و Team در سراسر جهان منتشر می کند. کاربران Enterprise و Edu هفته آینده دسترسی خواهند داشت.
لینک زیر را ببینید

https://openai.com/index/introducing-canvas/

Data world with Mina

05 Oct, 16:43


در آخرین تحقیقات دانشگاه استفورد GPT-4 با 88 درصد دقت تشخیصی  در آزمون استدلال بالینی 15 درصد از پزشکان بهتر عمل می کند. این مطالعه با استفاده از ویدئو کنفرانس از راه دور با پزشکان سراسر USA انجام شد.

Data world with Mina

02 Oct, 07:09


قبلا این لایبرری را معرفی کرده بودم.
در این لینک میتونید آموزش کار با این کتابخانه را مثلا در TimeSeries مطالعه کنید.


https://github.com/pycaret/pycaret/blob/master/tutorials/Tutorial%20-%20Time%20Series%20Forecasting.ipynb