Software Philosophy @softwarephilosophy Channel on Telegram

Software Philosophy

@softwarephilosophy


چکیده‌ای از مفاهیم به روز مهندسی نرم افزار برای مهندسین نرم‌افزار.
معماری نوین نرم‌افزار، تکنولوژی‌های برنامه نویسی جدید

Software Philosophy (Persian)

کانال فلسفه نرم‌افزار یک منبع بی‌نظیر برای مهندسین نرم‌افزار است که تمرکز خود را بر روی مفاهیم پیشرفته مهندسی نرم‌افزار قرار داده است. این کانال شامل بحث‌هایی پیرامون معماری نوین نرم‌افزار و اخبار مرتبط با تکنولوژی‌های برنامه‌نویسی جدید می‌باشد. اگر علاقه‌مند به به‌روزرسانی دانش خود در زمینه مهندسی نرم‌افزار هستید، این کانال برای شما ایده‌آل است. با عضویت در این کانال، فرصتی برای یادگیری عمیق‌تر مفاهیم پیشرفته نرم‌افزار و بررسی تکنولوژی‌های جدید در اختیار دارید. از این به بعد، همراه با کانال فلسفه نرم‌افزار، به دنیای جذاب و پرچالش مهندسی نرم‌افزار خواهید پیوست.

Software Philosophy

31 Dec, 06:59


معرفی Bit Boilerplate Project Template، بهشت دات‌نتی‌ها!

در کمتر از ده دقیقه با یکی از کامل‌ترین NET project template. های حال حاضر برای Cross Platform Desktop/Mobile/Web development آشنا بشید و ببینید با Blazor چه اپ‌های خفنی می‌شه توسعه داد که هم سبک و سریع باشن و بهینه و با معماری فوق‌العاده.

این فریم‌ورک جذاب توسط یه تیم ایرانی درست شده که الان استارتاپ‌شون تو هلنده و خیلی از شرکت‌های خارجی و ایرانی از زیرساختشون استفاده می‌کنن.

https://bitplatform.dev/boilerplate
#dotnet #csharp #blazor #maui

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#مهران_داودی (لینکدین - بلاگ)

کانال تلگرام:
@SoftwarePhilosophy

__________

Software Philosophy

17 Dec, 07:30


کوپایلوتی ساده برای پزشکان

هفته پیش برای کنگره دندان‌پزشکان یه ورک‌شاپ هوش‌مصنوعی داشتم.
دو سه روز قبل کنگره یه کد خیلی ساده نوشتم که بشه توانایی‌های هوش‌مصنوعی و پتانسیل‌هایی که داره رو به دندون‌پزشکا نشون بدم و نتیجش شد این.

توضیح اینکه این از یه مدل ساده بدون هیچ بهبودی داره استفاده می‌کنه و برای پیاده‌سازیش از مدل‌های Azure AI استفاده کردم و کدش رو هم با #csharp نوشتم.

#openai #gpt #dotnet #azure

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#مهران_داودی (لینکدین - بلاگ)

کانال تلگرام:
@SoftwarePhilosophy

__________

Software Philosophy

07 Dec, 10:14


مدیریت هوشمند Migrationها در EF Core با Docker و EF Tools

در این روش، شما EF Core Tools را مستقیماً داخل Docker نصب می‌کنید، که به شما امکان می‌دهد migrationها را بدون نیاز به نصب ابزارهای اضافی روی سیستم شخصی خود، کاملاً داخل کانتینر مدیریت کنید. این روش برای CI/CD و محیط‌های تولیدی عالی است، چون همه چیز ایزوله و مستقل داخل کانتینر انجام می‌شود.

مراحل نصب EF Core Tools در Docker و اجرای migrationها

۱. تنظیم Dockerfile

در Dockerfile، EF Core Tools را نصب می‌کنیم تا migrationها به‌طور خودکار داخل کانتینر اجرا شوند. هر بار که کانتینر ساخته و اجرا می‌شود، migrationها اعمال و دیتابیس آماده استفاده می‌شود.
FROM mcr.microsoft.com/dotnet/aspnet:8.0 AS base
WORKDIR /app
EXPOSE 80

FROM mcr.microsoft.com/dotnet/sdk:8.0 AS build
WORKDIR /src
COPY ["YourProject/YourProject.csproj", "YourProject/"]
RUN dotnet restore "YourProject/YourProject.csproj"
COPY . .
RUN dotnet build "YourProject/YourProject.csproj" -c Release -o /app/build

FROM build AS publish
RUN dotnet publish "YourProject/YourProject.csproj" -c Release -o /app/publish

FROM base AS final
WORKDIR /app
COPY --from=publish /app/publish .

# نصب EF Core Tools و اجرای migrationها
RUN dotnet tool install --global dotnet-ef
ENV PATH="$PATH:/root/.dotnet/tools"
RUN dotnet ef database update

ENTRYPOINT ["dotnet", "YourProject.dll"]

۲. ساخت و اجرای کانتینر

کافی است دستورات زیر را اجرا کنید تا کانتینر ساخته و اپلیکیشن شما اجرا شود:
docker build -t your-image-name .
docker run -d your-image-name

مزایای این روش

▫️سادگی و انعطاف در CI/CD:
عملیات migrationها خودکار اجرا می‌شوند و برای محیط‌های CI/CD فوق‌العاده مناسب هستند.

▫️استقلال از محیط توسعه:
نیاز به ابزارهای اضافی روی سیستم شخصی نیست؛ همه چیز داخل Docker انجام می‌شود.

▫️دیتابیس همیشه به‌روز:
هر بار که کانتینر اجرا شود، migrationها اعمال می‌شوند و دیتابیس سینک می‌ماند.


این روش یه راهکار راحت و ایزوله برای مدیریت migrationهاست و کار با Docker را هم ساده‌تر می‌کند.

🔗 برای مطالعه بیشتر میتوانید به این لینک مراجعه نمایید.

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#هوتن_همتی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

________

Software Philosophy

09 Nov, 10:14


برسی متدهای جدید LINQ در دات نت ۹

دات‌نت ۹، که قرار است در نوامبر ۲۰۲۴ منتشر شود، پیش‌نمایش جدیدی ارائه کرده است که چندین متد LINQ جدید شامل CountBy، AggregateBy و Index را معرفی می‌کند:

متد CountBy: این متد امکان شمارش سریع عناصر در یک مجموعه بر اساس تابع انتخاب کلید را فراهم می‌کند و دیکشنری‌ای برمی‌گرداند که کلیدها مقادیر منحصربه‌فرد هستند و مقادیر، تعداد هر کلید را نشان می‌دهند.

متد AggregateBy: این متد به شما اجازه می‌دهد که عناصر را بر اساس تابع انتخاب کلید و تابع تجمع، دسته‌بندی و تجمیع کنید. نتیجه نهایی دیکشنری‌ای است که کلیدها مقادیر منحصربه‌فرد و مقادیر، نتایج تجمیع شده برای هر کلید هستند.

متد Index: این متد یک مجموعه ایندکس شده ایجاد می‌کند، به طوری که هر عنصر با ایندکس خود در مجموعه اصلی همراه است.

این متدهای جدید LINQ در دات‌نت ۹ امکاناتی را برای بهینه‌سازی کد و بهبود عملکرد فراهم کرده‌اند و ابزارهای بیشتری در اختیار توسعه‌دهندگان قرار می‌دهند.

در ادامه، مثال‌هایی از هر یک از متدهای جدید LINQ همراه با خروجی آن‌ها ارائه شده است:

۱. مثال متد CountBy

فرض کنید لیستی از افراد داریم که شامل نام و سن آن‌هاست و می‌خواهیم تعداد افراد را بر اساس سن آن‌ها شمارش کنیم.
var people = new List<Person>
{
new Person { Name = "Ali", Age = 25 },
new Person { Name = "Sara", Age = 30 },
new Person { Name = "Reza", Age = 25 },
new Person { Name = "Maryam", Age = 30 },
new Person { Name = "Nima", Age = 20 }
};

var ageCounts = people.CountBy(p => p.Age);
foreach (var ageCount in ageCounts)
{
Console.WriteLine($"Age: {ageCount.Key}, Count: {ageCount.Value}");
}

خروجی:
Age: 25, Count: 2
Age: 30, Count: 2
Age: 20, Count: 1


۲. مثال متد AggregateBy

در این مثال، ما قصد داریم مجموع سن‌ها را بر اساس گروه‌های سنی (به عنوان مثال زیر ۳۰ و بالای ۳۰) تجمیع کنیم.
var people = new List<Person>
{
new Person { Name = "Ali", Age = 25 },
new Person { Name = "Sara", Age = 30 },
new Person { Name = "Reza", Age = 25 },
new Person { Name = "Maryam", Age = 30 },
new Person { Name = "Nima", Age = 20 }
};

var ageSums = people.AggregateBy(
p => p.Age < 30 ? "Under 30" : "30 and Above",
(key, group) => group.Sum(p => p.Age)
);

foreach (var ageSum in ageSums)
{
Console.WriteLine($"Group: {ageSum.Key}, Sum of Ages: {ageSum.Value}");
}

خروجی:
Group: Under 30, Sum of Ages: 70
Group: 30 and Above, Sum of Ages: 60


۳. مثال متد Index

در این مثال، لیستی از نام‌ها داریم و می‌خواهیم هر نام را همراه با ایندکس آن در لیست نمایش دهیم.
var names = new List<string> { "Ali", "Sara", "Reza", "Maryam", "Nima" };

var indexedNames = names.Index();
foreach (var item in indexedNames)
{
Console.WriteLine($"Index: {item.Index}, Name: {item.Value}");
}

خروجی:
Index: 0, Name: Ali
Index: 1, Name: Sara
Index: 2, Name: Reza
Index: 3, Name: Maryam
Index: 4, Name: Nima


‼️برای دیدن نمونه مثال و مطالعه بیشتر به دو لینک زیر مراجعه کنید:

🔗لینک اول

🔗لینک دوم

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#هوتن_همتی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

_______

Software Philosophy

04 Nov, 19:29


ورک شاپ TDD OpenAI with Semantic Kernel and skUnit

برنامه‌نویسی چت‌بات‌های هوش‌مصنوعی بر پایه LLM در دات‌نت هیچ وقت انقدر شیرین و لذت‌بخش نبوده!
در این ورک‌شاپ مهران داودی یک چت‌بات رو از صفر می‌سازه و نشون می‌ده چطور می‌شه برای این copilot ها تست‌های اتوماتیک نوشت که بتونه از طریق خود LLM تست‌های معنایی انجام بده (Semantic Assert).

این ورک‌شاپ قبلا به صورت لایو در لینکدین برگزار شده بود و الان ویدئوش در یوتیوب آپلود شده.

https://www.youtube.com/watch?v=JVyLLD5bgoE&t=9s

Software Philosophy

02 Nov, 10:15


شمشیر دو لبه IEnumerable و yield return در C# : راهکارهایی برای بهینه‌سازی و جلوگیری از افت عملکرد

در زبان C#، وقتی می‌خواهیم با مجموعه‌ای از داده‌ها یا توالی‌ها کار کنیم، معمولاً از ساختارهای داده‌ای مثل لیست‌ها یا آرایه‌ها استفاده می‌کنیم. اما گاهی نیاز داریم داده‌ها را به صورت تنبل (Lazy) پردازش کنیم، یعنی فقط زمانی داده‌ها تولید شوند که واقعاً به آن‌ها نیاز داریم. اینجاست که IEnumerable و yield return وارد میدان می‌شوند و می‌توانند کار ما را بسیار ساده‌تر و بهینه‌تر کنند.

ابزار IEnumerable این امکان را به ما می‌دهد که به طور مؤثر بر روی مجموعه‌ای از داده‌ها پیمایش کنیم، بدون اینکه نیاز باشد تمام داده‌ها را یکجا در حافظه بارگذاری کنیم. از طرف دیگر، yield return به ما اجازه می‌دهد که یک توالی از داده‌ها را مرحله به مرحله و در طول زمان تولید کنیم، به جای اینکه همه‌چیز یکجا آماده شود.

اما مشکل از آنجا شروع می‌شود که استفاده نادرست از این قابلیت‌ها می‌تواند منجر به کاهش کارایی برنامه شود. مثلاً فرض کنید در حال استفاده از yield return هستید و هر بار که از داده‌های تولید شده استفاده می‌کنید، محاسبات سنگینی برای تولید آن داده‌ها انجام می‌شود. اگر این محاسبات هر بار تکرار شوند، زمان اجرای برنامه افزایش می‌یابد و منابع سیستم بی‌مورد مصرف می‌شوند. یا در مواقعی که منابعی مثل فایل‌ها یا دیتابیس را در دسترس داریم، استفاده نادرست از IEnumerable و اجرای به تعویق افتاده (Deferred Execution) ممکن است باعث خطاهایی در مدیریت منابع شود.

در این پست، ما دقیقاً به این مشکلات می‌پردازیم و نشان می‌دهیم که چطور می‌توانیم با آگاهی و استفاده صحیح از IEnumerable و yield return هم از مزایای آنها بهره‌مند شویم و هم از بروز مشکلات و افت عملکرد جلوگیری کنیم. همچنین چند مثال عملی از جمله کار با دیتابیس، فایل‌ها، و لیست‌های داده ارائه می‌دهیم که به شما کمک می‌کند این ابزارها را به درستی به کار بگیرید.

🔗 نسخه کامل مقاله را می‌توانید اینجا مطالعه کنید.

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#هوتن_همتی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

_______

Software Philosophy

26 Oct, 10:14


چگونه با Scrutor و Autofac تزریق وابستگی را در .NET به سطح بعدی ببریم؟

در توسعه پروژه‌های بزرگ .NET، مدیریت تزریق وابستگی (Dependency Injection) به یکی از مهم‌ترین بخش‌های معماری نرم‌افزار تبدیل می‌شود. هنگامی که تعداد سرویس‌ها و ریپازیتوری‌ها افزایش پیدا می‌کند، ثبت دستی هر یک از آن‌ها می‌تواند نه تنها زمان‌بر، بلکه منجر به بروز اشتباهات و پیچیدگی‌های غیرضروری شود. اینجاست که ابزارهای قدرتمندی مثل Scrutor و Autofac به کمک ما می‌آیند.

ابزار Scrutor یک کتابخانه سبک برای DI پیش‌فرض .NET است که امکان اسکن خودکار اسمبلی‌ها و ثبت سرویس‌ها را با چند خط کد فراهم می‌کند. شما می‌توانید کلاس‌ها و اینترفیس‌ها را به سادگی بر اساس namespace یا الگوهای دیگر شناسایی و به عنوان وابستگی‌ها در پروژه تزریق کنید. این روش نه تنها کد شما را تمیزتر و منظم‌تر می‌کند، بلکه از بروز مشکلات ناشی از ثبت دستی جلوگیری می‌کند.

از طرف دیگر، Autofac یک کانتینر IoC بسیار قدرتمند است که کنترل و انعطاف بیشتری در تزریق وابستگی‌ها به شما می‌دهد. با استفاده از Autofac، شما می‌توانید وابستگی‌ها را به صورت ماژولار مدیریت کنید، لایف‌تایم دقیق هر سرویس را تنظیم کرده و حتی از امکانات پیشرفته‌ای مانند AOP (Aspect-Oriented Programming) بهره‌مند شوید. با این ابزارها، شما نه تنها کارهای تکراری را حذف می‌کنید، بلکه معماری پروژه خود را حرفه‌ای‌تر و مقیاس‌پذیرتر می‌سازید.

🔗 نسخه کامل مقاله را میتوانید در اینجا مطالعه نمایید.

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#هوتن_همتی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

______

Software Philosophy

30 Sep, 16:26


ورک‌شاپ TDD OpenAI with SemanticKernel and skUnit
ارائه: مهران داودی
زبان ورک‌شاپ: انگلیسی

این چهارشنبه ساعت ۵ تا ۶ عصر، ورک‌شاپ برنامه‌نویسی هوش‌مصنوعی (OpenAI و LLM) در #dotnet با استفاده از فریم‌ورک‌های #SemanticKernel و #skUnit برگزار می‌شه.

تو این ورک‌شاپ یک kernel هوش مصنوعی از صفر ساخته ساخته می‌شه و همزمان نحوه تست کردنش با استفاده از skUnit آموزش داده می‌شه.

🔥 این روزها اگر برنامه‌نویس دات‌نت هستید، خیلی خوش‌شانس هستید! چون نوشتن برنامه‌های با کیفیت هوش‌مصنوعی فقط یک قدم با شما فاصله داره.


🙂 لینک ورک‌شاپ:
https://www.linkedin.com/events/7246447233418547201/comments/

Software Philosophy

11 Sep, 10:18


استفاده از Span در سی‌شارپ

فرض کنید که یک رشته متن دارید و می‌خواهید تاریخ را از آن جدا کنید. اگر از متدهای Split یا Substring استفاده می کنید، برای رشته‌های جدید ایجاد شده، هربار حافظه اختصاص می‌یابد. این فرآیند می‌تواند کند باشد و میزان زیادی از حافظه را به خود اختصاص دهد، به خصوص زمانی که با مجموعه داده‌های بزرگ سروکار داریم.  

از طرف دیگر، Span مستقیماً روی حافظه اصلی بدون ایجاد و تخصیص حافظه جدید عمل می کند. این کار باعث می‌شود تا به طور قابل توجهی انجام کار سریعتر و کارآمدتر شود.
 
در نظر داشته باشید که Span از نظر نوع و حافظه ایمن است. بدون ایجاد نسخه‌های اضافی، مستقیماً روی حافظه کار می‌کند و می‌تواند با آرایه‌ها، رشته‌ها، حافظه، پشته و غیره کار کند.

در مواقع Span ها مانند یک view بروی حافظه یا مکان مورد نظر شما می‌باشند و در نتیجه بسیار سریع هستند.

🔗 برای مشاهده فیلم کوتاه در یک دقیقه ، اینجا کلیک کنید.

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#محمدرضا_پازوکی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

______

Software Philosophy

20 Aug, 16:10


We're watching .NET Conf AI 2024 together here:
https://teams.microsoft.com/l/meetup-join/19:[email protected]/1724170108497?context=%7B%22Tid%22:%2224fbf492-43a9-4a8f-ba7b-6f12fa9b8d87%22,%22Oid%22:%22aca9b64a-ea78-46f4-a5b4-b3afd7832f63%22%7D

Software Philosophy

14 Aug, 11:31


.NET Conf Watch Party!
Put a comment if you want to watch the conference online, but together!
It will be on Teams :)

Software Philosophy

29 Jul, 10:14


انتقال Git Stashes بین دستگاه‌ها

ابزار Git stashes ابزاری قدرتمند برای ذخیره موقت تغییرات است. اما اگر نیاز دارید این stashes را به دستگاه دیگری منتقل کنید، چطور؟ در این پست، نحوه انتقال Git stashes را باهم برسی می‌کنیم تا هیچ کدام از تغییرات در حال انجام را از دست ندهید.

پیش‌نیازها :
ابتدا Git را طوری تنظیم کنیم که شامل فایل‌های غیر ردیابی (Untracked) شده را هم در stash‌هایمان نیز باشد:

git config stash.showIncludeUntracked true


این تنظیمات تضمین می‌کند که وقتی یک stash می‌سازیم، تمام تغییرات از جمله فایل‌های غیر ردیابی شده شامل شوند.

گام 1: ایجاد یک Stash
روی دستگاه فعلی خود، تغییرات را stash کنید:

git stash push -u


پارامتر -u فایل‌های غیر ردیابی شده را هم در stash شامل می‌شود.

گام 2: ایجاد یک فایل Patch
حالا یک فایل patch از stash ایجاد کنید:

git stash show "stash@{0}" -p > changes.patch


این فرمان یک فایل با نام changes.patch ایجاد می‌کند که شامل تمام تغییرات در آخرین stash شماست.

گام 3: انتقال فایل Patch
فایل changes.patch را به دستگاه دیگر خود منتقل کنید.

گام 4: اعمال Patch در دستگاه جدید
روی دستگاه جدید، به مخزن Git خود بروید و patch را اعمال کنید:

git apply changes.patch


این فرمان تغییرات را از فایل patch به پوشه کاری شما اعمال می‌کند.

نکته : می‌توانید برای stash‌های مختلف، فایل‌های patch مجزا ایجاد کنید (مثلاً stash@{1}, stash@{2}).

با دنبال کردن این مراحل، می‌توانید بدون توجه به جایی که در حال کار هستید به راحتی Git stashes خود را بین دستگاه‌ها منتقل کنید و پیوستگی جریان کاری خود را حفظ کنید.

🔗 نسخه کامل مقاله را میتوانید در اینجا مطالعه نمایید.

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#هوتن_همتی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

______

Software Philosophy

26 Jun, 14:29


و بالاخره... اینم از سخنرانی تدکس من: «پروژه یک من جدید!».
تو تدکس در مورد نرون‌های آینه‌ای صحبت کردم و اینکه چطور این قسمت عجیب از مغز می‌تونه کمک کنه کارهای عجیبی رو انجام بدیم. کارهایی که به نظر خیلی نشدنی میان!

یکی از چیزهایی که انتقالش خیلی سخته، انتقال درده! خیلی سخته یه یکی توضیح بدی چطور درد می‌کنه! یه مفهوم بی‌ربط دیگه هم هست که به نظر همینقدر سخته: انتقال مهارت‌های کار تیمی! تو این TEDx Talk توضیح دادم که چطور یه قسمت از مغزمون به نام Mirror Neurons (که خیلی هم غافلیم ازش) می‌تونه کمک کنه این کارهای خیلی سخت رو، به حتی بدون صحبت کردن انجام بدیم!

یه قسمت از کلیپ هست که پام با محکککم می‌خوره به یه صندلی که تو صحنه هست که تو فیلم خیلی واضح نیفتاده. این رو گفتم که اون وسط نگین چی شد یه هو!

لینک ویدئوی کامل در صفحه رسمی تدکس در یوتیوب: https://www.youtube.com/watch?v=DfTuWdPV6JU

در صورت باز نشدن، این ویدئو در آپارات هم آپلود شده.

Software Philosophy

12 Jun, 14:32


دات نت و معماری Runtime دات نت

از کد تا Intermediate Language (IL) 📝➡️🔄
وقتی کد C# را می‌نویسید، کامپایلر Roslyn وارد عمل می‌شود تا آن را به (IL) تبدیل کند. این مرحله که به عنوان compile time شناخته می‌شود، زمانی است که کد شما از فرم قابل خواندن توسط انسان به IL تبدیل می‌شود. اما چرا IL؟ چرا مستقیماً در کد اسمبلی کامپایل نمی‌شود؟ 🤔

جادو در انعطاف پذیری DotNet Framework نهفته است. DotNet به گونه‌ای طراحی شده است که پلتفرم آگنوستیک باشد، می‌تواند در محیط‌های مختلفی مانند ویندوز، مک و اندروید اجرا شود. هر محیط دارای Common Language Runtime (CLR) خود است که برای آن پلتفرم خاص بهینه شده است. این بدان معنی است که کد IL شما می‌تواند در سیستم‌های مختلف اجرا شود و یک معماری زمان اجرا همه کاره و قدرتمند ارائه دهد. 🌍


نقش (CLR)
در زمان اجرا، CLR کار را به دست می‌گیرد. این بخش اجرای کد IL است. در CLR، یک جزء حیاتی به نام کامپایلر Just-In-Time (JIT) وجود دارد که IL را درست قبل از اجرا، به کد ماشین اصلی کامپایل می‌کند و کارایی و سرعت را تضمین می‌کند. 🚀

مشخصات Common Language Specification (CLS) 🔄
بخش CLS قوانینی را برای نحوه تعامل زبان‌های مختلف تعیین می‌کند. به عنوان مثال، در VB.NET، نیازی به پایان دادن دستورات با ; ندارید، در حالی که در C# اجباری است.

نقش Common Type Specification (CTS) 📋
بخش CTS نحوه اعلان و استفاده از انواع داده را تعریف می‌کند. به عنوان مثال، C# از int استفاده می‌کند در حالی که VB.NET از Integer استفاده می‌کند، اما در انتها، هر دو به عنوان Int32 نشان داده می‌شوند که این بخش توسط CTS تعیین می‌شود.

نقش The Base Class Library (BCL) 📚
در کنار CLR، کتابخانه کلاس پایه (BCL) قرار دارد که کتابخانه‌های ضروری مانند List و Dictionary را در خود جای داده است. BCL مؤلفه‌های اساسی را ارائه می‌دهد که توسعه‌دهندگان هر روز از آن ها استفاده می‌کنند و ثبات و قابلیت اطمینان را در پلتفرم‌های مختلف تضمین می‌کند. 🏛


🔗 نسخه کامل مقاله را می‌توانید در اینجا مطالعه و فیلم را در یوتیوب تماشا کنید. 🎦

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#محمدرضا_پازوکی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

______

Software Philosophy

05 Jun, 15:07


سلام
ویدئو رو می‌تونید از طریق لینک زیر ببینید:

https://www.youtube.com/watch?v=FN2RM-CHkuI

کانال تلگرام:
@SoftwarePhilosophy

___

Software Philosophy

05 Jun, 10:17


EXACT INSTRUCTIONS

پیشنهاد می‌کنم اول فیلم رو ببنید بعد بقیه مطلب رو بخونید.

https://www.youtube.com/watch?reload=9&v=Ct-lOOUqmyY

خیلی جالب بود و در نگاه اول هیچ ربطی به نرم‌افزار و دنیای نرم‌افزار نداره. ولی وقتی یه خورده عمیق بشیم خیلی جالب میشه.

یکی از مهم‌ترین کارهایی که باید توی شرکت‌های نرم‌افزاری به درستی انجام بشه، داکیومنت کردن است. (داکیومنت به معنی کامنت گذاشتن داخل کد اصلا منظورم نیست، کد باید خودش به قدری خوانا باشه که نیاز به کامنت نداشته باشه یا به اصطلاح Self-Document باشه.)
داکیومنت کردن رو نباید به عنوان یه کار اضافه دید و سرسری انجامش داد.
تمام مراحل انتقال دانش باید به وسیله داکیومنت انجام بشه. نه به صورت نقل قول و سینه به سینه.

اتفاقی که برای خودم افتاد رو براتون تعریف می‌کنم:
در شرکت کرانه ادمین TFS بودم، و یکی از کارهایی که باید انجام می‌دادم و داکیومنت می‌کردم Disaster Recovery خود TFSبود. ۱ روز کامل وقت گذاشتم و Recovery رو انجام دادم و داکیومنتش رو نوشتم، کاری که مدیرمون کرد خیلی خوب بود. داکیومنت رو داد به یکی دیگه گفت TFS رو بیار بالا. حدس می‌زنید چی شد؟ نتونست، چون داکیومنتی که نوشته بودم به درد خودم می‌خورد.
و حرفی که به من زد این بود «داکیومنت باید طوری باشه که اگه دست یه نفر رو از توی خیابون گرفتم و این داکیومنت رو بهش دادم بتونه TFS رو بیاره بالا». بعد از ۳ بار داکیومنت نوشتن بالاخره موفق شدم داکیومنتی بنویستم که به هر کی بدمش فقط با Back up دیتا بیس بتونه TFS رو بالا بیاره.

به نظر من داکیومنت باید طوری باشه تا تمام کسانی که می‌خوننش، همشون یک برداشت رو داشته باشن، داکیومنت نباید وابسته به Context ذهن ما باشه.

خوشحال می‌شم نظر شما رو هم بدونم.

#افشین_علیزاده (http://ow.ly/l7cA30m3OQ9)

کانال تلگرام:
@SoftwarePhilosophy

___

Software Philosophy

29 May, 10:41


اثری که Body language بر خود فرد می‌گذارد، اگر بیشتر از اثری که بر مخاطب می‌گذارد نباشد، کمتر هم نیست.

استاد دانشگاه هاروارد Amy Cuddy تحقیقی انجام داده است و در آن به این نتیجه رسیده است که فرم و حالت بدن می‌تواند بر «ذهن» و «فیزیولوژی» اثر گذارد،‌ بدین صورت که اگر شما ۲ دقیقه ژست یک فرد پیروز را به خود بگیرید میزان تستوسترون افزایش و کورتیزول کاهش میابد. میزان این هورمون‌ها اثر مستقیمی بر مغر گذاشته و میتواند باعث افزایش قدرت ریسک‌پذیری و موفقیت شود.

https://www.ted.com/talks/amy_cuddy_your_body_language_shapes_who_you_are

#افشین_علیزاده
لینکدین:
https://ir.linkedin.com/in/afshinalizadehbehjati

کانال تلگرام:
@SoftwarePhilosophy

___

Software Philosophy

01 May, 10:14


💥 استفاده از Azure Locks: ایمن کردن منابع ابری شما

- آشنایی با قفل های Azure و نحوه ایمن سازی Azure Storage Account 🔒

سرویس Azure Locks یک ویژگی ارزشمند ارائه شده توسط Azure است که برای حفظ یکپارچگی منابع و جلوگیری از تغییر یا حذف ناخواسته استفاده می‌شود. این ویژگی را می‌توان برای منابعی از جمله Azure Storage Accounts اعمال کرد که شامل دو نوع قفل اصلی می‌شود:

- نوع CanNotDelete: این قفل به کاربران مجاز اجازه می‌دهد تا یک منبع را بخوانند و تغییر دهند اما از حذف منبع جلوگیری می‌کند.

- نوع ReadOnly: این قفل به کاربران مجاز اجازه می‌دهد تا یک منبع را بدون امکان حذف یا به‌روزرسانی آن بخوانند.
🛡 این قفل ها ابزارهای ضروری مدیران برای محافظت از منابع Azure خود هستند.

📊 ملاحظات قبل از اعمال قفل

قبل از تنظیم قفل‌ها، مهم است که دامنه و مفاهیم آنها را درک کنید:
- قفل‌ها برای عملیات control plane اعمال می‌شوند، نه عملیات data plane.
- وراثت قفل به این معنی است که هر قفلی که در سطح والدین اعمال شود به همه منابع فرزند انتقال می‌یابد.
- قفل با بیشترین محدوده در زنجیره وراثت اولویت بیشتری دارد.

قفل‌های Azure بخش مهمی از مدیریت و ایمن سازی منابع Azure شما هستند. با درک انواع قفل‌های موجود و نحوه اعمال آنها، می توانید اطمینان حاصل کنید که حساب‌های ذخیره سازی Azure شما در برابر تغییرات ناخواسته محافظت می‌شوند.

🔗 نسخه کامل مقاله را می‌توانید در اینجا مطالعه نمایید.

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#محمدرضا_پازوکی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

______

Software Philosophy

17 Apr, 10:17


آشنایی با VNET و NIC

معرفی VNET 🤔
یک VNET یا Virtual Network در اصل نمایشی از شبکه شما در فضای ابری است. این یک جداسازی منطقی از ابر است که می‌توانید آن را در یک محیط ابر عمومی ارائه دهید. آن را به عنوان فضای شخصی خود در دنیای ابری در نظر بگیرید که در آن می‌توانید بلوک‌های آدرس IP، تنظیمات DNS، سیاست‌های امنیتی و جداول مسیریابی را کنترل کنید.

معرفی NIC 🤔
یک NIC یا Network Interface Controller جزئی سخت افزاری یا نرم افزاری است که کامپیوتر یا ماشین مجازی را به شبکه متصل می‌کند. در زمینه VNET ها، یک NIC نقطه تماس بین VM شما و VNET است که در آن قرار دارد.

موارد استفاده از VNET و NIC 🛠
- در واقع VNET برای ایجاد یک محیط امن و scalable پذیر برای اجرای برنامه‌ها و سرویس‌های شما استفاده می‌شود. این موارد به منابعی مانند VM اجازه می‌دهند که به طور ایمن با یکدیگر، اینترنت یا شبکه‌های داخلی ارتباط برقرار کنند.
- یک NIC در VNET ها استفاده می‌شوند تا VM ها را قادر به اتصال به شبکه‌های مختلف و ارتباط با منابع خارجی کنند.

🔗 نسخه کامل مقاله را می‌توانید در اینجا مطالعه نمایید.

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#محمدرضا_پازوکی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

______

Software Philosophy

03 Apr, 10:14


استفاده از Rate Limiting که «یک باید» برای API می‌باشد!

تعریف Rate Limiting:
یک Rate Limiting تکنیکی است که کنترل می‌کند کاربر یا مشتری می‌تواند در یک دوره معین چند درخواست به یک API ارسال کند. برای مثال، ممکن است کاربر را به 100 درخواست در ساعت یا 10 درخواست در دقیقه محدود کنید. هدف ازRate Limiting جلوگیری از سوء استفاده، اضافه بار یا سوء استفاده از API شما است.

چرا باید از Rate Limiting در API خود استفاده کنید؟
-
بار روی سرور خود را کاهش دهید.
- صرفه جویی در پهنای باند و منابع.
- جلوگیری از استفاده ناعادلانه.

اصول پیاده سازی Rate Limiting

- استراتژی محدود کردن نرخ را انتخاب کنید: استراتژی Rate Limiting مناسب را بر اساس الزامات و محدودیت های API خود تعیین کنید.
- پیاده سازی Middleware: ایجاد میان افزار برای رهگیری درخواست‌های دریافتی و بررسی محدودیت‌های نرخ تعریف شده.
- ردیابی میزان مصرف: برای اعمال محدودیت‌های نرخ به طور موثر، سابقه استفاده را برای هر مشتری، چه در حافظه و چه با استفاده از یک ذخیره‌سازی دائمی داده، حفظ کنید.
- کنترل خطا: زمانی که مشتری از حد مجاز فراتر رفت، با یک کد وضعیت HTTP مناسب پاسخ دهید (مثلاً 429 درخواست خیلی زیاد) و اطلاعاتی را در مورد زمانی که مشتری می‌تواند درخواست‌های اضافی ارسال کند، درج کنید.

🔗 نسخه کامل مقاله را می‌توانید در اینجا مطالعه نمایید.

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#محمدرضا_پازوکی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

______

Software Philosophy

16 Mar, 10:16


ابزار Dev Tunnel: دنیای توسعه نرم‌افزار را با Visual Studio 2022 دگرگون کنید

در دنیای توسعه نرم‌افزار که هر روز با نوآوری‌های جدید روبه‌رو هستیم، Visual Studio 2022 با معرفی ویژگی Dev Tunnel تجربه‌ای نوین را برای توسعه‌دهندگان .NET به ارمغان آورده است. این قابلیت، امکان دسترسی به برنامه‌های در حال توسعه از هر نقطه‌ای از اینترنت را ممکن می‌سازد و مرزهای میان توسعه local و آزمایش‌های واقعی را محو می‌کند.

ابزار Dev Tunnel چیست؟

ابزار Dev Tunnel، یک پل امن میان محیط توسعه local شما و دنیای بیرون است. با این قابلیت، می‌توانید برنامه‌های .NET خود را که بر روی دستگاه خودتان در حال اجرا هستند، بدون نیاز به استقرار روی سرورهای عمومی، در دسترس قرار دهید.

چرا Dev Tunnel مهم است؟

- تسریع در فرآیند تست: دسترسی فوری به برنامه‌ها از هر دستگاهی، فرآیند تست و دریافت بازخورد را سریع‌تر می‌کند.
- تست سازگاری دستگاه‌ها: امکان تست برنامه روی دستگاه‌های مختلف بدون پیچیدگی‌های استقرار.
- همکاری بهبود یافته: تیم‌ها می‌توانند به صورت زنده روی پروژه‌ها کار کرده و مشکلات را به صورت مشترک حل کنند.
- امنیت: ارتباطات از طریق Dev Tunnel رمزنگاری شده و امن است.

شروع کار با Dev Tunnel

۱. نصب و به‌روزرسانی Visual Studio 2022

برای استفاده بهینه از قابلیت Dev Tunnel در توسعه برنامه‌های .NET، نیاز است که Visual Studio 2022 نسخه 17.6 یا بالاتر را بر روی سیستم خود نصب کنید.

۲. ایجاد یا باز کردن پروژه وب با .NET

پروژه .NET خود را در Visual Studio ایجاد کنید یا اگر پروژه‌ای قبلاً دارید، آن را باز کنید.

۳. راه‌اندازی Dev Tunnel

در نوار بالا Visual Studio، قابلیت دیباگ برنامه وجود دارد و در کنار این گزینه یک فلش رو به پایین قرار دارد، زمانی که بر روی آن کلیک کنیم گزینه‌های بیشتری را برای دیباگ برنامه خود مشاهده می‌کنیم، یکی از این گزینه‌ها Dev Tunnels است. روی این گزینه کلیک کرده و یک Dev Tunnel جدید ایجاد می‌کنیم. این گزینه، Dev Tunnel را فعال می‌سازد و به شما امکان می‌دهد تا برنامه خود را در محیطی local اجرا کرده و آن را از طریق اینترنت قابل دسترس نمایید.

۴. به‌دست آوردن URL دسترسی

پس از فعال‌سازی Dev Tunnel و اجرا گرفتن برنامه، یک URL منحصربه‌فرد برای پروژه شما تولید می‌شود. این URL را می‌توانید با دیگران به اشتراک بگذارید یا برای تست برنامه خود روی دستگاه‌های مختلف استفاده کنید.

🔗 نسخه کامل مقاله را می‌توانید در اینجا مطالعه نمایید.

______

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#هوتن_همتی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

______

Software Philosophy

13 Mar, 10:16


شروع work-item ها از یک شماره خاص

فرض کنید به هر دلیلی نیاز دارید تا شماره work-item های روی Azure DevOps Board تان از یک عدد خاص (مثلا ۱۰۰۰) شروع کنید.
قبل از ادامه مطالعه این پست فکر کنید برای انجام این کار چه ایده‌هایی به ذهن می‌رسد!

یکی از ایده‌ها این است که به صورت دستی هزار تا work-item ایجاد و حذف کنیم! خب طبیعتا زمان زیادی طول صرف می‌شود.

راه بهتر این است که همین کار ایجاد و حذف را انجام دهیم ولی نه به صورت دستی، بلکه با یه اسکریپت.

مراحل کار:
- نصب Azure Cli: لینک نصب
- اضافه کردن امکانات Azure DevOps به Azure Cli:

az extension add --name azure-devops


- داخل اکانت خود در قسمت Azure Devops چرخ دنده بالا سمت راست که مربوط به تنظیمات اکانت می‌شود را بزنید و از آنجا Personal account tokens را انتخاب و یک Token ایجاد کنید (دسترسی‌های لازم رو به Token مورد نظر بدهید).

توکن را کپی کنید در مرحله بعد به آن نیاز خواهید داشت!

- لاگین:

az devops login


- یک فایل با اسم s.ps1 ایجاد کنید و محتوای زیر را در آن قرار دهید:

$i = 1
while ($i -lt 1000)
{
az boards work-item create --title dummy$i --type "Bug" --org [ORGANIZATIONURL] --project [PROJECTNAME]
az boards work-item delete --id $i --org [ORGANIZATIONURL] --project [PROJECTNAME] --yes
$i++
}


- مقادیر [ORGANIZATIONURL] و [PROJECTNAME] را تغییر دهید.
- وارد مسیر فایلی که ایجاد کرده‌اید شده و آن را ران کنید:

./s.ps1


منتظر بمانید تا کار اسکریپت تمام شود. بعد از این مرحله work-item هایی که ایجاد می‌کنید از همان عدد خاصی که می‌خواهید شروع خواهد شد.

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#حامد_حاجیلو (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

__________

Software Philosophy

06 Mar, 10:16


@SoftwarePhilosophy

_______

Software Philosophy

06 Mar, 10:16


پروژه ای به اسم GitHub Arctic Code Vault برای نسل آینده

پلتفرم GitHub پلتفرمی بزرگ برای برنامه‌های منبع باز است که میلیون‌ها توسعه‌دهنده و پروژه را در بر می‌گیرد. اما این برنامه‌ها چقدر ماندگار هستند؟ آیا می‌توانیم از آن‌ها در آینده دور استفاده کنیم؟ برای پاسخ به این سوال، GitHub یک برنامه بایگانی‌سازی را راه‌اندازی کرده است که نام آن GitHub Archive Program است. این برنامه هدف دارد که تمام برنامه‌های منبع باز فعال را در GitHub در یک محل امن و ماندگار ذخیره کند.

یکی از بخش‌های این برنامه، GitHub Arctic Code Vault نام دارد. این بخش مسئول ذخیره‌سازی برنامه‌های منبع باز در یک انبار داده در Arctic World Archive (AWA) است. AWA تسهیلات بایگانی‌سازی بسیار بلندمدت است که ۲۵۰ متر عمیق در سرمای ماندگار یک کوه قطبی قرار دارد. این انبار داده در یک معدن زغال‌سنگ تعطیل شده در آرشیپل سوالبارد واقع است، که نزدیک‌تر به قطب شمال از دایره قطبی است.

پلتفرم GitHub در تاریخ ۲/۲/۲۰۲۰ یک عکس فوری از هر برنامه منبع باز فعال در GitHub گرفت و آن را بر روی ۱۸۶ رول فیلم سخت شده ذخیره کرد. این فیلم‌ها می‌توانند تا ۱۰۰۰ سال در شرایط سرد و خشک نگه داشته شوند. هر رول فیلم شامل یک راهنمایی برای خواندن داده‌ها، یک فهرست از برنامه‌ها و یک کد QR برای دسترسی به آن‌ها در وب است. همچنین GitHub یک نسخه دیجیتال از این برنامه‌ها را در یک سرور در نروژ نگه داشته است.

پروژه GitHub Arctic Code Vault یک تلاش بی‌سابقه برای حفظ میراث برنامه‌نویسی است. این پروژه نشان می‌دهد که چگونه می‌توانیم از تکنولوژی برای محافظت از دانش و فرهنگ استفاده کنیم. این پروژه همچنین یک پیام امیدوارکننده به نسل‌های آینده می‌فرستد که ما به آن‌ها اهمیت می‌دهیم و می‌خواهیم آن‌ها از برنامه‌های ما بهره‌مند شوند.

_______

⁉️ برای بحث و تبادل نظر فنی در مورد این پست، نظرات خود را با ما در قسمت کامنت‌ها به اشتراک بگذارید.

#هوتن_همتی (لینکدین)

کانال تلگرام:
@SoftwarePhilosophy

_______