یک مفهومی که توی بحث performance زیاد مطرح میشه همین code splitting هستش که برای خودم یکم زیاد واضح نبود برای همین تصمیم گرفتم دربارش بخوونم خیلی خلاصه وار اینجا توضیح بدم
خوشحال میشم اگه سری بهش بزنید و نظرات و تجربیات خودتون رو هم با من به اشتراک بگذارید
https://virgool.io/@siavash.aghazadeh/%F0%9F%A7%A9-code-splitting-concept-nfyesaftvh67
@DevTwitter | <Siavash Aghazadeh/>
خوشحال میشم اگه سری بهش بزنید و نظرات و تجربیات خودتون رو هم با من به اشتراک بگذارید
https://virgool.io/@siavash.aghazadeh/%F0%9F%A7%A9-code-splitting-concept-nfyesaftvh67
@DevTwitter | <Siavash Aghazadeh/>
👍26❤6👎2
شما را نمی دانم ولی خودم از این راهنماهای فنی Hacking، به ندرت برای یک مورد خاص استفاده کنم و بیشتر به عنوان یک منبع یادگیری با تکنیک های جدید، استفاده می کنم.
یعنی با Watch کردن این پروژهها سعی می کنم تکنیک هایی که ذکر میشوند را برایشان یک راه حل دفاعی در سامانههای Defensive شرکت پیاده کنم.
البته که نوع استفاده بسته به حیطه فعالیت شما دارد ولی در هر صورت یک نگاهی انداختن به این راهنماها بد نیست.
thehacker.recipes
@DevTwitter | <Vahid Nameni/>
یعنی با Watch کردن این پروژهها سعی می کنم تکنیک هایی که ذکر میشوند را برایشان یک راه حل دفاعی در سامانههای Defensive شرکت پیاده کنم.
البته که نوع استفاده بسته به حیطه فعالیت شما دارد ولی در هر صورت یک نگاهی انداختن به این راهنماها بد نیست.
thehacker.recipes
@DevTwitter | <Vahid Nameni/>
👍17❤4
این پروژه مایکروسافت Garnet می تونه رقیب جدی Redis باشه، حداقل در پروژه های دات نتی.
خودش با C# نوشته شده و به نظرم می تونه قدرت و سرعت C# رو به خوبی نشون بده.
همین الانم داره در Azure تو محیط عملیاتی استفاده میشه
https://github.com/microsoft/garnet
@DevTwitter | <Imun/>
خودش با C# نوشته شده و به نظرم می تونه قدرت و سرعت C# رو به خوبی نشون بده.
همین الانم داره در Azure تو محیط عملیاتی استفاده میشه
https://github.com/microsoft/garnet
@DevTwitter | <Imun/>
👍39🤣13🔥5👎2
پروژه AutoGen هم یکی از اون پروژه هایی هستش که کار رو برای بیزینس های کوچیک واقعا راحت کرده.
به شخصه دیدم، یکی از خرده فروشهای آمازون با AutoGen یه Agent درست کرده بود، نظرات رو بررسی میکرد و چندین نوع پردازش مختلف انجام بده و خروجی میداد برای پاسخ.
https://github.com/microsoft/autogen
@DevTwitter | <Mohammad/>
به شخصه دیدم، یکی از خرده فروشهای آمازون با AutoGen یه Agent درست کرده بود، نظرات رو بررسی میکرد و چندین نوع پردازش مختلف انجام بده و خروجی میداد برای پاسخ.
https://github.com/microsoft/autogen
@DevTwitter | <Mohammad/>
👍27🤣1
اگر FastAPI دولوپر هستید این ریپو به کارتون میاد
https://github.com/zhanymkanov/fastapi-best-practices
@DevTwitter | <Amir Motahari/>
https://github.com/zhanymkanov/fastapi-best-practices
@DevTwitter | <Amir Motahari/>
👍27🤣5
به تازگی بدافزاری به نام SteelFox برای سیستم عامل ویندوز منتشر شده است که علاوه بر mine کردن ارزهای دیجیتال ، اطلاعات کارت های بانکی را نیز به سرقت می برد. این بدافزار یک driver آسیب پذیر به نام WinRing0.sys را بر روی سیستم قربانی نصب می کند.
https://protectcybersec.yek.link
@DevTwitter | <protect_cyber_sec/>
https://protectcybersec.yek.link
@DevTwitter | <protect_cyber_sec/>
🤣17👍4🔥3👎1
یه مثال خوب برای اینکه چرا نباید از کدی که هوشمصنوعی میده توی پروداکشن استفاده کنید . این کد PHP رو یکی از دوستان فرستاده بود که بررسی کنم مشکلی نداشته باشه و میتونید خودتون مقایسه کنید تغییراتی که کرده. شاید تست کنید کار کنه ولی ممکن بود دچار خطا بشه در آینده در شرایط خاص
@DevTwitter | <Mahdi Akrami/>
@DevTwitter | <Mahdi Akrami/>
👍42👎10🤣10❤4
آیا میدانستید PeachPie
کد PHP را کامپایل میکنه روی .NET runtime اجرا میکنه
چه شود
https://peachpie.io
https://github.com/peachpiecompiler/peachpie
چرا یکی باید بخواد بین .net و php پل بزنه ؟
@DevTwitter | <MehrdadLinux/>
کد PHP را کامپایل میکنه روی .NET runtime اجرا میکنه
چه شود
https://peachpie.io
https://github.com/peachpiecompiler/peachpie
چرا یکی باید بخواد بین .net و php پل بزنه ؟
@DevTwitter | <MehrdadLinux/>
🤣51👍4👎4
یک پروژه توی گیت هاب پوش کردم الان، برای Data Analyst
اگر دارید یاد میگیرید، یا میخواید تمرین کنید و نگاهی به کد بندازید، این ریپازیتوری رو بهتون پیشنهاد میکنم، به صورت خط به خط توضیح دادم و از خروجی کار هم عکس آپلود کردم
اگر هم قابل بود، Star کنید
https://github.com/MisaghMomeniB/Tehran-Weather-Analysis
@DevTwitter | <Misagh Momeni Bashusqeh/>
اگر دارید یاد میگیرید، یا میخواید تمرین کنید و نگاهی به کد بندازید، این ریپازیتوری رو بهتون پیشنهاد میکنم، به صورت خط به خط توضیح دادم و از خروجی کار هم عکس آپلود کردم
اگر هم قابل بود، Star کنید
https://github.com/MisaghMomeniB/Tehran-Weather-Analysis
@DevTwitter | <Misagh Momeni Bashusqeh/>
1👍27🔥4❤3
اشتراکگذاری دادهها در میکروسرویسها: تعادل بین Consistency و Scalability
سالها پیش وقتی شروع به کار با میکروسرویسها کردم، قانون «هر سرویس نباید دیتابیس خودش رو با سرویس دیگه به اشتراک بذاره» رو خیلی جدی گرفتم. این قانون منطقی به نظر میومد. سرویسها باید مالک دادههاشون باشن و بتونن بدون مشکل تغییرات خودشونو اعمال کنن. اما نکتهای که من اول متوجه نشدم این بود که تفاوتی بزرگ بین Sharing a data source (دیتابیس مرکزی) و Sharing data وجود داره.
در دنیای میکروسرویسها، دادهها مثل یک زنجیره برای ارتباط بین سرویسها عمل میکنن. مثلا سرویس Trips نیاز به اطلاعات مسافران از سرویس Passenger یا اطلاعات رانندگان از سرویس Driver داره. خیلی منطقی به نظر میاد که این دادهها رو به صورت Synchronous درخواست کنیم، اما این روش در مقیاسهای بزرگ چالشهایی رو به همراه داره.
چرا درخواستهای Synchronous برای دادهها نمیتونند به خوبی مقیاسپذیر باشند؟
درخواستهای همزمان و دریافت دادههای بهروز اول به نظر منطقی میاد. در نهایت همه ما میخواهیم دادههای جدید و دقیق داشته باشیم، درست؟ اما وقتی این روال رو برای مدت طولانی ادامه میدیم، مشکلاتی پیش میاد:
- زنجیرههای وابستگی: وقتی هر سرویس برای دریافت دادههاش به سرویس دیگهای وابسته باشه، در طول زمان تبدیل به یک شبکه پیچیده میشه. مثلا سرویس Leaderboard نیاز به اطلاعات User Service برای نمایش نام و آواتار کاربران داره، و این باعث میشه که یک زنجیره از درخواستها به وجود بیاد.
- نقطههای شکست یا SPOF: وقتی سرویسهای زیادی به یک سرویس مشترک مثل User Service وابسته هستند، اون سرویس تبدیل به یک گلوگاه میشه. اگه این سرویس خراب بشه، میتونه کل سیستم رو تحت تاثیر قرار بده.
- تاخیر در پردازش: هر درخواست اضافی در زنجیره باعث افزایش تاخیر میشه.
با این شرایط، باید این سوال رو بپرسیم: آیا همیشه به دادههای آپدیت نیاز داریم؟
کار با Eventual Consistency: یک راهحل مقیاسپذیر
به جای اینکه هر سرویس برای دادههای خودش درخواستهای همزمان ارسال کنه، میشه هر سرویس کپی محلی از دادههای مورد نیاز خودش رو نگهداری کنه و اونها رو از طریق Event ها یا Caching آپدیت کنه. این رویکرد ممکنه باعث بشه دادهها در نهایت سازگار یا Consistent باشن، یعنی دادهها ممکنه کمی دیر بهروزرسانی بشن، ولی هیچوقت قدیمی و از تاریخ گذشته نمیمونن. این روش معمولاً بهترین انتخاب هست. چرا؟
- مقیاسپذیری: سرویسها میتونن دادههایی رو که نیاز دارن به طور محلی ذخیره کنن و دیگه نیازی به درخواست همزمان به سرویسهای دیگه نیست.
- کاهش SPOF: دادههای محلی به این معنی هستند که سرویسها میتونن مستقل عمل کنن و وابستگی به سرویسهای دیگه رو کاهش بدن.
- عملکرد بهتر: چون هر سرویس دسترسی سریع به دادههای ضروری خودش داره، دیگه نیازی به درخواستهای همزمان نیست که باعث افزایش تاخیر بشه.
سازگاری دادهها در عمل
سرویسها به دادههای مختلف نیاز دارند و هر کدوم سازگاری یا Consistency متفاوتی میطلبند:
- سرویس Leaderboard: نیاز به دادههای کاربری داره، ولی ممکنه آواتارها و نامهای نمایشی کمی قدیمی هم مشکلی ایجاد نکنه. این سرویس میتونه یک کپی محلی از دادههای کاربران داشته باشه.
- سرویس Notification: این سرویس نیاز به ایمیلهای بهروز داره تا به درستی به کاربران پیام ارسال کنه. اینجا شاید نیاز به همگامسازی دقیقتری باشه.
@DevTwitter | <Massimo Dev/>
سالها پیش وقتی شروع به کار با میکروسرویسها کردم، قانون «هر سرویس نباید دیتابیس خودش رو با سرویس دیگه به اشتراک بذاره» رو خیلی جدی گرفتم. این قانون منطقی به نظر میومد. سرویسها باید مالک دادههاشون باشن و بتونن بدون مشکل تغییرات خودشونو اعمال کنن. اما نکتهای که من اول متوجه نشدم این بود که تفاوتی بزرگ بین Sharing a data source (دیتابیس مرکزی) و Sharing data وجود داره.
در دنیای میکروسرویسها، دادهها مثل یک زنجیره برای ارتباط بین سرویسها عمل میکنن. مثلا سرویس Trips نیاز به اطلاعات مسافران از سرویس Passenger یا اطلاعات رانندگان از سرویس Driver داره. خیلی منطقی به نظر میاد که این دادهها رو به صورت Synchronous درخواست کنیم، اما این روش در مقیاسهای بزرگ چالشهایی رو به همراه داره.
چرا درخواستهای Synchronous برای دادهها نمیتونند به خوبی مقیاسپذیر باشند؟
درخواستهای همزمان و دریافت دادههای بهروز اول به نظر منطقی میاد. در نهایت همه ما میخواهیم دادههای جدید و دقیق داشته باشیم، درست؟ اما وقتی این روال رو برای مدت طولانی ادامه میدیم، مشکلاتی پیش میاد:
- زنجیرههای وابستگی: وقتی هر سرویس برای دریافت دادههاش به سرویس دیگهای وابسته باشه، در طول زمان تبدیل به یک شبکه پیچیده میشه. مثلا سرویس Leaderboard نیاز به اطلاعات User Service برای نمایش نام و آواتار کاربران داره، و این باعث میشه که یک زنجیره از درخواستها به وجود بیاد.
- نقطههای شکست یا SPOF: وقتی سرویسهای زیادی به یک سرویس مشترک مثل User Service وابسته هستند، اون سرویس تبدیل به یک گلوگاه میشه. اگه این سرویس خراب بشه، میتونه کل سیستم رو تحت تاثیر قرار بده.
- تاخیر در پردازش: هر درخواست اضافی در زنجیره باعث افزایش تاخیر میشه.
با این شرایط، باید این سوال رو بپرسیم: آیا همیشه به دادههای آپدیت نیاز داریم؟
کار با Eventual Consistency: یک راهحل مقیاسپذیر
به جای اینکه هر سرویس برای دادههای خودش درخواستهای همزمان ارسال کنه، میشه هر سرویس کپی محلی از دادههای مورد نیاز خودش رو نگهداری کنه و اونها رو از طریق Event ها یا Caching آپدیت کنه. این رویکرد ممکنه باعث بشه دادهها در نهایت سازگار یا Consistent باشن، یعنی دادهها ممکنه کمی دیر بهروزرسانی بشن، ولی هیچوقت قدیمی و از تاریخ گذشته نمیمونن. این روش معمولاً بهترین انتخاب هست. چرا؟
- مقیاسپذیری: سرویسها میتونن دادههایی رو که نیاز دارن به طور محلی ذخیره کنن و دیگه نیازی به درخواست همزمان به سرویسهای دیگه نیست.
- کاهش SPOF: دادههای محلی به این معنی هستند که سرویسها میتونن مستقل عمل کنن و وابستگی به سرویسهای دیگه رو کاهش بدن.
- عملکرد بهتر: چون هر سرویس دسترسی سریع به دادههای ضروری خودش داره، دیگه نیازی به درخواستهای همزمان نیست که باعث افزایش تاخیر بشه.
سازگاری دادهها در عمل
سرویسها به دادههای مختلف نیاز دارند و هر کدوم سازگاری یا Consistency متفاوتی میطلبند:
- سرویس Leaderboard: نیاز به دادههای کاربری داره، ولی ممکنه آواتارها و نامهای نمایشی کمی قدیمی هم مشکلی ایجاد نکنه. این سرویس میتونه یک کپی محلی از دادههای کاربران داشته باشه.
- سرویس Notification: این سرویس نیاز به ایمیلهای بهروز داره تا به درستی به کاربران پیام ارسال کنه. اینجا شاید نیاز به همگامسازی دقیقتری باشه.
@DevTwitter | <Massimo Dev/>
👍21🔥7👎2
اقا یک دانلود منیجر دارم توسعه میدم شما میتونی ترد مشخص کنی و امکان resume و.. داره و میتونی یک لینک یا چند لینک بدید و بیشتر به درد ترمینال میخوره ولی دارم روی گرافیکش کار میکنم
https://github.com/rezabojnordi/shabi_download
دوست داشتید میتونید استفاده کنید و تعییرش بدید
@DevTwitter | <reza/>
https://github.com/rezabojnordi/shabi_download
دوست داشتید میتونید استفاده کنید و تعییرش بدید
@DevTwitter | <reza/>
👍66👎12❤7
دنبال یه سری منبع در مورد golang internals بودم که با این repository آشنا شدم، به صورت موضوعی لینک های خوبی رو معرفی کرده، دوست داشتید بررسی کنید.
https://github.com/emluque/golang-internals-resources
@DevTwitter | <Hossein Nazari/>
https://github.com/emluque/golang-internals-resources
@DevTwitter | <Hossein Nazari/>
❤17👍7🤣1
این دکوریتور رو تو بیشتر پروژههام استفاده میکنم؛ باهاش متدهاتون رو دکوریت کنید تا اگر اکسپشن هندل نشدهای رخ داد، بهجای توقف کل برنامه، اکسپشن رو لاگ کنه و هم پیامش تو یک کانال تلگرام بفرسته تا سریع متوجه بشید.
کد + مثال:
https://gist.github.com/mthri/5620feffe5bcdbdaaaf62a8f78ddab5d
باشد که رستگار شوید :)
@DevTwitter | <Amir Motahari/>
کد + مثال:
https://gist.github.com/mthri/5620feffe5bcdbdaaaf62a8f78ddab5d
باشد که رستگار شوید :)
@DevTwitter | <Amir Motahari/>
👍54👎8🤣6🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
هر کدوم از این کمپانی های بزرگ مثل گوگل، openAI، متا، و Anthropic یک سری ریپو دارن به اسم course یا cookbook که شامل کلی tutorial و مطلب آموزشی راجع به اینکه چطور با LLM ها بخصوص مدلها خوده این شرکتها کار کنید. این مطالب همش کلاس درسه با کیفیت بالا.
این لینک زیر از کمپانی Anthropic هست که شامل ۵ کورس میشه. ولی بقیه کمپانی ها هم ریپوهای مشابه دارن.
این ۵ کورس:
1- Anthropic API fundamentals
2- Prompt engineering interactive tutorial
3- Real world prompting
4- Prompt evaluations
5- Tool use
https://github.com/anthropics/courses/tree/master
@DevTwitter | <Mehdi Allahyari/>
این لینک زیر از کمپانی Anthropic هست که شامل ۵ کورس میشه. ولی بقیه کمپانی ها هم ریپوهای مشابه دارن.
این ۵ کورس:
1- Anthropic API fundamentals
2- Prompt engineering interactive tutorial
3- Real world prompting
4- Prompt evaluations
5- Tool use
https://github.com/anthropics/courses/tree/master
@DevTwitter | <Mehdi Allahyari/>
👍19❤5
بهینه سازی درخواست ها با collect کردن اونها در لاراول
https://www.harrisrafto.eu/supercharging-request-input-handling-in-laravel-with-collections/
@DevTwitter
https://www.harrisrafto.eu/supercharging-request-input-handling-in-laravel-with-collections/
@DevTwitter
👍17🔥4🤣3❤2
این ریپازیتوری گیتهاب همه\بیشتر ابزار های امنیت رو گذاشته :
github.com/Z4nzu/hackingtool
(خودم یه brute-force و world list میخواستم که گرفتم و دانلود کردم عملکرد خوبی هم داشت)
@DevTwitter | <Bugsbunny/>
github.com/Z4nzu/hackingtool
(خودم یه brute-force و world list میخواستم که گرفتم و دانلود کردم عملکرد خوبی هم داشت)
@DevTwitter | <Bugsbunny/>
👍28👎3
از این پروژه خیلی خوشم اومد. خیلی ساده و کوچیک هست.
برای وقتی هست که توی پروژه میخواهید از سرور اطلاعات رو بخونید. خیلی ساده یه فایل json یهش میدید و یه سرور بالا میاره.
اگه دوست داشتید حتی بدون نصب هم میشه با npx فراخونیش کرد و ازش استفاده کرد.
https://github.com/typicode/json-server
@DevTwitter | <Mohsen Shabanian/>
برای وقتی هست که توی پروژه میخواهید از سرور اطلاعات رو بخونید. خیلی ساده یه فایل json یهش میدید و یه سرور بالا میاره.
اگه دوست داشتید حتی بدون نصب هم میشه با npx فراخونیش کرد و ازش استفاده کرد.
https://github.com/typicode/json-server
@DevTwitter | <Mohsen Shabanian/>
👍28❤4👎3
چرا استفاده از Next.js میتواند تجربه برنامهنویسی شما را متحول کند؟
سرعت بالا و بهینهسازی SEO: یکی از بزرگترین مزایای استفاده از Next.js سرعت بارگذاری و سئو بهینه است. Next.js از رندرینگ سمت سرور (SSR) و رندرینگ استاتیک (SSG) پشتیبانی میکند که به نمایش سریعتر صفحات و ایندکس بهتر در موتورهای جستجو کمک میکند.
پشتیبانی از API های داخلی: نیازی به سرور جداگانه ندارید؛ میتوانید API های خود را در پروژه Next.js ایجاد کنید. این ویژگی برای ساخت سریع اپلیکیشنهای فولاستک بسیار کاربردی است.
بهبود تجربه کاربری با رندرینگ هیبریدی: با ترکیب SSR و SSG، صفحات پویا و استاتیک بهراحتی در یک پروژه قابل پیادهسازی هستند. این موضوع تجربه کاربری را ارتقا میدهد و بهینهسازی سرعت را بهبود میبخشد.
پشتیبانی از Image Optimization: مدیریت و بهینهسازی تصاویر با Next.js بسیار ساده است، بهویژه اگر سایت شما گرافیک بالایی دارد. این ویژگی باعث میشود تصاویر سریعتر بارگذاری شوند و حجم دادهها کاهش یابد.
پشتیبانی از React و مدرن بودن فریمورک: Next.js یک انتخاب عالی برای توسعهدهندگانی است که به React علاقه دارند، چرا که امکانات مدرن و انعطافپذیری بالایی در توسعه فراهم میکند.
@DevTwitter | <Amirhosein Rageie/>
سرعت بالا و بهینهسازی SEO: یکی از بزرگترین مزایای استفاده از Next.js سرعت بارگذاری و سئو بهینه است. Next.js از رندرینگ سمت سرور (SSR) و رندرینگ استاتیک (SSG) پشتیبانی میکند که به نمایش سریعتر صفحات و ایندکس بهتر در موتورهای جستجو کمک میکند.
پشتیبانی از API های داخلی: نیازی به سرور جداگانه ندارید؛ میتوانید API های خود را در پروژه Next.js ایجاد کنید. این ویژگی برای ساخت سریع اپلیکیشنهای فولاستک بسیار کاربردی است.
بهبود تجربه کاربری با رندرینگ هیبریدی: با ترکیب SSR و SSG، صفحات پویا و استاتیک بهراحتی در یک پروژه قابل پیادهسازی هستند. این موضوع تجربه کاربری را ارتقا میدهد و بهینهسازی سرعت را بهبود میبخشد.
پشتیبانی از Image Optimization: مدیریت و بهینهسازی تصاویر با Next.js بسیار ساده است، بهویژه اگر سایت شما گرافیک بالایی دارد. این ویژگی باعث میشود تصاویر سریعتر بارگذاری شوند و حجم دادهها کاهش یابد.
پشتیبانی از React و مدرن بودن فریمورک: Next.js یک انتخاب عالی برای توسعهدهندگانی است که به React علاقه دارند، چرا که امکانات مدرن و انعطافپذیری بالایی در توسعه فراهم میکند.
@DevTwitter | <Amirhosein Rageie/>
🔥41👎26👍12
توی پست میخوام راجب nginx proxy manager بنویسم
امروز روی یکی از سرور هایی که دستم بود nginx proxy manager آوردم و باید بگم زندگی 100 لول آسون تر شد :))
به صورت کلی nginx proxy manager یه reverse proxy هست که با یه UI ساده و زیبا در دسترس شماست البته یه سری قابلیت های out of the box هم با خودش داره که کارتون رو بشدت ساده تر میکنه
یکی از این قابلیت های جالبش SSL certificate بود که خودکار generate میشه و ست میشه و با یه کلیک تمدید میشه
چون من nginx proxy manager رو روی داکر آورده بودم بالا ، باید خود پروکسی رو هم می بردم روی یه شبکه مشترک با باقی سرویس ها توی داکر (network bridge).
تا پروکسی بتونه اونارو ببینه و بتونه route کنه مسیر رو بهشون.
یکی دیگه از قابلیت هاش اینه که میتونید دستی config بهش اضافه کنید و دستتون رو باز گزاشته برای کانفیگ nginx
و به همین راحتی شما با nginx proxy manager آشنا شدید :))
حالا کافیه یه سرور بیارید بالا و روش پروکسی رو بیارید بالا و بعد دامنه اتون رو توی CDN اتون point کنید به سمت سرورتون و تمام !»
@DevTwitter | <Ali-Sharify/>
امروز روی یکی از سرور هایی که دستم بود nginx proxy manager آوردم و باید بگم زندگی 100 لول آسون تر شد :))
به صورت کلی nginx proxy manager یه reverse proxy هست که با یه UI ساده و زیبا در دسترس شماست البته یه سری قابلیت های out of the box هم با خودش داره که کارتون رو بشدت ساده تر میکنه
یکی از این قابلیت های جالبش SSL certificate بود که خودکار generate میشه و ست میشه و با یه کلیک تمدید میشه
چون من nginx proxy manager رو روی داکر آورده بودم بالا ، باید خود پروکسی رو هم می بردم روی یه شبکه مشترک با باقی سرویس ها توی داکر (network bridge).
تا پروکسی بتونه اونارو ببینه و بتونه route کنه مسیر رو بهشون.
یکی دیگه از قابلیت هاش اینه که میتونید دستی config بهش اضافه کنید و دستتون رو باز گزاشته برای کانفیگ nginx
و به همین راحتی شما با nginx proxy manager آشنا شدید :))
حالا کافیه یه سرور بیارید بالا و روش پروکسی رو بیارید بالا و بعد دامنه اتون رو توی CDN اتون point کنید به سمت سرورتون و تمام !»
@DevTwitter | <Ali-Sharify/>
👍26❤6🔥5👎1