The ability to support workloads on an efficient and uninterrupted basis is especially applicable in the highly demanding financial sector—which seeks to gain competitive advantage by constantly analyzing market trends, executing trading decisions, and adjusting strategy based on access to real-time data. Additionally, the rise of agentic AI trading across asset classes necessitates advanced tools to manage risk effectively, optimize trading strategies, and manage regulatory compliance. Red Hat’s understanding of these complexities, in collaboration with Simudyne, provides cutting-edge sol
via Red Hat Blog https://ift.tt/ujbECZs
via Red Hat Blog https://ift.tt/ujbECZs
Redhat
Red Hat and Simuldyne: Empowering stock exchanges with AI-driven market simulation
The ability to support workloads on an efficient and uninterrupted basis is especially applicable in the highly demanding financial sector
This media is not supported in your browser
VIEW IN TELEGRAM
🌐وزیر ارتباطات: یکی از مولفههای شبکه ملی اطلاعات: ارتباط با دنیاست
This media is not supported in your browser
VIEW IN TELEGRAM
وزیر ارتباطات:
استفاده از فیلترشکنهای مجانی در سالهای گذشته باعث شده شبکه کشور شبکهی آلودهای بشود
سال ۱۴۰۱ تصمیم گرفتیم محدودیت ایجاد کنیم؛ آیا دسترسی ها محدود شد؟
استفاده از فیلترشکنهای مجانی در سالهای گذشته باعث شده شبکه کشور شبکهی آلودهای بشود
سال ۱۴۰۱ تصمیم گرفتیم محدودیت ایجاد کنیم؛ آیا دسترسی ها محدود شد؟
🤮2
The ability to support workloads on an efficient and uninterrupted basis is especially applicable in the highly demanding financial sector—which seeks to gain competitive advantage by constantly analyzing market trends, executing trading decisions, and adjusting strategy based on access to real-time data. Additionally, the rise of agentic AI trading across asset classes necessitates advanced tools to manage risk effectively, optimize trading strategies, and manage regulatory compliance. Red Hat’s understanding of these complexities, in collaboration with Simudyne, provides cutting-edge sol
via Red Hat Blog https://ift.tt/Rnfe4ih
via Red Hat Blog https://ift.tt/Rnfe4ih
Redhat
Red Hat and Simudyne: Empowering stock exchanges with AI-driven market simulation
The ability to support workloads on an efficient and uninterrupted basis is especially applicable in the highly demanding financial sector
Microsoft and Red Hat have shared a long history of collaboration based on open innovation. Through our combined efforts, enterprises have been empowered to more confidently build and run mission-critical workloads across hybrid environments. Most recently, this collaboration has taken a significant step forward with new technical integrations—one of the most notable being the full certification of SQL Server 2022 on Red Hat Enterprise Linux (RHEL) 9. With this certification, organizations can now run SQL Server 2022 as a confined application on RHEL 9, gaining stronger security boundaries
via Red Hat Blog https://ift.tt/lmgTQrh
via Red Hat Blog https://ift.tt/lmgTQrh
Redhat
Bringing Red Hat AI GitOps to Microsoft Azure SQL Database
Microsoft and Red Hat have shared a long history of collaboration based on open innovation.
The Wall Street Journal - The Cities Where College Grads Are Actually Landing JobsMany younger professionals are finding luck launching careers in second-tier cities like Raleigh, Milwaukee and Birmingham, a new analysis shows. Learn more ZDNet - Red Hat just expanded free access to RHEL for business developersRed Hat offers a new free option for up to 25 Red Hat Enterprise Linux instances for business developers. Learn more Replatform Faster: OpenShift + VSP One Storage OffloadBusinesses can streamline and expedite their replatforming initiatives. Red Hat OpenShift, powered by VSP One Stor
via Red Hat Blog https://ift.tt/Fhxdfta
via Red Hat Blog https://ift.tt/Fhxdfta
Redhat
Friday Five — July 25, 2025 | Red Hat
The Friday Five is a weekly Red Hat blog post with 5 of the week's top news items and ideas from or about Red Hat and the technology industry.
Academy and Foundation unixmens | Your skills, Your future
Photo
1. 90%+ of Cloud Servers Run on Linux
Most cloud providers (AWS, Google Cloud, Azure, etc.) use Linux-based virtual machines by default.
Linux is lightweight, stable, secure, and open-source, making it the preferred OS for cloud infrastructure.
As a DevOps engineer, you’ll often manage Linux servers—so knowing how to navigate and configure them is fundamental.
---
2. Containers are Built for Linux
Docker and other container technologies (like Podman or LXC) use Linux kernel features such as namespaces and cgroups.
Even if you're running containers on macOS or Windows, they're often inside a Linux VM under the hood.
Understanding how containers work means understanding how Linux works.
---
3. Security, Scripting, and Automation
Tools like iptables, auditd, SELinux, and AppArmor are native to Linux.
Scripting languages like Bash, Python, or Shell scripting are vital for writing automation scripts.
DevOps relies heavily on automation—whether it's provisioning servers, deploying code, or configuring firewalls—most of which happens in Linux.
---
4. CI/CD Tools Thrive on Linux
Tools like Jenkins, GitLab CI/CD, CircleCI, and ArgoCD are primarily designed to run on Linux servers.
Build agents, runners, and pipelines often run in Linux environments.
You need to know how to work with the Linux file system, manage services (systemctl), view logs (journalctl), and handle permissions.
---
5. Infrastructure as Code (IaC) Works Best with Linux Knowledge
Tools like Terraform, Ansible, Chef, and Pulumi target Linux servers for provisioning and configuration.
Writing playbooks or deployment scripts requires familiarity with Linux directories (e.g., /etc, /var/log), package managers (apt, yum), and service management.
Linux knowledge makes your IaC implementations more accurate and efficient.
Most cloud providers (AWS, Google Cloud, Azure, etc.) use Linux-based virtual machines by default.
Linux is lightweight, stable, secure, and open-source, making it the preferred OS for cloud infrastructure.
As a DevOps engineer, you’ll often manage Linux servers—so knowing how to navigate and configure them is fundamental.
---
2. Containers are Built for Linux
Docker and other container technologies (like Podman or LXC) use Linux kernel features such as namespaces and cgroups.
Even if you're running containers on macOS or Windows, they're often inside a Linux VM under the hood.
Understanding how containers work means understanding how Linux works.
---
3. Security, Scripting, and Automation
Tools like iptables, auditd, SELinux, and AppArmor are native to Linux.
Scripting languages like Bash, Python, or Shell scripting are vital for writing automation scripts.
DevOps relies heavily on automation—whether it's provisioning servers, deploying code, or configuring firewalls—most of which happens in Linux.
---
4. CI/CD Tools Thrive on Linux
Tools like Jenkins, GitLab CI/CD, CircleCI, and ArgoCD are primarily designed to run on Linux servers.
Build agents, runners, and pipelines often run in Linux environments.
You need to know how to work with the Linux file system, manage services (systemctl), view logs (journalctl), and handle permissions.
---
5. Infrastructure as Code (IaC) Works Best with Linux Knowledge
Tools like Terraform, Ansible, Chef, and Pulumi target Linux servers for provisioning and configuration.
Writing playbooks or deployment scripts requires familiarity with Linux directories (e.g., /etc, /var/log), package managers (apt, yum), and service management.
Linux knowledge makes your IaC implementations more accurate and efficient.
هوندا موتوری هیدروژنی با آلایندگی صفر تولید کرده است که از تمام نمونههای قبلی موثرتر و کوچکتر است و به زودی بازار خودروها را متحول و خودروهای الکتریکی را به حاشیه خواهد راند!
طراحی و ساخت این موتورهای رویایی توسط هوندا و جنرال موتورز آمریکا صورت پذیرفته و بازی خودروها را به کلی تغییر خواهد داد! دنیای حمل و نقل احتمالا در حال تجربه یک تغییر بزرگ است.
لینک
طراحی و ساخت این موتورهای رویایی توسط هوندا و جنرال موتورز آمریکا صورت پذیرفته و بازی خودروها را به کلی تغییر خواهد داد! دنیای حمل و نقل احتمالا در حال تجربه یک تغییر بزرگ است.
لینک
❤2
ساختار bluestore و lvm در ceph :
این نکته را باید گفت که : ؛در Ceph و مشخصاً در BlueStore، استفاده از LVM یک گزینه است، نه یک الزام.؛
اما در ادامه به بررسی مزایا و معایب این روش خواهیم پرداخت :
در کل ما دو گزینه داریم در مبحث bluestore
استفاده از Raw Device (Default و توصیهشده)
در این حالت، BlueStore مستقیماً روی یک دیسک یا پارتیشن فیزیکی نصب میشود (مثلاً /dev/sdX).
هیچ LVM یا فایلسیستمی در بین نیست.
مزیت: عملکرد بهتر، تأخیر کمتر، و سادگی در مدیریت.
و روش دیگر LVM-Based OSD (معمولاً در Ceph-Ansible یا ceph-volume استفاده میشود)
در این حالت از Volume Group و Logical Volume (LVM) استفاده میشود.
مخصوصاً وقتی شما بخواهید فضای OSD را روی LVM پارتیشنبندی کنید یا چند دیسک کوچک را تجمیع نمایید.
در ابزار ceph-volume این حالت پرکاربرد است.
به صورت مثال:
یا برای ساخت دستی:
پس BlueStore چگونه کار میکنه بدون فایلسیستم؟
در واقع BlueStore دادهها را مستقیماً روی دستگاه بلاک (Block Device) مینویسد.
برای متادیتا و ساختار مدیریت داخلی خودش، از یک دیتابیس داخلی استفاده میکند که اغلب RocksDB است.
ساختار ذخیرهسازی BlueStore:
اینها یا روی همان دیسک یا روی دیسکهای جداگانه میتوانند قرار گیرند.
🔧 چرا این تصمیم گرفته شده؟
حذف فایلسیستم مانند XFS باعث شده:
یک لایه میانی کمتر شود (Overhead کمتر)
Ceph کنترل کامل روی دادهها و تخصیص داشته باشد
بتواند عملکرد و latency را بهینه کند
بهتر با SSD و NVMe سازگار شود
اما مزایای استفاده از lvm میتونه چی باشه ؟ !!!!!!
استفاده از LVM در BlueStore یک گزینه اختیاری اما بسیار مفید است، مخصوصاً در محیطهای production. در ادامه، مزایا و دلایل اصلی استفاده از LVM در BlueStore را با هم بررسی میکنیم :
1. مدیریت منعطف دیسکها
با LVM میتوان از چند دیسک فیزیکی یک Volume Group ساخت و آن را به یک OSD اختصاص داد.
میتوان ظرفیت را در آینده افزایش داد (extend) یا تنظیمات جدید اعمال کرد.
مناسب برای دیتاسنترهایی که مدیریت منابع ذخیرهسازی بهصورت داینامیک انجام میدهند.
2. پارتیشنبندی دقیق اجزای BlueStore (block, block.db, block.wal)
در BlueStore ما سه جزء کلیدی داریم که قبلا به اون پرداختم .
با LVM میتوان این اجزا را روی دیسکهای مختلف قرار داد تا
از SSD برای block.db و block.wal استفاده کرد
و از HDD برای block (داده حجیم)
این کار تأثیر چشمگیری در افزایش کارایی و کاهش latency دارد.
3. یکپارچگی با ابزار ceph-volume
در واقع ceph-volume ابزار رسمی Ceph برای مدیریت OSDها است و از LVM بهصورت native پشتیبانی میکند.
مزایا:
ساخت آسانتر OSD
مانیتورینگ بهتر با ceph-volume lvm list
سازگاری با cephadm/ansible
بازیابی سادهتر در صورت crash
4. قابلیت Tag گذاری و مدیریت منطقی
با LVM میتوان Volumeها را با تگهای مشخص تعریف کرد (مثلاً برای osd.12 یا nvme-db)
در سناریوهای Disaster Recovery یا Migration بسیار مفید است.
5. Snapshot و Backup سطح Volume (در برخی کاربردها)
هرچند برای OSD عملیاتی مرسوم نیست، اما در برخی سناریوهای تست و توسعه امکان گرفتن snapshot از OSD volume وجود دارد.
مثلاً قبل از upgrade.
6. درک و مشاهده ساختار دقیق با ابزارهای LVM
ابزارهایی مثل lvdisplay, vgdisplay, pvdisplay دید کاملی از وضعیت OSD میدهند.
تشخیص مشکلات و مدیریت سادهتر.
#ceph #lvm #linux #storage #kernel #sds #bluestore
https://t.me/unixmens
این نکته را باید گفت که : ؛در Ceph و مشخصاً در BlueStore، استفاده از LVM یک گزینه است، نه یک الزام.؛
اما در ادامه به بررسی مزایا و معایب این روش خواهیم پرداخت :
در کل ما دو گزینه داریم در مبحث bluestore
استفاده از Raw Device (Default و توصیهشده)
در این حالت، BlueStore مستقیماً روی یک دیسک یا پارتیشن فیزیکی نصب میشود (مثلاً /dev/sdX).
هیچ LVM یا فایلسیستمی در بین نیست.
مزیت: عملکرد بهتر، تأخیر کمتر، و سادگی در مدیریت.
و روش دیگر LVM-Based OSD (معمولاً در Ceph-Ansible یا ceph-volume استفاده میشود)
در این حالت از Volume Group و Logical Volume (LVM) استفاده میشود.
مخصوصاً وقتی شما بخواهید فضای OSD را روی LVM پارتیشنبندی کنید یا چند دیسک کوچک را تجمیع نمایید.
در ابزار ceph-volume این حالت پرکاربرد است.
به صورت مثال:
ceph-volume lvm create --data /dev/sdX
یا برای ساخت دستی:
pvcreate /dev/sdX
vgcreate ceph-vg /dev/sdX
lvcreate -n osd-lv -l 100%FREE ceph-vg
ceph-volume lvm create --data ceph-vg/osd-lv
پس BlueStore چگونه کار میکنه بدون فایلسیستم؟
در واقع BlueStore دادهها را مستقیماً روی دستگاه بلاک (Block Device) مینویسد.
برای متادیتا و ساختار مدیریت داخلی خودش، از یک دیتابیس داخلی استفاده میکند که اغلب RocksDB است.
ساختار ذخیرهسازی BlueStore:
block: دادههای اصلی
block.db: متادیتا
block.wal: write-ahead log
اینها یا روی همان دیسک یا روی دیسکهای جداگانه میتوانند قرار گیرند.
🔧 چرا این تصمیم گرفته شده؟
حذف فایلسیستم مانند XFS باعث شده:
یک لایه میانی کمتر شود (Overhead کمتر)
Ceph کنترل کامل روی دادهها و تخصیص داشته باشد
بتواند عملکرد و latency را بهینه کند
بهتر با SSD و NVMe سازگار شود
اما مزایای استفاده از lvm میتونه چی باشه ؟ !!!!!!
استفاده از LVM در BlueStore یک گزینه اختیاری اما بسیار مفید است، مخصوصاً در محیطهای production. در ادامه، مزایا و دلایل اصلی استفاده از LVM در BlueStore را با هم بررسی میکنیم :
1. مدیریت منعطف دیسکها
با LVM میتوان از چند دیسک فیزیکی یک Volume Group ساخت و آن را به یک OSD اختصاص داد.
میتوان ظرفیت را در آینده افزایش داد (extend) یا تنظیمات جدید اعمال کرد.
مناسب برای دیتاسنترهایی که مدیریت منابع ذخیرهسازی بهصورت داینامیک انجام میدهند.
2. پارتیشنبندی دقیق اجزای BlueStore (block, block.db, block.wal)
در BlueStore ما سه جزء کلیدی داریم که قبلا به اون پرداختم .
با LVM میتوان این اجزا را روی دیسکهای مختلف قرار داد تا
از SSD برای block.db و block.wal استفاده کرد
و از HDD برای block (داده حجیم)
این کار تأثیر چشمگیری در افزایش کارایی و کاهش latency دارد.
3. یکپارچگی با ابزار ceph-volume
در واقع ceph-volume ابزار رسمی Ceph برای مدیریت OSDها است و از LVM بهصورت native پشتیبانی میکند.
مزایا:
ساخت آسانتر OSD
مانیتورینگ بهتر با ceph-volume lvm list
سازگاری با cephadm/ansible
بازیابی سادهتر در صورت crash
4. قابلیت Tag گذاری و مدیریت منطقی
با LVM میتوان Volumeها را با تگهای مشخص تعریف کرد (مثلاً برای osd.12 یا nvme-db)
در سناریوهای Disaster Recovery یا Migration بسیار مفید است.
5. Snapshot و Backup سطح Volume (در برخی کاربردها)
هرچند برای OSD عملیاتی مرسوم نیست، اما در برخی سناریوهای تست و توسعه امکان گرفتن snapshot از OSD volume وجود دارد.
مثلاً قبل از upgrade.
6. درک و مشاهده ساختار دقیق با ابزارهای LVM
ابزارهایی مثل lvdisplay, vgdisplay, pvdisplay دید کاملی از وضعیت OSD میدهند.
تشخیص مشکلات و مدیریت سادهتر.
#ceph #lvm #linux #storage #kernel #sds #bluestore
https://t.me/unixmens
Telegram
Academy and Foundation unixmens | Your skills, Your future
@unixmens_support
@yashar_esm
unixmens@gmail.com
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
@yashar_esm
unixmens@gmail.com
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
This didn’t start as a formal AI project. It started with our CEO’s keynote—a spark at a company event that made our IT teams want to see what was possible. How could AI help reduce friction across the content and tools we already use? Red Hat’s open, curious, tinker-driven culture kicked in fast. With new tools at their fingertips and a flood of interest in leveraging AI internally, we did what Red Hatters do: we experimented.While exploring AI, chatbots, and learning what our systems, teams, and content were ready for, the cast of characters changed along the way. People rolled on, r
via Red Hat Blog https://ift.tt/eaD6Bkm
via Red Hat Blog https://ift.tt/eaD6Bkm
Redhat
Hope, crash, iterate: One PM’s journey to make enterprise library content searchable, findable, and more useful - Part 1
This didn’t start as a formal AI project. It started with our CEO’s keynote—a spark at a company event that made our IT teams want to see what was possible.
Forwarded from Academy and Foundation unixmens | Your skills, Your future
ایا با مفهوم DPI آشنا هستید ؟
منظور ما این مفهوم در مانیتور ها نیست . بلکه مفهومی در شبکه است . با ما همراه باشید تا به بررسی این مفهوم بپردازیم :
منظور ما این مفهوم در مانیتور ها نیست . بلکه مفهومی در شبکه است . با ما همراه باشید تا به بررسی این مفهوم بپردازیم :
Forwarded from Academy and Foundation unixmens | Your skills, Your future
در واقع DPI مخفف Deep packet inspection میباشد . و به این مفهوم هست که :
نوعی از فیلتر بستهها در شبکههای کامپیوتری است که علاوه بر بخش هدر، بخش دیتا (دادهها) ی بستهها را در شبکه برای وجود اطلاعات نامناسب بر اساس معیارهای از پیش تعریف شده بررسی میکند. چنانچه بسته مجاز شناخته شد از فیلتر عبور میکند و در غیر اینصورت بسته به مسیر دیگری ارسال میشود یا برای جمعآوری اطلاعات آماری و بررسی ذخیره میشود. بستههای آیپی از یک بخش دیتا به همراه چندین هدر تشکیل شدهاند. تجهیزات شبکه عموماً به اولین هدر نیاز دارند.
نوعی از فیلتر بستهها در شبکههای کامپیوتری است که علاوه بر بخش هدر، بخش دیتا (دادهها) ی بستهها را در شبکه برای وجود اطلاعات نامناسب بر اساس معیارهای از پیش تعریف شده بررسی میکند. چنانچه بسته مجاز شناخته شد از فیلتر عبور میکند و در غیر اینصورت بسته به مسیر دیگری ارسال میشود یا برای جمعآوری اطلاعات آماری و بررسی ذخیره میشود. بستههای آیپی از یک بخش دیتا به همراه چندین هدر تشکیل شدهاند. تجهیزات شبکه عموماً به اولین هدر نیاز دارند.
❤1
Forwarded from Academy and Foundation unixmens | Your skills, Your future
Academy and Foundation unixmens | Your skills, Your future
در واقع DPI مخفف Deep packet inspection میباشد . و به این مفهوم هست که : نوعی از فیلتر بستهها در شبکههای کامپیوتری است که علاوه بر بخش هدر، بخش دیتا (دادهها) ی بستهها را در شبکه برای وجود اطلاعات نامناسب بر اساس معیارهای از پیش تعریف شده بررسی میکند.…
ممکن است فکر کنید که مرور وب با استفاده از حالت ناشناس/خصوصی مرورگرتان ، به این معنی است که ISP شما نمیتواند آنچه را که به صورت آنلاین انجام میدهید ببیند، اما این یک خط فکری خطرناک است. ISP ها در واقع می توانند از روشی به نام بازرسی بسته عمیق (DPI) برای نظارت بر فعالیت شما استفاده کنند.
کمی عمیق تر شویم :
بازرسی بسته عمیق چیست؟
ا Deep Packet Inspection یک روش فیلتر کردن بسته های شبکه است که هم هدر و هم بخش داده یک بسته را تجزیه و تحلیل می کند (بسته کوچکی از داده های مربوط به هر کاری که انجام می دهید، ارسال می کنید و دریافت می کنید). در مورد یک ISP، DPI به این معنی است که کل اتصال و ترافیک آنلاین کاربر را تجزیه و تحلیل میکند، نه فقط برخی از اطلاعات اتصال مانند شماره پورت، آدرسهای IP دسترسییافته و پروتکلها.
ا ISPها معمولاً از DPI برای تخصیص منابع موجود برای سادهسازی جریان ترافیک و بهینهسازی سرورهای خود برای شناسایی هکرها، مبارزه با بدافزارها و جمعآوری دادههای رفتاری در مورد کاربرانشان استفاده میکنند.
بازرسی بسته عمیق چگونه کار می کند؟
ا DPI معمولاً در سطح فایروال انجام میشود، بهویژه در لایه هفتم اتصال بین سیستمهای باز - لایه برنامه. این روش محتویات هر بسته داده ای را که از یک نقطه بازرسی عبور می کند، ارزیابی می کند.
روشی که DPI محتویات بسته های داده را ارزیابی می کند بر اساس قوانینی است که توسط مدیر شبکه ایجاد شده است. DPI ارزیابی را در زمان واقعی انجام می دهد و می تواند بگوید که بسته های داده از کجا (به طور دقیق کدام برنامه یا سرویس) آمده اند. همچنین میتوان فیلترهایی را برای هدایت مجدد ترافیک DPI از سرویسهای آنلاین (مثلاً فیسبوک) ایجاد کرد.
به عنوان مثال، دولت چین از Deep Packet Inspection برای سانسور محتوایی که برای شهروندان چینی و منافع دولتی "مضر" تلقی می شود، استفاده می کند. برای این منظور، ISP های چینی از DPI برای ردیابی کلمات کلیدی خاصی که از طریق شبکه هایشان عبور می کنند، استفاده می کنند و در صورت یافتن چنین اطلاعاتی، اتصالات را محدود می کنند.
مثال دیگر آژانس امنیت ملی ایالات متحده است که از DPI برای نظارت بر ترافیک اینترنت استفاده می کند. همچنین، گفته می شود که دولت ایران از DPI برای جمع آوری اطلاعات افراد و مسدود کردن ارتباطات استفاده می کند.
چگونه ISP ها از بازرسی بسته عمیق استفاده می کنند؟
یکی از راه های اصلی استفاده ISP ها از DPI این است که به دنبال محتوای P2P بگردند – به خصوص در کشورهایی که تورنت دقیقاً قانونی نیست. وقتی محتوای P2P را پیدا میکنند، یا سرعت دانلود کاربر را کاهش میدهند (بهترین سناریو)، یا دادههای کاربر را به مقامات و آژانسهای حق نسخهبرداری تحویل میدهند (که منجر به اعلامیههای DMCA، جریمههای هنگفت یا حتی زندان برای این افراد میشود. کاربر).
علاوه بر این، ISPها می توانند در صورت نیاز به مسدود کردن دسترسی به وب سایت خاصی، به DPI اعتماد کنند. به طور معمول، آنها این کار را برای رعایت قوانین دولتی و بالقوه حق چاپ در مورد محتوا انجام می دهند.
ا ISP ها همچنین می توانند از DPI برای ردیابی اتصالات کاربر استفاده کنند و پروفایل های جامع را بر اساس فعالیت ها و ترجیحات آنلاین خود جمع آوری کنند، که ممکن است آنها را به تبلیغ کنندگان شخص ثالث بفروشند. این چیزی است که از نظر قانونی می تواند در ایالات متحده و در پشت صحنه در کشورهای دیگر رخ دهد.
در نهایت، این امکان نیز وجود دارد که ISP شما از DPI برای کاهش پهنای باند استفاده کند. از آنجایی که DPI بینش زیادی در مورد آنچه آنلاین انجام میدهید و آنچه دانلود میکنید به آنها میدهد، اگر فکر کنند از «دادههای بیش از حد» برای یک فعالیت خاص استفاده میکنید - مانند بازی آنلاین، پخش آنلاین یا دانلود فایلها، احتمالاً میتوانند سرعت شما را کاهش دهند.
#dpi #net #security #linux #network #article
@unixmens
کمی عمیق تر شویم :
بازرسی بسته عمیق چیست؟
ا Deep Packet Inspection یک روش فیلتر کردن بسته های شبکه است که هم هدر و هم بخش داده یک بسته را تجزیه و تحلیل می کند (بسته کوچکی از داده های مربوط به هر کاری که انجام می دهید، ارسال می کنید و دریافت می کنید). در مورد یک ISP، DPI به این معنی است که کل اتصال و ترافیک آنلاین کاربر را تجزیه و تحلیل میکند، نه فقط برخی از اطلاعات اتصال مانند شماره پورت، آدرسهای IP دسترسییافته و پروتکلها.
ا ISPها معمولاً از DPI برای تخصیص منابع موجود برای سادهسازی جریان ترافیک و بهینهسازی سرورهای خود برای شناسایی هکرها، مبارزه با بدافزارها و جمعآوری دادههای رفتاری در مورد کاربرانشان استفاده میکنند.
بازرسی بسته عمیق چگونه کار می کند؟
ا DPI معمولاً در سطح فایروال انجام میشود، بهویژه در لایه هفتم اتصال بین سیستمهای باز - لایه برنامه. این روش محتویات هر بسته داده ای را که از یک نقطه بازرسی عبور می کند، ارزیابی می کند.
روشی که DPI محتویات بسته های داده را ارزیابی می کند بر اساس قوانینی است که توسط مدیر شبکه ایجاد شده است. DPI ارزیابی را در زمان واقعی انجام می دهد و می تواند بگوید که بسته های داده از کجا (به طور دقیق کدام برنامه یا سرویس) آمده اند. همچنین میتوان فیلترهایی را برای هدایت مجدد ترافیک DPI از سرویسهای آنلاین (مثلاً فیسبوک) ایجاد کرد.
به عنوان مثال، دولت چین از Deep Packet Inspection برای سانسور محتوایی که برای شهروندان چینی و منافع دولتی "مضر" تلقی می شود، استفاده می کند. برای این منظور، ISP های چینی از DPI برای ردیابی کلمات کلیدی خاصی که از طریق شبکه هایشان عبور می کنند، استفاده می کنند و در صورت یافتن چنین اطلاعاتی، اتصالات را محدود می کنند.
مثال دیگر آژانس امنیت ملی ایالات متحده است که از DPI برای نظارت بر ترافیک اینترنت استفاده می کند. همچنین، گفته می شود که دولت ایران از DPI برای جمع آوری اطلاعات افراد و مسدود کردن ارتباطات استفاده می کند.
چگونه ISP ها از بازرسی بسته عمیق استفاده می کنند؟
یکی از راه های اصلی استفاده ISP ها از DPI این است که به دنبال محتوای P2P بگردند – به خصوص در کشورهایی که تورنت دقیقاً قانونی نیست. وقتی محتوای P2P را پیدا میکنند، یا سرعت دانلود کاربر را کاهش میدهند (بهترین سناریو)، یا دادههای کاربر را به مقامات و آژانسهای حق نسخهبرداری تحویل میدهند (که منجر به اعلامیههای DMCA، جریمههای هنگفت یا حتی زندان برای این افراد میشود. کاربر).
علاوه بر این، ISPها می توانند در صورت نیاز به مسدود کردن دسترسی به وب سایت خاصی، به DPI اعتماد کنند. به طور معمول، آنها این کار را برای رعایت قوانین دولتی و بالقوه حق چاپ در مورد محتوا انجام می دهند.
ا ISP ها همچنین می توانند از DPI برای ردیابی اتصالات کاربر استفاده کنند و پروفایل های جامع را بر اساس فعالیت ها و ترجیحات آنلاین خود جمع آوری کنند، که ممکن است آنها را به تبلیغ کنندگان شخص ثالث بفروشند. این چیزی است که از نظر قانونی می تواند در ایالات متحده و در پشت صحنه در کشورهای دیگر رخ دهد.
در نهایت، این امکان نیز وجود دارد که ISP شما از DPI برای کاهش پهنای باند استفاده کند. از آنجایی که DPI بینش زیادی در مورد آنچه آنلاین انجام میدهید و آنچه دانلود میکنید به آنها میدهد، اگر فکر کنند از «دادههای بیش از حد» برای یک فعالیت خاص استفاده میکنید - مانند بازی آنلاین، پخش آنلاین یا دانلود فایلها، احتمالاً میتوانند سرعت شما را کاهش دهند.
#dpi #net #security #linux #network #article
@unixmens
❤3
Forwarded from Academy and Foundation unixmens | Your skills, Your future
ا Anycast BGP چیست؟
ا Anycast یک تکنیک مسیریابی شبکه است که در آن یک آدرس IP یکسان به چندین گره یا سرور اختصاص داده میشود و این گرهها میتوانند در مکانهای جغرافیایی مختلف توزیع شده باشند. در پروتکل BGP (Border Gateway Protocol)، این روش برای هدایت ترافیک به نزدیکترین یا بهینهترین نقطه در شبکه استفاده میشود.
اصول کار Anycast در BGP:
اختصاص یکسان آدرس IP: چندین سرور یا نود در نقاط مختلف دنیا یا یک شبکه، همگی یک آدرس IP یکسان را اعلام میکنند.
مسیریابی بر اساس نزدیکترین مسیر: با استفاده از BGP (پروتکل مسیریابی اینترنت)، ترافیک به نزدیکترین سرور (از نظر مسیر BGP) هدایت میشود. این نزدیکترین مسیر معمولاً کمترین هزینه یا تأخیر را دارد.
افزایش دسترسپذیری و تحمل خطا: اگر یکی از سرورها از دسترس خارج شود، پروتکل BGP بهطور خودکار ترافیک را به دیگر سرورهایی که همان آدرس IP را اعلام کردهاند، هدایت میکند.
مزایا و کاربردهای Anycast با BGP:
افزایش کارایی و کاهش تأخیر:
کاربران به نزدیکترین سرور دسترسی پیدا میکنند، که منجر به کاهش زمان تاخیر (Latency) میشود.
افزایش پایداری و تحمل خطا (Fault Tolerance):
اگر یکی از سرورها یا نودها از دسترس خارج شود، BGP بهطور خودکار به مسیرهای دیگر هدایت میشود.
این ویژگی باعث افزایش دسترسپذیری سرویس میشود.
مقیاسپذیری:
با افزایش تعداد سرورها در مکانهای مختلف، مقیاسپذیری سرویس افزایش پیدا میکند، بدون نیاز به تغییر در ساختار آدرسدهی.
استفاده در DNS و CDNها:
سرویسدهندگان DNS (مانند Google DNS یا Cloudflare) و شبکههای CDN (مانند Akamai و Cloudflare) از Anycast برای بهبود پاسخدهی و پایداری استفاده میکنند.
وقتی یک کاربر درخواست DNS میدهد، به نزدیکترین سرور Anycast هدایت میشود.
چالشهای استفاده از Anycast:
ا مسیریابی ناپایدار (Routing Instability):
به دلیل دینامیک بودن مسیریابی BGP، مسیرها ممکن است ناپایدار باشند و ترافیک بین سرورها نوسان کند.
بررسی دقیق در زمان خرابی:
اگر یک سرور از دسترس خارج شود اما BGP آن را دیرتر شناسایی کند، ممکن است ترافیک به مقصد اشتباه هدایت شود.
عدم اطمینان از مسیریابی دقیق:
ا Anycast نمیتواند همیشه بهینهترین مسیر را انتخاب کند، زیرا مسیریابی BGP به پارامترهایی مانند AS Path و Local Preference بستگی دارد که همیشه لزوماً کوتاهترین یا سریعترین مسیر را نشان نمیدهند.
مثال از Anycast در عمل:
Google DNS (8.8.8.8):
آدرس IP عمومی 8.8.8.8 از طریق Anycast در نقاط مختلف جهان اعلام شده است. وقتی کاربری از هر نقطهای به این آدرس درخواست DNS میفرستد، درخواست او به نزدیکترین سرور Google DNS هدایت میشود.
Cloudflare CDN:
ا Cloudflare از Anycast برای رساندن محتوای وب از نزدیکترین سرور به کاربران استفاده میکند. در نتیجه، عملکرد وبسایتهایی که از خدمات CDN استفاده میکنند، بهبود مییابد.
نحوه پیادهسازی Anycast با BGP:
پیکربندی روترها:
ا هر سرور یا نود باید با استفاده از BGP یک مسیر برای آدرس IP مشترک (Anycast IP) اعلام کند.
به عنوان مثال، چندین روتر در ASهای مختلف میتوانند یک Prefix مشابه (مثل 203.0.113.0/24) را از طریق BGP منتشر کنند.
ا اعلام Route از چندین موقعیت جغرافیایی:
ا BGP به صورت Policy-Based Routing یا با Weighting مناسب، ترافیک را به سمت نزدیکترین نقطه هدایت میکند.
خلاصه:
ا Anycast با BGP روشی بسیار مؤثر برای افزایش سرعت، پایداری، و تحمل خطای سرویسهای شبکهای است. این روش در بسیاری از سرویسهای مهم مانند DNS، CDN و پلتفرمهای ابری استفاده میشود. با این حال، چالشهایی مثل ناپایداری مسیریابی و نیاز به مدیریت دقیق در زمان خرابی، استفاده از آن را پیچیده میکند.
#security #network #performance #bgp #anycast #net
https://t.me/unixmens
ا Anycast یک تکنیک مسیریابی شبکه است که در آن یک آدرس IP یکسان به چندین گره یا سرور اختصاص داده میشود و این گرهها میتوانند در مکانهای جغرافیایی مختلف توزیع شده باشند. در پروتکل BGP (Border Gateway Protocol)، این روش برای هدایت ترافیک به نزدیکترین یا بهینهترین نقطه در شبکه استفاده میشود.
اصول کار Anycast در BGP:
اختصاص یکسان آدرس IP: چندین سرور یا نود در نقاط مختلف دنیا یا یک شبکه، همگی یک آدرس IP یکسان را اعلام میکنند.
مسیریابی بر اساس نزدیکترین مسیر: با استفاده از BGP (پروتکل مسیریابی اینترنت)، ترافیک به نزدیکترین سرور (از نظر مسیر BGP) هدایت میشود. این نزدیکترین مسیر معمولاً کمترین هزینه یا تأخیر را دارد.
افزایش دسترسپذیری و تحمل خطا: اگر یکی از سرورها از دسترس خارج شود، پروتکل BGP بهطور خودکار ترافیک را به دیگر سرورهایی که همان آدرس IP را اعلام کردهاند، هدایت میکند.
مزایا و کاربردهای Anycast با BGP:
افزایش کارایی و کاهش تأخیر:
کاربران به نزدیکترین سرور دسترسی پیدا میکنند، که منجر به کاهش زمان تاخیر (Latency) میشود.
افزایش پایداری و تحمل خطا (Fault Tolerance):
اگر یکی از سرورها یا نودها از دسترس خارج شود، BGP بهطور خودکار به مسیرهای دیگر هدایت میشود.
این ویژگی باعث افزایش دسترسپذیری سرویس میشود.
مقیاسپذیری:
با افزایش تعداد سرورها در مکانهای مختلف، مقیاسپذیری سرویس افزایش پیدا میکند، بدون نیاز به تغییر در ساختار آدرسدهی.
استفاده در DNS و CDNها:
سرویسدهندگان DNS (مانند Google DNS یا Cloudflare) و شبکههای CDN (مانند Akamai و Cloudflare) از Anycast برای بهبود پاسخدهی و پایداری استفاده میکنند.
وقتی یک کاربر درخواست DNS میدهد، به نزدیکترین سرور Anycast هدایت میشود.
چالشهای استفاده از Anycast:
ا مسیریابی ناپایدار (Routing Instability):
به دلیل دینامیک بودن مسیریابی BGP، مسیرها ممکن است ناپایدار باشند و ترافیک بین سرورها نوسان کند.
بررسی دقیق در زمان خرابی:
اگر یک سرور از دسترس خارج شود اما BGP آن را دیرتر شناسایی کند، ممکن است ترافیک به مقصد اشتباه هدایت شود.
عدم اطمینان از مسیریابی دقیق:
ا Anycast نمیتواند همیشه بهینهترین مسیر را انتخاب کند، زیرا مسیریابی BGP به پارامترهایی مانند AS Path و Local Preference بستگی دارد که همیشه لزوماً کوتاهترین یا سریعترین مسیر را نشان نمیدهند.
مثال از Anycast در عمل:
Google DNS (8.8.8.8):
آدرس IP عمومی 8.8.8.8 از طریق Anycast در نقاط مختلف جهان اعلام شده است. وقتی کاربری از هر نقطهای به این آدرس درخواست DNS میفرستد، درخواست او به نزدیکترین سرور Google DNS هدایت میشود.
Cloudflare CDN:
ا Cloudflare از Anycast برای رساندن محتوای وب از نزدیکترین سرور به کاربران استفاده میکند. در نتیجه، عملکرد وبسایتهایی که از خدمات CDN استفاده میکنند، بهبود مییابد.
نحوه پیادهسازی Anycast با BGP:
پیکربندی روترها:
ا هر سرور یا نود باید با استفاده از BGP یک مسیر برای آدرس IP مشترک (Anycast IP) اعلام کند.
به عنوان مثال، چندین روتر در ASهای مختلف میتوانند یک Prefix مشابه (مثل 203.0.113.0/24) را از طریق BGP منتشر کنند.
ا اعلام Route از چندین موقعیت جغرافیایی:
ا BGP به صورت Policy-Based Routing یا با Weighting مناسب، ترافیک را به سمت نزدیکترین نقطه هدایت میکند.
خلاصه:
ا Anycast با BGP روشی بسیار مؤثر برای افزایش سرعت، پایداری، و تحمل خطای سرویسهای شبکهای است. این روش در بسیاری از سرویسهای مهم مانند DNS، CDN و پلتفرمهای ابری استفاده میشود. با این حال، چالشهایی مثل ناپایداری مسیریابی و نیاز به مدیریت دقیق در زمان خرابی، استفاده از آن را پیچیده میکند.
#security #network #performance #bgp #anycast #net
https://t.me/unixmens
Telegram
Academy and Foundation unixmens | Your skills, Your future
@unixmens_support
@yashar_esm
unixmens@gmail.com
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
@yashar_esm
unixmens@gmail.com
یک کانال علمی تکنولوژی
فلسفه متن باز-گنو/لینوکس-امنیت - اقتصاد
دیجیتال
Technology-driven -بیزینس های مبتنی بر تکنولوژی
Enterprise open source
ارایه دهنده راهکارهای ارتقای سازمانی - فردی - تیمی
I have honed my expertise in digital sovereignty in recent years largely as a result of it being one of the things our EMEA-based partners and customers always ask about. There is no one unifying reason for this increased interest in digital sovereignty, but rather several converging factors are accelerating its urgency.The most obvious is geopolitical instability. Sanctions and trade wars continue to disrupt global business operations. As reported, a coalition of nearly 100 organisations has urged European Commission leaders to establish a dedicated fund for building technological independenc
via Red Hat Blog https://ift.tt/Jw4PClL
via Red Hat Blog https://ift.tt/Jw4PClL
Redhat
Digital Sovereignty is far more than compliance
Organisations cannot afford to take a wait-and-see approach when it comes to establishing their digital future. Sovereignty laws will evolve, but resilience is permanent. Digital sovereignty isn’t just a regulatory obligation, it’s a strategic imperative…
Red Hat OpenShift sandboxed containers 1.10 has been released, bringing enhanced security and isolation capabilities to your Red Hat OpenShift environments. This marks the general availability of confidential containers on Microsoft Azure, and introduces the new Red Hat build of Trustee, which provides attestation services so your confidential workloads can run with integrity in the cloud. OpenShift sandboxed containers delivers a lightweight and powerful way to run workloads in isolation. Confidential containers add an additional layer for hardware-protected environments, leveraging Trusted E
via Red Hat Blog https://ift.tt/GpTXtIx
via Red Hat Blog https://ift.tt/GpTXtIx
Redhat
Confidential containers on Microsoft Azure with Red Hat OpenShift Sandboxed Containers 1.10 and Red Hat Build of Trustee
Red Hat OpenShift sandboxed containers 1.10 has been released, bringing enhanced security and isolation capabilities to your Red Hat OpenShift environments.
OpenShift confidential containers (Coco) is now generally available for Microsoft Azure. You can extend the security capabilities of Red Hat OpenShift by using OpenShift confidential containers, which allows you to deploy and manage confidential workloads with enhanced data protection and integrity. This release marks a significant milestone, providing a robust solution for enterprises seeking to protect sensitive applications and data on Azure. It addresses critical security concerns by isolating workloads within a hardware-protected trusted execution environment, helping ensure that data re
via Red Hat Blog https://ift.tt/JqroknC
via Red Hat Blog https://ift.tt/JqroknC
Redhat
Deploy sensitive workloads with OpenShift confidential containers
You can extend the security capabilities of Red Hat OpenShift by using OpenShift confidential containers
We’re proud to announce that Forrester Research has recognized Red Hat OpenShift as a Leader in The Forrester Wave™: Multicloud Container Platforms, Q3 2025. Red Hat received the highest possible scores across 27 criteria and scored the highest in both the current offering and strategy categories. To us, this recognizes the strong execution and market presence of OpenShift, built on a history of standardizing Kubernetes across cloud, core and edge environments. What is The Forrester Wave™?The Forrester Wave offers guidance to prospective buyers navigating a technology market, drawing up
via Red Hat Blog https://ift.tt/LTo97jv
via Red Hat Blog https://ift.tt/LTo97jv
Redhat
Red Hat named a Leader in The Forrester Wave™: Multicloud Container Platforms, Q3 2025
Red Hat OpenShift recognized as a Leader in The Forrester Wave™: Multicloud Container Platforms, Q3 2025. Highest scores in 27 criteria, top in current offering and strategy. Learn why in the full report: https://www.redhat.com/resources/forrester-wave-multicloud…
❤1