متخصصان علم داده ها data scientists
🏷 Deep Think Vs. Deep Search Vs. Deep Research #ChatGPT #DeepSearch @toobabigdatascience
نکته: قابلیت
#DeepResearch
@toobabigdatascience
Deep Research که توسط گوگل معرفی شد و OpenAi آنرا زودتر کپی کرد و با قیمت (فکر کنم حدود ۲۰ دلار ) به کاربران اجازه دسترسی به آن را داد. اکنون برای کاربرهای Gemini رایگان شده است.#DeepResearch
@toobabigdatascience
ALL.pdf
14.5 MB
#Research
Learning to Localize Leakage of Cryptographic Sensitive Variables
🔐در حالی که الگوریتمهای رمزنگاری مانندالگوریتم رمزنگاری استاندارد پیشرفته (AES) که به طور گسترده استفاده می شوند، امن هستند، در عین حال پیاده سازی هاي سختافزاري این الگوریتمها بهطور اجتنابناپذیری اطلاعات حساس مانند #کلید های #رمزنگاری را «نشت» میدهند.
یک شکل بهخصوص خطرناک از نشت، ناشی از این واقعیت است که سختافزار پیاده سازی شده ، به گونهای انرژی مصرف میکند و تشعشعات ساطع مینمايد که از نظر آماری با داده های پردازش شده و دستورالعملهای اجراشده مرتبط است.
یادگیری عمیق نظارتشده به عنوان یک ابزار پیشرفته برای انجام "حملات کانال جانبی" مطرح شده است که با یادگیریِ نگاشتِ اندازه گیریهای ِمصرفِ انرژی/تشعشعات در طول فرایند رمزگذاری به داده های حساس استفاده شده در آن رمزگذاری، از این نشت داده سوءاستفاده میکنند.
روشی که در این مقاله برای جلوگیری از نشت کلیدهای رمزنگاری ارائه شده است، برای طراحان سختافزارهای رمزنگاری جهت درک دلیل نشت دیتا و چگونگی کاهش آن بسیار ارزشمند است.
#cryptography
#DataLeak
#AES
@toobabigdatascience
Learning to Localize Leakage of Cryptographic Sensitive Variables
🔐در حالی که الگوریتمهای رمزنگاری مانندالگوریتم رمزنگاری استاندارد پیشرفته (AES) که به طور گسترده استفاده می شوند، امن هستند، در عین حال پیاده سازی هاي سختافزاري این الگوریتمها بهطور اجتنابناپذیری اطلاعات حساس مانند #کلید های #رمزنگاری را «نشت» میدهند.
یک شکل بهخصوص خطرناک از نشت، ناشی از این واقعیت است که سختافزار پیاده سازی شده ، به گونهای انرژی مصرف میکند و تشعشعات ساطع مینمايد که از نظر آماری با داده های پردازش شده و دستورالعملهای اجراشده مرتبط است.
یادگیری عمیق نظارتشده به عنوان یک ابزار پیشرفته برای انجام "حملات کانال جانبی" مطرح شده است که با یادگیریِ نگاشتِ اندازه گیریهای ِمصرفِ انرژی/تشعشعات در طول فرایند رمزگذاری به داده های حساس استفاده شده در آن رمزگذاری، از این نشت داده سوءاستفاده میکنند.
روشی که در این مقاله برای جلوگیری از نشت کلیدهای رمزنگاری ارائه شده است، برای طراحان سختافزارهای رمزنگاری جهت درک دلیل نشت دیتا و چگونگی کاهش آن بسیار ارزشمند است.
#cryptography
#DataLeak
#AES
@toobabigdatascience
🦚امام حسن(ع):
"صاحِبِ النّاسَ مِثلَ ما تُحِبُّ أن يُصاحِبوكَ بهِ" .
با مردم آن گونه رفتار كن كه دوست دارى با تو رفتار كنند.
📚أعلام الدين ؛ص ۲۹۷
@toobabigdatascience
"صاحِبِ النّاسَ مِثلَ ما تُحِبُّ أن يُصاحِبوكَ بهِ" .
با مردم آن گونه رفتار كن كه دوست دارى با تو رفتار كنند.
📚أعلام الدين ؛ص ۲۹۷
@toobabigdatascience
https://www.linkedin.com/posts/khoshnoodiiust_2fa-infosec-cybersecurity-activity-7307424200435101699-RHRr?utm_source=share&utm_medium=member_android&rcm=ACoAABJytlwBtzZe9vFCGnAnWMDnSjRU2wSsbEc
مراقب اطلاعات شخصی که روی شبکه های اجتماعی به اشتراک می گذارید، باشید...
در این ویدئو می بینیم که خانم سارینا عبدالله!!!ِ نوعی🤓 چگونه با همین اطلاعات ، دچار مشکل می شود...
#infosec
#cybersecurity
#ایمن_بمانید
مراقب اطلاعات شخصی که روی شبکه های اجتماعی به اشتراک می گذارید، باشید...
در این ویدئو می بینیم که خانم سارینا عبدالله!!!ِ نوعی🤓 چگونه با همین اطلاعات ، دچار مشکل می شود...
#infosec
#cybersecurity
#ایمن_بمانید
Linkedin
#2fa #infosec #cybersecurity #socialsecurity #vulnerabilities #privacy… | Ahmad Khoshnoodi✅
🔐Protecting your information on social networks is crucial to safeguard your privacy, security, reputation, and well-being.
🛡How to Protect Your…
🛡How to Protect Your…
This media is not supported in your browser
VIEW IN TELEGRAM
𝗧𝗵𝗲 𝗚𝗲𝗻𝗲𝗿𝗮𝘁𝗶𝘃𝗲 𝗔𝗜 𝗦𝘁𝗮𝗰𝗸 ↓
💵Critical Infrastructure Components for 2025
↠ 1. Data Layer
→ Purpose: Provides raw data for training and inference.
→ Examples: Data Lakes (e.g., S3, GCS), Data Warehouses (e.g., BigQuery, Snowflake), Vector Databases (e.g., Pinecone, Weaviate).
↠ 2. Model Layer
→ Purpose: Handles model training, fine-tuning, and inference.
→ Examples: Pre-trained models (GPT, LLaMA), Custom models on frameworks (PyTorch, TensorFlow).
↠ 3. Feature Store
→ Purpose: Central repository to store, share, and reuse features for ML models.
→ Examples: Vertex AI Feature Store, Feast.
↠ 4. Training Infrastructure
→ Purpose: Executes large-scale training efficiently.
→ Examples: GPUs (NVIDIA), TPUs (Google), Distributed Compute (Ray, Spark).
↠ 5. Deployment Layer
→ Purpose: Facilitates hosting and scaling AI applications.
→ Examples: Kubernetes (K8s), Docker, Cloud Services (AWS SageMaker, Azure ML).
↠ 6. Monitoring & Observability
→ Purpose: Tracks model performance, drift, and ensures reliability.
💵Critical Infrastructure Components for 2025
↠ 1. Data Layer
→ Purpose: Provides raw data for training and inference.
→ Examples: Data Lakes (e.g., S3, GCS), Data Warehouses (e.g., BigQuery, Snowflake), Vector Databases (e.g., Pinecone, Weaviate).
↠ 2. Model Layer
→ Purpose: Handles model training, fine-tuning, and inference.
→ Examples: Pre-trained models (GPT, LLaMA), Custom models on frameworks (PyTorch, TensorFlow).
↠ 3. Feature Store
→ Purpose: Central repository to store, share, and reuse features for ML models.
→ Examples: Vertex AI Feature Store, Feast.
↠ 4. Training Infrastructure
→ Purpose: Executes large-scale training efficiently.
→ Examples: GPUs (NVIDIA), TPUs (Google), Distributed Compute (Ray, Spark).
↠ 5. Deployment Layer
→ Purpose: Facilitates hosting and scaling AI applications.
→ Examples: Kubernetes (K8s), Docker, Cloud Services (AWS SageMaker, Azure ML).
↠ 6. Monitoring & Observability
→ Purpose: Tracks model performance, drift, and ensures reliability.
متخصصان علم داده ها data scientists
𝗧𝗵𝗲 𝗚𝗲𝗻𝗲𝗿𝗮𝘁𝗶𝘃𝗲 𝗔𝗜 𝗦𝘁𝗮𝗰𝗸 ↓ 💵Critical Infrastructure Components for 2025 ↠ 1. Data Layer → Purpose: Provides raw data for training and inference. → Examples: Data Lakes (e.g., S3, GCS), Data Warehouses (e.g., BigQuery, Snowflake), Vector Databases (e.g., Pinecone…
→ Examples: Arize AI, Evidently AI, Prometheus, Grafana.
↠ 7. Application Layer
→ Purpose: Builds user-facing generative AI applications.
→ Examples: Chatbots, Image Generators, Text-to-Speech tools.
↠ 8. Governance & Security
→ Purpose: Ensures compliance, security, and ethical use.
→ Examples: Responsible AI Frameworks, Identity Access Management (IAM).
↠ 9. MLOps Integration
→ Purpose: Automates CI/CD pipelines, ensuring continuous delivery of updates.
→ Examples: Kubeflow, MLflow, Airflow.
#GenerativeAI
#AI
@toobabigdatascience
↠ 7. Application Layer
→ Purpose: Builds user-facing generative AI applications.
→ Examples: Chatbots, Image Generators, Text-to-Speech tools.
↠ 8. Governance & Security
→ Purpose: Ensures compliance, security, and ethical use.
→ Examples: Responsible AI Frameworks, Identity Access Management (IAM).
↠ 9. MLOps Integration
→ Purpose: Automates CI/CD pipelines, ensuring continuous delivery of updates.
→ Examples: Kubeflow, MLflow, Airflow.
#GenerativeAI
#AI
@toobabigdatascience
This media is not supported in your browser
VIEW IN TELEGRAM
♨️𝗖𝗼𝗻𝘁𝗶𝗻𝘂𝗼𝘂𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝗻𝗴 𝗶𝗻 𝗠𝗮𝗰𝗵𝗶𝗻𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 ↓
𝗪𝗵𝗮𝘁 𝗶𝘀 𝗖𝗼𝗻𝘁𝗶𝗻𝘂𝗼𝘂𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝗻𝗴? ↓
↬ It involves integrating fresh, real-time data into training pipelines to keep models updated.
↬ Essential for applications like fraud detection, recommendation systems, and self-driving cars, where patterns evolve rapidly.
♨️𝗪𝗵𝘆 𝗶𝘀 𝗶𝘁 𝗖𝗿𝗶𝘁𝗶𝗰𝗮𝗹? ↓
↠ Avoids Model Drift: Models lose accuracy if the underlying data distribution shifts over time (concept drift).
↠ Improves Predictions: Updated models perform better by learning new patterns and behaviors.
↠ Ensures Scalability: Handles ever-growing datasets effectively, keeping the system robust.
𝗦𝘁𝗲𝗽𝘀 𝗶𝗻 𝗮 𝗖𝗼𝗻𝘁𝗶𝗻𝘂𝗼𝘂𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝗻𝗴 𝗣𝗶𝗽𝗲𝗹𝗶𝗻𝗲 ↓
1. Data Collection & Preprocessing
↬ Stream new data from production systems, clean and transform it.
2. Feature Engineering
↬ Generate features using automated pipelines (e.g., Feature Stores).
3. Model Training
↬ Train or fine-tune the model with the updated dataset.
𝗪𝗵𝗮𝘁 𝗶𝘀 𝗖𝗼𝗻𝘁𝗶𝗻𝘂𝗼𝘂𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝗻𝗴? ↓
↬ It involves integrating fresh, real-time data into training pipelines to keep models updated.
↬ Essential for applications like fraud detection, recommendation systems, and self-driving cars, where patterns evolve rapidly.
♨️𝗪𝗵𝘆 𝗶𝘀 𝗶𝘁 𝗖𝗿𝗶𝘁𝗶𝗰𝗮𝗹? ↓
↠ Avoids Model Drift: Models lose accuracy if the underlying data distribution shifts over time (concept drift).
↠ Improves Predictions: Updated models perform better by learning new patterns and behaviors.
↠ Ensures Scalability: Handles ever-growing datasets effectively, keeping the system robust.
𝗦𝘁𝗲𝗽𝘀 𝗶𝗻 𝗮 𝗖𝗼𝗻𝘁𝗶𝗻𝘂𝗼𝘂𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝗻𝗴 𝗣𝗶𝗽𝗲𝗹𝗶𝗻𝗲 ↓
1. Data Collection & Preprocessing
↬ Stream new data from production systems, clean and transform it.
2. Feature Engineering
↬ Generate features using automated pipelines (e.g., Feature Stores).
3. Model Training
↬ Train or fine-tune the model with the updated dataset.