متخصصان علم داده ها data scientists
1.35K subscribers
1.22K photos
206 videos
190 files
419 links
ارتباط با ادمین @IDataScientist
صفحه لینکدین
https://www.linkedin.com/groups/6728779/
Download Telegram
🏷 Deep Think Vs. Deep Search Vs. Deep Research

#ChatGPT
#DeepSearch

@toobabigdatascience
متخصصان علم داده ها data scientists
🏷 Deep Think Vs. Deep Search Vs. Deep Research #ChatGPT #DeepSearch @toobabigdatascience
نکته: قابلیت Deep Research که توسط گوگل معرفی شد و OpenAi آنرا زودتر کپی کرد و با قیمت (فکر کنم حدود ۲۰ دلار ) به کاربران اجازه دسترسی به آن را داد. اکنون برای کاربرهای Gemini رایگان شده است.
#DeepResearch
@toobabigdatascience
ALL.pdf
14.5 MB
#Research

Learning to Localize Leakage of Cryptographic Sensitive Variables

🔐در حالی که الگوریتمهای رمزنگاری مانندالگوریتم رمزنگاری استاندارد پیشرفته (AES) که به طور گسترده استفاده می شوند، امن هستند، در عین حال پیاده سازی هاي سخت‌افزاري این الگوریتمها به‌طور اجتناب‌ناپذیری اطلاعات حساس مانند #کلید های #رمزنگاری را «نشت» میدهند.
یک شکل به‌خصوص خطرناک از نشت، ناشی از این واقعیت است که سخت‌افزار پیاده سازی شده ، به گونه‌ای انرژی مصرف میکند و تشعشعات ساطع می‌نمايد که از نظر آماری با داده های پردازش شده و دستورالعملهای اجراشده مرتبط است.
یادگیری عمیق نظارت‌شده به عنوان یک ابزار پیشرفته برای انجام "حملات کانال جانبی" مطرح شده است که با یادگیریِ نگاشتِ اندازه گیری‌های ِمصرفِ انرژی/تشعشعات در طول فرایند رمزگذاری به داده های حساس استفاده شده در آن رمزگذاری، از این نشت داده سوءاستفاده میکنند.
روشی که در این مقاله برای جلوگیری از نشت کلیدهای رمزنگاری ارائه شده است، برای طراحان سخت‌افزارهای رمزنگاری جهت درک دلیل نشت دیتا و چگونگی کاهش آن بسیار ارزشمند است.
#cryptography
#DataLeak
#AES
@toobabigdatascience
🦚امام حسن(ع):

"صاحِبِ النّاسَ مِثلَ ما تُحِبُّ أن يُصاحِبوكَ بهِ.

با مردم آن گونه رفتار كن كه دوست دارى با تو رفتار كنند.
📚أعلام الدين ؛ص ۲۹۷

@toobabigdatascience
This media is not supported in your browser
VIEW IN TELEGRAM
♨️رونمایی شبکه سه سیما، از نخستین مجری هوش مصنوعی!

#AI
@toobabigdatascience
This media is not supported in your browser
VIEW IN TELEGRAM
𝗛𝗼𝘄 𝘁𝗼 𝗕𝘂𝗶𝗹𝗱 𝗬𝗼𝘂𝗿 𝗙𝗶𝗿𝘀𝘁 𝗠𝗮𝗰𝗵𝗶𝗻𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 𝗠𝗼𝗱𝗲𝗹?

#ML
#AI
@toobabigdatascience
This media is not supported in your browser
VIEW IN TELEGRAM
𝗧𝗵𝗲 𝗚𝗲𝗻𝗲𝗿𝗮𝘁𝗶𝘃𝗲 𝗔𝗜 𝗦𝘁𝗮𝗰𝗸 ↓

💵Critical Infrastructure Components for 2025

↠ 1. Data Layer
→ Purpose: Provides raw data for training and inference.
→ Examples: Data Lakes (e.g., S3, GCS), Data Warehouses (e.g., BigQuery, Snowflake), Vector Databases (e.g., Pinecone, Weaviate).

↠ 2. Model Layer
→ Purpose: Handles model training, fine-tuning, and inference.
→ Examples: Pre-trained models (GPT, LLaMA), Custom models on frameworks (PyTorch, TensorFlow).

↠ 3. Feature Store
→ Purpose: Central repository to store, share, and reuse features for ML models.
→ Examples: Vertex AI Feature Store, Feast.

↠ 4. Training Infrastructure
→ Purpose: Executes large-scale training efficiently.
→ Examples: GPUs (NVIDIA), TPUs (Google), Distributed Compute (Ray, Spark).

↠ 5. Deployment Layer
→ Purpose: Facilitates hosting and scaling AI applications.
→ Examples: Kubernetes (K8s), Docker, Cloud Services (AWS SageMaker, Azure ML).

↠ 6. Monitoring & Observability
→ Purpose: Tracks model performance, drift, and ensures reliability.
متخصصان علم داده ها data scientists
𝗧𝗵𝗲 𝗚𝗲𝗻𝗲𝗿𝗮𝘁𝗶𝘃𝗲 𝗔𝗜 𝗦𝘁𝗮𝗰𝗸 ↓ 💵Critical Infrastructure Components for 2025 ↠ 1. Data Layer → Purpose: Provides raw data for training and inference. → Examples: Data Lakes (e.g., S3, GCS), Data Warehouses (e.g., BigQuery, Snowflake), Vector Databases (e.g., Pinecone…
→ Examples: Arize AI, Evidently AI, Prometheus, Grafana.

↠ 7. Application Layer
→ Purpose: Builds user-facing generative AI applications.
→ Examples: Chatbots, Image Generators, Text-to-Speech tools.

↠ 8. Governance & Security
→ Purpose: Ensures compliance, security, and ethical use.
→ Examples: Responsible AI Frameworks, Identity Access Management (IAM).

↠ 9. MLOps Integration
→ Purpose: Automates CI/CD pipelines, ensuring continuous delivery of updates.
→ Examples: Kubeflow, MLflow, Airflow.

#GenerativeAI
#AI
@toobabigdatascience
This media is not supported in your browser
VIEW IN TELEGRAM
♨️𝗖𝗼𝗻𝘁𝗶𝗻𝘂𝗼𝘂𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝗻𝗴 𝗶𝗻 𝗠𝗮𝗰𝗵𝗶𝗻𝗲 𝗟𝗲𝗮𝗿𝗻𝗶𝗻𝗴 ↓

𝗪𝗵𝗮𝘁 𝗶𝘀 𝗖𝗼𝗻𝘁𝗶𝗻𝘂𝗼𝘂𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝗻𝗴? ↓

↬ It involves integrating fresh, real-time data into training pipelines to keep models updated.
↬ Essential for applications like fraud detection, recommendation systems, and self-driving cars, where patterns evolve rapidly.

♨️𝗪𝗵𝘆 𝗶𝘀 𝗶𝘁 𝗖𝗿𝗶𝘁𝗶𝗰𝗮𝗹? ↓

↠ Avoids Model Drift: Models lose accuracy if the underlying data distribution shifts over time (concept drift).
↠ Improves Predictions: Updated models perform better by learning new patterns and behaviors.
↠ Ensures Scalability: Handles ever-growing datasets effectively, keeping the system robust.

𝗦𝘁𝗲𝗽𝘀 𝗶𝗻 𝗮 𝗖𝗼𝗻𝘁𝗶𝗻𝘂𝗼𝘂𝘀 𝗧𝗿𝗮𝗶𝗻𝗶𝗻𝗴 𝗣𝗶𝗽𝗲𝗹𝗶𝗻𝗲 ↓

1. Data Collection & Preprocessing
↬ Stream new data from production systems, clean and transform it.
2. Feature Engineering
↬ Generate features using automated pipelines (e.g., Feature Stores).
3. Model Training
↬ Train or fine-tune the model with the updated dataset.