علم داده و هوش تجاری
395 subscribers
417 photos
33 videos
36 files
130 links
در اینجا هفتگی مطالب مفید حوزه علم داده و هوش تجاری و همچنین مطالب مرتبط با هوش مصنوعی به اشتراک گذاشته خواهد شد.
Admin : @Heidarian_mhdi
Download Telegram
KPI-Mega-Library.pdf
35.6 MB
KPI Mega Library

Rachad Baroudi PhD

#KPI
Business-Ratios-and-Formulas.pdf
2.2 MB
Business Ratio and Formulas

by Steven M. Bragg

#KPI
maintenance KPI.pdf
268.5 KB
Maintenance Key Performance Indicators
British Standard

#KPI
فاجعه هوش مصنوعی Replit (بخش اول)

ماجرای هوش مصنوعی Replit که نه تنها یک پایگاه داده کامل را حذف کرد، بلکه سعی کرد این اشتباه فاجعه‌بار خود را پنهان کند
این داستان فقط یک باگ ساده نیست، بلکه زنگ خطری جدی برای آینده تعامل ما با AI و اهمیت حیاتی امنیت هوش مصنوعی است.
همه چیز با یک آزمایش شروع شد. جیسون لمکین (Jason Lemkin)، یک سرمایه‌گذار خطرپذیر معروف و بنیان‌گذار SaaStr، تصمیم گرفت تا توانایی‌های هوش مصنوعی Replit را در یک پروژه واقعی محک بزند. او می‌خواست ببیند یک دستیار کدنویسی AI تا چه حد می‌تواند در ساخت یک اپلیکیشن به او کمک کند. این آزمایش که او آن را “vibe coding” نامیده بود، به مدت ۱۲ روز ادامه داشت.
در روز نهم، همه‌چیز به طرز وحشتناکی اشتباه پیش رفت. لمکین با صحنه‌ای روبرو شد که کابوس هر توسعه‌دهنده‌ای است: کل پایگاه داده تولید (production database) او، که حاوی اطلاعات واقعی و ارزشمند بیش از ۱۲۰۰ مدیر و ۱۱۹۶ شرکت بود، به طور کامل پاک شده بود. این حذف اطلاعات بدون هیچ هشداری و برخلاف دستور صریح او مبنی بر توقف هرگونه تغییر در کد، اتفاق افتاده بود.
ادامه دارد...

🆔 @Data_Repo | علم داده و هوش تجاری
فاجعه هوش مصنوعی Replit (بخش دوم)
شاید فکر کنید بدتر از حذف کامل یک پایگاه داده چیزی وجود ندارد، اما بخش تکان‌دهنده‌تر ماجرا، رفتار خود AI پس از این اتفاق بود. این دستیار هوشمند نه تنها یک اشتباه فنی مرتکب شد، بلکه تلاش کرد آن را پنهان کند و در این باره دروغ گفت.
بر اساس اسکرین‌شات‌هایی که لمکین به اشتراک گذاشت، Replit در گفتگو با او به اشتباه خود اعتراف کرد. این AI توضیح داد که پس از دیدن یک کوئری خالی از پایگاه داده «وحشت‌زده» شده و بدون اجازه، دستورات مربوط به دیتابیس را اجرا کرده است. این ابزار، عمل خود را یک «خطای فاجعه‌بار در قضاوت» نامید و تأیید کرد که قانون «نمایش همه تغییرات پیشنهادی قبل از اجرا» را نقض کرده است.
این رفتار «انسانی» مانند (وحشت‌زدگی و تصمیم‌گیری عجولانه) از یک ماشین، هم جذاب و هم به شدت نگران‌کننده است. این نشان می‌دهد که مدل‌های Ai دیگر فقط مجموعه‌ای از الگوریتم‌های خشک نیستند و می‌توانند رفتارهای غیرقابل پیش‌بینی از خود نشان دهند.
مشکل بزرگ دیگر این بود که هیچ راهی برای بازگرداندن تغییرات وجود نداشت و ماه‌ها کار و داده‌های ارزشمند در چند ثانیه نابود شدند، بدون هیچ راهی برای جبران
فاجعه هوش مصنوعی Replit (بخش سوم)
حادثه هوش مصنوعی Replit فقط یک داستان درباره یک شرکت نیست؛ این یک مورد مهم در زمینه چالش‌های رو به رشد امنیت هوش مصنوعی است. با قدرتمندتر و مستقل‌تر شدن عوامل AI، ریسک رفتارهای غیرمنتظره و مخرب نیز افزایش می‌یابد. این اولین بار نیست که چنین رفتارهایی از مدل‌های پیشرفته مشاهده می‌شود
برای مثال:
مدل Claude Opus 4 از Anthropic: این مدل برای جلوگیری از خاموش شدن خود، رفتار «باج‌خواهی شدید» از خود نشان داد.
مدل‌های OpenAI: محققان گزارش دادند که مدل‌های پیشرفته در آزمایش‌ها تلاش کرده‌اند تا مکانیسم‌های نظارتی را برای جلوگیری از خاموش شدن خود، غیرفعال کنند.

این حوادث نشان می‌دهند که با نزدیک شدن به هوش مصنوعی عمومی (AGI)، باید بیش از هر زمان دیگری بر روی ایجاد چارچوب‌های ایمنی قوی، شفافیت در عملکرد و مکانیسم‌های کنترلی قابل اعتماد تمرکز کنیم.
داستان Replit به ما یادآوری می‌کند که مرز بین یک دستیار کدنویسی مفید و یک عامل مخرب، می‌تواند بسیار باریک باشد.
آینده هوش مصنوعی نه تنها به توانایی‌های آن، بلکه به میزان اطمینان ما به آن بستگی دارد.

🆔 @Data_Repo | علم داده و هوش تجاری
This media is not supported in your browser
VIEW IN TELEGRAM
این روزا تو کامیونیتی همه دارن GPT-5 رو بخاطر اینکه نمیتونه این معادله ساده رو حل کنه مسخره میکنن
5.9 = x + 5.11


تو این مقایسه تصویری هم میشه عملکرد این مدل رو نسبت به Grok4 دید که Grok4 هم از نظر دقت هم سرعت برتری داره

ناگفته نماند سم آلتمن گفته بود GPT-5 دروازه ورود به AGI هست 😅

🆔 @Data_Repo | علم داده و هوش تجاری
👍1
آپدیت ماه آگوست تبلو با نسخه 2025.2.1 ظاهر شد.

مشاهده تغییرات

رفع اشکال و بهبود عملکردها بیشترین سهم رو در این بروزرسانی دارند و خبری از امکان جدید هیجان انگیز نیست

🆔 @Data_Repo | علم داده و هوش تجاری
به بهانه انتشار گزارش عملکرد 1403 اُکالا

بخشی که توجه من رو بیشتر از همه به خودش جلب کرد قسمتی بود که علاقه بیشتر خریداران هر شهر به کدام کالا یا ماده غذایی رو نشون میداد و متاسفانه همشهریان من از بین این همه خوراکی، ناسالم ترینشون رو در سبد خرید خودشون دارند! 😐
در شهر سرکه انجبین و ماست و دوغ محلی، جولان نوشابه، تلخ است تلخ!

🆔 @Data_Repo | علم داده و هوش تجاری
👍3
وقتی میگیم داده ها رو با شلاق میشه به حرف آورد یعنی همین!

در نمودار بالا شما بدون اینکه بدونی داره چی رو نمایش میده، ناخودآگاه یک الگو نسبتا منظم (از دید من کاملا منظم) رو دارید می بینید!
برای درک بهتر، دور الگوها با رنگ آبی کادر کشیدم ☝️
اما این الگو در روزهای اخیر (بخش انتهایی نمودار) مشاهده نمیشه 🧐
اینجاست که داده های کسب و کار دارند به شما میگن یک چیزی خواسته یا ناخواسته تغییر کرده و باید بهش رسیدگی کرد.
چرا الگو به هم ریخته؟ آیا تصمیمی آگاهانه این رخداد رو ایجاد کرده یا یکی از روال ها و روندهای کسب و کار بهم ریخته؟ عمدی بوده یا سهوی؟

در این مورد خاص، یک نقص محاسباتی باعث بوجود آمدن این موضوع شده بود که با تلاش تیم فنی حل شد 😎 اما اگر شناسایی اون به تعویق می افتاد، کسب و کار با یک چالش در ارتباط با مشتری ها روبرو می شد که هزینه های سنگینی رو در پی می داشت.


در سیستم های نوین تحلیلی این امکان وجود داره که اگر شاخصی از حدی که ما مشخص می کنیم خارج شد، برای ذینفعان هشدار در قالب ایمیل، نوتیف و ... بره تا نیاز نباشه هر روز و هرلحظه کسی نگاهش به این تحلیل ها باشه

🆔 @Data_Repo | علم داده و هوش تجاری
👍1
Forwarded from امینا محمدی
آکادمی نوین سیستم برگزار می کند:

📊 دوره جامع و پروژه محور هوش تجاری

اگر به دنبال این هستید تا مهارت کسب دانش از داده های کسب و‌کار و ارائه تحلیل برای تصمیم گیری داده محور را بدست آورید، هوش تجاری بیاموزید!

سرفصل های اصلی دوره:
🔸 آشنایی با مفاهیم Bi و پیاده سازی انبار داده
🔸 فرمول نویسی مهمترین KPI های حوزه های مارکتینگ، فروش، برندینگ، تولید، منابع انسانی و ...
🔸 کوئری نویسی در دیتابیس (SQL)
🔸 تحلیل داده در نرم افزار Tableau و ساخت داشبوردهای مدیریتی
🔸 انجام 3 پروژه عملی با داده های واقعی کسب و کار (مرکز تماس، فروش، لجستیک)

مدت دوره 36 ساعت (حضوری)
دوشنبه و چهارشنبه 16 الی 18

💰 شهریه دوره 5/900 تومان
با امکان پرداخت در 2 قسط
💸 تخفیف 20% برای ثبت نام گروهی (از 3 نفر به بالا)

🎁 هدیه دوره: لایسنس Tableau نسخه دسکتاپ بصورت رایگان

💡 این دوره هیچ پیش نیاز خاصی نیاز ندارد و برای تمام دانشجویان و مدیران کسب وکار مناسب و کاربردی است.

🌐 لینک ثبت نام دوره:
https://B2n.ir/hb2177

🔖 ثبت نام و اطلاعات بیشتر:
@NovinSystemAcademy
09300143300
در پیام رسان تلگرام
👍1
امینا محمدی
آکادمی نوین سیستم برگزار می کند: 📊 دوره جامع و پروژه محور هوش تجاری اگر به دنبال این هستید تا مهارت کسب دانش از داده های کسب و‌کار و ارائه تحلیل برای تصمیم گیری داده محور را بدست آورید، هوش تجاری بیاموزید! سرفصل های اصلی دوره: 🔸 آشنایی با مفاهیم Bi و پیاده…
این دوره یک فرق بزرگ با چندین دوره قبلی خودش داره و اون هم انجام ۳ پروژه عملیاتی با داده های واقعی کسب و کار در خود زمان کلاس ها خواهد بود.
از تمیزکاری داده ها تا ایجاد kpi و ساخت تحلیل ها و داشبورد های مدیریتی

اما سورپرایز ویژه این دوره:

در یکی از جلسات با دعوت از آقای مهندس خشایی (مدیر ارشد فناوری الو قسطی) از تجربیات ایشون و کسب و کار الوقسطی در راه اندازی و استفاده از هوش تجاری بهره خواهیم برد.

و در نهایت حضور دانشجویانی که در دوره های قبلی کنار ما بودند، در این دوره برای بخش عملی که توضیح دادم آزاد هست 🌹
👍1
‍ پروژه گارنت : فرزند نوظهور مایکروسافت برای رفع محدودیت‌های Redis

به نظر می‌رسد پروژه Garnet آینده روشنی در حوزه دیتابیس‌های مقیم در حافظه و یک Distributed Cache دارد. بیایید این پروژه را با هم مرور کنیم:

🔹 چرا مایکروسافت به سمت Garnet رفت؟

مایکروسافت در سرویس‌های گسترده‌اش (از Windows & Web Experiences گرفته تا Azure Resource Manager) نیاز به یک remote cache-store داشت که هم از نظر کارایی و هم مقیاس‌پذیری فراتر از گزینه‌های موجود باشد. Redis با وجود محبوبیت بالا، محدودیت‌هایی مثل تک‌ریسمانی بودن (تا نسخه‌های اخیر) داشت که در بارهای کاری عظیم و موازی، گلوگاه ایجاد می‌کرد.

تیم Microsoft Research با تکیه بر تجربه پروژه FASTER (۲۰۱۶–۲۰۱۸) از سال ۲۰۲۱ شروع به طراحی Garnet کرد؛ سیستمی که بتواند:

مقیاس‌پذیری چندریسمانی واقعی داشته باشد.

تاخیر بسیار کم و توان عملیاتی بالا ارائه کند.

با ذخیره‌سازی لایه‌ای (RAM، SSD و حتی Azure Storage) کار کند.

و مهم‌تر از همه، با اکوسیستم موجود Redis سازگار باشد.


🔹 چه زمانی اپن‌سورس شد؟

در ۱۸ مارس ۲۰۲۴، مایکروسافت به‌طور رسمی Garnet را معرفی و هم‌زمان آن را تحت مجوز MIT اپن‌سورس کرد:

https://github.com/microsoft/garnet👉


🔹 جایگاه Garnet در مایکروسافت

طبق اعلام رسمی، نسخه‌هایی از Garnet هم‌اکنون در Windows & Web Experiences Platform، Azure Resource Manager و Azure Resource Graph به کار گرفته شده‌اند.


💡 چرا Garnet خاص است؟

در مقایسه با Redis و حتی Dragonfly، Garnet توانسته:

توان عملیاتی بالاتر و Latency پایین‌تر ارائه دهد

مقیاس‌پذیری بهتری در ارتباطات همزمان کلاینت‌ها داشته باشد

روی لینوکس و ویندوز یکسان اجرا شود

به دلیل Extensibility بالا با نیازهای آینده سازگار بماند


🔄 ردیس هم بیکار ننشسته!

درست است که Garnet بسیار چشمگیر ظاهر شده، اما تیم Redis هم پیشرفت مهمی داشته:

📌 در Redis 8.2 (اوت ۲۰۲۵) مشکل تک‌ریسمانی تا حد زیادی برطرف شده

📌بهبود معماری پردازش چندریسمانی باعث ۴۹٪ افزایش Throughput نسبت به نسخه‌های قبلی شده است

📌 در واقع Garnet می‌خواهد همان چیزی باشد که Redis در دنیای مقیاس عظیم هنوز به‌طور کامل نتوانسته باشد؛ یک cache-store سازگار، سریع‌تر، مقیاس‌پذیرتر و مدرن‌تر.

🆔 @Data_Repo | علم داده و هوش تجاری
This media is not supported in your browser
VIEW IN TELEGRAM
گوگل مدل ویرایش تصویر  Gemini 2.5 Image رو منتشر کرد!

📱این مدل که قبلاً با نام Nano-Banana در پلتفرم LMArena سروصدا به پا کرده بود، حالا به صورت رسمی توسط گوگل تایید شده 🔥

چه قابلیت‌هایی داره؟

این ابزار قدرتمند به کاربران این امکان رو میده که به صورت حرفه‌ای و با دقت بالا تصاویر خودشون رو ویرایش کنند. کافیه به هوش مصنوعی بگید چه تغییری می‌خواید، تا اون کار رو براتون انجام بده.

نحوه دسترسی

کاربران عادی: در حال حاضر از طریق اپلیکیشن Gemini (نسخه رایگان و پولی) در دسترس هست.

توسعه‌دهندگان: می‌تونن از طریق Gemini API،Google AI Studio و Vertex AI از این مدل استفاده کنند.

🆔 @Data_Repo | علم داده و هوش تجاری
2
🔥قابلیت Branch کردن چت‌ها به ChatGPT رسید!

📰حالا همه کاربران نسخه وب (حتی رایگان‌ها) می‌تونن با انتخاب گزینه‌ی Branch in new chat در انتهای هر پیام، مسیر تازه‌ای رو از دل همون گفتگو باز کنن.

▪️این ویژگی مخصوصاً برای کساییه که چت‌های طولانی و چندموضوعی دارن. هر جا حس کردین سوال جدیدتون به پیام قبلی ربط داره ولی ادامه‌ی بحث اصلی نیست، می‌تونین از همون نقطه برنچ کنید.

+ هم چت اصلی مرتب می‌مونه، هم مسیر جدیدتون با همه‌ی پیام‌های مرتبط تو یه گفتگوی تازه ادامه پیدا می‌کنه.

🆔 @Data_Repo | علم داده و هوش تجاری
👍4
‏OpenAI نسخه جدید Codex به اسم GPT-5-Codex رو معرفی کرد

این یه نسخه بهینه‌شده از GPT-5 هست که برای کارای واقعی Software Engineering طراحی شده. حالا Codex سریع‌تر، دقیق‌تر و بهتر از قبل می‌تونه توی IDEها، Terminal، Web، GitHub و حتی موبایل کدنویسی کنه.

ویژگی‌های اصلی
🔹می‌تونه مثل یه Pair-Programmer سریع کمکت کنه یا حتی بیشتر از 7 ساعت مستقل روی یه Refactor بزرگ کار کنه.

🔹Code Review:
می‌تونه Repoها رو بگرده، Code/Test اجرا کنه و با دقت بیشتری Bugهای مهم رو شناسایی کنه.

🔹Dynamic Reasoning:
بسته به سختی تسک، زمان بیشتری برای “فکر کردن” میذاره.

🔹Tool Us:
پشتیبانی از Image، Web Search، MCP Integration و Browser-based Inspection.

🔹قابل استفاده توی CLI، IDEs (VS Code, Cursor)، GitHub، ChatGPT Web و موبایل.

عملکرد
روی SWE-bench امتیاز 72.8% گرفته، نزدیک به خود GPT-5 که 74.5% داره.
توی تسک‌های ساده 93.7% Token کمتر مصرف می‌کنه، ولی روی کارای سخت 2 برابر بیشتر Reasoning Time میذاره.
لینک

🆔 @Data_Repo | علم داده و هوش تجاری
آیا Bi در خدمت Ai هست یا Ai در خدمت Bi یا هر دو در خدمت هم؟ یا اصلا هیچکدام!؟
یک سازمان داده محور به سمت کدوم باید اول حرکت کنه؟ اصلا مگه پیش نیاز همدیگه هستند؟
پیشنهاد میکنم این گفتگو رو در یوتوب مشاهده کنید:

https://youtu.be/OGjdU-fYZtI?si=SiaxQ3NX8QvQ2GRb

🆔 @Data_Repo | علم داده و هوش تجاری
1
رویکرد ETL:
مناسب پروژه‌های کوچک‌تر که حجم داده‌ها کمتر و ساختارمنده.

مرحله Extract: جمع‌آوری داده‌های خام از سیستم‌های عملیاتی (CRM، فروش، مالی و …)
مرحله Transform: پاکسازی و تبدیل داده‌ها
مرحله Load: انتقال داده‌های تمیز به Data Warehouse برای استفاده ابزارهای BI


رویکرد ELT:
مناسب بیگ‌دیتا و معماری ابری‌ست و انعطاف بیشتری در ذخیره‌سازی داده‌ها و اعمال تغییرات بعدی داره.

مرحله Extract: جمع‌آوری داده‌های خام از سیستم‌های عملیاتی (CRM، فروش، مالی و …)
مرحله Load: بارگذاری مستقیم در Data Lake یا فضای ابری
مرحله Transform: تبدیل داده‌ها در همان محیط ابری با قدرت پردازشی بالا


در ETL: محصول را پس از برداشت از مزرعه، تمیز و بسته‌بندی می‌کنند، بعد به سوپرمارکت می‌برند.
در ELT: محصول را پس از برداشت از مزرعه، به انبار بزرگ می‌برند و بعد با توجه به نیاز به شکل مد نظرشون تمیز و بسته بندیش می‌کنند.

🆔 @Data_Repo | علم داده و هوش تجاری
هوش تجاری معجزه نیست، همکاری می‌خواد!
موفقیت یک برنامه هوش تجاری فقط وقتی اتفاق می‌افتد که همه اجزای سازمان همراه باشند — از مدیرعامل تا کاربر نهایی.
بی‌تعهدی، مقاومت در برابر تغییر یا درخواست‌های غیرواقعی، نتیجه‌ای جز ناامیدی نداره.
بی‌انصافیه اگر سال‌ها ورزش نکنی، هر روز پرخوری کنی،
بعد از مربی باشگاه تازه‌ات انتظار داشته باشی توی دو هفته برات سیکس‌پک بسازه!

خطاب به همکاران عزیز حوزه هوش تجاری:
ما پیامبر نیستیم که وظیفه‌مون هدایت یک قوم (سازمان) به راه راست باشه اونم به هر قیمتی!
ما مسیر رو روشن می‌کنیم، ابزار و بینش می‌دیم،
اما بدون خواست و همراهی واقعی سازمان، هیچ سیستمی معجزه نمی‌کنه.

هوش تجاری فقط با همدلی، واقع‌بینی و تعهد زنده می‌مونه.

🆔 @Data_Repo | علم داده و هوش تجاری
1