تحلیلگری عظیم‌داده و کسب‌وکار
906 subscribers
44 photos
42 videos
56 files
468 links
📌تحلیلگری عظیم داده و کسب و کار؛

🔎Big Data and Business Analytics

آموزش، پژوهش، اطلاع‌رسانی، ترویج و خدمات مشاوره حوزه تحلیلگری عظیم‌داده

سرپرست کانال: دکتر سعید روحانی، عضو هیأت علمی دانشگاه تهران

وبسایت
www.bdbanalytics.ir

ادمین کانال
@BDBA_UT
Download Telegram
Media is too big
VIEW IN TELEGRAM
📌📌 تحلیلگری عظیم داده چیست؟


در این ویدئو با نحوه استفاده از تحلیلگری عظیم داده و انواع آن و همچنین چگونگی یاری رسانی تحلیلگری عظیم داده به سازمان‌ها آشنا می‌شویم.
همچنین می‌توانید این ویدئو را در لینک زیر مشاهده فرمایید.


🔗 https://bdbanalytics.ir/wom5

#ويدئوکوتاه
#عظیم_داده
#تحلیلگری
#آرش_قاضی_سعیدی

@BigData_BusinessAnalytics
www.bdbanalytics.ir
❄️زمستان‌نامه

فایل بیست و دومین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار، (زمستان 1402) در پست بعد قابل دریافت می‌باشد.

#فصلنامه_الکترونیک
#زمستان‌نامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب "Artificial Intelligence for Business Analytics: Algorithms, Platforms and Application Scenarios"



🔍 عنوان: هوش مصنوعی برای تحلیلگری کسب و کار: الگوریتم‌ها، پلتفرم‌ها و سناریوهای کاربردی

🖋 نویسنده : Felix Weber
📌 این کتاب در سال 2023 و توسط ‎ انتشارات Springer انتشار یافته است.


📍بسیاری از تحلیل‌ها در محیط کسب و کار، تحلیل توصیفی است که بر اساس آمار توصیفی محاسباتی از قبیل میانگین، درصد، شمارش، حداکثر، حداقل و محاسبات ساده را ارائه می‌نماید یا نسخه‌های فیلتر شده داده‌ها را خلاصه می‌نماید. هدف از تجزیه و تحلیل توصیفی این است که به سادگی خلاصه کند و به شما بگوید چه اتفاقی افتاده است: فروش، تعداد مشتریان، درصد کل فروش با مواردی که تبلیغ شده‌اند، بازدید از صفحه و غیره.
🔹 تحلیل‌های توصیفی می‌تواند نتایج عملیات‌های ساده ریاضی باشد و امروزه در اکثر شرکت‌ها به انجام می‌رسد که اغلب به عنوان هوش تجاری از آن یاد می‌شود. همچنین اصطلاح تجزیه و تحلیل پیشرفته برای توصیف گسترش این گزارش‌ها استفاده می‌شود. به عنوان مثال، اگر ابتدا از یک فیلتر جغرافیایی برای تجزیه و تحلیل رسانه‌های اجتماعی استفاده کنید، می‌توانید معیارهایی مانند میانگین پست در هفته از آلمان و میانگین پست در هفته از هلند را دریافت کنید و بر روی نقشه نمایش دهید. با این حال، این تحلیل ابتدایی برای مزیت رقابتی نسبت به رقبا کافی نیست. به خصوص اگر ناگهان مجبور شوید با بومی‌های دیجیتالی مانند گوگل، آمازون یا علی بابا رقابت کنید. در واقع می‌توان گفت در عصر دیجیتالی شدن، این یک چالش واقعی برای بسیاری از صنایع است. این شرکت‌ها نه تنها بر اساس نرم‌افزار و پلتفرم‌ها، بلکه مهم‌تر از آن، بر اساس تحلیل‌های پیچیده عمل می‌کنند. به طور مثال اوبر پایگاه داده عظیمی از رانندگان دارد، بنابراین به محض درخواست خودرو، الگوریتم اوبر آماده راه اندازی است و در عرض 15 ثانیه یا کمتر، شما را با راننده نزدیک به شما مطابقت می‌دهد. در پس‌زمینه، اوبر داده‌های مربوط به هر خودرو را ذخیره می‌کند - حتی زمانی که راننده مسافر ندارد. همه این داده‌ها ذخیره شده و برای پیش‌بینی عرضه و تقاضا، تعیین کرایه‌ها و شناسایی مسائل مرتبط با حمل و نقل شهری استفاده می‌شود.

📍این کتاب با هدف معرفی جنبه های ضروری تحلیلگری کسب و کار و استفاده از روش‌های هوش مصنوعی ارائه شده است. در این راستا ابتدا اصطلاحات و الگوهای فکری اساسی تحلیلگری از تحلیل توصیفی و پیش‌بینی‌کننده تا تحلیل تجویزی در بخش «رده‌بندی روش‌ها و مدل‌های تحلیلی» معرفی شده‌اند. به دنبال آن، مدل تحلیلگری کسب و کار برای هوش مصنوعی، یک مدل فرآیندی برای اجرای پروژه‌های تجزیه و تحلیل کسب و کار در بخش «مدل رویه‌ها: مدل تحلیلگری کسب و کار برای هوش مصنوعی» و یک چارچوب فناوری دنبال می‌شود که شامل ارائه مهم ترین چارچوب‌ها، زبان‌های برنامه نویسی و معماری‌ها می‌باشد. پس از ارائه مقدمه‌ای بر هوش مصنوعی در فصل 2 و به ویژه زیرشاخه یادگیری ماشین، فصل 3 با عنوان «انواع مسائل در هوش مصنوعی و الگوریتم‌های آنها» به مهم‌ترین مسائل و الگوریتم‌های قابل اجرا به شیوه‌ای قابل درک می‌پردازد. در ادامه یک مرور کلی از پلتفرم‌های ابری رایج در بخش «تجزیه و تحلیل کسب‌وکار و یادگیری ماشین به‌ عنوان یک سرویس (پلتفرم‌های ابری)» ارائه می‌شود که اجرای سریع یک پروژه تحلیلگری کسب و کار را امکان‌پذیر می‌سازد. در نهایت، چندین سناریوی کاربردی از دیدگاه‌های مختلف، استفاده احتمالی از AI و BA را در صنایع مختلف به عنوان بخش مطالعات موردی «ساخت یا خرید؟» نشان می‌دهد.

📍این کتاب به عنوان یک مقدمه و مرور کلی برای تصمیم‌گیران و متخصصان فناوری اطلاعات و حوزه‌های کاربردی مرتبط مطرح شده است و در بسیاری از موارد به ادبیات عمیق‌تری برای مطالعه بیشتر اشاره شده است.


این کتاب را می‌توانید از لینک زیر دریافت نمایید.

🔗 https://bdbanalytics.ir/jgao


#معرفی_کتاب
#هوش_مصنوعی
#تحلیلگری_کسب_و_کار
#فاطمه_مظفری


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
🔎 معرفی کسب و کار داده محور

📌شرکت وال‌مارت یکی از بزرگترین شرکت‌های جهان در زمینه خرده‌فروشی است که به دلیل تأثیر بسیار بزرگی که بر صنعت و تجارت جهانی دارد، استفاده از داده‌ها در بیزنس خود را به عنوان یک ابزار بسیار قدرتمند می‌داند. این شرکت از داده‌های مختلف در بخش‌های مختلف بیزنس خود استفاده می‌کند تا بهبود عملکرد، کاهش هزینه‌ها و افزایش سودآوری دستیابی نماید. در این مقاله، به بررسی نحوه استفاده وال‌مارت از داده در بخش‌های مختلف بیزنس خود پرداخته می‌شود.

📍استفاده از داده در بخش‌های مختلف بیزنس وال‌مارت:

1️⃣ مدیریت زنجیره تأمین:
وال‌مارت از داده‌های مختلف برای بهبود مدیریت زنجیره تأمین خود استفاده می‌کند. این شرکت اطلاعاتی از قبیل فروش قبلی، موجودی محصولات، و الگوهای خرید مشتریان را جمع‌آوری می‌کند تا بتواند بهترین تصمیمات را در مورد تأمین کالاها، مدیریت انبارها و حمل‌ونقل انجام دهد. علاوه بر این، وال‌مارت از داده‌های سنجش عملکرد تأمین کنندگان خود استفاده می‌کند تا با بهبود همکاری با تأمین کنندگان، کیفیت محصولات را ارتقاء دهد و هزینه‌ها را کاهش دهد.

2️⃣ بازاریابی و تبلیغات:
وال‌مارت از داده‌های مشتریان خود برای ارائه تبلیغات هدفمند و بهبود استراتژی‌های بازاریابی استفاده می‌کند. این شرکت اطلاعاتی مانند تاریخچه خرید مشتریان، ترجیحات محصولات و الگوهای رفتاری را جمع‌آوری کرده و از آن‌ها برای طراحی تبلیغات موثر و ارائه پیشنهادات شخصی‌سازی‌شده استفاده می‌کند. این کار به وال‌مارت کمک می‌کند تا با کاهش هدررفت منابع و افزایش بازدهی تبلیغات، سودآوری خود را افزایش دهد.

3️⃣ تجزیه و تحلیل فروش:
تجزیه و تحلیل داده‌های فروش یکی از استفاده‌های اصلی وال‌مارت از داده‌هاست. این شرکت از اطلاعات فروش قبلی، نرخ تغییرات فروش، عملکرد محصولات و الگوهای خرید مشتریان برای پیش‌بینی فروش‌های آینده استفاده می‌کند. با تحلیل دقیق این داده‌ها، وال‌مارت می‌تواند بهترین استراتژی‌ها را برای مدیریت فروش، تخصیص منابع و بهبود عملکرد محصولات اتخاذ کند.

4️⃣ تجربه مشتری:
وال‌مارت از داده‌های مشتریان برای فهم بهتر نیازها و ترجیحات آن‌ها استفاده می‌کند. با تحلیل اطلاعات مشتریان، این شرکت می‌تواند خدمات و تجربه مشتری را بهبود بخشد، مشکلات و نقاط قوت خود را شناسایی کند و به تصمیم‌گیری‌های استراتژیک در مورد توسعه محصولات و خدمات بپردازد.

📍وال‌مارت به عنوان یکی از بزرگترین شرکت‌های جهان در زمینه خرده‌فروشی، از داده‌ها به عنوان یکی از ابزارهای اصلی خود برای بهبود عملکرد بیزنس و افزایش سودآوری استفاده می‌کند. این شرکت در بخش‌های مختلف بیزنس خود از جمع‌آوری، تحلیل و بهره‌برداری از داده‌ها برای مدیریت زنجیره تأمین، بازاریابی و تبلیغات، تجزیه و تحلیل فروش، و تجربه مشتری استفاده می‌کند. با استفاده از داده‌ها، وال‌مارت می‌تواند الگوهای رفتاری مشتریان را بهتر فهمیده، تصمیمات استراتژیک را با دقت بیشتری بگیرد و بهبود عملکرد مختلف بخش‌های بیزنس خود را دنبال کند. استفاده موثر از داده‌ها به وال‌مارت کمک کرده است تا به عنوان یکی از پیشگامان صنعت خرده‌فروشی، رقابت‌پذیری خود را حفظ کند و بهترین خدمات را به مشتریان خود ارائه دهد.
🔹به طور کلی، استفاده از داده‌ها به عنوان یک ابزار استراتژیک در بیزنس وال‌مارت نقش بسیار مهمی ایفا می‌کند و به این شرکت کمک می‌کند تا بازدهی خود را بهبود بخشد و رهبری خود را در صنعت خرده‌فروشی حفظ کند.

📍همچنین می‌توانید این مطلب را در لینک زیر مطالعه فرمایید.

🔗 https://bdbanalytics.ir/n92i


#محمدرضا_مرادی
#والمارت
#Walmart
#کسب_و_کار_داده_محور



@BigData_BusinessAnalytics
www.bdbanalytics.ir
👍2
📚معرفی کتاب

📌روش‌های توسعه برای سیستم‌های تحلیل عظیم‌داده

"Development Methodologies for Big Data Analytics Systems"

📌نویسندگان:
Manuel Mora, FenWang, Jorge Marx Gomez, Hector Duran-Limon

📌این کتاب در سال 2024 توسط Springer انتشار یافته است.


📍 رشد فزاینده‌ی حجم، تنوع و سرعت داده‌ها، که اغلب با عنوان «عظیم‌داده» شناخته می‌شود، رویکرد ما به تصمیم‌گیری در صنایع مختلف را متحول کرده است. سیستم‌های تحلیل عظیم‌داده (BDA) راه‌حل‌های نرم‌افزاری هستند که به‌طور خاص برای استخراج بینش‌های ارزشمند از این مجموعه داده‌های عظیم طراحی شده‌اند. این کتاب به دنیای سیستم‌های BDA می‌پردازد و با بررسی روش‌های توسعه‌، کاربردهای موفقیت آمیز آن را در حوزه‌های مختلف به نمایش می‌گذارد.

📍این کتاب، سیستم‌های BDA را به عنوان سنگ بنای حوزه‌ی نوظهور «علم داده» معرفی می‌کند. علم داده خود از همگرایی سه حوزه‌ی کلیدی، آمار، علوم رایانه و تحلیل هوش تجاری، نشأت می‌گیرد. هدف اصلی آن استفاده از قدرت داده‌های عظیم برای توسعه‌ی مفاهیم، مدل‌ها، روش‌ها و ابزارهایی است که بتواند ارزش پنهان در منابع عظیم داده‌های داخلی و خارجی سازمان‌ها را آشکار سازد.

📍اگرچه به‌طور سنتی به دلیل نیاز به منابع انسانی، فناوری و منابع سازمانی قابل توجه، سیستم‌های BDA عمدتا توسط کسب‌وکارهای بزرگ به کار گرفته می‌شدند، اما امروزه در حال گسترش به سایر بخش‌ها نیز می‌باشد. با این حال، خلأیی اساسی در توسعه‌ی نظام‌مند این سیستم‌ها وجود دارد. علی‌رغم به‌کارگیری روش‌های توسعه‌ی آزموده‌شده‌ای مانند CRISP-DM، SEMMA و KDD برای سیستم‌های تحلیل داده، تعداد قابل توجهی از پروژه‌های BDA در عمل نمی‌توانند به وعده‌های خود وفا کنند. از دیدگاه مهندسی نرم‌افزار، فرآیندها و روش‌های توسعه‌ی قوی، شامل رویکردهای برنامه‌محور، چابک، ترکیبی و سبک‌وزن، برای برآورده کردن محدودیت‌های حیاتی «مثلث آهنین» پروژه (زمان‌بندی، بودجه و کیفیت) ضروری هستند. این امر، نیاز روزافزون به ادغام اصول مهندسی نرم‌افزار و سیستم در توسعه‌ی سیستم‌های BDA را برای اطمینان از نتایج موفقیت‌آمیز که مطابق با انتظارات کسب‌وکار باشد، برجسته می‌کند.

📍برای دستیابی به این هدف، سردبیران کتاب از پژوهشگران برجسته در هر دو حوزه‌ی مهندسی نرم‌افزار و علم داده دعوت کرده‌اند تا در مورد طیف وسیعی از موضوعات مشارکت نمایند و خلأ موردنظر را برطرف نمایند. این کتاب شامل ۱۱ فصل می‌باشد و توسط پژوهشگران بین‌المللی تنظیم شده تا موضوعات اساسی، روش‌شناسی‌ها، چارچوب‌ها و کاربردهای دنیای واقعی را پوشش ‌دهد. این کتاب برای پژوهشگران، دانشگاهیان، متخصصان و دانشجویان دوره‌ی دکتری که به توسعه‌ی نظام‌مند سیستم‌های تحلیل عظیم‌داده علاقه‌مند هستند، در نظر گرفته شده است. کتاب به سه بخش زیر تقسیم شده است:

۱- بنیاد سیستم‌های تحلیل عظیم‌داده: این بخش به بررسی مفاهیم اساسی زیربنای سیستم‌های BDA از جمله بنیادهای تحلیل عظیم‌داده و علم داده، چارچوب‌، معماری‌، ابزار و پلتفرم‌ها و فنون محاسباتی می‌پردازد.

۲- روش‌های توسعه برای سیستم‌های تحلیل عظیم‌داده: این بخش، با بررسی روش‌های توسعه‌ مانند CRISP-DM، SEMMA و KDD در کنار روش‌های توسعه‌ی نرم‌افزار عمومی مانند RUP، MBASE و MSF، به عمق روش‌های توسعه می‌پردازد. همچنین، این بخش به بررسی روش‌های خاص چابک، ترکیبی و سبک‌وزن مبتنی بر چارچوب‌هایی مانند Scrum، XP، ISO/IEC 29110 و Microsoft TDSP می‌پردازد.

۳- کاربرد، چالش‌ و مسیرهای آینده‌ی سیستم‌های تحلیل عظیم‌داده: این بخش به بررسی کاربردهای واقعی سیستم‌های BDA در حوزه‌های مختلفی مانند مراقبت‌های بهداشتی، بازاریابی، امور مالی، آموزش، ورزش، خرده فروشی، لجستیک و تولید و همچنین چالش‌ها، محدودیت‌ها و روندهای فعلی در این زمینه می‌پردازد.


این کتاب را می‌توانید از لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/4mm6


#معرفی_کتاب
#عظیم_داده
#زهرا_رفیعی‌پور


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
🛠معرفی ابزار Apache Kylin

آپاچی کایلین یک موتور تجزیه و تحلیل توزیع‌شده و متن باز است که برای ارائه رابط SQL و تحلیل چند بعدی (OLAP) بر روی مجموعه‌داده‌های عظیم در پلتفرم‌های عظیم داده طراحی شده است. ابتدا توسط شرکت eBay Inc. توسعه یافت و سپس به پروژه Apache Software Foundation اهدا شد. کایلین به ویژه برای تجزیه و تحلیل تعاملی در مجموعه‌داده‌های عظیم مناسب است و به کاربران امکان تحلیل سریع پرس و جو را بر روی مقادیر داده‌های بسیار زیاد فراهم می‌کند.

✳️ویژگی‌ها و مفاهیم کلیدی آپاچی کایلین عبارتند از:

📌مکعب‌های OLAP: کایلین از مکعب‌های OLAP برای پیش‌محاسبه و ذخیره داده‌ها در یک فرمت چند بعدی استفاده می‌کند که اجازه اجرای سریع پرس و جوها را بر روی داده‌های تجمیعی می‌دهد. کاربران می‌توانند مکعب‌ها را با ابعاد و اندازه‌های مشخص بر اساس نیازهای تحلیلی خود تعریف کنند.

📌پیش‌محاسبه و مکعب‌زنی: کایلین داده‌های تجمیعی را پیش‌محاسبه و در یک روش توزیع‌شده ذخیره می‌کند که اجازه پاسخ دهی به پرس و جوهای زیرثانیه‌ای حتی بر روی مجموعه‌داده‌های عظیم را می‌دهد. مکعب‌زنی به کاربران اجازه می‌دهد تا مکعب‌های OLAP را بر اساس ابعاد و اندازه‌های خاصی تعریف و ساخت کنند.

📌رابط SQL: کایلین رابط SQL برای پرس و جوی مکعب‌های OLAP فراهم می‌کند که به کاربران امکان می‌دهد پرس و جوهای استاندارد SQL را برای تحلیل داده‌ها بکار گیرند. این از سینتکس‌های SQL معروف مانند ANSI SQL پشتیبانی می‌کند و با ابزارها و برنامه‌های BI مختلف ادغام می‌شود.

📌قابلیت مقیاس‌پذیری: کایلین برای مقیاس افقی طراحی شده است و از چارچوب‌های محاسبات توزیع‌شده مانند Apache Hadoop و Apache Spark بهره می‌برد. این می‌تواند با مجموعه‌داده‌هایی به اندازه پتابایت که در سراسر یک خوشه از گره‌ها پخش شده‌اند، کار کند.

📌 ادغام: کایلین با سایر اجزای اکوسیستم هادوپ، مانند Apache Hive، Apache HBase، و Apache Parquet برای ذخیره و پردازش داده ادغام می‌شود. همچنین از منابع مختلف، از جمله پایگاه‌های داده رابطه‌ای، Hadoop Distributed File System (HDFS)، و پلتفرم‌های ذخیره‌سازی ابری پشتیبانی می‌کند.

📌امنیت: کایلین ویژگی‌های امنیتی مانند احراز هویت، مجوزدهی، و رمزنگاری داده را فراهم می‌کند تا محرمانگی و امنیت داده‌ها را در یک محیط توزیع‌شده تضمین کند.

✳️در کل، آپاچی کایلین به سازمان‌ها کمک می‌کند تا تجزیه و تحلیل تعاملی روی مجموعه‌داده‌های عظیم را با استفاده از پرس و جوهای SQL معمولی و تکنیک‌های OLAP انجام دهند. این به سازمان‌ها کمک می‌کند تا از مخزن‌های داده‌ای خود به صورت کارآمد دریافت و تصمیم‌های مبتنی بر داده بگیرند.

📍همچنین می‌توانید این مطلب را در لینک زیر مطالعه فرمایید.

🔗 https://bdbanalytics.ir/6sdi

#معرفی_ابزار
#داده‌های_عظیم
#فاطمه_مصلحی
#Apache_Kylin

@BigData_BusinessAnalytics
www.bdbanalytics.ir
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم­ ، پلتفرم و سناریوهای کاربردی

فصل اول: هوشمندی و تحلیل کسب و کار

فصل اول کتاب به بررسی مفاهیم اولیه کسب و کار و لایه­‌های تحلیلی مختلفی از هوشمندی که در هر سازمان باید مورد توجه قرار گیرد می­‌پردازد.

سه مشخصه اصلی عظیم داده؛ حجم، تنوع و سرعت پیشران­‌های اصلی برای نیاز کسب و کارها به تصمیمات مبتنی بر داده می­‌باشد. بنابراین آنچه که امروزه در تحلیل کسب و کار مورد توجه است به کارگیری افراد مناسب برای استخراج داده های مناسب و ارائه تحلیل درست در زمان مناسب می باشد تا بدین ترتیب فرآیند تبدیل داده خام به تصمیمات نهایی مبتنی بر داده منجر شود.

زمانی که صحبت از تصمیمات داده محور می­‌شود نیاز است تا سه لایه تحلیلی بر اساس مقطع زمانی مورد بررسی قرار گیرند:

💢 گذشته: چه اتفاقاتی در گذشته رخ داده است؟ چگونه و به چه دلیل اتفاق است؟

💢 حال: در حال حاضر چه اتفاقاتی در جریان هستند و بهترین اقدام برای مرحله بعدی چه تصمیماتی می‌باشد؟

💢 آینده: چه اتفاقی در آینده رخ خواهد داد؟ چه سناریوهایی را می توان برای اتفاقات محتمل در نظر گرفت؟

زمانیکه صحبت از هوشمندی کسب و کار می شود رویکرد گذشته نگر بیشتر مدنظر می باشد درحالیکه در تحلیل داده محور کسب و کار علاوه بر رویکرد گذشته نگر، رویکرد آینده نگر نیز مورد توجه قرار می گیرد.

بر اساس همین تقسیم بندی زمانی سه نوع رویکرد تحلیلی کسب و کار مطرح ­می­‌شود:

🔹تحلیل توصیفی: این رویکرد با استفاده از تکنیک­‌های آماری و تحلیل داده بر اتفاقات گذشته متمرکز است تا به صورت تجمعی و خلاصه شده، بینشی را در مورد اتفاقات گذشته ارائه دهد. تنظیم و محاسبه شاخص های کلیدی کسب و کار در بخش های مختلف عملیات، مالی، فروش ، بازاریابی و ... در این لایه قرار می گیرند چرا که با محاسبه این سنجه ها بر اساس داده های تاریخی می توان به تحلیل هوشمندانه ای از گذشته رسید.

🔹 تحلیل پیش گویانه: لایه بعدی تحلیل داده در سازمان مربوط به تحلیل هایی از جنس پیش بینی دارد. در این لایه با استفاده از الگوریتم های داده کاوی، هدف یافتن الگو و پیش بینی آینده می باشد.

🔹 تحلیل تجویزی: لایه سوم تحلیلی مربوط به انتخاب تصمیم بهینه از بین گزینه های موجود برای آینده می­‌باشد. در این لایه تاثیر انتخاب گزینه‌های مختلف بر نتیجه مطلوبی که کسب و کار به دنبال آن است سنجیده می­‌شود و سعی می‌شود تصمیمی انتخاب شود که بیشترین آورده را برای هدف مطلوبی که کسب و کار مدنظر دارد باشد. مدلسازی این لایه به مراتب پیچیده تر از دو لایه قبلی می‌باشد چرا که تکنیک‌های مختلف بهینه‌سازی و آماری را همزمان نیاز دارد.

علاوه بر لایه­‌های تحلیلی کسب و کار، یک نمونه چارچوب فناوری تحلیل کسب و کار در این فصل ارائه شده است.

1️⃣ منابع داده: با توجه به وجود دپارتمان های مختلف و همچنین تبادل داده ای که خارج از سازمان قرار می­‌گیرد همواره منابع داده ای مختلفی وجود دارد که به عنوان خوراک اولیه تصمیمات داده محور خواهند بود.

2️⃣ آماده سازی داده: با توجه به ناسازگاری که بین منابع مختلف وجود دارد و همچنین موضوع کیفیت داده ها نیاز است تا اقداماتی در مورد آماده سازی و پیش پردازش اولیه داده ها صورت گیرد تا نهایتا تصمیمات بر اساس داده های مورد اطمینان باشند.

3️⃣ ذخیره سازی داده: منظور از ذخیره سازی در این چارچوب، ذخیره کردن داده های تحلیلی می­‌باشد که عموما در انباره داده و دریاچه داده صورت می گیرد.

4️⃣ تحلیل داده: قسمت تحلیل داده اجزای شکسته شده بخش قبلی می­باشند که با توجه به هدف کسب و کار و راحتی تحلیل به بخش های معناداری مثل دیتامارت ها تبدیل شدند.

5️⃣ استفاده و دسترسی داده: آخرین لایه این چارچوب مربوط به نحوه دسترسی و استفاده از این داده ها می باشد. این موضوع در هر کسب و کار با توجه به دسترسی های مختلف متفاوت می باشد.

این چارچوب فناوری تحلیل کسب و کار در کنار مراحلی که در تحلیل کسب و کار باید طی کرد، دید کلی را برای طراحی فناوری های مورد نیاز برای هر سازمان ایجاد خواهد کرد. علاوه بر این بستری برای پیاده سازی هوش مصنوعی خواهد بود که موضوع فصول بعدی کتاب می‌باشند.

همچنین می‌توانید این مطلب را در لینک زیر مطالعه بفرمایید.

🔗 https://bdbanalytics.ir/i0ke

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_اول
#علی_محمدی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب

🔍 تحلیل افراد در زمانه‌ی عظیم‌داده

"People Analytics in the Era of Big Data: Changing the Way You Attract, Acquire, Develop, and Retain Talent”


🖋 نویسندگان: Jean Paul Isson, Jesse S. Harriott

📌این کتاب در سال ۲۰۱۶ و توسط Wiley انتشار یافته است.


📍این کتاب را می‌توان به عنوان راهنمایی کامل استفاده از تحلیل عظیم داده در فرایندهای مختلف منابع انسانی در نظر گرفت که با تمرکز بر مدیریت استعداد و استفاده از داده‌های افراد در فرایندهای مختلف نگاشته شده است.
📍کتاب به ۱۴ فصل تقسیم شده که ۳ فصل اولیه به مقدمات تحلیل افراد، فصول ۴ تا ۱۲ به بررسی جداگانه‌ی فرایندهای منابع انسانی و استفاده از تحلیل افراد در آن‌ها پرداخته شده و در نهایت در دو فصل آخر ترکیب عظیم داده و تحلیل افراد و آینده‌ی تحلیل افراد را بررسی می‌کند. ساختار کتاب به گونه‌ای است که در هر فصل علاوه‌ بر توضیح مفاهیم، شامل مصاحبه با صاحب‌نظران هر حوزه در استفاده از تحلیل افراد در آن حوزه و مطالعه‌ موردی‌های مختلف در پیاده‌سازی‌های موفق تحلیل افراد در آن حوزه‌ها می‌شود.

📍کتاب ۷ ستون اصلی موفقیت تحلیل افراد را به صورت زیر معرفی می‌کند و در نهایت ترکیب این مفاهیم را با اهرم تحلیل عظیم‌داده مورد بررسی قرار می‌دهد:

🔹 تحلیل برنامه‌ریزی افراد.
🔹تحلیل‌های منبع‌یابی.
🔹تحلیل‌های جذب و استخدام.
🔹آنبورد افراد، سازگاری فرهنگی و مشارکت کارکنان.
🔹ارزیابی عملکرد، توسعه و ارزش طول عمر کارکنان.
🔹خروج و نگهداشت کارکنان.
🔹سلامتی، بهداشت و امنیت کارکنان.

📍نگارندگان سعی داشته‌اند داده‌محور شدن تصمیم‌های مدیران منابع انسانی و مبتنی بر واقعیت شدن آن‌ها را با توجه به رشد روزافزون حجم، تنوع و سرعت داده‌ها که عظیم‌داده را شکل می‌دهند در این کتاب هدف قرار دهند که با توجه به ساختار موجود در کتاب می‌توان نتیجه گرفت تا میزان زیادی به این مهم دست پیدا کرده‌اند.

این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/qrp3


#معرفی_کتاب
#عظیم_داده
#احسان_نگهدار


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
👍1
📌معرفی مقالات حوزه عظیم داده‌ها
❇️ نام مقاله:

A Tutorial on Federated Learning from Theory to Practice: Foundations, Software Frameworks, Exemplary Use Cases, and Selected Trends

✍️ نویسندگان:

M. Victoria Luzón, Nuria Rodríguez-Barroso, Alberto Argente-Garrido , Daniel Jiménez-López, Jose M. Moyano, Javier Del Ser, Weiping Ding, Francisco Herrera

🗓 سال انتشار: ۲۰۲۴
📔 ژورنال:
IEEE/CAA Journal of Automatica Sinica

🔸مقاله با این مقدمه آغاز شده که هنگامی که حفظ حریم خصوصی داده‌ها به عنوان یک ضرورت در نظر گرفته می‌شود، یادگیری مشارکتی (فدرال FL) به عنوان یک زمینه هوش مصنوعی مرتبط برای توسعه مدل‌های یادگیری ماشین در یک محیط توزیع شده و غیرمتمرکز ظاهر می‌شود.

🔸 یادگیری مشارکتی اجازه می‌دهد تا مدل‌های ML بر روی دستگاه‌های محلی بدون نیاز به انتقال داده متمرکز آموزش داده شوند، در نتیجه به دلیل توانایی ذاتی خود در بهبود مسائل مربوط به حفظ حریم خصوصی و کارایی یادگیری توزیع شده، توجه پژوهشگران زیادی را به خود جلب کرده است . بعلاوه این رویکرد بسیار مقیاس پذیر بوده  چراکه می‌تواند شرکت کنندگان متعددی را که هر کدام منابع داده خود را دارند، پوشش دهد. این مساله می‌تواند به ویژه در سناریوهایی با تولید مداوم داده مفید باشد، به عنوان مثال، در دستگاه‌های حسگر اینترنت اشیا. در نتیجه، FL به یک زمینه مهم هوش مصنوعی تبدیل شده است و علاقه محققان، توسعه دهندگان و دانشمندان داده را در مطالعات نظری و عملی و بخصوص برنامه هایی که با داده‌های حساس سروکار دارند، به خود جلب کرده است.

🔸اولین برنامه موفق FL توسط Google برای پیش‌بینی ورودی متن کاربر توسعه داده شد بطوریکه داده‌ها به صورت محلی در ده‌ها هزار دستگاه Android، نگهداری می‌شد. از آن زمان، FL برای طیف گسترده‌ای از کاربردها در زمینه‌های مختلف، از مهندسی صنایع گرفته تا مراقبت های بهداشتی به کار گرفته شده است.
 
🔸مقاله پس از ذکر مقدمات ، در بخش 2 به چرایی و چگونگی FL پرداخته و تاکید می‌کند که یادگیری ماشین یکی از زمینه‌های پرکاربرد هوش مصنوعی است که به دلیل افزایش تقاضا از نظر حجم و تنوع داده‌ها منجر به چالش‌های متعددی در رابطه با حریم خصوصی داده‌ها و پردازش چنین حجم زیادی از داده‌ها شده است. در حقیقت چالش‌هایی نظیر حفظ حریم خصوصی، ارتباطات و دسترسی به داده‌ها منجر به شکل گیری رویکرد یادگیری مشارکتی (فدرال) یا FL شده است. 

🔸در بخش 3، مقاله ضمن بررسی زیرساخت یادگیری مشارکتی و عناصر کلیدی آن، 2 معماری اصلی در این حوزه و وجه تمایز آنها را شرح داده و قسمت بعد به توضیح امنیت داده در این رویکرد می‌پردازد.

🔸 در بخش چهارم، مقاله به معرفی مجموعه داده‌ها و چارچوب‌های نرم افزاری پیشرفته در این حوزه پرداخته و پرکاربردترین مجموعه داده‌ها در ادبیات موضوع را برای انجام آزمایشات FL ارائه کرده و سپس طیف وسیعی از چارچوب‌های نرم‌افزاری پیشرفته برای طراحی چنین مطالعاتی را از زوایای مختلف مورد تجزیه و تحلیل قرار داده است .

🔸 در بخش پنجم مقاله، دستورالعمل‌های روش شناختی برای شبیه‌سازی سناریوهای FL ارائه شده است.

🔸بخش ششم مقاله به پاسخ به این پرسش می‌پردازد که اساسا" زمانی که داده‌ها بین چندین کلاینت توزیع می‌شود، آیا FL نسبت به رویکرد دیگر (غیر FL)  مزیتی دارد یا خیر و به ارائه یک مقایسه عملکرد بین استراتژی‌های FL و غیرFL می‌پردازد.

🔸 در بخش هفتم مقاله به ارائه شش مورد مطالعاتی در زمینه بکارگیری FL  می‌پردازد و پیاده‌سازی راه حل را با استفاده از 3 فریمورک مختلف (TFF, Flower و FATE) نشان می‌دهد.

🔸  در نهایت در بخش هشتم روندهای مطالعاتی در حوزه FL ارائه شده که می‌تواند چشم اندازهای تحقیقاتی مناسبی را برای پژوهشگران معرفی نماید.  

🔸 این مقاله سعی کرده تا با نگاه جامعی که به مفهوم و کاربردهای FL دارد، بتواند به عنوان مرجعی برای پژوهشگران این حوزه مطرح شود. 

👈در صورت تمایل، می‌توانید فایل مقاله را از لینک زیر دریافت فرمایید.


🔗 https://bdbanalytics.ir/oyip

#معرفی_مقاله
#تحلیل_عظیم_داده
#صبا_بزرگی
www.bdbanalytics.ir
@BigData_BusinessAnalytics
👍1
Media is too big
VIEW IN TELEGRAM
📌📌 آینده هوش مصنوعی، بلاکچین، تحلیلگری عظیم داده


در این ویدئو سه روند اصلی که دنیای فناوری هوشمند را شکل می‌دهند، مورد بحث قرار می‌گیرند: هوش مصنوعی (AI)، بلاک‌چین و تحلیلگری عظیم داده‌ها

همچنین می‌توانید این ویدئو را در لینک زیر مشاهده بفرمایید.

🔗 https://bdbanalytics.ir/cmib

#ويدئو_کوتاه
#عظیم_داده
#تحلیلگری
#هوش_مصنوعی
#بلاکچین
#آرش_قاضی_سعیدی

@BigData_BusinessAnalytics
www.bdbanalytics.ir
🌱 بهارنامه

فایل بیست و سومین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار (بهار 1403) در پست بعد قابل دریافت می‌باشد.

#فصلنامه_الکترونیک
#بهارنامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
2🔥1
baharaneh 1403.pdf
1.7 MB
📣 بیست و سومین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار

#فصلنامه_الکترونیک
#بهارنامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
👍3👎1🔥1
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

فصل دوم: هوش مصنوعی

در فصل اول کتاب "هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی" به مفاهیم اولیه تحلیل و هوشمندی کسب و کار پرداختیم. در ادامه این فصل، در فصل دوم به طور خاص به موضوع هوش مصنوعی و روش‌های مختلفی که در تحلیل کسب و کار به کار گرفته می‌شوند اشاره شده است.
به طور کلی هوش مصنوعی شامل شاخه‌های متنوعی مثل رباتیک، سیستم‌های خبره، یادگیری ماشین، مدل‌های شناختی و ... می‌باشد. اما وقتی صحبت از کاربرد هوش مصنوعی در تحلیل کسب و کار می‌شود؛ نقطه تمرکز بر روش‌های یادگیری ماشین می‌باشد که می‌توانند منجر به تولید بینش در کسب و کارها شود. بر این اساس تمرکز فصل دوم بر معرفی روش‌های یادگیری ماشین می‌باشد که ابتدا به سه دسته کلی یادگیری با نظارت، یادگیری بدون نظارت و یادگیری تقویتی اشاره می‌کند.
علاوه بر توضیح این سه روش، به صورت جزئی تر در مورد روش‌های دسته بندی، رگرسیون، خوشه بندی، استخراج قوانین و بهینه سازی موضوعاتی مورد بررسی قرار می‌گیرند که در بخش خلاصه کتاب به آن اشاره شده است.

برای مطالعه خلاصه فصل دوم به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/7ijz

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_دوم
#علی_محمدی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
🔎 معرفی کسب و کار داده محور

📌شرکت Airbnb یکی از بزرگ‌ترین پلتفرم‌های اجاره کوتاه‌مدت در دنیا است. این شرکت از داده‌ها به طور گسترده‌ای استفاده می‌کند تا خدمات خود را بهینه‌سازی کند، تجربه کاربران را بهبود بخشد و تصمیم‌گیری‌های هوشمندانه‌تری انجام دهد. در این مقاله، به بررسی چگونگی استفاده از داده‌ها در این شرکت می‌پردازیم.

🔹 پلتفرم Airbnb یک بازار آنلاین است که افراد می‌توانند از طریق آن محل اقامت خود را به اشتراک بگذارند یا مکان‌هایی را برای اقامت خود اجاره کنند. این پلتفرم از سال 2008 آغاز به کار کرده و از آن زمان به یکی از بزرگ‌ترین پلتفرم‌های اجاره کوتاه‌مدت در جهان تبدیل شده است. موفقیت Airbnb به عوامل متعددی از جمله استفاده هوشمندانه از داده‌ها وابسته است.

📌انواع داده‌های مورد استفاده در Airbnb
این پلتفرم از انواع مختلف داده‌ها برای بهینه‌سازی خدمات خود استفاده می‌کند. برخی از مهم‌ترین این داده‌ها عبارتند از:
1️⃣ داده‌های کاربران: شامل اطلاعات پروفایل کاربران، تاریخچه رزروها، نظرات و امتیازات کاربران.
2️⃣ داده‌های میزبان‌ها: شامل اطلاعات پروفایل میزبان‌ها، ویژگی‌های ملک‌ها، قیمت‌گذاری و دسترسی‌ها.
3️⃣ داده‌های مکانی: شامل موقعیت جغرافیایی ملک‌ها، جاذبه‌های محلی و اطلاعات حمل‌ونقل.
4️⃣ داده‌های بازار: شامل تحلیل عرضه و تقاضا، روندهای بازار و قیمت‌گذاری رقابتی.

🔸این پلتفرم از تکنیک‌های پیشرفته تحلیل داده و یادگیری ماشین برای بهبود خدمات خود استفاده می‌کند. برخی از کاربردهای اصلی این تکنیک‌ها در Airbnb عبارتند از:
📍پیش‌بینی قیمت‌ها
📍توصیه‌گرها
📍تشخیص تقلب
📍شخصی‌سازی تجربه کاربر
📍بهینه‌سازی قیمت‌گذاری
📍تطبیق بهتر مهمان و میزبان
📍بهبود تجربه کاربران با استفاده از داده‌ها:
🔹بهینه‌سازی جستجو
الگوریتم‌های جستجوی Airbnb با استفاده از داده‌های کاربران و ملک‌ها، نتایج جستجوی بهتری را ارائه می‌دهند. این الگوریتم‌ها با تحلیل کلمات کلیدی، ترجیحات کاربران و تاریخچه جستجوها، نتایج مرتبط‌تری را به کاربران نمایش می‌دهند.
🔹پشتیبانی مشتریان
پلتفرم Airbnb از داده‌ها برای بهبود خدمات پشتیبانی مشتریان استفاده می‌کند. با تحلیل داده‌های تماس‌ها و مشکلات گزارش‌شده، این شرکت می‌تواند مشکلات رایج را شناسایی و راه‌حل‌های مناسبی ارائه دهد. این تحلیل‌ها به بهبود فرآیندهای پشتیبانی و افزایش رضایت مشتریان کمک می‌کند.
📍بهینه‌سازی عملیات و فرآیندهای داخلی
علاوه بر بهبود تجربه کاربران، Airbnb از داده‌ها برای بهینه‌سازی عملیات و فرآیندهای داخلی خود نیز استفاده می‌کند. برخی از کاربردهای اصلی داده‌ها در این زمینه عبارتند از:
1️⃣ مدیریت موجودی
2️⃣ تحلیل عملکرد

📌چالش‌ها و فرصت‌های آینده
استفاده از داده‌ها در Airbnb با چالش‌هایی نیز همراه است. برخی از این چالش‌ها عبارتند از:
🔹حفظ حریم خصوصی
یکی از مهم‌ترین چالش‌ها در استفاده از داده‌ها، حفظ حریم خصوصی کاربران است. Airbnb باید اطمینان حاصل کند که داده‌های کاربران به صورت ایمن نگهداری و استفاده می‌شوند و حریم خصوصی آنها رعایت می‌شود.
🔸مدیریت داده‌های عظیم
این شرکت با حجم زیادی از داده‌ها سروکار دارد و مدیریت این داده‌ها یکی از چالش‌های مهم است. بنابراین باید از ابزارها و تکنولوژی‌های مناسب برای ذخیره، پردازش و تحلیل این داده‌ها استفاده کند.
🔹بهبود مداوم الگوریتم‌ها
الگوریتم‌های تحلیل داده و یادگیری ماشین نیاز به بهبود و به‌روزرسانی مداوم دارند. Airbnb باید از تیم‌های متخصص و منابع کافی برای بهبود مداوم این الگوریتم‌ها استفاده کند.

📌نتیجه‌گیری
استفاده از داده‌ها در Airbnb یکی از عوامل اصلی موفقیت این شرکت است. این شرکت با استفاده از داده‌های مختلف، تحلیل‌های پیشرفته و الگوریتم‌های یادگیری ماشین، خدمات خود را بهینه‌سازی کرده و تجربه کاربران را بهبود می‌بخشد. با وجود چالش‌های موجود، Airbnb همچنان به بهره‌برداری از داده‌ها برای رشد و نوآوری ادامه می‌دهد.

برای مطالعه این مطلب به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/kka0


#محمدرضا_مرادی
#کسب_و_کار_داده_محور
#Airbnb


@BigData_BusinessAnalytics
www.bdbanalytics.ir
👍1
📚معرفی کتاب

🔍 دایرةالمعارف فناوری‌های عظیم‌داده

"Encyclopedia of Big Data Technologies"


🖌 نویسندگان: Sherif Sakr, Albert Zomaya

📌این کتاب در سال ۲۰۲۰ توسط Springer انتشار یافته است.

📌دایرةالمعارف فناوری‌های عظیم‌داده توسط کارشناسان موضوعی از سراسر جهان، هم در صنعت و هم در دانشگاه، تالیف شده است، طیف گسترده ای از موضوعات عظیم داده را با عمق و دقت بی نظیری پوشش می‌دهد. هیئت نویسندگان، متشکل از ۳۵ محقق برجسته، تضمین می‌کنند که هر بخش به طوری طراحی شده تا مناسب‌ترین اصطلاحات را به تصویر بکشد. این کارشناسان مقالات را به شیوه‌ای سازگار و استاندارد توسعه می‌دهند و از محتوای با کیفیت و قابل اعتماد، اطمینان می‌دهند.

📌این کتاب مرجع گسترده به نیاز حیاتی برای وجود یک منبع تحقیقاتی جامع در حوزه فناوری‌های عظیم‌داده‌ می‌پردازد، از مرزهای انضباطی فراتر می‌رود و رشته‌های فنی مانند سیستم‌های ذخیره‌سازی عظیم داده، پایگاه‌های داده NoSQL، محاسبات ابری، سیستم‌های توزیع‌شده، یادگیری ماشین و فناوری‌های اجتماعی را در بر می‌گیرد.


ویژگی‌های کلیدی:

🔸پوشش جامع: این دایرةالمعارف بیش از ۳۰۰ مدخل را ارائه می‌کند که مفاهیم و اصطلاحات کلیدی را در زمینه گسترده عظیم‌داده و یادگیری ماشین پوشش می‌دهد. هر ورودی شامل مقالات عمیق، تعاریف، پیشینه تاریخی، برنامه‌های کاربردی کلیدی و کتابشناسی ست که درک کاملی از موضوع را ارائه می‌دهد.

🔸ارجاعات متقابل گسترده: برای تسهیل در کشف سریع و کارآمد اطلاعات، دایرةالمعارف شامل ارجاعات متقابل گسترده است که به خوانندگان امکان می‌دهد به طور یکپارچه در موضوعات مرتبط به هم حرکت کنند.

🔸رویکرد میان رشته‌ای: دایرةالمعارف صرفاً بر یک رشته یا حوزه تحقیقاتی تمرکز نمی‌کند بلکه جنبه‌ها و فناوری‌های مختلف مربوط به عظیم داده را پوشش می‌دهد، از جمله فناوری‌های فعال، یکپارچه‌سازی داده‌ها، ذخیره‌سازی و نمایه‌سازی، فشرده‌سازی داده‌ها، مدل‌های برنامه‌نویسی، سیستم‌های SQL، سیستم‌های جریان، پردازش داده‌های معنایی، تجزیه و تحلیل گراف، مدیریت داده‌های مکانی، تجزیه و تحلیل، تجزیه و تحلیل فرآیند کسب‌وکار، پردازش بر روی سخت افزار مدرن، برنامه‌های امنیت و حریم خصوصی.

📌با درک پتانسیل بالای تجزیه و تحلیل عظیم داده، جوامع تحقیقاتی، شرکت‌ها و بخش‌های دولتی به طور مداوم در این حوزه پیشرفت می‌کنند. هدف "دایرةالمعارف فناوری‌های عظیم داده" ارائه یک نمای کلی جامع از این پیشرفت‌ها است و اطمینان حاصل می‌کند که مدخل‌ها به طور مرتب به روز می‌شوند تا آخرین پیشرفت‌ها را منعکس کنند. همچنین با مشارکت بسیاری از رهبران در این زمینه، دایرةالمعارف مطالب خواندنی ارزشمندی را برای طیف گسترده‌ای از مخاطبان، از محققان متخصص و مهندسان نرم افزار گرفته تا دانشجویان و پژوهشگران جوان ارائه می‌دهد.


این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/2vk7

#معرفی_کتاب
#عظیم_داده
#زهرا_رفیعی‌پور


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
👍1
🛠 معرفی ابزار Apache Iceberg

ابزارApache Iceberg یک پروژه اپن سورس است که توسط Apache Software Foundation توسعه یافته است. این ابزار برای مدیریت داده‌های عظیم در قالب جداول به گونه‌ای طراحی شده که به مشکلات متداول در سیستم‌های ذخیره‌سازی داده‌های عظیم پاسخ دهد. در ادامه به جزئیات بیشتری از این ابزار پرداخته می‌شود:

ساختار و معماری
ابزارIceberg یک فرمت ذخیره‌سازی و یک لایه مدیریت فراداده است که برای استفاده در محیط‌های توزیع شده طراحی شده است. این ابزار به نحوی طراحی شده که از نسخه‌بندی داده‌ها، تغییرات تدریجی و بهینه‌سازی عملیات خواندن و نوشتن پشتیبانی کند.

ویژگی‌های کلیدی

📌 نسخه‌بندی و مدیریت تاریخچه داده‌ها:
امکان مدیریت نسخه‌های مختلف از داده‌ها را فراهم می‌کند. این ویژگی به کاربران اجازه می‌دهد تا به سادگی به نسخه‌های قبلی داده‌ها دسترسی پیدا کنند و تغییرات اعمال شده را بررسی کنند.

📌 تقسیم بندی (Partitioning) پیشرفته:
از سیستم تقسیم‌بندی پیشرفته‌ای استفاده می‌کند که امکان مدیریت بهتر داده‌ها و بهینه‌سازی جستجو و بازیابی داده‌ها را فراهم می‌کند. این سیستم به صورت خودکار تقسیم‌بندی‌ها را بهینه می‌کند تا عملکرد بهتری داشته باشد.

📌 پشتیبانی از فرمت‌های مختلف داده:
از فرمت‌های داده‌ای مانند Parquet، Avro و ORC پشتیبانی می‌کند. این پشتیبانی از فرمت‌های متنوع به کاربران امکان می‌دهد که از Iceberg در محیط‌های مختلف با فرمت‌های داده‌ای مختلف استفاده کنند.

📌 همکاری با موتورهای پردازش داده:
به راحتی با موتورهای پردازش داده‌ای مانند Apache Spark، Apache Hive، و Trino (PrestoSQL) یکپارچه می‌شود. این یکپارچگی به کاربران اجازه می‌دهد تا از ابزارهای تحلیلی محبوب خود با Iceberg استفاده کنند.

مزایای استفاده از Apache Iceberg

📍 مدیریت آسان داده‌ها: با استفاده از Iceberg، مدیریت و نگهداری عظیم داده‌ها آسان‌تر می‌شود.

📍بهینه‌سازی عملکرد: با بهینه‌سازی خودکار تقسیم‌بندی و فهرست‌بندی، عملکرد خواندن و نوشتن داده‌ها بهبود می‌یابد.

📍انعطاف‌پذیری در تحلیل داده‌ها: Iceberg به کاربران اجازه می‌دهد تا به سادگی تحلیل‌های پیچیده و گسترده‌ای را بر روی عظیم داده‌ها انجام دهند.

کاربردها

📍تحلیل عظیم داده‌ها: شرکت‌ها می‌توانند از Iceberg برای تحلیل عظیم داده‌ها استفاده کنند.
📍مدیریت داده‌های تاریخی: با قابلیت نسخه‌بندی و مدیریت تاریخچه داده‌ها، Iceberg برای کاربردهایی که نیاز به دسترسی به داده‌های تاریخی دارند، مناسب است.
📍بهینه‌سازی عملیات خواندن و نوشتن: Iceberg به دلیل بهینه‌سازی‌های پیشرفته خود، برای محیط‌هایی که نیاز به عملیات خواندن و نوشتن سریع دارند، ایده‌آل است.

می‌توانید این مطلب را در لینک زیر نیز مطالعه فرمایید.

🔗 https://bdbanalytics.ir/sfdm



#معرفی_ابزار
#داده‌های_عظیم
#فاطمه_مصلحی
#Apache_Iceberg

@BigData_BusinessAnalytics
www.bdbanalytics.ir
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

📌فصل سوم: هوش مصنوعی و پلتفرم‌های تحلیلگری کسب و کار

بخش اول از فصل سوم کتاب هوش مصنوعی برای تحلیلگری کسب و کار: الگوریتم‌ها، پلتفرم‌ها و سناریوهای کاربردی، ابتدا به مفاهیم و چارچوب‌های نرم افزاری پایه همچون مدیریت داده‌ها، انبارداده، و دریاچه داده پرداخته شده است و سپس به معرفی ابزارها و پلتفرم‌های مختلف مرتبط با پردازش و تحلیل داده‌های عظیم می‌پردازد.
پلتفرم‌هایی که می‌توانند برای پیاده‌سازی دریاچه داده استفاده شوند عبارتند از:
❇️ فایل سیستم توزیع شده هدوپ (HDFS)
❇️ سرویس ذخیره‌سازی ساده آمازون (S3)، ذخیره‌سازی ابری گوگل، ذخیره‌سازی دریاچه داده Azure
❇️ دریاچه‌های داده همچنین می‌توانند با انبارداده کلاسیک، HBase یا پایگاه داده NoSQL (مانند MongoDB) ترکیب شوند.
📍پردازش جریان داده و صف پیام
🔹سیستم‌های مبتنی بر MapReduce مانند Amazon EMR نمونه‌هایی از پلتفرم‌هایی هستند که از پردازش‌های دسته‌ای پشتیبانی می‌کنند. در مقابل، پردازش جریان نیازمند گرفتن یک دنباله از داده‌ها و به‌روزرسانی تدریجی سنجه‌ها، گزارش‌ها و آمار خلاصه در پاسخ به هر مجموعه داده ورودی است. بنابراین، پردازش جریان برای نظارت و پاسخگویی بلادرنگ مناسب‌تر است.

🔸امروزه بسیاری از شرکت‌ها با ترکیب دو رویکرد و ایجاد یک لایه بلادرنگ (جریان) و یک لایه دسته ای به طور همزمان یا سری، بر روی مدل‌های ترکیبی کار می‌کنند. داده‌ها ابتدا توسط یک پلتفرم داده جریانی برای ارائه بینش‌های بلادرنگ پردازش می‌شوند و سپس به یک مخزن داده بارگذاری می‌شوند که در آنجا می‌توان آن را تبدیل و برای انواع مختلف موارد استفاده پردازش دسته‌ای استفاده کرد.

📍سیستم مدیریت پایگاه داده
🔹یک سیستم مدیریت داده in-memory (IMDBMS) یک سیستم مدیریت پایگاه داده است که عمدتاً برای ذخیره‌سازی، مدیریت و دستکاری داده‌ها به حافظه اصلی متکی است. این کار تأخیر و سربار ذخیره‌سازی دیسک را حذف می‌کند و مجموعه دستورالعمل‌های مورد نیاز برای دسترسی به داده‌ها را کاهش می‌دهد. برای ذخیره‌سازی و دسترسی کارآمدتر، داده‌ها می‌توانند در یک قالب فشرده ذخیره شوند.

📍آپاچی هدوپ
🔸محیط‌های عظیم داده معمولاً نه تنها شامل داده‌های عظیم بلکه انواع مختلفی از داده‌های تراکنش ساختاریافته تا انواع نیمه‌ساختاریافته و بدون ساختار اطلاعات مانند سوابق کلیک، وب سرور و لاگ‌های برنامه‌های موبایل، پست‌های رسانه‌های اجتماعی، ایمیل‌های مشتری و داده‌های سنسور از اینترنت اشیا می‌شوند. فناوری که در ابتدا فقط با نام آپاچی هدوپ شناخته می‌شد، به عنوان بخشی از یک پروژه متن‌باز در بنیاد نرم‌افزار آپاچی (ASF) در حال توسعه است. توزیع تجاری هدوپ در حال حاضر توسط چهار ارائه دهنده اصلی پلتفرم داده‌های عظیم ارائه می‌شود: فناوری‌های آمازون وب سرویس‌ (AWS)، کلودرا، Hortonworks و MapR. علاوه بر این، گوگل، مایکروسافت و سایر فروشندگان خدمات مدیریت مبتنی بر ابر را بر اساس هدوپ و فناوری‌های مرتبط ارائه می‌دهند.

📍تحلیل داده و زبان‌های برنامه‌نویسی
🔹علاوه بر الگوریتم‌ها، تحلیل داده همچنین نیازمند پیاده‌سازی و یکپارچه‌سازی با اپلیکیشن‌های موجود است. زبان‌های برنامه‌نویسی مانند پایتون و R در این راستا مورد استفاده قرار می‌گیرند. R نه تنها توسط کاربران دانشگاهی استفاده می‌شود، بلکه بسیاری از شرکت‌های بزرگ از جمله اوبر، گوگل، ایربی‌ان‌بی، فیس‌بوک و غیره نیز از R استفاده می‌کنند.
🔸 اسکالا (Scala) یک زبان برنامه‌نویسی سطح بالا، چند پارادایمی و همه منظوره است. این زبان یک زبان برنامه‌نویسی شیءگرا است که از رویکرد برنامه‌نویسی تابعی نیز پشتیبانی می‌کند. هیچ داده اولیه‌ای وجود ندارد، زیرا همه چیز در اسکالا یک شیء است. اسکالا برای بیان الگوهای رایج برنامه‌نویسی به شیوه‌ای دقیق، مختصر و type-safe طراحی شده است. برنامه‌های اسکالا می‌توانند به بایت کد تبدیل شوند و روی ماشین مجازی جاوا (JVM) اجرا شوند.
🔹جولیا (Julia) در سال 2009 ایجاد شد و در سال 2012 به عموم معرفی شد. جولیا با هدف رفع کمبودهای پایتون و سایر زبان‌ها و برنامه‌های محاسبات علمی و پردازش داده طراحی شده است. جولیا از metaprogramming پشتیبانی می‌کند. برنامه‌های جولیا می‌توانند برنامه‌های جولیای دیگر را تولید کرده و حتی کد خود را به روشی شبیه به زبان‌هایی مانند Lisp تغییر دهند.


برای مطالعه خلاصه فصل سوم (بخش اول) به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/hkis

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_سوم
#فاطمه_مظفری


www.bdbanalytics.ir
@BigData_BusinessAnalytics
👍2
Media is too big
VIEW IN TELEGRAM
📊 عظیم داده: آینده حسابداری 🌐

آیا می‌دانستید که عظیم داده می‌تواند حسابداری را از یک کار خسته‌کننده به یک فرآیند استراتژیک و هیجان‌انگیز تبدیل کند؟ 🤯
در این ویدیو یاد می‌گیریم چطور عظیم داده مثل یک آهنربای غول‌پیکر، بینش‌های مالی کلیدی را برای شما پیدا می‌کند و چگونه الگوریتم‌های پیشرفته، جایگزین شب‌های طولانی حساب و کتاب دستی می‌شوند. 💻

از پیش‌بینی ریسک‌های مالی تا بهبود روابط با مشتریان، عظیم داده همه چیز را دگرگون می‌کند. 🌟 آماده‌اید با آینده حسابداری آشنا شوید؟ این ویدیو را از دست ندهید! 🎥

#ویدئو
#عظیم_داده
#بیگ_دیتا
#حسابداری
#فناوری
#داده_کاوی
#حمید_جمالی

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب

🔍 استراتژی داده؛ چگونه از دنیای عظیم داده، تحلیل و هوش مصنوعی سودمند شویم

"Data Strategy
How to profit from a world of big data, analytics and artificial intelligence”


🖋 نویسنده: Bernard Marr

📌نسخه دوم این کتاب در سال 2022 و توسط KoganPage انتشار یافته است.


📍این کتاب به‌عنوان یک راهنمای مرحله‌به‌مرحله برای رهبران و مدیران کسب‌وکار عمل می‌کند تا از قدرت داده‌ها، تحلیل‌ها و هوش مصنوعی برای دستیابی به موفقیت در کسب‌وکار استفاده کنند. این کتاب بین دانش نظری و توصیه‌های عملی تعادل برقرار کرده و آن را قابل دسترس و کاربردی می‌سازد.

📍کتاب به ۱۶ فصل تقسیم شده که هر بخش به یکی از ابعاد استراتژی داده و چگونگی استفاده از آن بعد را برای ایجاد ارزش بیشتر در کسب‌وکار می‌پردازد. تم‌های اصلی که بخش‌های مختلف کتاب به آنها می‌پردازند را می‌توان به صورت زیر بررسی کرد:
🔹 داده‌ و تحلیل: اهمیت تحلیل داده در کسب‌وکارها برای تصمیم‌گیری و ایجاد ارزش.
🔹 هوش مصنوعی: چگونگی استفاده از هوش مصنوعی در اتوماسیون فعالیت‌ها،‌ افزایش اثربخشی و ایجاد موقعیت‌های ارزش‌آفرین.
🔹 حاکمیت داده و اخلاق:‌ اهمیت و چگونگی تضمیت استفاده امن و مسئولانه از داده.
🔹 استراتژی داده: راهنمایی‌هایی کلی برای ایجاد یک استراتژی داده به صورتی که در آن مشخص شود سازمان چگونه می‌تواند داده را در راستای سودآوری و ایجاد ارزش برای خود جمع‌آوری، نگهداری، مدیریت و تحلیل کند.

📍کتاب ۶ حوزه مهم برای استفاده از فواید تحلیل داده را به صورت زیر مشخص می‌کند:

🔹 بهبود تصمیم‌گیری.
🔹درک مشتریان و بازارها.
🔹ساخت و طراحی محصولات بهتر.
🔹ارائه خدمات بهتر.
🔹بهبود فرایندهای کسب‌وکار.

📍نگارنده در بخش‌های دیگر کتاب به بررسی دقیق‌تر ابعاد استراتژی داده با توجه به ۶ حوزه‌ی ذکر شده پرداخته و در بخش‌های دیگر، ابعاد متفاوت تحلیل، از جمع‌آوری داده تا انواع مختلف کسب بینش از داده با استفاده از ابزار یادگیری ماشین و زیرساخت‌های مورد نیاز برای تحلیل را بررسی کرده است.

این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/c65b


#معرفی_کتاب
#عظیم_داده
#احسان_نگهدار


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
👍1