تحلیلگری عظیم‌داده و کسب‌وکار
930 subscribers
42 photos
39 videos
52 files
436 links
📌تحلیلگری عظیم داده و کسب و کار؛

🔎Big Data and Business Analytics

آموزش، پژوهش، اطلاع‌رسانی، ترویج و خدمات مشاوره حوزه تحلیلگری عظیم‌داده

سرپرست کانال: دکتر سعید روحانی، عضو هیأت علمی دانشگاه تهران

وبسایت
www.bdbanalytics.ir

ادمین کانال
@BDBA_UT
Download Telegram
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم­ ، پلتفرم و سناریوهای کاربردی

فصل اول: هوشمندی و تحلیل کسب و کار

فصل اول کتاب به بررسی مفاهیم اولیه کسب و کار و لایه­‌های تحلیلی مختلفی از هوشمندی که در هر سازمان باید مورد توجه قرار گیرد می­‌پردازد.

سه مشخصه اصلی عظیم داده؛ حجم، تنوع و سرعت پیشران­‌های اصلی برای نیاز کسب و کارها به تصمیمات مبتنی بر داده می­‌باشد. بنابراین آنچه که امروزه در تحلیل کسب و کار مورد توجه است به کارگیری افراد مناسب برای استخراج داده های مناسب و ارائه تحلیل درست در زمان مناسب می باشد تا بدین ترتیب فرآیند تبدیل داده خام به تصمیمات نهایی مبتنی بر داده منجر شود.

زمانی که صحبت از تصمیمات داده محور می­‌شود نیاز است تا سه لایه تحلیلی بر اساس مقطع زمانی مورد بررسی قرار گیرند:

💢 گذشته: چه اتفاقاتی در گذشته رخ داده است؟ چگونه و به چه دلیل اتفاق است؟

💢 حال: در حال حاضر چه اتفاقاتی در جریان هستند و بهترین اقدام برای مرحله بعدی چه تصمیماتی می‌باشد؟

💢 آینده: چه اتفاقی در آینده رخ خواهد داد؟ چه سناریوهایی را می توان برای اتفاقات محتمل در نظر گرفت؟

زمانیکه صحبت از هوشمندی کسب و کار می شود رویکرد گذشته نگر بیشتر مدنظر می باشد درحالیکه در تحلیل داده محور کسب و کار علاوه بر رویکرد گذشته نگر، رویکرد آینده نگر نیز مورد توجه قرار می گیرد.

بر اساس همین تقسیم بندی زمانی سه نوع رویکرد تحلیلی کسب و کار مطرح ­می­‌شود:

🔹تحلیل توصیفی: این رویکرد با استفاده از تکنیک­‌های آماری و تحلیل داده بر اتفاقات گذشته متمرکز است تا به صورت تجمعی و خلاصه شده، بینشی را در مورد اتفاقات گذشته ارائه دهد. تنظیم و محاسبه شاخص های کلیدی کسب و کار در بخش های مختلف عملیات، مالی، فروش ، بازاریابی و ... در این لایه قرار می گیرند چرا که با محاسبه این سنجه ها بر اساس داده های تاریخی می توان به تحلیل هوشمندانه ای از گذشته رسید.

🔹 تحلیل پیش گویانه: لایه بعدی تحلیل داده در سازمان مربوط به تحلیل هایی از جنس پیش بینی دارد. در این لایه با استفاده از الگوریتم های داده کاوی، هدف یافتن الگو و پیش بینی آینده می باشد.

🔹 تحلیل تجویزی: لایه سوم تحلیلی مربوط به انتخاب تصمیم بهینه از بین گزینه های موجود برای آینده می­‌باشد. در این لایه تاثیر انتخاب گزینه‌های مختلف بر نتیجه مطلوبی که کسب و کار به دنبال آن است سنجیده می­‌شود و سعی می‌شود تصمیمی انتخاب شود که بیشترین آورده را برای هدف مطلوبی که کسب و کار مدنظر دارد باشد. مدلسازی این لایه به مراتب پیچیده تر از دو لایه قبلی می‌باشد چرا که تکنیک‌های مختلف بهینه‌سازی و آماری را همزمان نیاز دارد.

علاوه بر لایه­‌های تحلیلی کسب و کار، یک نمونه چارچوب فناوری تحلیل کسب و کار در این فصل ارائه شده است.

1️⃣ منابع داده: با توجه به وجود دپارتمان های مختلف و همچنین تبادل داده ای که خارج از سازمان قرار می­‌گیرد همواره منابع داده ای مختلفی وجود دارد که به عنوان خوراک اولیه تصمیمات داده محور خواهند بود.

2️⃣ آماده سازی داده: با توجه به ناسازگاری که بین منابع مختلف وجود دارد و همچنین موضوع کیفیت داده ها نیاز است تا اقداماتی در مورد آماده سازی و پیش پردازش اولیه داده ها صورت گیرد تا نهایتا تصمیمات بر اساس داده های مورد اطمینان باشند.

3️⃣ ذخیره سازی داده: منظور از ذخیره سازی در این چارچوب، ذخیره کردن داده های تحلیلی می­‌باشد که عموما در انباره داده و دریاچه داده صورت می گیرد.

4️⃣ تحلیل داده: قسمت تحلیل داده اجزای شکسته شده بخش قبلی می­باشند که با توجه به هدف کسب و کار و راحتی تحلیل به بخش های معناداری مثل دیتامارت ها تبدیل شدند.

5️⃣ استفاده و دسترسی داده: آخرین لایه این چارچوب مربوط به نحوه دسترسی و استفاده از این داده ها می باشد. این موضوع در هر کسب و کار با توجه به دسترسی های مختلف متفاوت می باشد.

این چارچوب فناوری تحلیل کسب و کار در کنار مراحلی که در تحلیل کسب و کار باید طی کرد، دید کلی را برای طراحی فناوری های مورد نیاز برای هر سازمان ایجاد خواهد کرد. علاوه بر این بستری برای پیاده سازی هوش مصنوعی خواهد بود که موضوع فصول بعدی کتاب می‌باشند.

همچنین می‌توانید این مطلب را در لینک زیر مطالعه بفرمایید.

🔗 https://bdbanalytics.ir/i0ke

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_اول
#علی_محمدی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب

🔍 تحلیل افراد در زمانه‌ی عظیم‌داده

"People Analytics in the Era of Big Data: Changing the Way You Attract, Acquire, Develop, and Retain Talent”


🖋 نویسندگان: Jean Paul Isson, Jesse S. Harriott

📌این کتاب در سال ۲۰۱۶ و توسط Wiley انتشار یافته است.


📍این کتاب را می‌توان به عنوان راهنمایی کامل استفاده از تحلیل عظیم داده در فرایندهای مختلف منابع انسانی در نظر گرفت که با تمرکز بر مدیریت استعداد و استفاده از داده‌های افراد در فرایندهای مختلف نگاشته شده است.
📍کتاب به ۱۴ فصل تقسیم شده که ۳ فصل اولیه به مقدمات تحلیل افراد، فصول ۴ تا ۱۲ به بررسی جداگانه‌ی فرایندهای منابع انسانی و استفاده از تحلیل افراد در آن‌ها پرداخته شده و در نهایت در دو فصل آخر ترکیب عظیم داده و تحلیل افراد و آینده‌ی تحلیل افراد را بررسی می‌کند. ساختار کتاب به گونه‌ای است که در هر فصل علاوه‌ بر توضیح مفاهیم، شامل مصاحبه با صاحب‌نظران هر حوزه در استفاده از تحلیل افراد در آن حوزه و مطالعه‌ موردی‌های مختلف در پیاده‌سازی‌های موفق تحلیل افراد در آن حوزه‌ها می‌شود.

📍کتاب ۷ ستون اصلی موفقیت تحلیل افراد را به صورت زیر معرفی می‌کند و در نهایت ترکیب این مفاهیم را با اهرم تحلیل عظیم‌داده مورد بررسی قرار می‌دهد:

🔹 تحلیل برنامه‌ریزی افراد.
🔹تحلیل‌های منبع‌یابی.
🔹تحلیل‌های جذب و استخدام.
🔹آنبورد افراد، سازگاری فرهنگی و مشارکت کارکنان.
🔹ارزیابی عملکرد، توسعه و ارزش طول عمر کارکنان.
🔹خروج و نگهداشت کارکنان.
🔹سلامتی، بهداشت و امنیت کارکنان.

📍نگارندگان سعی داشته‌اند داده‌محور شدن تصمیم‌های مدیران منابع انسانی و مبتنی بر واقعیت شدن آن‌ها را با توجه به رشد روزافزون حجم، تنوع و سرعت داده‌ها که عظیم‌داده را شکل می‌دهند در این کتاب هدف قرار دهند که با توجه به ساختار موجود در کتاب می‌توان نتیجه گرفت تا میزان زیادی به این مهم دست پیدا کرده‌اند.

این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/qrp3


#معرفی_کتاب
#عظیم_داده
#احسان_نگهدار


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
📌معرفی مقالات حوزه عظیم داده‌ها
❇️ نام مقاله:

A Tutorial on Federated Learning from Theory to Practice: Foundations, Software Frameworks, Exemplary Use Cases, and Selected Trends

✍️ نویسندگان:

M. Victoria Luzón, Nuria Rodríguez-Barroso, Alberto Argente-Garrido , Daniel Jiménez-López, Jose M. Moyano, Javier Del Ser, Weiping Ding, Francisco Herrera

🗓 سال انتشار: ۲۰۲۴
📔 ژورنال:
IEEE/CAA Journal of Automatica Sinica

🔸مقاله با این مقدمه آغاز شده که هنگامی که حفظ حریم خصوصی داده‌ها به عنوان یک ضرورت در نظر گرفته می‌شود، یادگیری مشارکتی (فدرال FL) به عنوان یک زمینه هوش مصنوعی مرتبط برای توسعه مدل‌های یادگیری ماشین در یک محیط توزیع شده و غیرمتمرکز ظاهر می‌شود.

🔸 یادگیری مشارکتی اجازه می‌دهد تا مدل‌های ML بر روی دستگاه‌های محلی بدون نیاز به انتقال داده متمرکز آموزش داده شوند، در نتیجه به دلیل توانایی ذاتی خود در بهبود مسائل مربوط به حفظ حریم خصوصی و کارایی یادگیری توزیع شده، توجه پژوهشگران زیادی را به خود جلب کرده است . بعلاوه این رویکرد بسیار مقیاس پذیر بوده  چراکه می‌تواند شرکت کنندگان متعددی را که هر کدام منابع داده خود را دارند، پوشش دهد. این مساله می‌تواند به ویژه در سناریوهایی با تولید مداوم داده مفید باشد، به عنوان مثال، در دستگاه‌های حسگر اینترنت اشیا. در نتیجه، FL به یک زمینه مهم هوش مصنوعی تبدیل شده است و علاقه محققان، توسعه دهندگان و دانشمندان داده را در مطالعات نظری و عملی و بخصوص برنامه هایی که با داده‌های حساس سروکار دارند، به خود جلب کرده است.

🔸اولین برنامه موفق FL توسط Google برای پیش‌بینی ورودی متن کاربر توسعه داده شد بطوریکه داده‌ها به صورت محلی در ده‌ها هزار دستگاه Android، نگهداری می‌شد. از آن زمان، FL برای طیف گسترده‌ای از کاربردها در زمینه‌های مختلف، از مهندسی صنایع گرفته تا مراقبت های بهداشتی به کار گرفته شده است.
 
🔸مقاله پس از ذکر مقدمات ، در بخش 2 به چرایی و چگونگی FL پرداخته و تاکید می‌کند که یادگیری ماشین یکی از زمینه‌های پرکاربرد هوش مصنوعی است که به دلیل افزایش تقاضا از نظر حجم و تنوع داده‌ها منجر به چالش‌های متعددی در رابطه با حریم خصوصی داده‌ها و پردازش چنین حجم زیادی از داده‌ها شده است. در حقیقت چالش‌هایی نظیر حفظ حریم خصوصی، ارتباطات و دسترسی به داده‌ها منجر به شکل گیری رویکرد یادگیری مشارکتی (فدرال) یا FL شده است. 

🔸در بخش 3، مقاله ضمن بررسی زیرساخت یادگیری مشارکتی و عناصر کلیدی آن، 2 معماری اصلی در این حوزه و وجه تمایز آنها را شرح داده و قسمت بعد به توضیح امنیت داده در این رویکرد می‌پردازد.

🔸 در بخش چهارم، مقاله به معرفی مجموعه داده‌ها و چارچوب‌های نرم افزاری پیشرفته در این حوزه پرداخته و پرکاربردترین مجموعه داده‌ها در ادبیات موضوع را برای انجام آزمایشات FL ارائه کرده و سپس طیف وسیعی از چارچوب‌های نرم‌افزاری پیشرفته برای طراحی چنین مطالعاتی را از زوایای مختلف مورد تجزیه و تحلیل قرار داده است .

🔸 در بخش پنجم مقاله، دستورالعمل‌های روش شناختی برای شبیه‌سازی سناریوهای FL ارائه شده است.

🔸بخش ششم مقاله به پاسخ به این پرسش می‌پردازد که اساسا" زمانی که داده‌ها بین چندین کلاینت توزیع می‌شود، آیا FL نسبت به رویکرد دیگر (غیر FL)  مزیتی دارد یا خیر و به ارائه یک مقایسه عملکرد بین استراتژی‌های FL و غیرFL می‌پردازد.

🔸 در بخش هفتم مقاله به ارائه شش مورد مطالعاتی در زمینه بکارگیری FL  می‌پردازد و پیاده‌سازی راه حل را با استفاده از 3 فریمورک مختلف (TFF, Flower و FATE) نشان می‌دهد.

🔸  در نهایت در بخش هشتم روندهای مطالعاتی در حوزه FL ارائه شده که می‌تواند چشم اندازهای تحقیقاتی مناسبی را برای پژوهشگران معرفی نماید.  

🔸 این مقاله سعی کرده تا با نگاه جامعی که به مفهوم و کاربردهای FL دارد، بتواند به عنوان مرجعی برای پژوهشگران این حوزه مطرح شود. 

👈در صورت تمایل، می‌توانید فایل مقاله را از لینک زیر دریافت فرمایید.


🔗 https://bdbanalytics.ir/oyip

#معرفی_مقاله
#تحلیل_عظیم_داده
#صبا_بزرگی
www.bdbanalytics.ir
@BigData_BusinessAnalytics
Media is too big
VIEW IN TELEGRAM
📌📌 آینده هوش مصنوعی، بلاکچین، تحلیلگری عظیم داده


در این ویدئو سه روند اصلی که دنیای فناوری هوشمند را شکل می‌دهند، مورد بحث قرار می‌گیرند: هوش مصنوعی (AI)، بلاک‌چین و تحلیلگری عظیم داده‌ها

همچنین می‌توانید این ویدئو را در لینک زیر مشاهده بفرمایید.

🔗 https://bdbanalytics.ir/cmib

#ويدئو_کوتاه
#عظیم_داده
#تحلیلگری
#هوش_مصنوعی
#بلاکچین
#آرش_قاضی_سعیدی

@BigData_BusinessAnalytics
www.bdbanalytics.ir
🌱 بهارنامه

فایل بیست و سومین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار (بهار 1403) در پست بعد قابل دریافت می‌باشد.

#فصلنامه_الکترونیک
#بهارنامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
baharaneh 1403.pdf
1.7 MB
📣 بیست و سومین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار

#فصلنامه_الکترونیک
#بهارنامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

فصل دوم: هوش مصنوعی

در فصل اول کتاب "هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی" به مفاهیم اولیه تحلیل و هوشمندی کسب و کار پرداختیم. در ادامه این فصل، در فصل دوم به طور خاص به موضوع هوش مصنوعی و روش‌های مختلفی که در تحلیل کسب و کار به کار گرفته می‌شوند اشاره شده است.
به طور کلی هوش مصنوعی شامل شاخه‌های متنوعی مثل رباتیک، سیستم‌های خبره، یادگیری ماشین، مدل‌های شناختی و ... می‌باشد. اما وقتی صحبت از کاربرد هوش مصنوعی در تحلیل کسب و کار می‌شود؛ نقطه تمرکز بر روش‌های یادگیری ماشین می‌باشد که می‌توانند منجر به تولید بینش در کسب و کارها شود. بر این اساس تمرکز فصل دوم بر معرفی روش‌های یادگیری ماشین می‌باشد که ابتدا به سه دسته کلی یادگیری با نظارت، یادگیری بدون نظارت و یادگیری تقویتی اشاره می‌کند.
علاوه بر توضیح این سه روش، به صورت جزئی تر در مورد روش‌های دسته بندی، رگرسیون، خوشه بندی، استخراج قوانین و بهینه سازی موضوعاتی مورد بررسی قرار می‌گیرند که در بخش خلاصه کتاب به آن اشاره شده است.

برای مطالعه خلاصه فصل دوم به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/7ijz

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_دوم
#علی_محمدی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
🔎 معرفی کسب و کار داده محور

📌شرکت Airbnb یکی از بزرگ‌ترین پلتفرم‌های اجاره کوتاه‌مدت در دنیا است. این شرکت از داده‌ها به طور گسترده‌ای استفاده می‌کند تا خدمات خود را بهینه‌سازی کند، تجربه کاربران را بهبود بخشد و تصمیم‌گیری‌های هوشمندانه‌تری انجام دهد. در این مقاله، به بررسی چگونگی استفاده از داده‌ها در این شرکت می‌پردازیم.

🔹 پلتفرم Airbnb یک بازار آنلاین است که افراد می‌توانند از طریق آن محل اقامت خود را به اشتراک بگذارند یا مکان‌هایی را برای اقامت خود اجاره کنند. این پلتفرم از سال 2008 آغاز به کار کرده و از آن زمان به یکی از بزرگ‌ترین پلتفرم‌های اجاره کوتاه‌مدت در جهان تبدیل شده است. موفقیت Airbnb به عوامل متعددی از جمله استفاده هوشمندانه از داده‌ها وابسته است.

📌انواع داده‌های مورد استفاده در Airbnb
این پلتفرم از انواع مختلف داده‌ها برای بهینه‌سازی خدمات خود استفاده می‌کند. برخی از مهم‌ترین این داده‌ها عبارتند از:
1️⃣ داده‌های کاربران: شامل اطلاعات پروفایل کاربران، تاریخچه رزروها، نظرات و امتیازات کاربران.
2️⃣ داده‌های میزبان‌ها: شامل اطلاعات پروفایل میزبان‌ها، ویژگی‌های ملک‌ها، قیمت‌گذاری و دسترسی‌ها.
3️⃣ داده‌های مکانی: شامل موقعیت جغرافیایی ملک‌ها، جاذبه‌های محلی و اطلاعات حمل‌ونقل.
4️⃣ داده‌های بازار: شامل تحلیل عرضه و تقاضا، روندهای بازار و قیمت‌گذاری رقابتی.

🔸این پلتفرم از تکنیک‌های پیشرفته تحلیل داده و یادگیری ماشین برای بهبود خدمات خود استفاده می‌کند. برخی از کاربردهای اصلی این تکنیک‌ها در Airbnb عبارتند از:
📍پیش‌بینی قیمت‌ها
📍توصیه‌گرها
📍تشخیص تقلب
📍شخصی‌سازی تجربه کاربر
📍بهینه‌سازی قیمت‌گذاری
📍تطبیق بهتر مهمان و میزبان
📍بهبود تجربه کاربران با استفاده از داده‌ها:
🔹بهینه‌سازی جستجو
الگوریتم‌های جستجوی Airbnb با استفاده از داده‌های کاربران و ملک‌ها، نتایج جستجوی بهتری را ارائه می‌دهند. این الگوریتم‌ها با تحلیل کلمات کلیدی، ترجیحات کاربران و تاریخچه جستجوها، نتایج مرتبط‌تری را به کاربران نمایش می‌دهند.
🔹پشتیبانی مشتریان
پلتفرم Airbnb از داده‌ها برای بهبود خدمات پشتیبانی مشتریان استفاده می‌کند. با تحلیل داده‌های تماس‌ها و مشکلات گزارش‌شده، این شرکت می‌تواند مشکلات رایج را شناسایی و راه‌حل‌های مناسبی ارائه دهد. این تحلیل‌ها به بهبود فرآیندهای پشتیبانی و افزایش رضایت مشتریان کمک می‌کند.
📍بهینه‌سازی عملیات و فرآیندهای داخلی
علاوه بر بهبود تجربه کاربران، Airbnb از داده‌ها برای بهینه‌سازی عملیات و فرآیندهای داخلی خود نیز استفاده می‌کند. برخی از کاربردهای اصلی داده‌ها در این زمینه عبارتند از:
1️⃣ مدیریت موجودی
2️⃣ تحلیل عملکرد

📌چالش‌ها و فرصت‌های آینده
استفاده از داده‌ها در Airbnb با چالش‌هایی نیز همراه است. برخی از این چالش‌ها عبارتند از:
🔹حفظ حریم خصوصی
یکی از مهم‌ترین چالش‌ها در استفاده از داده‌ها، حفظ حریم خصوصی کاربران است. Airbnb باید اطمینان حاصل کند که داده‌های کاربران به صورت ایمن نگهداری و استفاده می‌شوند و حریم خصوصی آنها رعایت می‌شود.
🔸مدیریت داده‌های عظیم
این شرکت با حجم زیادی از داده‌ها سروکار دارد و مدیریت این داده‌ها یکی از چالش‌های مهم است. بنابراین باید از ابزارها و تکنولوژی‌های مناسب برای ذخیره، پردازش و تحلیل این داده‌ها استفاده کند.
🔹بهبود مداوم الگوریتم‌ها
الگوریتم‌های تحلیل داده و یادگیری ماشین نیاز به بهبود و به‌روزرسانی مداوم دارند. Airbnb باید از تیم‌های متخصص و منابع کافی برای بهبود مداوم این الگوریتم‌ها استفاده کند.

📌نتیجه‌گیری
استفاده از داده‌ها در Airbnb یکی از عوامل اصلی موفقیت این شرکت است. این شرکت با استفاده از داده‌های مختلف، تحلیل‌های پیشرفته و الگوریتم‌های یادگیری ماشین، خدمات خود را بهینه‌سازی کرده و تجربه کاربران را بهبود می‌بخشد. با وجود چالش‌های موجود، Airbnb همچنان به بهره‌برداری از داده‌ها برای رشد و نوآوری ادامه می‌دهد.

برای مطالعه این مطلب به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/kka0


#محمدرضا_مرادی
#کسب_و_کار_داده_محور
#Airbnb


@BigData_BusinessAnalytics
www.bdbanalytics.ir
📚معرفی کتاب

🔍 دایرةالمعارف فناوری‌های عظیم‌داده

"Encyclopedia of Big Data Technologies"


🖌 نویسندگان: Sherif Sakr, Albert Zomaya

📌این کتاب در سال ۲۰۲۰ توسط Springer انتشار یافته است.

📌دایرةالمعارف فناوری‌های عظیم‌داده توسط کارشناسان موضوعی از سراسر جهان، هم در صنعت و هم در دانشگاه، تالیف شده است، طیف گسترده ای از موضوعات عظیم داده را با عمق و دقت بی نظیری پوشش می‌دهد. هیئت نویسندگان، متشکل از ۳۵ محقق برجسته، تضمین می‌کنند که هر بخش به طوری طراحی شده تا مناسب‌ترین اصطلاحات را به تصویر بکشد. این کارشناسان مقالات را به شیوه‌ای سازگار و استاندارد توسعه می‌دهند و از محتوای با کیفیت و قابل اعتماد، اطمینان می‌دهند.

📌این کتاب مرجع گسترده به نیاز حیاتی برای وجود یک منبع تحقیقاتی جامع در حوزه فناوری‌های عظیم‌داده‌ می‌پردازد، از مرزهای انضباطی فراتر می‌رود و رشته‌های فنی مانند سیستم‌های ذخیره‌سازی عظیم داده، پایگاه‌های داده NoSQL، محاسبات ابری، سیستم‌های توزیع‌شده، یادگیری ماشین و فناوری‌های اجتماعی را در بر می‌گیرد.


ویژگی‌های کلیدی:

🔸پوشش جامع: این دایرةالمعارف بیش از ۳۰۰ مدخل را ارائه می‌کند که مفاهیم و اصطلاحات کلیدی را در زمینه گسترده عظیم‌داده و یادگیری ماشین پوشش می‌دهد. هر ورودی شامل مقالات عمیق، تعاریف، پیشینه تاریخی، برنامه‌های کاربردی کلیدی و کتابشناسی ست که درک کاملی از موضوع را ارائه می‌دهد.

🔸ارجاعات متقابل گسترده: برای تسهیل در کشف سریع و کارآمد اطلاعات، دایرةالمعارف شامل ارجاعات متقابل گسترده است که به خوانندگان امکان می‌دهد به طور یکپارچه در موضوعات مرتبط به هم حرکت کنند.

🔸رویکرد میان رشته‌ای: دایرةالمعارف صرفاً بر یک رشته یا حوزه تحقیقاتی تمرکز نمی‌کند بلکه جنبه‌ها و فناوری‌های مختلف مربوط به عظیم داده را پوشش می‌دهد، از جمله فناوری‌های فعال، یکپارچه‌سازی داده‌ها، ذخیره‌سازی و نمایه‌سازی، فشرده‌سازی داده‌ها، مدل‌های برنامه‌نویسی، سیستم‌های SQL، سیستم‌های جریان، پردازش داده‌های معنایی، تجزیه و تحلیل گراف، مدیریت داده‌های مکانی، تجزیه و تحلیل، تجزیه و تحلیل فرآیند کسب‌وکار، پردازش بر روی سخت افزار مدرن، برنامه‌های امنیت و حریم خصوصی.

📌با درک پتانسیل بالای تجزیه و تحلیل عظیم داده، جوامع تحقیقاتی، شرکت‌ها و بخش‌های دولتی به طور مداوم در این حوزه پیشرفت می‌کنند. هدف "دایرةالمعارف فناوری‌های عظیم داده" ارائه یک نمای کلی جامع از این پیشرفت‌ها است و اطمینان حاصل می‌کند که مدخل‌ها به طور مرتب به روز می‌شوند تا آخرین پیشرفت‌ها را منعکس کنند. همچنین با مشارکت بسیاری از رهبران در این زمینه، دایرةالمعارف مطالب خواندنی ارزشمندی را برای طیف گسترده‌ای از مخاطبان، از محققان متخصص و مهندسان نرم افزار گرفته تا دانشجویان و پژوهشگران جوان ارائه می‌دهد.


این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/2vk7

#معرفی_کتاب
#عظیم_داده
#زهرا_رفیعی‌پور


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
🛠 معرفی ابزار Apache Iceberg

ابزارApache Iceberg یک پروژه اپن سورس است که توسط Apache Software Foundation توسعه یافته است. این ابزار برای مدیریت داده‌های عظیم در قالب جداول به گونه‌ای طراحی شده که به مشکلات متداول در سیستم‌های ذخیره‌سازی داده‌های عظیم پاسخ دهد. در ادامه به جزئیات بیشتری از این ابزار پرداخته می‌شود:

ساختار و معماری
ابزارIceberg یک فرمت ذخیره‌سازی و یک لایه مدیریت فراداده است که برای استفاده در محیط‌های توزیع شده طراحی شده است. این ابزار به نحوی طراحی شده که از نسخه‌بندی داده‌ها، تغییرات تدریجی و بهینه‌سازی عملیات خواندن و نوشتن پشتیبانی کند.

ویژگی‌های کلیدی

📌 نسخه‌بندی و مدیریت تاریخچه داده‌ها:
امکان مدیریت نسخه‌های مختلف از داده‌ها را فراهم می‌کند. این ویژگی به کاربران اجازه می‌دهد تا به سادگی به نسخه‌های قبلی داده‌ها دسترسی پیدا کنند و تغییرات اعمال شده را بررسی کنند.

📌 تقسیم بندی (Partitioning) پیشرفته:
از سیستم تقسیم‌بندی پیشرفته‌ای استفاده می‌کند که امکان مدیریت بهتر داده‌ها و بهینه‌سازی جستجو و بازیابی داده‌ها را فراهم می‌کند. این سیستم به صورت خودکار تقسیم‌بندی‌ها را بهینه می‌کند تا عملکرد بهتری داشته باشد.

📌 پشتیبانی از فرمت‌های مختلف داده:
از فرمت‌های داده‌ای مانند Parquet، Avro و ORC پشتیبانی می‌کند. این پشتیبانی از فرمت‌های متنوع به کاربران امکان می‌دهد که از Iceberg در محیط‌های مختلف با فرمت‌های داده‌ای مختلف استفاده کنند.

📌 همکاری با موتورهای پردازش داده:
به راحتی با موتورهای پردازش داده‌ای مانند Apache Spark، Apache Hive، و Trino (PrestoSQL) یکپارچه می‌شود. این یکپارچگی به کاربران اجازه می‌دهد تا از ابزارهای تحلیلی محبوب خود با Iceberg استفاده کنند.

مزایای استفاده از Apache Iceberg

📍 مدیریت آسان داده‌ها: با استفاده از Iceberg، مدیریت و نگهداری عظیم داده‌ها آسان‌تر می‌شود.

📍بهینه‌سازی عملکرد: با بهینه‌سازی خودکار تقسیم‌بندی و فهرست‌بندی، عملکرد خواندن و نوشتن داده‌ها بهبود می‌یابد.

📍انعطاف‌پذیری در تحلیل داده‌ها: Iceberg به کاربران اجازه می‌دهد تا به سادگی تحلیل‌های پیچیده و گسترده‌ای را بر روی عظیم داده‌ها انجام دهند.

کاربردها

📍تحلیل عظیم داده‌ها: شرکت‌ها می‌توانند از Iceberg برای تحلیل عظیم داده‌ها استفاده کنند.
📍مدیریت داده‌های تاریخی: با قابلیت نسخه‌بندی و مدیریت تاریخچه داده‌ها، Iceberg برای کاربردهایی که نیاز به دسترسی به داده‌های تاریخی دارند، مناسب است.
📍بهینه‌سازی عملیات خواندن و نوشتن: Iceberg به دلیل بهینه‌سازی‌های پیشرفته خود، برای محیط‌هایی که نیاز به عملیات خواندن و نوشتن سریع دارند، ایده‌آل است.

می‌توانید این مطلب را در لینک زیر نیز مطالعه فرمایید.

🔗 https://bdbanalytics.ir/sfdm



#معرفی_ابزار
#داده‌های_عظیم
#فاطمه_مصلحی
#Apache_Iceberg

@BigData_BusinessAnalytics
www.bdbanalytics.ir
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

📌فصل سوم: هوش مصنوعی و پلتفرم‌های تحلیلگری کسب و کار

بخش اول از فصل سوم کتاب هوش مصنوعی برای تحلیلگری کسب و کار: الگوریتم‌ها، پلتفرم‌ها و سناریوهای کاربردی، ابتدا به مفاهیم و چارچوب‌های نرم افزاری پایه همچون مدیریت داده‌ها، انبارداده، و دریاچه داده پرداخته شده است و سپس به معرفی ابزارها و پلتفرم‌های مختلف مرتبط با پردازش و تحلیل داده‌های عظیم می‌پردازد.
پلتفرم‌هایی که می‌توانند برای پیاده‌سازی دریاچه داده استفاده شوند عبارتند از:
❇️ فایل سیستم توزیع شده هدوپ (HDFS)
❇️ سرویس ذخیره‌سازی ساده آمازون (S3)، ذخیره‌سازی ابری گوگل، ذخیره‌سازی دریاچه داده Azure
❇️ دریاچه‌های داده همچنین می‌توانند با انبارداده کلاسیک، HBase یا پایگاه داده NoSQL (مانند MongoDB) ترکیب شوند.
📍پردازش جریان داده و صف پیام
🔹سیستم‌های مبتنی بر MapReduce مانند Amazon EMR نمونه‌هایی از پلتفرم‌هایی هستند که از پردازش‌های دسته‌ای پشتیبانی می‌کنند. در مقابل، پردازش جریان نیازمند گرفتن یک دنباله از داده‌ها و به‌روزرسانی تدریجی سنجه‌ها، گزارش‌ها و آمار خلاصه در پاسخ به هر مجموعه داده ورودی است. بنابراین، پردازش جریان برای نظارت و پاسخگویی بلادرنگ مناسب‌تر است.

🔸امروزه بسیاری از شرکت‌ها با ترکیب دو رویکرد و ایجاد یک لایه بلادرنگ (جریان) و یک لایه دسته ای به طور همزمان یا سری، بر روی مدل‌های ترکیبی کار می‌کنند. داده‌ها ابتدا توسط یک پلتفرم داده جریانی برای ارائه بینش‌های بلادرنگ پردازش می‌شوند و سپس به یک مخزن داده بارگذاری می‌شوند که در آنجا می‌توان آن را تبدیل و برای انواع مختلف موارد استفاده پردازش دسته‌ای استفاده کرد.

📍سیستم مدیریت پایگاه داده
🔹یک سیستم مدیریت داده in-memory (IMDBMS) یک سیستم مدیریت پایگاه داده است که عمدتاً برای ذخیره‌سازی، مدیریت و دستکاری داده‌ها به حافظه اصلی متکی است. این کار تأخیر و سربار ذخیره‌سازی دیسک را حذف می‌کند و مجموعه دستورالعمل‌های مورد نیاز برای دسترسی به داده‌ها را کاهش می‌دهد. برای ذخیره‌سازی و دسترسی کارآمدتر، داده‌ها می‌توانند در یک قالب فشرده ذخیره شوند.

📍آپاچی هدوپ
🔸محیط‌های عظیم داده معمولاً نه تنها شامل داده‌های عظیم بلکه انواع مختلفی از داده‌های تراکنش ساختاریافته تا انواع نیمه‌ساختاریافته و بدون ساختار اطلاعات مانند سوابق کلیک، وب سرور و لاگ‌های برنامه‌های موبایل، پست‌های رسانه‌های اجتماعی، ایمیل‌های مشتری و داده‌های سنسور از اینترنت اشیا می‌شوند. فناوری که در ابتدا فقط با نام آپاچی هدوپ شناخته می‌شد، به عنوان بخشی از یک پروژه متن‌باز در بنیاد نرم‌افزار آپاچی (ASF) در حال توسعه است. توزیع تجاری هدوپ در حال حاضر توسط چهار ارائه دهنده اصلی پلتفرم داده‌های عظیم ارائه می‌شود: فناوری‌های آمازون وب سرویس‌ (AWS)، کلودرا، Hortonworks و MapR. علاوه بر این، گوگل، مایکروسافت و سایر فروشندگان خدمات مدیریت مبتنی بر ابر را بر اساس هدوپ و فناوری‌های مرتبط ارائه می‌دهند.

📍تحلیل داده و زبان‌های برنامه‌نویسی
🔹علاوه بر الگوریتم‌ها، تحلیل داده همچنین نیازمند پیاده‌سازی و یکپارچه‌سازی با اپلیکیشن‌های موجود است. زبان‌های برنامه‌نویسی مانند پایتون و R در این راستا مورد استفاده قرار می‌گیرند. R نه تنها توسط کاربران دانشگاهی استفاده می‌شود، بلکه بسیاری از شرکت‌های بزرگ از جمله اوبر، گوگل، ایربی‌ان‌بی، فیس‌بوک و غیره نیز از R استفاده می‌کنند.
🔸 اسکالا (Scala) یک زبان برنامه‌نویسی سطح بالا، چند پارادایمی و همه منظوره است. این زبان یک زبان برنامه‌نویسی شیءگرا است که از رویکرد برنامه‌نویسی تابعی نیز پشتیبانی می‌کند. هیچ داده اولیه‌ای وجود ندارد، زیرا همه چیز در اسکالا یک شیء است. اسکالا برای بیان الگوهای رایج برنامه‌نویسی به شیوه‌ای دقیق، مختصر و type-safe طراحی شده است. برنامه‌های اسکالا می‌توانند به بایت کد تبدیل شوند و روی ماشین مجازی جاوا (JVM) اجرا شوند.
🔹جولیا (Julia) در سال 2009 ایجاد شد و در سال 2012 به عموم معرفی شد. جولیا با هدف رفع کمبودهای پایتون و سایر زبان‌ها و برنامه‌های محاسبات علمی و پردازش داده طراحی شده است. جولیا از metaprogramming پشتیبانی می‌کند. برنامه‌های جولیا می‌توانند برنامه‌های جولیای دیگر را تولید کرده و حتی کد خود را به روشی شبیه به زبان‌هایی مانند Lisp تغییر دهند.


برای مطالعه خلاصه فصل سوم (بخش اول) به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/hkis

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_سوم
#فاطمه_مظفری


www.bdbanalytics.ir
@BigData_BusinessAnalytics
Media is too big
VIEW IN TELEGRAM
📊 عظیم داده: آینده حسابداری 🌐

آیا می‌دانستید که عظیم داده می‌تواند حسابداری را از یک کار خسته‌کننده به یک فرآیند استراتژیک و هیجان‌انگیز تبدیل کند؟ 🤯
در این ویدیو یاد می‌گیریم چطور عظیم داده مثل یک آهنربای غول‌پیکر، بینش‌های مالی کلیدی را برای شما پیدا می‌کند و چگونه الگوریتم‌های پیشرفته، جایگزین شب‌های طولانی حساب و کتاب دستی می‌شوند. 💻

از پیش‌بینی ریسک‌های مالی تا بهبود روابط با مشتریان، عظیم داده همه چیز را دگرگون می‌کند. 🌟 آماده‌اید با آینده حسابداری آشنا شوید؟ این ویدیو را از دست ندهید! 🎥

#ویدئو
#عظیم_داده
#بیگ_دیتا
#حسابداری
#فناوری
#داده_کاوی
#حمید_جمالی

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب

🔍 استراتژی داده؛ چگونه از دنیای عظیم داده، تحلیل و هوش مصنوعی سودمند شویم

"Data Strategy
How to profit from a world of big data, analytics and artificial intelligence”


🖋 نویسنده: Bernard Marr

📌نسخه دوم این کتاب در سال 2022 و توسط KoganPage انتشار یافته است.


📍این کتاب به‌عنوان یک راهنمای مرحله‌به‌مرحله برای رهبران و مدیران کسب‌وکار عمل می‌کند تا از قدرت داده‌ها، تحلیل‌ها و هوش مصنوعی برای دستیابی به موفقیت در کسب‌وکار استفاده کنند. این کتاب بین دانش نظری و توصیه‌های عملی تعادل برقرار کرده و آن را قابل دسترس و کاربردی می‌سازد.

📍کتاب به ۱۶ فصل تقسیم شده که هر بخش به یکی از ابعاد استراتژی داده و چگونگی استفاده از آن بعد را برای ایجاد ارزش بیشتر در کسب‌وکار می‌پردازد. تم‌های اصلی که بخش‌های مختلف کتاب به آنها می‌پردازند را می‌توان به صورت زیر بررسی کرد:
🔹 داده‌ و تحلیل: اهمیت تحلیل داده در کسب‌وکارها برای تصمیم‌گیری و ایجاد ارزش.
🔹 هوش مصنوعی: چگونگی استفاده از هوش مصنوعی در اتوماسیون فعالیت‌ها،‌ افزایش اثربخشی و ایجاد موقعیت‌های ارزش‌آفرین.
🔹 حاکمیت داده و اخلاق:‌ اهمیت و چگونگی تضمیت استفاده امن و مسئولانه از داده.
🔹 استراتژی داده: راهنمایی‌هایی کلی برای ایجاد یک استراتژی داده به صورتی که در آن مشخص شود سازمان چگونه می‌تواند داده را در راستای سودآوری و ایجاد ارزش برای خود جمع‌آوری، نگهداری، مدیریت و تحلیل کند.

📍کتاب ۶ حوزه مهم برای استفاده از فواید تحلیل داده را به صورت زیر مشخص می‌کند:

🔹 بهبود تصمیم‌گیری.
🔹درک مشتریان و بازارها.
🔹ساخت و طراحی محصولات بهتر.
🔹ارائه خدمات بهتر.
🔹بهبود فرایندهای کسب‌وکار.

📍نگارنده در بخش‌های دیگر کتاب به بررسی دقیق‌تر ابعاد استراتژی داده با توجه به ۶ حوزه‌ی ذکر شده پرداخته و در بخش‌های دیگر، ابعاد متفاوت تحلیل، از جمع‌آوری داده تا انواع مختلف کسب بینش از داده با استفاده از ابزار یادگیری ماشین و زیرساخت‌های مورد نیاز برای تحلیل را بررسی کرده است.

این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/c65b


#معرفی_کتاب
#عظیم_داده
#احسان_نگهدار


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir
📌معرفی مقالات حوزه عظیم داده‌ها
❇️ نام مقاله:
A Survey on Evaluation of Large Language Models

✍️ نویسندگان:
YUPENG CHAN, XU WANG, JINDONG WANG, YUAN WU, LINYI YANG, KAIJIE ZHU, HAI CHEN, XUAOYUAN YI, CUNXIANG WANG, YIDONG WANG, WEI YE, YUE ZHANG, YI CHANG, PHILIP S.YU, QIANG YANG, XING XIE

🗓سال انتشار: ۲۰۲۴
📔ژورنال:
ACM Transactions on Intelligent Systems and Technology

🔸مدل‌های زبان بزرگ (LLM) به دلیل عملکرد بی‌سابقه‌شان در کاربردهای مختلف، محبوبیت فزاینده‌ای در محیط‌های آکادمیک و صنعت پیدا کرده‌اند.

🔸از آنجایی که LLM ها به ایفای نقش حیاتی هم در تحقیقات و هم در استفاده روزانه ادامه می‌دهند، ارزیابی آنها برای درک بهتر خطرات بالقوه به طور فزاینده‌ای حیاتی می‌شود.

🔸 در طول سال‌های گذشته، تلاش‌های قابل توجهی برای بررسی LLM ها از دیدگاه‌های مختلف صورت گرفته‌است.

🔸این مقاله مروری جامع از این روش‌های ارزیابی (که در فاصله زمانی سال‌های 2020 و 2023 مورد بررسی قرار گرفته‌اند) برای LLM ارائه می‌کند که متمرکز بر سه بعد کلیدی است که عبارتند از: چه چیزی را ارزیابی کنیم، کجا ارزیابی کنیم، و چگونه ارزیابی کنیم.

🔸در مرحله اول، این پژوهش یک نمای کلی از منظر وظایف ارزیابی ارائه می‌دهد که شامل وظایف پردازش زبان طبیعی عمومی، استدلال، استفاده پزشکی، اخلاق، آموزش، علوم طبیعی و اجتماعی، کاربردهای عامل و سایر زمینه‌ها می‌شود. ثانیاً، به سؤالات «کجا» و «چگونه» با غوطه‌ور شدن در روش‌های ارزیابی و معیارها پاسخ می‌دهد، که به عنوان مؤلفه‌های حیاتی در ارزیابی عملکرد LLM عمل می‌کنند. سپس موارد موفقیت و شکست LLM ها را در وظایف مختلف خلاصه بررسی می‌کند.

🔸 نتایج نشان می‌دهد  LLM ها در ایجاد متن واضح، درک زبان، حل مسائل ریاضی، استدلال منطقی و عملکرد خوب در کارهایی مانند ترجمه زبان، تولید متن و پاسخ به سؤالات مهارت دارند.

🔸اما چالش‌های اصلی از این قرار است که LLM ها با درک اختلافات انسانی دست و پنجه نرم می‌کنند و در تشخیص شباهت‌های بین رویدادها مشکل دارند که منجر به خطا در موقعیت های پیچیده و استدلال انتزاعی می‌شود. آنها با زبان‌های غیر لاتین عملکرد نسبتا ضعیفی دارند. همچنین این مدل‌ها ممکن است سوگیری‌های اجتماعی را نشان دهند و در نتیجه خروجی‌های مغرضانه ایجاد کنند. آنها همچنین مشکلاتی در خصوص اعتبارسنجی دارند و گاهی اوقات اطلاعات نادرست تولید می کنند. در نهایت  LLMها نمی‌توانند به راحتی با اطلاعات جدید یا بلادرنگ تطبیق پیدا کنند، و این باعث می‌شود آنها برای کارهایی که نیاز به دانش فعلی دارند، کارایی کمتری داشته باشند. آنها همچنین به دستورات خاصی حساس هستند که می‌تواند بر عملکرد آنها تأثیر بگذارد. .

🔸درپایان، پژوهش چندین چالش آینده را که در ارزیابی LLM در پیش است، روشن می‌نماید. هدف این پژوهش ارائه بینش های ارزشمند به محققان در حوزه ارزیابی LLM است و از این طریق به توسعه LLM های قوی‌تر کمک می‌کند.

👈در صورت تمایل، می‌توانید فایل مقاله را در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/i4r6

#معرفی_مقاله
#تحلیل_عظیم_داده
#صبا_بزرگی

www.bdbanalytics.ir
@BigData_BusinessAnalytics
Media is too big
VIEW IN TELEGRAM
📌📌 نقشه راه کامل تحلیلگر داده

در مدت 8 تا 16 ماه یک تحلیل گر داده شوید. در این ویدئو نقشه راه مراحل کسب مهارت های ضروری جهت تبدیل شدن به یک تحلیلگر داده در سال 2024 را می‌آموزید.

همچنین می‌توانید این ویدئو را در لینک زیر مشاهده فرمایید.

🔗 https://bdbanalytics.ir/ak4q

#ويدئوکوتاه
#عظیم_داده
#تحلیلگرداده
#آرش_قاضی_سعیدی

@BigData_BusinessAnalytics
www.bdbanalytics.ir
🌻 تابستان‌نامه

فایل بیست و چهارمین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار (تابستان 1403) در پست بعد قابل دریافت می‌باشد.

#فصلنامه_الکترونیک
#تابستان‌نامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
tabestane 1403.pdf
3.2 MB
📣 بیست و چهارمین شماره فصلنامه گروه تحلیلگری عظیم‌داده و کسب‌وکار

#فصلنامه_الکترونیک
#تابستان‌نامه

www.bdbanalytics.ir
@BigData_BusinessAnalytics
📖 کتاب بخوانیم؛

📌 "Artificial Intelligence For Business Analytics: Algorithms, Platforms, and Applications Scenarios"


کتاب: هوش مصنوعی برای تحلیل کسب و کار: الگوریتم‌ها­، پلتفرم‌ها و سناریوهای کاربردی

📌فصل سوم: هوش مصنوعی و پلتفرم‌های تحلیلگری کسب و کار- بخش دوم


در خلاصه بخش اول فصل سوم به مفاهیم اصلی هوش مصنوعی مرتبط با تحلیگری کسب و کار همچون انباره داده، دریاچه داده، جریان داده و پایگاه های مدیریت داده پرداختیم. یکی دیگر از مباحث مهم هوش مصنوعی در پلتفرم های تحلیلگری کسب و کار، چارچوب های هوش مصنوعی می باشند.

در گذشته برای پیاده سازی مفاهیم و الگوریتم های هوش مصنوعی نیاز بود تا منطق و فرمول های ریاضیاتی از ابتدا و با جزئیات نوشته شوند که کار نسبتا سخت و پیچیده‌ای بود. اما در حال حاضر با توجه به با توجه به پیشرفت زیرساخت ها و نرم افزارهای متن باز این امکان برای متخصصان هوش مصنوعی وجود دارد که با فراخوانی چارچوب‌های قدرتمند هوش مصنوعی الگوریتم‌های مورد نیاز خود را از صفر بازنویسی کنند. به عبارتی دیگر این چارچوب ها با دریافت پارامترهای ریاضی مختلف و فیت شدن روی دیتاست های مختلف می توانند خروجی های مورد نظر برای تحلیلگران را فراهم کنند تا در وقت و انرژی صرفه جویی قابل توجهی داشته باشند. از میان تمامی چارچوب های هوش مصنوعی 5 چارچوب محبوبیت و کاربردهای زیادی دارند که در ادامه به بررسی آن ها می پردازیم:

📍چارچوب اول: Tensorflow

تنسور فلو ابتدا توسط گوگل برای استفاده داخلی توسعه داده شد و در سال ۲۰۱۵ تحت مجوز اپن سورس آپاچی 2 منتشر شد. گوگل همچنان از این کتابخانه برای خدمات مختلفی مانند تشخیص گفتار، جستجوی تصاویر و پاسخ‌های خودکار در جیمیل استفاده می‌کند.

📍چارچوب دوم: Theano

یک کتابخانه محاسبات علمی سطح پایین مبتنی بر پایتون است که برای وظایف یادگیری عمیق مرتبط با تعریف، بهینه‌سازی و ارزیابی عبارات ریاضی استفاده می‌شود. با اینکه این کتابخانه قدرت محاسباتی چشمگیری دارد، کاربران از رابط کاربری غیرقابل دسترسی و پیام‌های خطای غیر مفید آن رضایت بالایی ندارند.

📍چارچوب سوم: Torch

این چارچوب اغلب به عنوان ساده‌ترین ابزار یادگیری عمیق برای مبتدیان شناخته می‌شود. این ابزار از یک زبان اسکریپت‌نویسی ساده به نام Lua استفاده می‌کند و جامعه‌ای فعال دارد که مجموعه‌ای چشمگیر از آموزش‌ها و بسته‌ها را برای تقریباً هر هدف یادگیری عمیق ارائه می‌دهد.

📍چارچوب چهارم: Scikit-Learn

یک چارچوب طراحی شده برای الگوریتم‌های یادگیری ماشینی تحت نظارت و بدون نظارت است. به عنوان یکی از اجزای اکوسیستم علمی پایتون، این چارچوب بر اساس کتابخانه‌های NumPy و SciPy ساخته شده است که هرکدام وظیفه انجام وظایف علمی داده در سطح پایین را برعهده دارند


📍چارچوب پنجم: Jupyter Notebook

چارچوب آخری که قصد معرفی آن را داریم یک برنامه وب منبع‌باز است که به شما امکان می‌دهد اسنادی حاوی کد زنده، معادلات، تجسم‌ها و متن ایجاد و به اشتراک بگذارید. این چارچوب که توسط تیم پروژه Jupyter پشتیبانی می‌شود یک پروژه جانبی از پروژه IPython است که قبلاً خود پروژه IPython Notebook را داشت

برای مطالعه خلاصه فصل سوم (بخش دوم) به لینک زیر مراجعه بفرمایید.

🔗 https://bdbanalytics.ir/fb1c

#کتاب_بخوانیم
#هوش_مصنوعی_برای_تحلیل_کسب‌_و_کار
#فصل_سوم
#علی_محمدی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
🔎 معرفی کسب و کار داده محور

📌شرکت Salesforce، یکی از پیشروترین شرکت‌ها در زمینه نرم‌افزارهای مدیریت ارتباط با مشتری (CRM)، به عنوان یکی از کسب‌وکارهای داده‌محور شناخته می‌شود. این شرکت با استفاده از داده‌ها، ابزارهایی ارائه می‌دهد که به کسب‌وکارها کمک می‌کنند تعاملات با مشتریان، فروش، خدمات پس از فروش و سایر فرآیندهای تجاری خود را بهبود بخشند. Salesforce به‌عنوان یک پلتفرم ابری، امکان جمع‌آوری، تحلیل و استفاده از داده‌های مشتریان را فراهم می‌کند تا شرکت‌ها بتوانند تصمیمات هوشمندانه‌تری بگیرند، تعاملات شخصی‌سازی‌شده‌ای ایجاد کنند و در نهایت کسب‌وکار خود را بهینه‌سازی کنند. در ادامه، به بررسی این میپردازیم که چگونه Salesforce از داده‌ها استفاده می‌کند و چه نقشی در بهبود فرآیندهای مختلف تجاری دارد.

1️⃣ مدیریت ارتباط با مشتری (CRM) و داده‌ها
شرکت Salesforce یکی از محبوب‌ترین پلتفرم‌های CRM در جهان است. CRM به معنای مدیریت ارتباطات با مشتری است، و Salesforce از داده‌ها به عنوان پایه‌ای برای ایجاد، بهبود و حفظ این ارتباطات استفاده می‌کند. این پلتفرم اطلاعات مختلفی از جمله تاریخچه تعاملات با مشتری، خریدها، ترجیحات، نیازها و رفتارهای آنها را جمع‌آوری می‌کند و این اطلاعات را در یک نمای کلی در اختیار کسب‌وکارها قرار می‌دهد. این داده‌ها به شرکت‌ها کمک می‌کنند تا مشتریان خود را بهتر بشناسند و تعاملات خود را بر اساس نیازها و ترجیحات فردی هر مشتری تنظیم کنند.

2️⃣ شخصی‌سازی تعاملات با مشتریان
یکی از مهم‌ترین استفاده‌های Salesforce از داده‌ها، ایجاد تعاملات شخصی‌سازی‌شده است. در دنیای امروز، مشتریان انتظار دارند که کسب‌وکارها آنها را به صورت فردی بشناسند و ارتباطات خود را متناسب با نیازها و خواسته‌های خاص آنها تنظیم کنند.

3️⃣ تحلیل پیش‌بینی‌کننده (Predictive Analytics)
یکی از ابزارهای پیشرفته‌ای که Salesforce در اختیار شرکت‌ها قرار می‌دهد، تحلیل پیش‌بینی‌کننده است. با استفاده از داده‌های تاریخی و الگوهای رفتاری مشتریان، Salesforce می‌تواند به کسب‌وکارها کمک کند تا پیش‌بینی کنند که مشتریان در آینده چگونه رفتار خواهند کرد.

4️⃣ اتصال و یکپارچه‌سازی داده‌ها از منابع مختلف
یکی از قابلیت‌های مهم Salesforce، توانایی یکپارچه‌سازی داده‌ها از منابع مختلف است. این پلتفرم می‌تواند داده‌ها را از سیستم‌های مختلف جمع‌آوری کند و آنها را به یک پلتفرم یکپارچه تبدیل کند.

5️⃣ اتوماسیون فرآیندهای تجاری
شرکت Salesforce از داده‌ها برای خودکارسازی بسیاری از فرآیندهای تجاری استفاده می‌کند. با استفاده از ابزارهای اتوماسیون، کسب‌وکارها می‌توانند کارهای روزمره و تکراری خود را به صورت خودکار انجام دهند و این امر باعث می‌شود که تیم‌ها زمان بیشتری برای تمرکز بر روی کارهای مهم‌تر داشته باشند.

6️⃣ استفاده از هوش مصنوعی (AI) و یادگیری ماشینی (ML)
یکی از ویژگی‌های برجسته Salesforce استفاده از هوش مصنوعی و یادگیری ماشینی برای بهبود تحلیل داده‌ها و ارائه پیشنهادات دقیق‌تر است. **Einstein AI**، یک قابلیت هوش مصنوعی که در پلتفرم Salesforce تعبیه شده است، به شرکت‌ها کمک می‌کند تا از داده‌های خود به صورت هوشمندانه‌تری استفاده کنند.

7️⃣ پلتفرم بازاریابی هوشمند (Marketing Cloud)
شرکت Salesforce از داده‌ها برای بهینه‌سازی بازاریابی دیجیتال استفاده می‌کند. Salesforce Marketing Cloud، یک ابزار جامع بازاریابی است که به شرکت‌ها امکان می‌دهد تا کمپین‌های بازاریابی خود را با استفاده از داده‌های مشتریان بهینه کنند.

8️⃣ بهبود خدمات مشتریان با داده‌ها
استفاده از داده‌ها در بهبود خدمات مشتریان نیز یکی از مزایای اصلی Salesforce است. Salesforce Service Cloud به شرکت‌ها کمک می‌کند تا خدمات پس از فروش خود را بهبود بخشند و مشکلات مشتریان را سریع‌تر و کارآمدتر حل کنند.

9️⃣ پشتیبانی از تصمیم‌گیری استراتژیک
شرکت Salesforce به شرکت‌ها کمک می‌کند تا با تحلیل داده‌های خود، تصمیمات استراتژیک بهتری بگیرند. شرکت‌ها می‌توانند از گزارش‌ها و داشبوردهای متنوع Salesforce استفاده کنند تا روندهای مهم کسب‌وکار را مشاهده کنند و بر اساس این داده‌ها تصمیمات مهم‌تری بگیرند.

📌 شرکت Salesforce یک پلتفرم جامع داده‌محور است که از داده‌ها برای بهبود فرآیندهای فروش، بازاریابی، خدمات مشتریان و سایر حوزه‌های کسب‌وکار استفاده می‌کند. از طریق یکپارچه‌سازی داده‌ها، تحلیل‌های پیشرفته و ابزارهای هوش مصنوعی، این پلتفرم به شرکت‌ها امکان می‌دهد تا تعاملات خود را با مشتریان بهبود دهند.

جهت مطالعه این مطلب به لینک زیر مراجعه فرمایید.

🔗 https://bdbanalytics.ir/z8ni


#معرفی_کسب_و_کار_داده_محور
#Salesforce
#محمدرضا_مرادی


www.bdbanalytics.ir
@BigData_BusinessAnalytics
📚معرفی کتاب

📌سیستم‌های توصیه‌گر عظیم‌داده: الگوریتم‌ها، معماری‌ها، عظیم‌داده، امنیت و اعتماد

"Big Data Recommender Systems Volume 1: Algorithms, Architectures, Big Data, Security and Trust"

📌نویسندگان:
Osman Khalid, Samee U. Khan and Albert Y. Zomaya

📌این کتاب در سال 2019 توسط The Institution of Engineering and Technology انتشار یافته است.


📍 کتاب سیستم‌های توصیه‌گر عظیم‌داده، یک مجموعه جامع دو جلدی است که به چالش‌ها و فرصت‌های بزرگی که با رشد سریع عظیم‌داده و افزایش وابستگی به سیستم‌های توصیه‌گر در بخش‌های مختلف به وجود آمده‌اند، می‌پردازد. با گسترش شبکه‌های اجتماعی، تجارت الکترونیک، موتورهای جستجو و شبکه‌های حسگر، سیستم‌های توصیه‌گر به یکی از تکنولوژی‌های اصلی برای ارائه محتوای شخصی‌سازی شده، فیلتر کردن حجم وسیعی از داده‌ها و بهبود تجربه کاربری تبدیل شده‌اند. این کتاب با تکیه بر پیشرفت‌های اخیر در الگوریتم‌ها، تحلیل داده، محاسبات با کارایی بالا و اینترنت اشیا (IoT)، به بررسی جامع هر دو جنبه بنیان‌های نظری و کاربردهای عملی سیستم‌های توصیه‌گر می‌پردازد.

📍جلد ۱: الگوریتم‌ها، معماری‌ها، امنیت و اعتماد
جلد اول بر چارچوب‌های نظری، الگوریتم‌ها و معماری‌ها تمرکز دارد که برای ساخت سیستم‌های توصیه‌گر کارا و مقیاس‌پذیر در زمینه عظیم‌داده ضروری هستند. این جلد موضوعات پایه‌ای متنوعی از جمله ارزیابی الگوریتم‌های توصیه‌گر با استفاده از ابزارهایی مانند Hadoop و Apache Spark و همچنین روش‌های ترکیبی که چندین تکنیک را برای بهبود کیفیت توصیه‌ها ترکیب می‌کنند را پوشش می‌دهد. تکنیک‌های مبتنی بر یادگیری عمیق به طور ویژه‌ای مورد توجه قرار گرفته‌اند، که نشان از اهمیت روزافزون آن‌ها در توسعه سیستم‌های توصیه‌گر دارد. فصل‌های این جلد همچنین به توصیه‌گری برای عظیم‌داده‌های غیرساخت‌یافته، از جمله روش‌هایی برای مدیریت داده‌های متنی، صوتی و تصویری می‌پردازند.
امنیت و حریم خصوصی در دنیای عظیم‌داده بسیار حیاتی هستند و جلد ۱ چندین فصل را به این موضوعات اختصاص داده است. در این بخش، استراتژی‌های نوین برای تشخیص و کاهش حملات سایبری به سیستم‌های توصیه‌گر، محافظت در برابر آسیب‌پذیری‌ها و حفظ حریم خصوصی داده‌های کاربران بررسی می‌شوند. این جلد طیف وسیعی از تکنیک‌های حفظ حریم خصوصی و روش‌های دفاعی را معرفی می‌کند که آن را به مرجعی ضروری برای محققان و حرفه‌ای‌هایی که به دنبال ساخت سیستم‌های توصیه‌گر ایمن و پایدار هستند تبدیل می‌کند.

📍جلد ۲: پارادایم‌های کاربردی
جلد ۲ به دامنه‌های کاربردی سیستم‌های توصیه‌گر می‌پردازد و دیدگاه عملیاتی درباره چگونگی پیاده‌سازی این سیستم‌ها در صنایع و حوزه‌های مختلف ارائه می‌دهد. فصل‌های این جلد به کاربردهای متنوعی همچون مدل‌های توصیه‌گر سلامت‌محور، توصیه‌گرهای ویدئویی، پیشنهاد مسیرهای سفر و توصیه‌گرهای مبتنی بر مکان‌های مورد علاقه می‌پردازد. علاوه بر این، جلد دوم بر استفاده از شبکه‌های عصبی عمیق و پردازش موازی با تکنولوژی‌هایی همچون Hadoop و Spark تمرکز دارد که مقیاس‌پذیری و کارایی الگوریتم‌های توصیه‌گر را بهبود بخشیده‌اند. این تکنولوژی‌ها به ویژه برای پردازش مجموعه داده‌های بزرگ که در کاربردهای واقعی معمول هستند، بسیار مهم‌اند. همچنین به توصیه‌های حساس به حالت روحی، پردازش جریانی و مدل‌های توصیه‌گر شبکه هوشمند اشاره شده است که نشان می‌دهد سیستم‌های توصیه‌گر چقدر در حل مسائل پیچیده در زمینه‌های مختلف تطبیق‌پذیر و چندمنظوره هستند.

📍مخاطبان و کاربران
این مجموعه دو جلدی با همکاری محققان برجسته و متخصصان حوزه به نگارش درآمده است و آن را به منبعی ارزشمند برای مخاطبان گسترده‌ای تبدیل کرده است. این کتاب برای پژوهشگران، متخصصان و دانشجویان تحصیلات تکمیلی در رشته‌هایی مانند مهندسی، علوم کامپیوتر، داده‌کاوی، مهندسی دانش و سیستم‌های اطلاعاتی طراحی شده است. فصل‌های کتاب شامل تحلیل‌های عمیق، مطالعات موردی و راه‌حل‌های عملی هستند که کتاب را نه تنها برای مقاصد علمی بلکه برای حرفه‌ای‌های صنعت که در مرزهای دانش عظیم‌داده و تکنولوژی‌های توصیه‌گر فعالیت می‌کنند، به‌کاربردی تبدیل می‌کند. با پرداختن به هر دو جنبه نظری و عملی، این کتاب به عنوان یک مرجع ضروری برای درک تکامل این سیستم‌ها در دنیای داده‌محور امروز عمل می‌کند. این کتاب نگاهی جامع و به‌روز از روندهای نوظهور، نیازهای صنعت و جهت‌گیری‌های آینده تحقیقاتی ارائه می‌دهد و برای هر کسی که در توسعه یا مطالعه سیستم‌های توصیه‌گر در دوران عظیم‌داده دخیل است، ضروری خواهد بود.




این کتاب را می‌توانید در لینک زیر دریافت فرمایید.

🔗 https://bdbanalytics.ir/yb7v


#معرفی_کتاب
#عظیم_داده
#سیستم_توصیه‌گر
#زهرا_رفیعی‌پور


@BigData_BusinessAnalytics
http://www.bdbanalytics.ir