متن خبر

فابریک مایکروسافت چیست؟ چگونه یک پروژه تقسیم بندی مشتری بسازیم

فابریک مایکروسافت چیست؟ چگونه یک پروژه تقسیم بندی مشتری بسازیم

شناسهٔ خبر: 455721 -




مایکروسافت فابریک یک ابزار تجزیه و تحلیل داده است که می تواند به شما کمک کند تا همه نیازهای داده و گردش کار خود را ساده کنید، از یکپارچه سازی داده ها گرفته تا تجزیه و تحلیل و مهندسی.

در این راهنما، مایکروسافت فابریک چیست و چگونه کار می‌کند و شما را در ساخت پروژه با آن راهنمایی می‌کنم. اگر قبلاً درک درستی از پلتفرم دارید، می توانید به پروژه فابریک مایکروسافت بروید.

در اینجا چیزی است که در این راهنما در مورد آن خواهید آموخت:

فابریک مایکروسافت چیست؟

چرا باید درباره فابریک مایکروسافت یاد بگیرید

معماری و اجزای فابریک مایکروسافت

چگونه با ساخت یک پروژه ساده شروع کنیم

نحوه ایجاد یک فضای کاری در مایکروسافت فابریک

چگونه یک Lakehouse در مایکروسافت فابریک ایجاد کنیم

نحوه استفاده از داده های Kaggle API در مایکروسافت فابریک

نحوه استفاده از Data Wrangler در مایکروسافت فابریک

نحوه انجام تقسیم بندی مشتری در مایکروسافت فابریک

چگونه داده های Lakehouse خود را در Power BI تجسم کنیم

پیش نیازها

برای پیگیری، باید مجوز Power BI داشته باشید. می‌توانید با استفاده از برنامه توسعه‌دهنده مایکروسافت 365، یکی را به صورت رایگان دریافت کنید.

همچنین اگر از Microsoft Power BI و Python آگاهی داشته باشید، مفید خواهد بود.

فابریک مایکروسافت چیست؟

مایکروسافت فابریک یک پلتفرم نرم‌افزار تحلیلی همه‌جانبه به‌عنوان سرویس (SaaS) برای مدیریت تمام نیازهای تجزیه و تحلیل داده‌ها و جریان‌های کاری شما است. مایکروسافت این پلتفرم سرتاسر را برای مدیریت داده‌های مرتبط با داده‌ها، از ذخیره‌سازی و انتقال داده‌های شما تا تجزیه و تحلیل داده‌های بلادرنگ، پروژه‌های علم داده، و گردش کار مهندسی داده، ساخته است.

اما چگونه کار می کند؟

این ابزار ابزارها و فن‌آوری‌های داده جدید و از قبل موجود را گرد هم می‌آورد - Power BI، OneLake، Azure Data Factory، Data Activator، Power Query، Apache Spark، Synapse Data Warehouse، Synapse Data Engineering، Synapse Data Science، Synapse Real-Time Analytics، Azure. یادگیری ماشین و اتصالات مختلف.

چرا باید درباره فابریک مایکروسافت بدانید؟

بهترین بخش فابریک مایکروسافت، سادگی آن از نظر عملکرد است. با استفاده از فناوری‌های مختلف با هم، می‌توانید همه کارها را در یک مکان انجام دهید و بیشتر روی کارهایی که می‌توانید با آن انجام دهید تمرکز کنید و کمتر روی مجوز، سیستم‌های پشتیبانی، وابستگی‌ها و نحوه ادغام با همه این پلتفرم‌های مختلف تمرکز کنید.

یکی دیگر از مزایای این پلتفرم نحوه مدیریت داده های شم است. این یک منبع اطلاعاتی قابل اعتماد را فراهم می کند و به شما امکان می دهد تا آن را حفظ کنید. با OneLake مایکروسافت فابریک، می توانید یک ذخیره سازی داده واحد و یکپارچه داشته باشید.

مایکروسافت فابریک همچنین دارای سرویس OpenAI Azure است که در لایه خود ادغام شده است. به این ترتیب، می‌توانید از هوش مصنوعی (Co-Pilot) برای کمک به کشف سریع اطلاعات استفاده کنید.

در نهایت، از آنجایی که این یک پلتفرم همه کاره است، یک مزیت صرفه جویی در هزینه وجود دارد زیرا نیازی به اشتراک در چندین فروشنده نیست.

معماری پارچه مایکروسافت

مایکروسافت فابریک را به عنوان دارایی داده خود در نظر بگیرید.

مانند هر قطعه املاک و مستغلات، مایکروسافت فابریک دارای اجزای مختلفی در معماری خود است.

بیایید با نگاهی به اصطلاحاتی که در هنگام استفاده از معماری فابریک مایکروسافت با آن مواجه می شوید و باید درک کنید، شروع می کنیم:

تجربیات و حجم کاری:

اینها به قابلیت های مختلف پلتفرم اشاره دارد. هر تجربه در این پلتفرم با در نظر گرفتن یک کاربر خاص طراحی شده است.

در زیر چند نمونه از تجربیات / بارهای کاری مختلف موجود است. متوجه خواهید شد که هر کدام از آنها برای هدف، وظیفه و کاربری خاصی ساخته شده اند.

کارخانه داده : این برنامه به کاربران بیش از 150 اتصال دهنده به Lakehouses، انبارها، ابر و منابع داده در محل می دهد و خطوط لوله داده را برای تبدیل داده ها هماهنگ می کند. Lakehouse در اینجا به یک پلت فرم داده برای ذخیره سازی داده های ساخت یافته و بدون ساختار اشاره دارد. همچنین می توانید داده های اولیه خود را در فضای ابری کپی کرده و از طریق Data Factory در OneLake بارگذاری کنید.

مهندسی داده سیناپس بخشی از تجربه مهندسی داده در پلتفرم است. دارای برخی ویژگی های جالب مانند Lakehouses، خطوط لوله داده های ساخته شده و موتور Spark است.

انبار داده Synapse یک موتور SQL یکپارچه و بدون سرور را در اختیار شما قرار می دهد. مانند انبار داده "سنتی" خود، شما از قابلیت های کامل ویژگی های تراکنشی T-SQL خود دارید.

تجزیه و تحلیل بلادرنگ Synapse به شما امکان می دهد داده ها را از دستگاه های اینترنت اشیا (IoT)، تله متری و گزارش ها پخش کنید. همچنین می‌توانید از حجم کاری در اینجا برای تجزیه و تحلیل داده‌های نیمه ساختاریافته با استفاده از قابلیت‌های Kusto Query Language (KQL) درست مانند Azure Data Explorer استفاده کنید.

علم داده‌های سیناپس به شما امکان می‌دهد تا مدل‌های یادگیری ماشینی (ML) و هوش مصنوعی کاملاً مقیاس‌پذیر را بسازید، همکاری کنید، آموزش دهید و به کار ببرید. همچنین می توانید آزمایشات ML خود را در نوت بوک خود انجام دهید و مدل های خود را با استفاده از ویژگی Fabric Auto Logging ثبت کنید. ابزاری که باید در این تجربه ذکر شود Data Wrangler است، یک رابط کاربری گرافیکی Fabric برای تبدیل داده ها. با استفاده از این ابزار، می توانید داده های خود را با ساده کردن دکمه ها پاک کنید در حالی که ابزار به طور خودکار کد پایتون را برای شما تولید می کند. شبیه Power Query است.

هوش تجاری با Power BI به شما کمک می کند تا به سرعت داده های کسب و کار خود را به گزارش ها و داشبوردهای تحلیلی روشنگر تبدیل کنید.

Data Activator به شما امکان می دهد از قابلیت مشاهده داده های خود مراقبت کنید و بارهای کاری را به روشی بدون کد/کد نظارت کنید. این به شما می گوید که چه زمانی نقاط داده خاص به یک آستانه می رسد یا با یک الگو مطابقت دارد. همچنین می‌توانید اقدامات خاصی را خودکار کنید و هنگام وقوع شرایط خاص، جریان‌های Power Automates را شروع کنید.

Copilot in Fabric یک سرویس Azure OpenAI را در اختیار شما قرار می دهد. این بدان معنی است که می توانید گزارش بسازید، نحوه دریافت داده های خود را شرح دهید، خلاصه کنید، کاوش کنید و داده های خود را با استفاده از قابلیت زبان طبیعی Azure OpenAI تغییر دهید.

فضاهای کاری

فضاهای کاری مشابه فضای کاری Power BI هستند. در اینجا می‌توانید با دیگران به اشتراک بگذارید و با آنها همکاری کنید و گزارش‌ها، انبارها، دریاچه‌ها، داشبوردها و نوت‌بوک‌ها ایجاد کنید.

ظرفیت واحد (CU)

CU توانایی منبع شما برای انجام یا تولید خروجی است.

اکنون به اجزای مختلف معماری مایکروسافت فابریک می پردازیم.

OneLake

OneLake مخزن داده مرکزی مایکروسافت فابریک است که داده ها را در قالب Delta Lake ذخیره می کند. آن را به عنوان OneDrive برای داده های خود در نظر بگیرید. این مخزن به شما امکان می دهد تا دارایی های داده را در سازمان خود کاوش و پیدا کنید.

یک چیز هیجان انگیز Shortcuts است که به شما امکان می دهد داده ها را در مکان های دیگر در OneLake بدون جابجایی یا تکثیر به اشتراک بگذارید یا به آنها اشاره کنید. این کار هر موردی از افزونگی داده را حذف می کند.

Lakehouses در مقابل انبارها

در حالی که هر دو خانه داده ها را نگه می دارند، تفاوت هایی بین Lakehouses و Warehouses در مایکروسافت فابریک وجود دارد.

برای شروع، Lakehouse می تواند هر نوع داده ای را ذخیره کند، چه ساختار یافته و چه بدون ساختار. با این حال، به طور پیش فرض در قالب دلتا ذخیره می شود. قالب دلتا یک لایه ذخیره سازی است که تراکنش های ACID (اتمی، سازگاری، جداسازی، دوام) را ارائه می دهد. از طرف دیگر، یک انبار برای داده های ساخت یافته مناسب تر است.

Lakehouse ها از Notebook ها نیز پشتیبانی می کنند. پس می توانید با زبان های مختلف از PySpark گرفته تا SQL و R. Warehouses کار کنید، از طرف دیگر فقط از SQL استفاده کنید.

با این حال، به خاطر داشته باشید که Fabric دو نوع انبار را در اختیار شما قرار می دهد: SQL Endpoint و Synapse Data Warehouse.

هنگامی که Lakehouse ایجاد می شود، نقطه پایانی SQL به طور خودکار تولید می شود. این بدان معنی است که شما می توانید یک تجربه مبتنی بر SQL داشته باشید و می توانید داده های Lakehouse را با استفاده از زبان T-SQL پرس و جو کنید.

Synapse Data Warehouse بیشتر موتور SQL سنتی شم است. پس می‌توانید از آن برای ایجاد و جستجوی داده‌ها از OneLake استفاده کنید.

چگونه با مایکروسافت فابریک شروع کنیم - یک نمونه پروژه پایان به انتها

برای اینکه نگاهی اجمالی به نحوه عملکرد پلتفرم Fabric داشته باشیم، پروژه کوچکی خواهیم ساخت.

ما یک Lakehouse ایجاد می کنیم تا مجموعه داده های مرکز خرید از Kaggle با استفاده از Kaggle API ذخیره شود. ما همچنین داده های خود را با استفاده از Data Wrangler تغییر می دهیم. سپس، با استفاده از الگوریتم خوشه‌بندی KMeans، تقسیم‌بندی مشتری را بر اساس داده‌های خود بر اساس امتیاز درآمد و هزینه سالانه مشتری انجام خواهیم داد. این به ما امکان می‌دهد مشتریان را به دسته‌های مختلفی مانند افراد کم درآمدی که خرج نمی‌کنند، مشتریان با درآمد متوسط ​​و مشتریان پردرآمدی که هزینه زیادی نمی‌کنند، گروه بندی کنیم.

بیا شروع کنیم.

نحوه فعال کردن Fabric

اولین کاری که باید انجام دهیم ورود به Microsoft Power BI است. در اینجا، ما قابلیت های مایکروسافت فابریک را برای فضای کاری خود فعال می کنیم.

برای انجام این کار؛ این موارد را دنبال کنید:

ابتدا به تنظیمات ظرفیت در پورتال مدیریت بروید. پورتال مدیریت جایی است که مدیران ویژگی های مختلف Power BI را کنترل و مدیریت می کنند.

M5O2_Xb5h76ydZyy_VteTWpz2i3Nc_FiQoyZUXA_js69sWZidtAfzKMZ2-mJBgam4GqD0FXfft4fVFkBu_sw1rUCMIypcZHgWh49FGQLXO5 -GU9nN3bdFrpsQT5wQ
پورتال مدیریت مایکروسافت فابریک

سپس در تب Tenant setting ، به دنبال تب فابریک مایکروسافت بگردید.

در زیر آن برگه، کاربران می‌توانند آیتم‌های پارچه‌ای ایجاد کنند را فعال کنید تا روشن شود. پس از انجام این کار، Apply را انتخاب کنید.

yLMF0s789eNL7RW94Ax0Ssm-i9g1_wyOC7fgyPbql2DjNOgrrFVIMIKBrZMKs5aZA-br3MBgOrHu7g26moAG2kLI8JUE6WdJiRmC0wUK8Ak4tkzTb4RmC0wUK8Ak4kzTb4Ak4h2Tb nvdgidTdGvo


اکنون محیط شما راه اندازی می شود و سرویس های مختلف باید در پایین سمت چپ صفحه نمایش شما ظاهر شوند.

PKdkrIktTXMGw2O04yYa8-lkAiaUq6dZ_C4OCX3q6y3qlOl2jWr8hblLUwiFoWMDWyUPtF_aPAkfYKhXvaCOTjiU3ZlZAjrU3BJuAYx2QJfdKMcVRXRXQaKS 7tz1CE
اکنون می توانید تمام سرویس هایی مانند Power BI، Data Factory و ... را مشاهده کنید.


نحوه ایجاد یک فضای کاری در مایکروسافت فابریک

برای این نسخه نمایشی از مجموعه داده تقسیم‌بندی مشتری از Kaggle استفاده می‌کنیم. این داده ها، همانطور که در Kaggle ذکر شد، با هدف یادگیری مفاهیم بخش بندی مشتری ایجاد شده است.

بیایید کمی در مورد مجموعه داده صحبت کنیم. تصور کنید یک مرکز خرید دارید و هر مشتری یک کارت عضویت دارد. شما همچنین یک کاتالوگ داده از هر مشتری با اطلاعات اولیه مانند شناسه مشتری، سن، جنسیت، درآمد سالانه و امتیاز هزینه‌ها دارید.

اکنون می‌خواهیم این مشتریان را به گروه‌های مختلف تقسیم کنیم تا بتوانیم وفاداری مشتری را بهبود بخشیم، مشتریان را بهتر درک کنیم و استراتژی بازاریابی خود را به طور مؤثرتری هدف قرار دهیم.

برای دستیابی به این هدف، از امتیاز هزینه اختصاص داده شده به هر مشتری برای تعیین قدرت خرید آنها استفاده خواهیم کرد.

برای شروع، باید یک فضای کاری جدید ایجاد کنید. با دنبال کردن این مراحل می توانید این کار را انجام دهید:

    به صفحه اصلی مایکروسافت فابریک خود بروید.

    فضاهای کاری را انتخاب کرده و روی New Workspace کلیک کنید.

    به فضای کاری خود یک نام بدهید - من به فضای کاری خود FabricMall می گویم.

    برای مشاهده گزینه‌های کشویی روی Advanced کلیک کنید و اگر از آزمایش Fabric خود استفاده می‌کنید، Trial را انتخاب کنید.

    روی Apply کلیک کنید.

KvydyWSwyknsCNEHahc8aNME1z4nxVsLYUlMmAf73ru4O1XoYz5YnrBAHml_uYJPajix6svZ_S5VlJn7Nv4GNvfxXNyHChZXF9ZFjOCDNs-QJHq30Ct rrbquuppI
نحوه ایجاد یک فضای کاری در فابریک مایکروسافت

کار بعدی که می خواهید انجام دهید این است که یک Lakehouse برای داده های خود ایجاد کنید.

چگونه یک Lakehouse در مایکروسافت فابریک ایجاد کنیم

برای ایجاد Lakehouse، ابتدا روی New در فضای کاری خود کلیک کنید. با این کار فهرست ی از کارهای مختلفی که می توانید در فضای کاری خود انجام دهید نمایش داده می شود.

سپس گزینه More را انتخاب کنید و Lakehouse را انتخاب کنید.

_zF0EcAg_tSGHvdpZt41huS5OR346NZ7AGTlWioXKIKuT5D5s7h_SIjLH-Yia13tpTGeobE3VsxE5zS4vOoya5S4qdqHRGJJcnAZSNnNNn2Kv2SNNnNn2Kv2SNnNn2KvS4VOya5S4qdqHRGJJcnAZSNnNNn2Kv2SNnNNn2Kv2CjPYa -XiiBlKv-qQ
انتخاب Lakehouse در قسمت «گزینه‌های بیشتر»


سپس نامی مانند FabricMallLake به آن بدهید و روی Open notebook کلیک کنید.

روی نوت بوک جدید کلیک کنید و باز کنید . می توانید نام نوت بوک خود را در گوشه سمت چپ بالای نوت بوک تغییر دهید. این نوت بوک شبیه به تجربه نوت بوک Jupyter است.

hquyomgguoedoyle53_a1djbmvguazegz2atvlxia8panpxhglvzoza3uj2szmdndxhav5d0rje2gwv2ygw1_u2aotoeagcp0sh5ytkitkitkitkitkitkitkitkitkitkitkitkitkitkitkitkitkaxd5d0rj5d0rj2gavv2ygwvv2ygw2gavza3uj2
نوت بوک های پارچه ای

نحوه استفاده از Kaggle API Data در Microsoft Fabric

نوت بوک ها به ما اجازه می دهند کد بنویسیم، تجسم کنیم و اجرا کنیم. در نوت بوک، ما از پایتون برای انجام بخش بندی مشتری روی داده های خود در فابریک مایکروسافت استفاده خواهیم کرد.

ابتدا Kaggle را با استفاده از دستور زیر وارد کنید:

 !pip install Kaggle

در مرحله بعد، باید سیستم عامل خود را وارد کرده و به Kaggle API متصل شوید.

 import os os.chdir('/lakehouse/default/Files') os.environ['KAGGLE_USERNAME'] = 'bennyifeanyi' os.environ['KAGGLE_KEY'] = '050019167fbe0027359cdb4b5eea50fe' from kaggle.api.kaggle_api_extended import KaggleApi api = KaggleApi() api.authenticate() api.dataset_download_file('vjchoudhary7/customer-segmentation-tutorial-in-python', 'Mall_Customers.csv')

در کد بالا، os.chdir('/lakehouse/default/Files') مسیر File API ما را نشان می دهد. همچنین به یاد داشته باشید که نام کاربری و کلید API را با نام کاربری خود جایگزین کنید.

حالا پانداها را وارد کنید. این به شما امکان می دهد فایل خود را بخوانید.

 import pandas as pd df = pd.read_csv("/lakehouse/default/" + "Files/Mall_Customers.csv") df.head()

اما قبل از اینکه شروع به تقسیم بندی مشتریان خود کنیم، بیایید داده های خود را با کاوش در مخاصمه داده تغییر دهیم.

نحوه استفاده از Data Wrangler در مایکروسافت فابریک

یکی از هیجان انگیزترین چیزهای این نوت بوک این است که می توانید با استفاده از Data Wrangler کارهای پاکسازی داده ها را بدون نوشتن کد انجام دهید.

برای انجام این کار، روی Data در نوار کلیک کنید و Transform DataFrame را در Data Wrangler انتخاب کنید.

ما تغییرات زیر را انجام خواهیم داد:

ستون جنسیت را به حروف کوچک تبدیل می کنیم.

همچنین نام ستون ها را با کاراکترهای خاص مانند علامت دلار، براکت ها و خط تیره تغییر می دهیم. این به این دلیل است که متوجه شدم فابریک در حال حاضر به سختی می‌تواند با این شخصیت‌ها کار کند.

برای انجام این تغییرات، مراحل زیر را دنبال کنید:

در زبانه عملیات ، تبدیل متن به حروف کوچک را انتخاب کنید.

ستون - جنسیت در این مثال - را انتخاب کنید و Apply را انتخاب کنید. این ستون جنسیت شما را به حروف کوچک تبدیل می کند و کدها را به طور خودکار تولید می کند.

-QkNWJszDVHAMtm282FTLr-_NekndORMvaR45tqhxDIg7rMW7Rr2FfMTEOW2kb_ZlnmNxQ50MfWB4hma-lbMcNr6Du1BmFd-f7ehG-4-sWCWSVxy M6HAE_yvhYgDM
داده wrangler: قالب بندی متن

به طور مشابه، در زیر تب schema ، تغییر نام ستون ها را انتخاب کنید.

نام درآمد سالانه (k$) را به AnnualIncome و Spending Score (1-100) به SpendingScore تغییر دهید.

پس از اتمام کار، روی گفت ن کد به نوت بوک کلیک کنید.

vtvL7X_ll8Nh2mpc7bW01cqy-XvMeiy7whyrJtQdbc0QTz3VQ-qYV3-uywa4QVI2DpfvLPXudHy-a4bTFAOt0Fp2d0ac6lUVp7L0zT38FMFJT7L0zT38FjSt6T fhAZSw7o_DQvWe0
داده wrangler: تغییر نام ستون

در نوت بوک، می توانیم داده های خود را با استفاده از کد زیر تجسم کنیم:

 sparkdf = spark.createDataFrame(df_clean) display(sparkdf)

در عنصر نمودار ایجاد شده، سفارشی کردن نمودار را انتخاب کنید. ستون های مورد نظر خود را انتخاب کرده و Apply را انتخاب کنید.

WZoVr74bKT59da-YBwDishooHH1rqufkWA_jN-zr2eDK237rrKTXZybjZ-U5iWU7qnPOFyPnHKA0SkjIuC_ADk_X3Uh35sSAFMz254_FWqPxPuC doJP_KOjQw6jo
نمودارها در Data Wrangler

پس از انجام این کار، می‌توانیم داده‌ها را با استفاده از کد زیر در Lakehouse ذخیره کنیم:

 sparkdf.write.format("delta").mode("overwrite").saveAsTable("malldatadf")
boKGK5-xUaWccqNy76XjSXDd0Fdkrg2JOyqYiDTq51JOog-a_KMWsfLHTskC5iySI8nBuHjiWsDhj1ZVwLG5TxHbRciWTjBJIisKsvQFWHwYpYnG5TxHbRciWTjBJIisKsvQFHwYpYn1sKsvQFHwYpYn1 qwmApxaoL8WIMRE
ذخیره داده ها در Lakehouse

نحوه انجام بخش بندی مشتری در مایکروسافت فابریک

برای تقسیم بندی مشتریان خود، از الگوریتم خوشه بندی KMeans برای تقسیم بندی مشتریان بر اساس درآمد و امتیاز هزینه سالانه آنها استفاده خواهیم کرد.

خوشه بندی K-means یک الگوریتم یادگیری ماشینی بدون نظارت است. این نقاط داده مشابه را در داده های شما بر اساس مشاهدات، شباهت ها و بردارهای ورودی گروه بندی می کند.

ما این کار را با وارد کردن کتابخانه‌هایمان، استفاده از K-means با آموزش مدل خوشه‌بندی K-Means و تجسم خوشه‌های مشتریان بر اساس درآمد و امتیاز هزینه‌های سالانه آنها انجام خواهیم داد.

همچنین مرکزهای هر خوشه را شامل می‌کنیم و نشان می‌دهیم و بینش‌هایی در مورد توزیع مشتریان در مجموعه داده ارائه می‌کنیم.

centroids در اینجا به نقاط مرکزی خوشه‌هایی که توسط الگوریتم ما پیدا شده‌اند اشاره دارد. این به عنوان میانگین تمام نقاط داده در آن خوشه محاسبه می شود. وقتی خوشه ها را تجسم می کنیم، مرکز با یک نماد یا رنگ مشخص نشان داده می شود.

برای رسیدن به این هدف این کد را اجرا کنید:

 import numpy as np import seaborn as sns import matplotlib.pyplot as plt from sklearn.cluster import KMeans from sklearn.preprocessing import StandardScaler from sklearn.preprocessing import MinMaxScaler X = df_clean[['AnnualIncome', 'SpendingScore']] # Feature normalization scaler = MinMaxScaler() X_scaled = scaler.fit_transform(X) kmeans = KMeans(n_clusters=5, init='k-means++', random_state=42) kmeans.fit(X_scaled) plt.figure(figsize=(10, 8)) for cluster_label in range(5): # Loop through each cluster label cluster_points = X[kmeans.labels_ == cluster_label] centroid = cluster_points.mean(axis=0) # Calculate the centroid as the mean position of the data points plt.scatter(cluster_points['AnnualIncome'], cluster_points['SpendingScore'], s=50, label=f'Cluster {cluster_label + 1}') # Plot points for the current cluster plt.scatter(centroid[0], centroid[1], s=300, c='black', marker='*', label=f'Centroid {cluster_label + 1}') # Plot the centroid plt.title('Clusters of Customers') plt.xlabel('Annual Income (k$)') plt.ylabel('Spending Score (1-100)') plt.legend() plt.show()

در اینجا خروجی است:

" mFGaPFYbfj4w
انجام بخش بندی مشتریان در مایکروسافت فابریک

نتیجه تجزیه و تحلیل ما نشان می دهد که مشتریان ما را می توان در 5 خوشه گروه بندی کرد:

خوشه 1 (بنفش) افراد کم درآمد با امتیاز هزینه پایین هستند.

خوشه 2 (آبی) افراد کم درآمد با امتیاز هزینه بالا هستند.

خوشه 3 (قرمز) مشتریانی هستند که درآمد متوسطی دارند و دارای امتیاز هزینه قابل توجهی هستند.

خوشه 4 (نارنجی) مشتریان پردرآمدی هستند که زیاد در مرکز خرید خرج نمی کنند. آنها احتمالا از خدمات ارائه شده راضی نیستند.

خوشه 5 (سبز) مشتریان با درآمد بالا با امتیاز هزینه بالا هستند.

ما همچنین می توانیم پیش بینی خود را به عنوان یک مجموعه داده جدید با استفاده از این کد ذخیره کنیم:

 # Create a new DataFrame to store the clustering results cluster_df = pd.DataFrame(data=X, columns=['AnnualIncome', 'SpendingScore']) cluster_df['Cluster'] = cluster_label sparkclusterdf = spark.createDataFrame(cluster_df) sparkclusterdf.write.format("delta").mode("overwrite").saveAsTable("clusterdatadf")
vMJYBX_nbjwPdODAlVKfWp-KWvqRD6BW-pPg4XAZ8UVgSMkaI4-tDRQZqlA38Eg5iVpvP-f_cUI9vXL6dxmUYJl-kJ_t46lQfsXytHBPWGFX1 5qE3-7NBUoa9Yg
پیش بینی تقسیم بندی مشتری

می خواهید نگاهی به نوت بوک بیندازید؟ می توانید آن را از GitHub من دانلود کنید.

نحوه تجسم داده های Lakehouse در Power BI

اکنون می‌توانیم تصمیم بگیریم که داده‌هایمان را روی داشبورد درون Fabric تجسم کنیم.

به فضای کاری FabricMall برگردید و نوع مدل معنایی FabricMallLake Lakehouse را انتخاب کنید.

YO0SWvhNJEdz2o3a85rhOf8CHorcX50o_Fu3sqJWdGP-P8kO8t1CD194a7JB9Tx3LxyFjMvjE0ek9CrRBSMKyXGy2vrx0hPQ9BBRwdGP-P8kO8t1CD194a7JB9Tx3LxyFjMvjE0ek9CrRBSMKyXGy2vrx0hPQ9BBRwDMKfmR4 vFycUW6f0kwjYnxQ
نوع مدل معنایی FabricMallLake LakeHouse

سپس Manage default semantic model را انتخاب کنید.

j5k-aWOHKXMKrkfygcD7HBIUDONorZcnpbH0j2uNbiL1rLZ8sdhOIscIKnTLZXwFBGEDNp30v3oYi0vPsG-t_SawMcVcp1kd7PSI81iMwiL1rLZ8sdhOIscIKnTLZXwFBGEDNp30v3oYi0vPsG-t_SawMcVcp1kd7PSI81iMwiL1rLZ8sdhOIscIKnTLZXwFBGEDNp30v3oYi0vPsG-t_SawMcVcp1kd7PSI81iMwiL1rLZOFUs 3EWgiVfXug
مدل معنایی پیش فرض را در مایکروسافت فابریک مدیریت کنید

مجموعه داده خود را انتخاب کنید، روی تأیید کلیک کنید و سپس گزارش جدید را انتخاب کنید.

بیایید میانگین سنی را در داده های خود مجسم کنیم. برای این کار بر روی کارت ویژوال کلیک کنید و سن را در این کارت بکشید. این به طور خودکار تصویری ایجاد می کند که میانگین سنی را در مجموعه داده شما نشان می دهد.

eh28PLD0HCw2m2fWIbVhIrL78TLRP0hqF5aSDbEcE6_hzFaZaWA9c_AX5_u_w6yG49ovcvBVWY_Og4nQYqDnUCeIEe73o6LAgyrH0pLeMQvDx0Gm kq6wlE-OrG0CFA
سرویس Power BI در مایکروسافت فابریک

درست مانند Power BI Desktop ، می توانید اندازه گیری خود را ایجاد کنید، گزارش خود را بسازید و داشبورد خود را منتشر کنید. می‌توانید با استفاده از این ویدیوی رایگان رایگانCodeCamp YouTube تجزیه و تحلیل داده، درباره نحوه ایجاد تصاویر در Power BI اطلاعات بیشتری کسب کنید.

از طرف دیگر، می‌توانید Power BI Desktop را باز کنید و از مرکز داده Onelake به Lakehouses خود متصل شوید.

Na-xm9ThvGM6rkljbdDHD_ZUzekJ88mzCRQSoKOW7bCNfgmB_dkusJjoOrBfyIam-Smnvm_2p08G-25MVx_IsJpvUxnCYZab4NlKCCPvCNfgmB_dkusJjoOrBfyIam-Smnvm_2p08G-25MVx_IsJpvUxnCYZab4NlKCCPvCV0000000DCYZab4NlKCCPvCV000000DCl tqakpDWr4
به Lakehouse خود در Power BI متصل شوید

کجا می توانم درباره فابریک مایکروسافت بیشتر بیاموزم؟

اگرچه مایکروسافت فابریک یک پلتفرم داده کاملاً جدید است، امیدوارم بتوانید بگویید که این ابزار به شما کمک می‌کند تا نحوه مصرف، تجزیه و تحلیل و دریافت بینش از داده‌های خود و تیمتان را آسان کنید.

برای کسب اطلاعات بیشتر می توانید با مستندات رسمی پارچه یا هر آموزش مفید YouTube مانند دوره آموزشی پارچه فرانسیس شروع کنید. همچنین به شما توصیه می‌کنم اگر می‌خواهید مجموعه‌ای از منابع را تهیه کنید، با برچسب‌های انتشارات Fabric از freeCodeCamp شروع کنید.

در نهایت، اگر در تجزیه و تحلیل داده ها تازه کار هستید، سفر خود را از امروز با بوت کمپ تحلیلگر داده برای مبتدیان freeCodeCamp در YouTube شروع کنید. همه چیز را از SQL، Tableau، Power BI و Python گرفته تا Excel، Pandas و ساخت پروژه های واقعی را پوشش می دهد.

اگر از خواندن این مقاله لذت بردید و/یا سؤالی دارید و می‌خواهید با هم ارتباط برقرار کنید، می‌توانید من را در لینکدین ، توییتر پیدا کنید و مقالات من را در freeCodeCamp تحلیل کنید.


خبرکاو

ارسال نظر

دیدگاه‌ها بسته شده‌اند.


تبليغات ايهنا تبليغات ايهنا

تمامی حقوق مادی و معنوی این سایت متعلق به خبرکاو است و استفاده از مطالب با ذکر منبع بلامانع است