دسامبر 6, 2025

هوش مصنوعی در ITSM

حضور حیاتی AI در ITSM هوش مصنوعی در ITSM دیگر یک بحث آینده‌نگرانه نیست؛ اکنون بر اساس داده‌های شفاف، تجربه‌های واقعی سازمان‌ها و ده‌ها پروژه عملی، می‌توانیم ببینیم شرکت‌ها دقیقاً در چه مرحله‌ای از بلوغ هوش مصنوعی قرار دارند. عبارت «ما هوش مصنوعی را پذیرفته‌ایم» دیگر کافی نیست؛ زیرا ممکن است از یک چت‌بات ساده تا عوامل هوش مصنوعی چندعاملی خودگردان را شامل شود. سناریو: یکی از شرکت‌های ارایه دهنده خدمات اینترنت، ماهانه‌ حدود ۱۲هزار تیکت از مشتریان و کاربرانش دریافت می‌کند. تیم IT همیشه با سه مشکل اصلی روبه‌رو بود: در سال ۱۴۰۴، شرکت تصمیم گرفت ۳ نوع هوش مصنوعی را وارد چرخه ITSM کند. با چنین ساختاری در جدول زیر…. مرحله نوع هوش مصنوعی توضیح اتفاق نتیجه ۱. پیش‌بینی خرابی سرور Predictive AI تحلیل لاگ‌ها و دما → تشخیص احتمال ۸۵٪ خرابی طی ۷۲ ساعت هشدار ۱۶ ساعت زودتر ثبت شد؛ جلوگیری از بحران ۲. کمک به مهندس شیفت GenAI خلاصه‌سازی ۱۳۴ Incident مشابه + ارائه راهکارهای آماده براساس دانش پایه کاهش زمان تحلیل از ۲ ساعت به ۵ دقیقه ۳. رفع خودکار مشکل Agentic AI انتقال بار پردازشی، بررسی دما، مشورت با Agent شبکه، ری‌استارت نرم، بررسی مجدد حل کامل Incident در ۴۸ ثانیه بدون دخالت انسان ۴. نتایج یک‌ماهه — کاهش Incidentهای تکراری، کاهش MTTR، کاهش بار L1، بهبود کیفیت خدمات کاهش Incident تکراری: ۴۲٪ → ۱۸٪ / زمان رفع: ۲.۱ ساعت → ۱۲ دقیقه در ادامه این سناریو، ۴ نکته کلیدی درباره وضعیت «هوش مصنوعی در ITSM در سال ۲۰۲۵» را مدانت شرح داده؛ نکاتی که می‌توانند مسیر تصمیم‌گیری سازمان شما را مشخص کنند. ۱. مشخص‌سازی دلیل استفاده از هوش مصنوعی سازمان‌ها معمولاً به دو دلیل سراغ هوش مصنوعی می‌روند: الف) دلایل داخلی – حل مشکلات ساختاری IT طبق نظرسنجی جهانی AI in ITSM 2025، عوامل انگیزشی اصلی عبارت‌اند از: چالش سازمان‌ها درصد ذکرشده خودکارسازی کارهای تکراری ۴۵٪ بهبود تجربه کاربری ۴۵٪ همسویی ITSM با اهداف کسب‌وکار ۳۴٪ مدیریت هزینه بدون افت کیفیت ۳۰٪ مثال واقعی: یک شرکت مخابراتی اروپایی با حجم ۵۸هزار تیکت ماهانه، تنها با فعال‌کردن «پیشنهاد خودکار راه‌حل» زمان رسیدگی به تیکت را ۳۹٪ کاهش داد. ب) دلایل رقابتی – عقب نماندن از رقبایی که AI را پذیرفته‌اند حتی اگر وضع فعلی سازمان مناسب باشد، عدم استفاده از AI می‌تواند در ۲ سال آینده شما را از رقابت کنار بگذارد، چون: ۲. انواع هوش مصنوعی در ITSM و تفاوت کاربرد آن‌ها واژه «AI» خیلی کلی است. شما در واقع با سه خانواده اصلی سروکار دارید: الف) هوش مصنوعی پیش‌بینی‌کننده (Predictive AI) تمرکز: پیش‌بینی، تحلیل، هشدار کاربردها: مثال: یک سازمان مالی با مدل‌های Predictive AI توانست ۲۵٪ از تغییرات پرریسک را پیش از وقوع، Re-schedule کند. ب) هوش مصنوعی مولد (GenAI) تمرکز: تولید محتوا، خلاصه‌سازی، تعامل انسانی کاربردها: مثال: GenAI در یک شرکت SaaS، ۶۵٪ از مقالات KB را خودکار به‌روزرسانی کرد. ج) هوش مصنوعی عامل (Agentic AI / Autonomous Agents) تمرکز: انجام کار بدون انساناینجا دیگر AI فقط مشاوره نمی‌دهد؛ کار انجام می‌دهد. کاربردها: مثال: یک شرکت نفت و گاز، با Agentsهای خودگردان، ۱۸٪ از Incidents را بدون لمس انسانی رفع کرد. جدول مقایسه انواع هوش مصنوعی در ITSM نوع AI نقش اصلی نمونه کاربرد ارزش افزوده Predictive AI پیش‌بینی و تحلیل ریسک تغییر، SLA کاهش خطا و Downtime GenAI تولید محتوا و تعامل Ticket Summary، KB افزایش سرعت پاسخ Agentic AI اقدام مستقل رفع Incident کاهش نیاز به نیروی انسانی ۳. فرق عوامل مجازی (Virtual Agents) و عوامل هوش مصنوعی (AI Agents) این تفاوت برای آینده ITSM حیاتی است. Virtual Agent چیست؟ مثال:کاربر می‌پرسد: «پسورد من ریست می‌شه؟»Virtual Agent لینک ریست پسورد را می‌دهد. AI Agent چیست؟ مثال:AI Agent درخواست تغییر سخت‌افزاری را: بدون اینکه انسان وارد شود. ۴. انتخاب درست […]
نوامبر 3, 2025

ساخت یک محتوای CIR

وقتی حرف از بهبودمستمر میزنم یعنی دقیقا چکار باید بکنیم؟ در دنیایی که فناوری و نیازهای کاربران هر لحظه تغییر می‌کند، سکون یعنی عقب‌ماندن. هیچ خدمتی—even the best one today—فردا بدون بهبود زنده نمی‌ماند.اینجاست که Continual Improvement Register (CIR) وارد صحنه می‌شود؛ دفترچه‌ای زنده از اندیشه‌های کوچک و بزرگ برای بهتر شدن. CIR مثل حافظه‌ی جمعی سازمان است؛ جایی که هر تجربه، هر خطا، و هر جرقه‌ای از خلاقیت ثبت می‌شود تا مسیر بهبود را روشن‌تر کند. از دل این فهرست است که سازمان یاد می‌گیرد، رشد می‌کند و هر روز نسخه‌ی دقیق‌تر، سریع‌تر و انسانی‌تری از خودش می‌شود. بهبود مستمر فقط یک فرآیند نیست یک نگاه فلسفی به کار و زندگی سازمانی است: اینکه همیشه جایی برای بهتر شدن هست 🔹 Continual Improvement Register (CIR) یا به فارسی: «ثبت بهبود مستمر»، یکی از ابزارهای کلیدی در چارچوب ITIL 4 و مدیریت خدمات فناوری اطلاعات است. تعریف ساده CIR: CIR یک فهرست مرکزی از تمام ایده‌ها، فرصت‌ها و اقدامات مربوط به بهبود خدمات، فرآیندها یا تجربه کاربران است. هر بار که کسی در سازمان پیشنهادی برای بهتر شدن چیزی دارد (مثلاً افزایش سرعت پاسخ‌گویی، کاهش خطا، یا بهبود تجربه مشتری)، آن ایده در CIR ثبت می‌شود. هدف: محتوای معمول یک CIR: هر ردیف در CIR معمولاً شامل موارد زیر است: فیلد توضیح ID شماره یا کد منحصربه‌فرد Description توضیح ایده یا فرصت بهبود Category حوزه مربوطه (فرآیند، خدمت، ابزار، تجربه، و…) Priority میزان اهمیت یا فوریت Benefit مزایای مورد انتظار Owner مسئول پیگیری Status وضعیت فعلی (پیشنهاد شده، در حال بررسی، در حال اجرا، تکمیل شده) Date Logged تاریخ ثبت Target Date تاریخ هدف برای اجرا Outcome نتیجه نهایی (مثلاً موفق، لغو شد، تأثیرگذار بود و…) مثال: ID Description Priority Owner Status CIR-012 بهبود زمان پاسخ تیکت‌ها با افزودن چت‌بات High IT Service Desk In Progress CIR-013 کاهش زمان بازیابی سرویس پس از قطعی Medium Infrastructure Team Planned خلاصه فلسفی: CIR یعنی سازمان هرگز به وضع موجود راضی نیست؛ بلکه همواره می‌پرسد:«چطور می‌توانیم این را بهتر کنیم؟» کِی و کجا باید CIR بنویسیم؟ CIR فقط وقتی ارزش دارد که درست و به‌جا نوشته و ثبت شود. هر زمان فرصتی برای بهبود دیدی یک دل CIR بنویس! 🙂 یا هر جا احساس کردی چیزی می‌تواند بهتر، سریع‌تر، یا مؤثرتر انجام شود — همان‌جا محل تولد یک CIR است.مثلاً: در تمام این موارد، باید یک رکورد در CIR ثبت شود. کجا CIR را بنویسیم؟ گزینه‌های متداول: چطور بنویسیم (ساختار هر ردیف CIR) فرم استاندارد ثبت یک CIR معمولاً این‌گونه است 👇 فیلد نمونه ID CIR-025 Date Logged 2025-11-03 Description پیشنهاد بهبود زمان پاسخ‌گویی به تیکت‌ها با ایجاد سطح اول پشتیبانی خودکار Category Service Desk Process Priority High Benefit کاهش میانگین زمان پاسخ از 30 دقیقه به 10 دقیقه Owner IT Service Manager Status Under Review Target Date 2026-01-15 Outcome — 💡 نکته طلایی: هر CIR باید: بیاموزید که:
اکتبر 31, 2025

Orchestration (ارکستراسیون) در ITIL4

در ITIL4، مفهوم Orchestration (ارکستراسیون) یکی از مفاهیم کلیدی در طراحی و ارائه‌ی خدمات مدرن فناوری اطلاعات است. به‌زبان ساده، ارکستراسیون یعنی هماهنگ‌سازی خودکار و هوشمند چندین فعالیت، سیستم یا فرآیند برای رسیدن به یک نتیجه‌ی مشخص در خدمت‌رسانی. تعریف دقیق ارکستراسیون در چارچوب ITIL 4: Orchestration عبارت است از هماهنگی و یکپارچه‌سازی خودکار فعالیت‌ها، منابع، و جریان‌های کاری در میان چندین تیم، سیستم یا ارائه‌دهنده‌ی خدمت، به‌گونه‌ای که کل زنجیره‌ی ارزش خدمت (Service Value Chain) بدون اصطکاک و با بیشترین کارایی انجام شود. تفاوت Orchestration و Automation: مفهوم توضیح Automation خودکار کردن یک کار یا فعالیت مشخص (مثلاً ایجاد خودکار یک کاربر در Active Directory). Orchestration مدیریت و ترکیب چند فرایند خودکار برای دستیابی به نتیجه‌ی بزرگ‌تر (مثلاً فرآیند کامل Onboarding کارمند جدید شامل ایجاد حساب، تخصیص لپ‌تاپ، دسترسی‌ها، آموزش و غیره). به‌عبارتی: Automation = اجرای یک ساز و Orchestration = رهبری کل ارکستر نقش Orchestration در ITIL 4: ارکستراسیون مستقیماً در Service Value Chain و Practicesهای زیر اهمیت دارد: 🔹 مثال عملی: فرض کنید کاربر در پورتال درخواست سرویس، می‌خواهد یک نرم‌افزار خاص روی لپ‌تاپش نصب شود. اگر سیستم‌ها به‌صورت Orchestrated طراحی شده باشند: همه‌ی این مراحل بدون دخالت انسان و با هماهنگی خودکار سیستم‌ها انجام می‌شود. ارکستراسیون در ITIL 4، ستون فقرات Digital Transformation است. چرا که باعث می‌شود: جایگاه Orchestration در چارچوب ITIL 4 در ITIL 4، مفاهیم حول Service Value System (SVS) و Service Value Chain (SVC) شکل گرفته‌اند.Orchestration به‌صورت رسمی یک Practice مستقل نیست، اما جزء مفاهیم زیر است: 🔸 جزئی از “Automation and Orchestration” در Guiding Principle‌ها و Value Chain Activities یعنی ارکستراسیون یک مفهوم میان‌برشی (Cross-cutting) است که بین چند بخش ITIL به‌کار می‌رود. به‌طور دقیق‌تر، در ITIL 4: High-Velocity IT و ITIL 4: Create, Deliver and Support (CDS) به‌عنوان بخش مهمی از اتوماسیون و مدیریت تجربه دیجیتال ذکر شده است. بنابراین جایگاه آن: 📍 در سطح مفهومی: بخشی از Automation در SVS📍 در سطح کاربردی: ابزار پیونددهنده‌ی فعالیت‌های Value Chain📍 در سطح اجرایی: تکنیک کلیدی در چند Practice (مانند Deployment, Request Fulfilment, Incident, Change) فرآیندها و Practiceهایی که Orchestration در آن‌ها کاربرد دارد در ITIL 4 واژه‌ی “Process” جای خود را به Practice داده، اما مشابه همان است. ارکستراسیون در عمل در چندین Practice حیاتی به‌کار می‌رود 👇 Practice کاربرد Orchestration Change Enablement هماهنگ‌سازی مراحل بررسی، تأیید و اجرای تغییرات در چند تیم و سیستم Release Management اجرای همزمان انتشارها در چند محیط (dev, test, prod) Deployment Management اجرای خودکار و هماهنگ استقرار نرم‌افزارها Service Request Management انجام خودکار کل چرخه‌ی درخواست کاربر از ایجاد تا تحویل Incident Management هماهنگی بین مانیتورینگ، ticketing و ابزار رفع خطا Problem Management ارتباط خودکار میان تیکت‌ها، تحلیل ریشه‌ای و پایگاه دانش IT Asset Management یکپارچه‌سازی موجودی دارایی‌ها با سیستم‌های CMDB و پرویژنینگ Monitoring & Event Management هماهنگ‌سازی پاسخ خودکار به رخدادها (event-driven orchestration) Continual Improvement جمع‌آوری داده و ایجاد چرخه‌های خودکار بهبود پیش‌نیازهای پیاده‌سازی Orchestration قبل از اینکه ارکستراسیون معنی‌دار شود، باید زیرساخت و بلوغ سازمان آماده باشد. پیش‌نیازها را می‌توان در سه دسته تقسیم کرد 👇 🔹 الف) فنی (Technical) 🔹 ب) سازمانی (Organizational) 🔹 ج) مدیریتی (Governance) سناریو: درخواست دسترسی کارمند جدید در یک سازمان بزرگ فناوری اطلاعات کارمند تازه‌واردی به نام مهدی در واحد مالی استخدام می‌شود. مدیرش در پورتال سازمانی، در قالب یک «Service Request» تقاضا می‌دهد که برای او حساب کاربری، لپ‌تاپ، دسترسی به نرم‌افزار حسابداری و ایمیل سازمانی ایجاد شود. در سازمان، همه‌ی این فعالیت‌ها به‌صورت ارکستره‌شده (Orchestrated) و خودکار طراحی شده‌اند.به‌محض ثبت درخواست در سیستم ITSM، فرآیند زیر شروع می‌شود: در این سناریو هیچ‌کس به‌صورت دستی تیکت‌ها را جابه‌جا نمی‌کند. همه‌ی فرآیندها – از ثبت درخواست تا تحویل کامل سرویس – توسط سیستم‌های مختلف و از طریق […]
اکتبر 30, 2025

نقاط درد کاربران

عبارت «نقاط درد کاربران» (User Pain Points) در بازاریابی، طراحی تجربه کاربری (UX)، و مدیریت خدمات (مثل ITIL یا CXM) به مسائلی گفته می‌شود که باعث نارضایتی، اتلاف زمان یا ایجاد مانع در مسیر هدف کاربر می‌شوند. و این بخشی از سفر کاربر است برای درک بهتر، بیایید دقیق‌تر و کاربردی‌تر نگاه کنیم تعریف نقطه درد: نقطهٔ درد (Pain Point) یعنی هر تجربه یا موقعیتی که باعث شود کاربر در رسیدن به هدفش (خرید، استفاده از خدمت، یا تعامل با سیستم) دچار مشکل، سردرگمی یا رنج شود. انواع نقاط درد کاربران: نوع توضیح مثال واقعی ۱. درد فرایندی (Process Pain Points) فرایند انجام کار طولانی، گیج‌کننده یا پیچیده است. برای دریافت پشتیبانی باید ۵ فرم پر شود یا ۳ نفر هماهنگ شوند. ۲. درد پشتیبانی (Support Pain Points) کاربر هنگام نیاز به کمک، پاسخ سریع و مؤثر دریافت نمی‌کند. تیکت‌ها دیر پاسخ داده می‌شوند یا شماره پشتیبانی در دسترس نیست. ۳. درد مالی (Financial Pain Points) کاربر حس می‌کند هزینه بیش از ارزش دریافتی است. اشتراک ماهانه گران است ولی امکانات خاصی ندارد. ۴. درد فنی (Technical Pain Points) نرم‌افزار کند، ناپایدار یا ناسازگار است. سیستم هنگام ورود کرش می‌کند یا با مرورگر کاربر سازگار نیست. ۵. درد تجربه (Experience Pain Points) کاربر از تعامل کلی احساس ناراحتی دارد. طراحی شلوغ، فرم‌های زیاد، فونت ناخوانا یا پیام‌های گنگ. ۶. درد اطلاعاتی (Informational Pain Points) اطلاعات ناقص یا مبهم است. کاربر نمی‌داند دقیقاً محصول چه ویژگی‌هایی دارد یا مستندات کافی نیست. هدف از شناسایی نقاط درد: روش‌های کشف نقاط درد کاربران: هدف از شناسایی نقاط درد این است که بفهمیم: مراحل شناسایی نقاط درد کاربران مرحله روش ابزار / داده مورد نیاز خروجی مورد انتظار ۱. شناخت پرسونای کاربر (User Persona) تحلیل تیپ مخاطب: شغل، هدف، انگیزه، ترس‌ها مصاحبه با مشتریان، داده CRM نقشه ذهنی کاربران هدف ۲. ترسیم سفر کاربر (User Journey Mapping) مسیر ورود تا اقدام نهایی را رسم می‌کنی Google Analytics, Hotjar, Session Replay مراحل کلیدی تماس کاربر با سایت یا خدمت ۳. جمع‌آوری بازخورد مستقیم گفت‌وگو، پرسش‌نامه، فرم بازخورد، مصاحبه تلفنی Google Form، چت‌بات، تماس انسانی نقل‌قول‌های واقعی از کاربران ۴. تحلیل داده‌های رفتاری بررسی رفتار واقعی کاربران روی سایت یا محصول Google Analytics، Clarity، Heatmap تشخیص نقاط خروج یا سردرگمی ۵. تحلیل داده‌های پشتیبانی و تیکت‌ها بررسی اینکه کاربران بیشتر درباره چه چیز شکایت یا سؤال دارند سیستم تیکتینگ، ایمیل، چت‌بات فهرست مشکلات پرتکرار ۶. تحلیل رقبا و Benchmarks بررسی اینکه رقبای موفق چه چیزهایی را ساده‌تر یا واضح‌تر کرده‌اند سایت رقبا، ابزار Similarweb شکاف‌های تجربه بین تو و رقبا ۷. مصاحبه با تیم داخلی صحبت با تیم فروش، پشتیبانی، توسعه جلسات داخلی مشکلاتی که کاربرها اغلب می‌گویند ولی ثبت نمی‌شود ۸. اولویت‌بندی دردها بر اساس شدت، فراوانی، و اثر بر تصمیم خرید ماتریس Impact vs Frequency لیست نقاط درد اولویت‌دار نکته کلیدی: هر نقطه درد باید با داده و رفتار واقعی کاربر تأیید شود، نه با فرض ما. مثلاً اگر فکر می‌کنی کاربران از فرم طولانی خسته می‌شوند، باید بررسی کنی چند نفر در همان مرحله خارج می‌شوند. ابزارهای کاربردی هدف ابزار پیشنهادی مشاهده رفتار کاربر Hotjar, Microsoft Clarity, FullStory تحلیل بازدید و مسیرها Google Analytics (GA4) نظرسنجی و فرم بازخورد Typeform, Google Form, Survicate مصاحبه و داده کیفی جلسات Zoom، Google Meet، یا تماس تلفنی تحلیل متن بازخوردها ChatGPT یا ابزارهای NLP برای دسته‌بندی شکایات فناوری اطلاعات شبیه پزشکی قادر به حل هر دردی شاید نباشد نه به دلیل محدودیت علمی یا تجربی بلکه قاعده‌ی بازار و محصول این اجازه را نمی دهد. واقع نگر باشیم آیا باید همه دردهای کاربران را درمان کرد؟ واقع‌بینانه که نگاه کنیم، پاسخ کوتاه: نه، همه دردهای کاربران را نمی‌توان یا نباید درمان کرد. در عمل، تیم‌ها و […]
اکتبر 30, 2025

توافق‌نامه سطح تجربه

تجربه؛ قرارداد نانوشته‌ی رضایت مشتری! اینها را بخاطر داشته باشید: اگر خاطرتان باشد سال‌ها پیش درباره‌ی SLA هندوانه‌ای» (Watermelon SLA) نوشتم اکنون همان مفهوم دقیقاً سبب خلق چیز جدیدی شده بنام XLA مفهوم SLA هندوانه‌ای 🍉 (Watermelon SLA) در بسیاری از سازمان‌ها، گزارش‌های SLA همیشه سبز هستند؛ یعنی همه‌چیز طبق توافق پیش رفته: ✅ دسترس‌پذیری 99.9٪✅ پاسخ در کمتر از 5 دقیقه✅ تیکت‌ها در زمان مجاز بسته شدند اما اگر پوسته‌ی این SLA رو بشکافی، درونش قرمز است. کاربران ناراضی، تجربه‌ها بد، و سرویس‌ها از نظر “احساس” افتضاح‌اند. به همین دلیل بهش می‌گن SLA هندوانه‌ای: از بیرون سبز، از درون قرمز. و این‌جا دقیقاً جایی‌ست که XLA وارد می‌شود ویژگی SLA (هندوانه‌ای) XLA (تجربه‌محور) تمرکز عملکرد فنی (Uptime, Response Time) تجربه انسانی (احساس، رضایت، اعتماد) داده‌ها شاخص‌های عددی، KPI شاخص‌های احساسی، Experience Indicators رنگ واقعیت سبز بیرون، قرمز درون سبز یا قرمز همان‌طور که کاربران حس می‌کنند هدف رعایت توافق فنی خلق تجربه مثبت و ارزش ادراکی ابزار اندازه‌گیری مانیتورینگ، SLA Dashboard Experience Analytics، Feedback، Sentiment نگاه مدیریتی گزارش‌محور و واکنشی ارزش‌محور و انسانی چرایی Experience Level Agreement (XLA) در برابر SLA، SLI و OLA نگاهی به Experience Level Agreement (XLA) در برابر SLA، SLI و OLA نشان می‌دهد که مدیریت خدمات فناوری اطلاعات از دنیای عددها و قراردادهای فنی، به قلمرو احساس و ادراک انسانی گام نهاده است. در حالی‌که SLI صرفاً شاخصی کمی از عملکرد است، و SLA توافقی رسمی بر سر سطح خدمات قابل اندازه‌گیری (مانند زمان پاسخ یا دسترس‌پذیری)، و OLA هم تعهدات داخلی میان تیم‌های پشتیبان را مشخص می‌کند، XLA پا را فراتر می‌گذارد و کیفیت تجربه‌ی واقعی کاربر را معیار موفقیت می‌داند. در XLA دیگر سؤال این نیست که «سیستم کار می‌کند یا نه»، بلکه این است که «کاربر هنگام کار با سیستم چه احساسی دارد؟»؛ از این‌رو، XLA به‌جای تمرکز بر اعداد، به ادراک، رضایت و آرامش کاربر می‌پردازد و تصویری انسانی‌تر از ارزش در سازمان ترسیم می‌کند. سناریو: وقتی شاخص‌ها نمی‌فهمند احساس را سال‌ها بود که مدیر IT هر ماه با افتخار داشبورد SLA را نشان می‌داد: «دسترس‌پذیری 99.9٪، میانگین زمان پاسخ کمتر از 10 دقیقه، تیکت‌ها بسته شد، رضایت‌نامه‌ها امضا شد!» اما در طبقه‌ی بالای ساختمان، کاربرانی بودند که هنوز می‌گفتند: «سیستم افتضاحه، کند شده، اعصابم داغون شده!» اعداد عالی بودند؛ تجربه فاجعه.همین شکاف میان عملکرد فنی (Performance) و احساس انسانی (Perception) بود که تولد نسل تازه‌ای از توافق‌نامه‌ها را رقم زد:XLA – Experience Level Agreement– قراردادی نه برای سرویس، بلکه برای تجربه‌ی سرویس. «اگر کاربر از سرویس شما خوشحال نباشد، هیچ SLA سبزی نمی‌تواند شکست شما را پنهان کند. XLA را جدی بگیرید؛ تجربهٔ واقعی، معیار بی‌رحمانهٔ موفقیت است.» سناریوی واقعی: وقتی SLAها دروغ می‌گویند در یک سازمان مالی بزرگ، تیم IT گزارش می‌داد که 100٪ SLAها رعایت شده‌اند. اما کارمندان در نظرسنجی داخلی گفته بودند سیستم ERPشان کند، گیج‌کننده و غیرقابل‌اعتماد است.در بررسی عمیق‌تر مشخص شد: نتیجه؟کاهش بهره‌وری، شکایت گسترده، و بی‌اعتمادی به تیم IT.سپس سازمان تصمیم گرفت XLA را به‌عنوان معیار جدید رضایت و ارزش‌مندی سرویس‌ها وارد کند. مقایسهٔ مفهومی: SLA، SLI، OLA و XLA سطح توافق / شاخص تعریف اصلی تمرکز دارد بر… نمونه SLI (Service Level Indicator) شاخص قابل اندازه‌گیری عملکرد داده‌های خام زمان پاسخ = 200ms SLA (Service Level Agreement) توافق رسمی بین مشتری و ارائه‌دهنده سرویس عملکرد فنی دسترس‌پذیری 99.9% در ماه OLA (Operational Level Agreement) توافق داخلی بین تیم‌ها برای پشتیبانی از SLA فرآیند داخلی تیم شبکه در 2 ساعت پاسخ دهد XLA (Experience Level Agreement) توافق بر سر کیفیت تجربه و احساس کاربر ادراک انسانی، رضایت، احساس کاربران باید احساس کنند سیستم سریع و قابل اعتماد است «مدیر فناوری که فقط به SLA و اعداد چشم می‌دوزد، ممکن است سیستم را سالم […]
Chat Icon
error: ياد بگيريم از کپي کردن حذر کنيم×| مدانت