`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Що спільного між барометром і ChatGPT?

Пару днів тому вкотре зіткнувся з описом історії про студента на іспиті з фізики і задачею про барометр. Історія досить довга але легко гуглиться, тому залишу тільки суть. 

Завдання на іспиті: виміряти висоту будівлі за допомогою барометру.

Очікувана відповідь: використати різницю атмосферного тиску.

Відповідь студента після довгого мовчання: скинути барометр з даху і порахувати час падіння.

Викладач розгубився. Технічно правильно, але навіщо в задачі барометр?

Тоді студент видав ще кілька варіантів: використати барометр як лінійку, як маятник, або просто обміняти на інформацію у двірника. В деяких переказах було до 20 варіантів відповідей. А скільки ви можете придумати? 

Сьогодні ми маємо схожу ситуацію з АІ.

«Просто спитай ChatGPT» стало універсальною відповіддю на будь-яку задачу. І так, АІ може знайти десятки варіантів рішень. Креативних і не дуже. Але...

Чи розуміємо ми, чому саме це рішення правильне?
Чи можемо оцінити якість результату?
Чи знаємо межі застосування методу?

АІ - як барометр у згаданій історії. Ним можна «виміряти висоту» в будь-якій задачі. Але ключ в тому, що студент вже знав стандартну правильну відповідь, а вже потім шукав альтернативи і проявляв креативність.

Сьогодні ми часто робимо навпаки: шукаємо креативні АІ-рішення, не розуміючи фундаментальних принципів предметної області.

Креативність у використанні інструментів - це чудово. Але вона має стояти «на плечах експертизи», а не замінювати її.

А як вам здається - чи не втрачаємо ми фундаментальні навички розв'язування задач, покладаючись на АІ у всьому?

P.S. Той студент, до речі, був Нільс Бор - майбутній нобелівський лауреат. Так пишуть в історіях, але мені здається, що Бора "вписали" в цю історію для підняття її значущості. Сьогодні варто пам'ятати: АІ знає багато відповідей, але розуміння - це все ще наша робота.

Про один науковий експеримент та уроки для бізнес-аналітики

Нещодавно в науковому журналі Nature з'явилася стаття, яка стала вірусною не через революційне відкриття, а через одну картинку. 

Дослідники з Канади та Італії отримали зображення, яке дивовижно нагадує символ інь-янь. Соцмережі миттєво підхопили це як "доказ містичного зв'язку науки та філософії".

Але що насправді відбувалося?

Вчені розробляли нову методику для вивчення поведінки пар фотонів — найменших частинок світла. Уявіть собі двох танцюристів, які рухаються в ідеальній синхронізації: коли один повертається ліворуч, другий автоматично повертається праворуч. Саме так поводяться "заплутані" фотони - зміна стану одного миттєво впливає на другого, навіть на великих відстанях.

Як виникла "містична" картинка?
Символ інь-янь з'явився не випадково. Дослідники спеціально використали лазерний промінь у формі цього символу як тестове зображення для перевірки своєї нової технології. Це як тестувати якість принтера, друкуючи відому картинку - ви одразу бачите, чи працює все правильно.

Коли промінь у формі інь-янь "розщеплював" фотони на пари, інформація про форму передавалася цим парам. Потім, використовуючи складні математичні алгоритми (подібні до тих, що відновлюють зображення в комп'ютерній томографії), вчені змогли "витягти" цю інформацію та відтворити оригінальне зображення.

Революційність методу - не в картинці, а в швидкості

Справжнє досягнення полягає в тому, що новий метод працює в тисячу разів швидше за попередні. Якщо раніше на аналіз квантового стану потрібно було кілька годин, то тепер - лише хвилини. Це як перейти від набирання тексту на друкарській машинці до швидкого комп'ютерного набору.

Урок для бізнес-аналітики

Ця історія — ідеальний приклад того, чому важливо правильно інтерпретувати результати аналізу:
1. Контекст -це все. Без розуміння, що інь-янь був тестовим зображенням, картинка здається містичною. У бізнесі так само: графік зростання продажів може виглядати феноменально, поки ви не дізнаєтеся, що це був тестовий період з потужною рекламною підтримкою.

2. Методологія важливіша за результат Цінність дослідження — не в красивій картинці, а в новому методі вимірювання. У бізнесі важливо розуміти, як отримані дані, перш ніж робити висновки.

3. Складні дані потребують експертної інтерпретації Квантові стани неможливо побачити неозброєним оком — потрібні спеціальні алгоритми. Так само бізнес-метрики часто потребують глибокого аналізу для правильного тлумачення.

Ця історія нагадує нам: у світі Big Data та складної аналітики красивий графік або несподіваний результат - це лише початок. Справжня цінність полягає в розумінні процесів, що стоять за даними, та в правильній інтерпретації результатів.

Наступного разу, коли побачите яскравий дашборд або дивовижну кореляцію, запитайте себе: "А що насправді показують ці дані? Який контекст я можу упускати?"

Як вважаєте, чи достатньо в вашій команді уваги приділяється не тільки збору даних, але й їх правильній інтерпретації?

Про один науковий експеримент та уроки для бізнес-аналітики

 

Кінець епохи ChatGPT: що йде на зміну великим мовним моделям

Якщо вам наскучило читати різні статті про АІ від "продавців успішного успіху", то ось вам невеличка, але дуже цікава стаття від науковців (pdf). 

Давид Сільвер (творець AlphaGo) та Річард Саттон (один з батьків reinforcement learning) опублікували дослідження, яке може кардинально змінити розуміння майбутнього АІ.

Головна теза: ера навчання на людських даних підходить до кінця. Більшість високоякісних текстових джерел уже вичерпано, а прогрес LLM сповільнюється.

Що далі? Системи нового покоління навчатимуться з власного досвіду, а не з людських текстів. Приклад: AlphaProof (медаліст математичної олімпіади) спочатку вивчив 100 тисяч людських доказів, а потім згенерував 100 мільйонів власних через взаємодію з формальними системами.

Ключові відмінності майбутніх АІ: → Безперервні потоки досвіду замість коротких діалогів → Дії в реальному світі через роботів/сенсори → Навчання на об'єктивних результатах, а не людських оцінках → Власні форми мислення, не обмежені людською логікою

Для бізнесу це означає: 
- Персоналізовані системи, що адаптуються роками (здоров'я, освіта).
- Автономні R&D агенти для наукових досліджень. 
- Експоненціальне прискорення інновацій.

Але є ризики: 
- Менше можливостей для людського контролю. 
- Складніша інтерпретація рішень. 
- Невизначеність у регулюванні та відповідальності.

Реальність: перехід вже розпочався. Anthropic та OpenAI тестують агентів, що самостійно користуються комп'ютерами. Google навчає роботів через власні експерименти.

Висновок: компанії, які першими адаптуються до "ери досвіду", отримають величезні конкурентні переваги. Але це вимагає не лише технологічних інвестицій, а й переосмислення управління ризиками.

Час діяти — зараз. Питання не в тому, чи настане ця ера, а в тому, чи будете ви готові.

 що йде на зміну великим мовним моделям

No Data - No Value

Можна довго дискутувати чи потрібен компаніям ШІ - директор, або як краще приймати рішення - на основі аналізу, чи використовуючи інтуїцію. Але якщо бізнес не опікується наявністю необхідних даних, не займається покращенням якості даних, їх доступністю і підвищенням рівня data literacy, то і цінність навіть тих даних, що вже є, буде мінімальною. 
 
Часто менеджмент компанії усвідомлює що проблеми з даними стають вже бар'єром для розвитку бізнесу, але не знає що і як треба зробити, щоб його прибрати. І в першу чергу намагаються впровадити нові технології. Немає в компанії єдиного джерела достовірних даних - давай впровадимо сховище даних. Немає нормальної аналітики - давай намалюємо красиві дашборди в BI-системі. Співробітники не дружать з даними - давай використаємо "ChatGPT". 
 
І таких "давай" десятки. Але серед них мало , або взагалі немає "давай опишемо процес внесення змін в довідниках", "давай визначимо людей, які будуть опікуватись якістю даних", "давай зрозуміємо чому наші люди не аналізують дані", "давай...". 
 
Чому немає цих "давай"? Або немає розуміння навіщо такі складнощі, або немає достатніх компетенцій, щоб детально розписати всі ініціативи і вкласти їх в дорожню карту розвитку аналітики. Але і в першому і в другому випадках ми можемо допомогти. Було б бажання.
 

База для АІ…

На вихідних фейсбук нагадав, що рік тому я опублікував другу статтю «Чи замінить ChatGPT маркетологів?» про використання АІ для розробки стратегії утримання клієнтів. 
 
За цей рік змінилося багато чого: вийшли оновлення ChatGPT і з’явилися нові гравці; піднялась хвиля новомодних "AI-агентів"; я повністю переїхав на Claude :) Але, що залишається базою - це дані. Бо без них не зробити ML - модель для прогнозування відтоку клієнтів, а значить нічого буде обробляти і "чатам". 
 
No data - no AI. 
 
У нас багато даних - говорить бізнес. Так. Але яка їх якість? Чи можна довіряти результатам які отримали на їх основі? Чи то розрахунку окремого показника на гарному дашборді, чи відсотку ймовірності відтоку конкретного клієнта, чи прогнозу продажу молока в супермаркеті. 
 
Використання даних - це вже фінальний етап. Для цього треба, щоб дані були створені за визначеними правилами і стандартами, перевірена їх якість і виправлені допущені помилки. Це і буде елементарне впорядкування даних (Data Governance). Тобто потрібна система не тільки створення чи використання даних, але і керування даними.
 
Часто бізнес в своїй любові до технологічних інновацій забуває про всі складові системи роботи з даними - люди, процеси, технології і концентрується тільки на технологіях. Звичайно розробка гарного дашборду чи навіть побудова сховища даних значно простіші, ніж впровадження процесів керування майстер - даними. Але зміна культури роботи з даними – задача з «зірочкою».
 
На одному з проектів по розробці бачення розвитку архітектури даних і аналітики ми аналізували історію проекту побудови сховища. Виявилось, що недостатнє залучення користувачів і виключення з рамок проекту ініціатив, пов’язаних з керуванням якістю даних і майстер даними було однією з причин невдачі проекту. 
 
Отже, якщо хочете отримати не разовий ефект від даних і аналітики почніть з простих кроків.
 
1️⃣ Визначте хто відповідає конкретні елементи даних. Наприклад, хто головний в питаннях клієнтських даних. Хто опікується додаванням параметрів клієнта в CRM, хто формулює вимоги до наявності чи формату внесення номеру телефона. Хто затверджує визначення поняття «клієнт» чи ініціативи, пов’язані з пошуком «двійників» в базі. Це і буде власник даних. 
 
2️⃣ Опишіть базові процеси для ведення довідників (клієнти, продукти, території, тощо) та визначте основні KPI для оцінки якості даних. І ви отримаєте не тільки миттєвий ефект в якості аналітики, але і довгострокові вигоди від можливості використання даних для різноманітних інновацій, наприклад впровадження чат ботів чи автоматичної сегментації клієнтів з допомогою кластерного аналізу.
 
3️⃣ Попросіть відповідальних за розвиток персоналу із HR-департаменту включити в програму навчання курси для підвищення data literacy (недавно був вебінар по цій темі і з радістю поділюсь з вами записом). 
 

А далі вже можна переходити до наступного етапу зрілості в роботі з даними…

 

База для АІ…

(для збільшення картинки клацніть по ній мишою)

Про щоденні AI-практики та бургери з картинки

Коли зі всіх каналів сипляться пости про те, як AI скоро замінить усіх працівників аж до CEO, час для здорової дози реальності.
 
Майже кожен вендор обіцяє вам AI, що самостійно вирішить усі проблеми компанії, автоматизує всі процеси і, можливо, навіть організує корпоратив. Реальність трохи прозаїчніша.
 
Декілька думок з щоденної практики AI-трансформацій:
 
1. Почніть з малого. Краще успішний пілот на одному процесі, ніж презентація про «тотальну AI-трансформацію», яка ніколи не вийде за межі PowerPoint. Так, автоматизована сегментація клієнтської бази за допомогою алгоритмів ML- це теж AI-проєкт. І дуже корисний!
 
2. «Ми впровадили AI» - це не метрика. «Ми збільшили конверсію розсилок на 40%» - метрика. «Олена з CRM-відділу нарешті встигає на йогу по вівторках» - безцінно.
 
3. Найскладніша частина AI-проєкту - це не алгоритми. Це пояснити Олені, що AI не забере її роботу з проведення розсилок, а звільнить час для креативу та особистого життя.
 
І наостанок - коли вендор показує ідеальну демку на «гарних» даних - запитайте, як воно працюватиме з реальною клієнтською базою, де в іменах пропуски, телефони записані в різних форматах, а в історії покупок половина товарів без категорій і з описом «акція».
 
P.S. Якщо ваш перший AI-проєкт виглядає як бургер з нижньої картинки - ви на правильному шляху. Принаймні він існує в реальності, а не лише в презентації для керівництва.
 
Розкажіть про свій досвід "бургера з нижньої картинки" - це безцінно. 
 

Про щодені AI-практики та бургери з картинки

Невелика подорож у світ геоаналітики та AI

Майже рік тому ми отримали, здавалося б, просту задачу від партнера – мережі супермаркетів. «А можете спрогнозувати, скільки в середньому буде покупців на місяць в магазині, який ми плануємо відкрити за цими координатами?».

Так почалася наша подорож у світ геоаналітики та AI. Спочатку все здавалося простим – API Google Maps та кілька формул. На одному з брейнштормів ми навіть «винайшли» формулу оцінки привабливості магазину, засновану на законі гравітації… і з подивом дізналися, що Вільям Рейлі випередив нас на 90 років!

Наш перший AI-прототип дав точність 75%, навіть не враховуючи такі важливі перешкоди як річки чи залізничні колії. Потім були ізохрони та діаграми Вороного і ще багато цікавих речей, які ми колись вивчали на парах в університеті. Зараз, після майже року досліджень та розробки, наші моделі аналізують понад 100 факторів, пов’язаних з конкурентним оточенням, забудовою та громадською інфраструктурою і прогнозують успішність нової точки зі значно кращою точністю.

Взагалі тема вибору локації досить стара. Ще 2000 років тому – давньоримський архітектор Вітрувій у своїй праці «The Ten Books On Architecture» радив будувати ринки на перетині головних вулиць. Але з того часу підходи до вибору локацій суттєво змінилися. Я чув багато цікавих історій про видатних ритейлерів та їх підходи.

А нещодавно я провів опитування серед своєї аудиторії в Linkedin – 59% вважають, що локація залишається найважливішим фактором успіху магазину у 2025 році. Але як же швидко і правильно її обрати? (До речі, 17% опитаних вважають критично важливою операційну ефективність, і ще 17% кажуть, що все залежить від формату).

Чому якість даних важливіша за новітні технології АІ

Нещодавно в моїй стрічці з'явився мем, який змусив мене посміхнутися, а потім серйозно замислитися. На ньому зображено, як різні технології штучного інтелекту працюють з неякісними даними (представленими у вигляді емодзі купки лайна 💩).

 

Чому якість даних важливіша за новітні технології АІ

Прості алгоритми машинного навчання повертають те саме, що отримали на вході. Просунутіший АІ додає до результату «блиск» та «зірочки». Далі генеративний АІ перетворює їх на веселкового «єдинорога». І нарешті, агентний АІ створює цілу колекцію різноманітних варіацій. Але суть залишається незмінною – всі ці результати, незалежно від технологій їх отримання, все одно походять від неякісних даних і в результаті на виході те саме лайно, тільки з «прикрасами».

 
Цей мем добре ілюструє один з фундаментальних принципів роботи з даними – «garbage in, garbage out» (сміття на вході – сміття на виході). Цей принцип з'явився ще на зорі комп'ютерної ери та залишається актуальним досі. Як би не розвивалися технології обробки даних, які б складні алгоритми ми не використовували, якість результату завжди буде обмежена якістю вхідних даних.
 
Саме тому деякі наші проєкти бувають такими довгими, бо ми разом з клієнтами намагаємося максимально покращити якість даних перед їх використанням. Часто клієнти не розуміють, чому не можна «просто взяти дані й навчити нейронну мережу». Але наш досвід показує, що інвестиції в якість даних на початковому етапі економлять значно більше часу та ресурсів у майбутньому.
 
Наприклад, в одному з проєктів клієнт хотів швидко впровадити систему персональних рекомендацій для інтернет-магазину. Але коли ми почали досліджувати дані, виявилося, що:
  • історія покупок клієнтів містить багато аномалій;
  • інформація про перегляди товарів відсутня;
  • характеристики товарів заповнені не повністю;
  • в базі клієнтів є велика кількість дублів.
Замість того, щоб одразу навчати рекомендаційну систему на неякісних даних, ми спочатку: впровадили систему відстеження поведінки користувачів; розробили процес збагачення карток товарів; створили єдиний профіль клієнта; налаштували процеси перевірки даних.
 

В результаті проєкт зайняв більше часу, ніж планувалося спочатку, але клієнт отримав рекомендаційну систему, яка дійсно підвищує продажі, а не просто показує випадкові товари.

На іншому проєкті з прогнозування продажів для мережі магазинів ми зіткнулися з типовою ситуацією – клієнт хотів одразу отримати точні прогнози, але виявилося, що:

  • дані про продажі містять некоректні значення;
  • промоакції та маркетингові активності не ведуться коректно в системах;
  • відсутня інформація про Out-of-Stock і планові поповнення складів;
  • не фіксуються зовнішні фактори впливу (погода, події).
 Тож довелося спочатку налагодити процеси збору якісних даних, створити систему фіксації всіх важливих подій та факторів, і лише потім переходити до навчання моделей прогнозування. Зараз система дає точність прогнозу понад 90%, але цього б не вдалося досягти без якісних вхідних даних.
 
Ці приклади підтверджують: до неякісних даних немає сенсу застосовувати навіть найсучасніші алгоритми машинного навчання. Краще витратити час на побудову правильних процесів роботи з даними – це інвестиція, яка завжди окупається в точності та надійності прогнозів.
 
У сучасному світі, де штучний інтелект стає все більш поширеним, багато компаній захоплюються новими технологіями та забувають про цей базовий принцип. Вони інвестують величезні кошти в найновіші AI-рішення, але отримують розчарування замість очікуваних результатів. Це як намагатися приготувати вишукану страву з зіпсованих продуктів – навіть найкращий шеф-кухар не зможе зробити її смачною.
 
Тому, перш ніж говорити про використання передових технологій штучного інтелекту, варто задати собі просте запитання: «А чи достатньо якісні мої дані для цього?»
 

Метрики якості даних: як оцінити те, що не можна побачити

 

Чому якість даних важливіша за новітні технології АІ

Пʼять вимірів якості даних

 Коли я почав глибше вивчати тему якості даних, я зрозумів, що це як діагностика здоров'я – потрібно перевірити багато параметрів, щоб зрозуміти загальний стан. Ось ключові метрики, які я виділив:

1. Точність даних

«Чи відповідають дані реальності?» – це перше питання, яке ми маємо поставити. Наприклад, якщо в базі даних вказано, що клієнту 253 роки – це явно помилка. А що якщо вказано 53 роки? Це виглядає правдоподібно, але чи відповідає дійсності? Точність даних – це міра відповідності даних реальному світу.

2. Повнота даних

Уявіть, що ви збираєте пазл, але частина елементів загублена. Так само з даними – відсутність важливої інформації може зробити весь набір даних марним. Якщо у вас є база клієнтів, але у половини записів відсутні контактні дані, наскільки ефективною буде ваша маркетингова кампанія?

3. Своєчасність

Дані, як і новини, мають термін придатності. Торішній прогноз погоди вже нікому не цікавий, так само як і застарілі дані про ринкові ціни або складські запаси. Своєчасність – це міра актуальності даних на момент їх використання.

4. Консистентність

Це як координація між відділами в компанії – всі мають говорити однією мовою. Якщо в одній системі температура зберігається в Цельсіях, а в іншій – у Фаренгейтах, без належної обробки це призведе до плутанини. Консистентність забезпечує узгодженість даних між різними системами та процесами.

5. Інтегрованість

Сучасний бізнес – це складний механізм, де дані мають вільно переміщуватися між різними системами. Інтегрованість показує, наскільки добре ваші дані можуть «спілкуватися» з різними системами та процесами.
 

Як вимірювати якість даних

 
Для кожної метрики існують свої методи вимірювання:
Точність: порівняння з еталонними джерелами, перевірка на відповідність бізнес-правилам (наприклад, вік не може бути від'ємним);
Повнота: відсоток заповнених полів, аналіз пропущених значень;
Своєчасність: час від останнього оновлення, відповідність графіку оновлень;
Консистентність: порівняння даних між різними системами, пошук суперечностей;
Інтегрованість: успішність обміну даними між системами, кількість помилок при інтеграції.
 
І пам'ятайте, якість даних – це не одноразова акція, а постійний процес. Як і у випадку з нашим мемом, навіть найсучасніші технології не допоможуть, якщо базові метрики якості даних не відповідають необхідному рівню.
 
Як ви оцінюєте якість даних у своїх проєктах? Можливо, є ще метрики, які варто додати до цього списку?
 

Команда та процеси: хто і як забезпечує якість даних

Ключові ролі у керуванні якістю даних

 
Я часто бачу, як компанії намагаються розв'язувати проблеми з якістю даних технічними засобами, забуваючи про людський фактор. Але без правильної організації процесів та розподілу відповідальності навіть найкращі інструменти не допоможуть. Ось ключові ролі, які мають бути в компанії:
 
Data Steward (Куратор даних) – відповідає за якість даних у конкретній предметній області; визначає та контролює дотримання стандартів; виступає «містком» між бізнесом та технічними спеціалістами; знає «життєвий цикл» даних від створення до архівації.
Data Engineer (Інженер даних) – розробляє та підтримує процеси обробки даних; впроваджує технічні рішення для контролю якості; автоматизує процеси перевірки та очищення даних; забезпечує технічну інтеграцію різних джерел даних.
Business Analyst (Бізнес-аналітик) – визначає бізнес-вимоги до якості даних; оцінює вплив проблем з якістю на бізнес-процеси; розраховує бізнес-ефект від покращення якості даних; формує KPI для оцінки якості даних.
Data Quality Manager (Менеджер з якості даних) – розробляє стратегію управління якістю даних; координує роботу всіх залучених спеціалістів; відстежує прогрес та звітує керівництву; ініціює проєкти з покращення якості даних.
 

Взаємодія між ролями

Успішне управління якістю даних базується на ефективній взаємодії між усіма ролями. Data Owner приймає стратегічні рішення та виділяє ресурси. Data Steward втілює ці рішення на практичному рівні. Data Quality Manager координує процеси. Data Engineer забезпечує технічну реалізацію. Business Analyst оцінює результати та формує вимоги.
 
Наприклад, у великих компаніях розподіл власників даних часто виглядає так: Дані про клієнтів → Директор з продажів або маркетингу; Фінансові дані → Фінансовий директор; Дані про персонал → HR-директор.
 

Ключові процеси

Чому якість даних важливіша за новітні технології АІ

 
Для забезпечення якості даних потрібно налагодити такі процеси:
1. Профілювання даних (Регулярний аналіз стану даних, виявлення аномалій та відхилень, оцінка відповідності бізнес-правилам, моніторинг трендів якості даних).
2. Стандартизація (Розробка єдиних форматів даних, визначення правил введення даних, створення довідників та класифікаторів, документування вимог до якості).
3. Очищення даних (Виправлення помилок, видалення дублікатів, обробка відсутніх значень, узгодження суперечливих даних).
4. Контроль змін (Відстеження джерел змін у даних, перевірка якості нових даних, оцінка впливу змін на пов'язані системи, документування історії змін, інструменти та автоматизація).
 
Важливо розуміти, що управління якістю даних – це не ручний процес. Необхідно використовувати спеціалізовані інструменти – системи профілювання даних, інструменти очищення та стандартизації, платформи управління метаданими та системи моніторингу якості даних.
 

Масштабування ролей та процесів

Важливо розуміти, що реалізація ролей та процесів управління якістю даних може суттєво відрізнятися залежно від розміру організації та специфіки її даних.
 
Малий бізнес (до 50 співробітників). Одна людина може поєднувати декілька ролей. Data Owner часто є власник бізнесу або CEO. Функції Data Steward можуть виконувати керівники відділів. Технічні функції (Data Engineer) можуть бути на аутсорсі. Базові процеси якості даних вбудовані в щоденні операції. Фокус на простих, але ефективних інструментах.
 
Середній бізнес (50-250 співробітників). З'являються виділені ролі для управління даними. Data Owner-и на рівні керівників департаментів. Можлива поява окремої позиції Data Steward. Є внутрішній технічний персонал. Впроваджені базові процеси управління якістю. Використання спеціалізованих інструментів.
 
Великий бізнес (250+ співробітників). Повноцінна реалізація всіх ролей. Можлива наявність кількох кураторів даних для різних доменів. Окремий підрозділ для управління даними. Складна система процесів та контролю. Інвестиції в комплексні платформи управління даними. Розвинена система метрик та звітності.
 
Корпорації та холдинги. Складна ієрархія власників даних. Команди Data Steward-ів для кожного значного домену даних. Центр компетенцій з управління даними. Глобальні політики та стандарти якості даних. Крос-функціональні команди для управління якістю. Enterprise-рішення для управління даними.
 
При цьому обсяг та різноманітність даних також впливають на організацію процесів. Великі обсяги однотипних даних потребують автоматизації та оптимізації процесів. Різноманітні дані вимагають більше експертизи та спеціалізованих інструментів. Критичність даних для бізнесу визначає рівень контролю та інвестицій. Швидкість оновлення даних впливає на організацію процесів моніторингу.
 
Головне правило – структура управління якістю даних має відповідати реальним потребам організації та масштабуватися разом з її ростом. Не варто впроваджувати занадто складні процеси в малому бізнесі, але також небезпечно нехтувати якістю даних при збільшенні їх обсягів та важливості для бізнесу.
**
Повертаючись до нашого мему – якість даних не виникає сама по собі. Це результат злагодженої роботи команди професіоналів та правильно налаштованих процесів. Без активної участі всіх ролей, особливо власників даних, складно забезпечити належний рівень якості даних. Якщо ви хочете, щоб ваші інвестиції в AI та аналітику принесли результат, починайте з побудови міцного фундаменту у вигляді процесів забезпечення якості даних та правильного розподілу відповідальності в команді.

Які моделі АІ-прогнозування цікавлять контакт-центр сьогодні?

Днями мав честь виступити на конференції Всеукраїнської асоціації Контактних Центрів, присвяченій використанню штучного інтелекту в процесах трансформації КЦ. Хочу поділитися враженнями та цікавими спостереженнями.
 
Організатори створили чудові умови для професійного нетворкінгу та обміну досвідом. Особливо цінним було живе спілкування з колегами та можливість обговорити практичні кейси впровадження AI-рішень.
 
Багато доповідей були зосереджені на практичному використанні великих мовних моделей в КЦ, зокрема для чат-ботів і підтримки операторів. Це підтверджує загальний тренд на автоматизацію першої лінії підтримки.
 
Наше рішення з прогнозування навантаження та оптимізації графіків роботи операторів використовує машинне навчання для точного передбачення вхідного трафіку з урахуванням історичних даних, сезонності та зовнішніх факторів. Система автоматично створює оптимальні графіки роботи операторів, враховуючи прогнозоване навантаження, правила трудового законодавства та індивідуальні побажання співробітників. Це дозволяє значно підвищити точність планування та скоротити витрати на персонал при збереженні високої якості обслуговування.
 
Система прогнозування вигорання та відтоку персоналу аналізує великий масив даних про роботу операторів - від показників ефективності до патернів поведінки та комунікації. На основі цих даних ML-моделі визначають ранні ознаки професійного вигорання та ризику звільнення, що дозволяє HR-менеджерам вчасно втручатися та проводити превентивні заходи. Рішення також надає рекомендації щодо індивідуальних стратегій утримання цінних співробітників, базуючись на їх профілі та виявлених факторах ризику.
 
Але мій прогноз щодо зацікавленості тематиками трохи не справдився. Презентуючи наші рішення з ML-моделями для прогнозування вигорання персоналу та планування навантаження, я очікував більшого інтересу до першої теми. Проте аудиторію значно більше зацікавили питання прогнозування навантаження та оптимізації графіків роботи операторів.
 
Можливо, це пов'язано з тим, що:
- Планування навантаження - це щоденна операційна задача з прямим впливом на бізнес-показники
- Оптимізація графіків дає швидкий та вимірюваний економічний ефект
- Існує гостра потреба в автоматизації процесів планування.
 
А можливо тому, що людям здається чимось фантастичним прогнозування поведінки людей на основі даних, які накопичені в КЦ. 
 
Можливо, були якісь інші причини, не знаю. Якщо у вас є думки щодо того, чому саме питання планування навантаження викликали більший інтерес - буду радий почути ваші коментарі.
 

Як Self-Service BI трансформує бізнес-аналітику

Self-Service Business Intelligence (BI) – це технологія, яка дозволяє бізнес-користувачам та аналітикам самостійно працювати з даними, створювати звіти та отримувати інсайти без постійної підтримки ІТ-відділу. Ця інновація змінює правила гри, надаючи організаціям безпрецедентну гнучкість та швидкість у прийнятті рішень.
 
Self-Service BI відноситься до третього етапу розвитку бізнес-аналітики відкриває нові горизонти для бізнесу. Замість того, щоб чекати днями або навіть тижнями на звіти від ІТ-відділу, менеджери можуть миттєво отримувати необхідну інформацію. Це значно прискорює процес прийняття рішень та дозволяє компаніям швидше реагувати на зміни ринку. Наприклад, маркетинговий відділ може в режимі реального часу аналізувати ефективність рекламних кампаній та вносити корективи, не чекаючи на щотижневі звіти.
 
Для ІТ-відділів впровадження Self-Service BI означає зменшення рутинних завдань з генерації звітів та можливість зосередитися на більш стратегічних проектах. Замість того, щоб витрачати години на створення стандартних звітів, ІТ-спеціалісти можуть займатися розробкою нових інноваційних рішень, які приносять більшу цінність бізнесу. Це не тільки підвищує ефективність ІТ-відділу, але й сприяє кращому використанню навичок та експертизи ІТ-фахівців.
 
Self-Service BI також сприяє розвитку культури даних в організації. Коли співробітники мають прямий доступ до даних та інструментів аналізу, вони починають більше цікавитися аналітикою та шукати нові способи використання даних для покращення своєї роботи. Це створює середовище, де інновації та ідеї можуть виникати на всіх рівнях організації, а не лише в ІТ-відділі чи відділі аналітики.
 
Однак, впровадження Self-Service BI не позбавлене викликів. Однією з головних проблем є забезпечення якості та узгодженості даних. Коли багато користувачів мають доступ до даних та можливість їх аналізувати, існує ризик різночитань та неправильних інтерпретацій. Це може призвести до прийняття рішень на основі неточних або некоректних даних.
 
Інший виклик – це забезпечення безпеки даних. З розширенням доступу до даних зростає ризик витоку конфіденційної інформації. Організаціям необхідно впроваджувати надійні системи контролю доступу та шифрування даних, щоб захистити чутливу інформацію.
 
Навчання користувачів також може стати серйозним бар'єром. Не всі співробітники мають навички роботи з даними та аналітичними інструментами. Без належного навчання Self-Service BI може стати джерелом фрустрації, а не підвищення продуктивності.
 
Ще одним викликом є зміна корпоративної культури. Перехід від централізованої моделі BI до Self-Service вимагає зміни мислення як керівництва, так і співробітників. Необхідно подолати опір змінам та переконати людей у цінності нового підходу.
 
Незважаючи на ці виклики, існують конкретні кроки, які організації можуть зробити для успішного впровадження Self-Service BI. Перш за все, важливо розробити чітку стратегію управління даними. Це включає створення єдиного джерела істини – центрального сховища даних, яке забезпечує узгодженість та достовірність інформації для всіх користувачів. А також впровадження корпоративного глосарію та каталогу даних.
 
Наступним кроком є впровадження надійної системи управління доступом до даних. Це дозволяє контролювати, хто має доступ до яких даних, забезпечуючи безпеку та відповідність нормативним вимогам. Важливо також впровадити системи моніторингу та аудиту, щоб відстежувати, хто і як використовує дані.
 
Інвестиції в навчання та розвиток навичок співробітників є критично важливими. Організації повинні розробити комплексні програми навчання, які охоплюють не лише технічні аспекти роботи з інструментами Self-Service BI, але й основи аналізу даних та візуалізації. Особливий акцент слід зробити на підвищенні рівня data literacy – здатності читати, розуміти, створювати та комунікувати дані як інформацію. Це допоможе співробітникам ефективно використовувати нові інструменти, уникати помилок в інтерпретації даних та приймати більш обґрунтовані рішення.
 
Створення центру передового досвіду (Center of Excellence) для Self-Service BI може значно полегшити процес впровадження. Цей центр може служити ресурсом для користувачів, надаючи підтримку, рекомендації щодо найкращих практик та забезпечуючи якість аналітики. Він також може відігравати роль посередника між бізнес-користувачами та ІТ-відділом, сприяючи кращому розумінню потреб бізнесу та можливостей технологій.
 
Важливо також поступово впроваджувати Self-Service BI, починаючи з пілотних проектів у окремих відділах або бізнес-процесах. Це дозволяє отримати швидкі перемоги, продемонструвати цінність нового підходу та вивчити уроки перед повномасштабним впровадженням.
 
Про KPI 
Для оцінки прогресу та ефекту від впровадження Self-Service BI організації можуть використовувати ряд ключових показників ефективності (KPI):
1. Час до отримання інсайту: вимірює, скільки часу проходить від виникнення потреби в даних до отримання корисного інсайту.
2. Кількість активних користувачів BI: показує рівень залученості співробітників до використання інструментів аналізу даних.
3. Рівень data literacy в організації: може оцінюватися через регулярні тести та оцінки навичок співробітників.
4. Задоволеність користувачів: оцінюється через опитування та зворотний зв'язок.
Більш детальний перелік та пояснення KPI дивіться в нашому телеграм каналі «AI&Data Boardroom» 
 
Регулярний збір зворотного зв'язку від користувачів та постійне вдосконалення процесів та інструментів є ключовими для успіху. Організації повинні бути готові адаптувати свій підхід на основі реального досвіду користувачів та мінливих потреб бізнесу.
 
Важливо створити культуру, орієнтовану на дані. Це означає не лише надання інструментів для аналізу, але й заохочення співробітників використовувати дані у своїй щоденній роботі. Лідери повинні подавати приклад, приймаючи рішення на основі даних та заохочуючи інших робити те саме.
 
Self-Service BI – це не просто технологія, це новий спосіб роботи з даними, який може трансформувати організацію. Для CEO та CIO це можливість зробити свої компанії більш гнучкими, інноваційними та конкурентоспроможними. Хоча шлях до повного впровадження може бути складним, потенційні переваги – від прискорення прийняття рішень до підвищення ефективності ІТ – роблять цей шлях вартим зусиль.
 
Для успішного впровадження Self-Service BI потрібен комплексний підхід, який охоплює технології, процеси та людей. CEO та CIO повинні взяти на себе лідерство у цьому процесі, забезпечуючи необхідні ресурси, підтримку та стратегічне бачення. З правильним підходом, Self-Service BI може стати каталізатором інновацій та зростання, дозволяючи організаціям не просто реагувати на зміни, а передбачати їх та формувати своє майбутнє.
 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT