СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ
Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях
Кто внес наибольший вклад в развитие украинского ИТ-рынка.
Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары
|
|

6 февраля 2025 г., 18:55
DeepSeek зараз не сходить з новин. Як вийшло, що маловідомому китайському стартапу вдалося зробити неймовірне — похитнути трон під США, які дотепер вважалися технологічною столицею світу і лідером в AI-технологіях?
Почнемо з того, що для розробки ChatGPT компанія Open AI тільки на старті залучила 1 млрд дол. інвестицій. І ще багато мільярдів — вже після своїх перших успіхів у створенні великих мовних моделей, тільки Microsoft виділили 10 млрд дол. А у 2023-му стало відомо, що ChatGPT щодня обходиться своїм творцям у 700 тисяч дол. До січня 2025-го всі думали, що такі великі витрати не є чимось екстраординарним. А потім з’явився DeepSeek (а точніше, модель DeepSeek R1) — дешевий китайський чат-бот, який на перший погляд не поступається у функціональності ChatGPT і його основним конкурентам.
Модель DeepSeek R1 було запущено на початку січня 2025 року — тоді розробники похвалилися в мережі X, що вона справляється із завданнями не гірше, ніж ChatGPT. А саме, може так само писати програмний код, розв’язувати математичні задачі, міркувати на задані користувачем теми й жартувати. І все це - абсолютно безкоштовно.
Стартап DeepSeek заснував 2023 року китаєць Лян Веньфен (Liang Wenfeng), який зробив ставку на високопродуктивні графічні процесори та закупив тисячі чіпів Nvidia до того, як їхній експорт зі США до Китаю було заборонено. Наразі процесори Nvidia забезпечують роботу DeepSeek одночасно із дешевшими графічними чипами, однак за іншими даними перших у DeepSeek може бути набагато більше, ніж вони заявляють. Це викликає питання про те, чи справді санкції США у стримуванні китайського прогресу в AI ефективні або ж їх можна обійти.
У Nvidia описали нову розробку як «чудове досягнення АІ», а генеральний директор OpenAI Сем Альтман написав, що «R1 від DeepSeek - вражаюча модель». Саму появу DeepSeek називають «моментом супутника» - за аналогією з першим супутником, запущеним у космос СРСР 1957 року.
Слід також зазначити, що DeepSeek R1 - модель штучного інтелекту з відкритим вихідним кодом, яка зʼявилася як сторонній проєкт (хедж-фонду High-Flyer), але зуміла зробити революцію в галузі.
Модель була навчена з використанням понад 2000 відеокарт Nvidia H800 за 55 днів при вартості за 5,6 млн дол.- це в рази менше, ніж витратили на аналогічні рішення у конкурентів.
DeepSeek R1 запускає внутрішні процеси пошуку оптимального використання графічних чіпів, щоб отримати результат із найменшим залученням ресурсів (так зване розподілене навчання або Distributed Training). При цьому використовується навчання з підкріпленням (reinforcement learning, RL), яке передбачає винагороду за правильні відповіді й покарання за неправильні. Модель не передбачає будь-яких лімітів на кількість запитів і не знижує продуктивності при інтенсивному навантаженні. І як результат DeepSeek R1 перевершує конкурентів в основних бенчмарках — AIME 2024, MMLU і AlpacaEval 2.0.
Крім технічних аспектів є й важливі етичні моменти. Оскільки DeepSeek розроблена китайцями і для китайців, вона цензурує заборонені у цій країні теми — переважно політично чутливий контент. Але це не так важливо, як те, що мобільний застосунок DeepSeek, ймовірно, зберігає великі обсяги даних на китайських серверах, що може стати загрозою конфіденційності для жителів США, Європи та низки інших країн. З іншого боку, відкритий вихідний код моделі R1 дає змогу запускати її таким чином, щоб уникнути надсилання даних до Китаю.
Назва DeepSeek уперше голосно прозвучала на Всесвітньому економічному форумі в Давосі, що стартував 20 січня 2025 року. Спочатку її згадали в контексті того, що США слід подвоїти свої зусилля з розвитку AI, а великий інвестор і IT-підприємець Марк Андерссен назвав модель DeepSeek «одним із найдивовижніших і найбільш вражаючих проривів», які він коли-небудь бачив. Уже на третю добу роботи форуму DeepSeek очолив чарти із завантажень в iPhone Apple Inc. і опинився серед лідерів у Google Play. Ринки відреагували негайно: за кілька днів вартість акцій американських і європейських технологічних компаній впала майже на 1 трлн дол. - тільки одна Nvidia Corp. втратила близько 589 млрд дол. (18% капіталізації) за один понеділок, але пізніше частково відновилася. Істотних втрат також зазнали компанії Microsoft і Alphabet (Google).
Чи зможе DeepSeek скласти реальну конкуренцію найбільшим гравцям AI-ринку — ще належить дізнатися. Однак основні технологічні гіганти вже мають намір переглянути свої цінові політики і зрозуміти, чи дійсно виправдані їхні величезні витрати на штучний інтелект. Наприклад, для цього Meta Platforms зібрала внутрішню команду для детального аналізу DeepSeek — він дасть змогу зрозуміти, як було створено модель і на що вона насправді здатна. Водночас Ілон Маск, у якого є власна AI-компанія xAI, висловив скептицизм щодо DeepSeek - він підозрює, що у стартапа було набагато більше графічних процесорів Nvidia, ніж заявляють розробники.
Нагадаємо, що ажіотаж навколо DeepSeek виник на тлі того, як технологічні гіганти продовжують витрачати мільярди доларів на свої AI-проєкти. Наприклад, тільки 2024 року Amazon інвестувала 75 млрд дол. у комп’ютерні чіпи та центри обробки даних, які обслуговують AI-навантаження. Також 65 млрд дол. на проєкти, пов’язані зі штучним інтелектом, планує виділити Meta. А Microsoft на центри обробки даних для AI — ще 80 млрд дол. При цьому перераховані компанії натрапили на труднощі в монетизації своїх AI-продуктів і не отримують тієї фінансової віддачі, на яку розраховували.
Зараз значна частина величезних витрат технологічних гігантів йде на закупівлю дорогих GPU від Nvidia. Хоча в DeepSeek також залучали графічні прискорювачі саме цього бренду, це не єдиний можливий варіант. Як повідомляють в South China Morning Post, китайські хмарні провайдери (як от SiliconFlow) вже пропонують моделі штучного інтелекту DeepSeek, що використовують обладнання іншого вендора — а саме Huawei Ascend 910B. Воно дозволяє знизити вартість одного мільйону вхідних токенів лише до одного юаню та вихідних — до чотирьох юанів. Це суттєва економія з урахуванням того, що постачальники хмарних послуг в США пропонують рішення на базі DeepSeek R1, яке буде коштувати приблизно 7 дол. за мільйон токенів.
А поки розробники в усьому світі почали експериментувати з DeepSeek і роблять перші спроби створити ефективні інструменти на його базі, у самому стартапі шукають можливість масштабуватися — заборона на експорт із США топових графічних чипів усе ще в силі. У будь-якому разі, поява DeepSeek уже змінила ринок технологій і зміцнила вплив Китаю у глобальну AI-індустрію.
23 января 2025 г., 18:31
Будь-який бізнес знаходиться в зоні ризику — програми-вимагачі, стихійні лиха, серйозні апаратні та програмні збої — все це може тимчасово, частково або повністю, паралізувати роботу компанії. Щоб швидко повернутися в штатний режим, потрібно мати стратегію аварійного відновлення (Disaster Recovery).
Найбільш розповсюджені причини простоїв, згідно з Uptime Institute — проблеми з мережею, ПЗ і відключення електроенергії. По інформації Coveware, у результаті атаки програм-вимагачів компанія може простоювати в середньому 16 днів.
Стратегія аварійного відновлення поєднує план аварійного відновлення (DRP, Disaster Recovery Plan), план забезпечення безперервності бізнесу (BCP) і план реагування на інциденти. Вони покривають собою всі незаплановані інциденти, які потенційно можуть призвести до простою: від перебоїв з електропостачанням і стихійних лих до кібератак.
Багато організацій обмежуються тільки DRP, в якому детально описується план дій у разі виникнення різних інцидентів. Розробляють цей план або всередині компанії, або в співавторстві з постачальником рішень по аварійному відновленню.
До нас звертаються як до постачальника експертизи й очікують, що ми не тільки надамо обчислювальні потужності для аварійного відновлення після збою, але і допоможемо з вибором оптимальних параметрів відновлення, а також розробкою плану дій у критичній ситуації. Чому це так важливо? Одна й та сама проблема по-різному впливає на різний бізнес. Однак насправді всі компанії прагнуть одного й того ж. Вони хочуть забезпечити безперервність бізнесу і швидко повернутися до нормальної роботи, уникнувши довгих просторів. Так само вони зацікавлені скоротити матеріальний збиток від простоїв і в цілому зменшити їх кількість і частоту. Особливо високі вимоги висувають компанії, які працюють у регульованих сферах: наприклад, у державному чи фінансовому секторі, але також і ті, де навіть кілька хвилин простою призводять до великих збитків.
Якісно розроблена стратегія аварійного відновлення повинна враховувати якомога більше вірогідних загроз, описувати наслідки їх настання і пропонувати рішення в кожному конкретному випадку. При створенні детальних інструкцій для реагування в критичних ситуаціях зазвичай використовують кілька понять.
● RTO (Recovery time goal, «цільовий час відновлення») — час, протягом якого IT-системи залишаться недоступними після інциденту.
● RPO (Recovery point object, «цільова точка відновлення») — період часу, для якого дані можуть бути втрачені. Насправді це дані, які компанія дозволить собі втратити без серйозних збитків.
● DRaaS (Disaster Recovery as a Service, «аварійне відновлення як сервіс») — послуга аварійного відновлення ІТ-інфраструктури на потужностях постачальника послуг, частіше за все хмарного провайдера. Саме він створює, керує та підтримує інфраструктуру для відновлення роботи сервісів клієнтів, а також надає необхідні програмні інструменти.
За даними Fortune, у 2024 році ринок DRaaS склав 12,8 млрд дол., а до 2032 року сягне 64,4 млрд дол. із середньорічним темпом зростання на 22,4%. Зростанню ринку серед інших факторів сприяє масове впровадження генеративного ШІ.
Ось 5 кроків для реалізації стратегії аварійного відновлення. Ці кроки будуть універсальними для будь-якого бізнесу незалежно від розмірів і сфери діяльності.
Оцінка наслідків загроз
Необхідно зрозуміти, як можливий простій ІТ-інфраструктури вплине на конкретний бізнес. Для цього використовують BIA (Business Impact Analysis) — дослідження наслідків загроз (кібератаки, стихійні лиха, викликані людським фактором та інші помилки) і того, як вони впливають на ключові бізнес-процеси або компанію в цілому. Вона повинна зрозуміти, як простої в роботі можуть трансформуватися в репутаційні та матеріальні втрати. Останні включають як збитки в момент (недоотриманий прибуток), так і штрафи, які накладають регулятори ринку в деяких сферах.
Оцінка ризиків
Вище ми говорили про наслідки певних інцидентів, але яка ймовірність їх настання? Це можна визначити в процесі детального аналізу ризиків RA (Аналіз ризиків), в ході якого окремо розглядається будь-яка загроза та ймовірність її настання.
Оцінка ІТ-активів компанії
Ефективне аварійне відновлення можливо тільки тоді, коли компанія розуміє цінність усіх своїх ІТ-активів. До них відносять числове і мережеве обладнання, програмне забезпечення і все те, що відіграє важливу роль у забезпеченні безперервності бізнесу. Далі виділимо найбільш критичні, важливі й другорядні компоненти. Наприклад, критичними називають ті, що без яких неможливо виконати поточні бізнес-операції, а важливими - те, що компанія використовує принаймні один раз в день.
Призначення нових ролей та обов’язків
Хто буде відповідати за реалізацію плану аварійного відновлення? Вам належить однозначно відповісти на це питання і чітко написати обов’язки цього співробітника. Від цього здебільшого буде залежати швидкість і ефективність післяаварійного відновлення. У великій компанії відповідальних осіб може бути декілька. Наприклад, один співробітник оперативно повідомляє про настання інциденту топ-менеджерам компанії та іншим зацікавленим особам. Менеджер DRP контролює, щоб усі відповіді на аварійне відновлення чітко слідували інструкціям і діяли узгоджено. Менеджер активів забезпечує безпеку критично важливих активів і звітує про їх стан.
Тест і оптимізація
Розробка стратегії аварійного відновлення — не разовий захід. Навіть після того, як ви переконаєтеся в її життєздатності, необхідно буде постійно доробляти й покращувати окремі процеси. І на кожному етапі потрібне тестування в умовах, наближених до реальних. Це допоможе виявити та усунути помилки до настання реального інциденту.
26 декабря 2024 г., 17:53
Будівництво нових дата-центрів і впровадження AI-рішень у бізнесі неможливі без трансформації енергетичної галузі.
Тільки в США кількість електроенергії, споживаної ЦОД, до кінця десятиліття збільшиться втричі порівняно з сьогоднішніми показниками. А це величезні інвестиції — наприклад, щоб ввести в експлуатацію кілька дата-центрів із сумарним споживанням 50 ГВт, тільки на інфраструктуру знадобиться понад півмільярда доларів!
В історії з розвитком штучного інтелекту енергетичний сектор також задає ритм. Уся справа в обмежених ресурсах: щоб побудувати потужний дата-центр, необхідно масштабувати наявну енергетичну екосистему, яка включає надійні джерела енергії, інфраструктуру, електрообладнання в самих ЦОД, висококваліфіковані кадри. Час на забезпечення електроенергією нового дата-центру може досягати трьох років. Це найслабша ланка в історії з поширенням AI: його потенціал неможливо реалізувати без доступу до відповідної енергетичної інфраструктури.
У McKinsey вважають, що генеративний AI в короткостроковій перспективі допоможе економіці отримати від 2,5 до 4,4 трлн дол. Для цього тільки в США необхідно побудувати кілька дата-центрів сумарною потужністю від 50 до 60 ГВт. У зв'язку з цим уже зростають витрати, які несуть ЦОД, — у Gartner підрахували, що за останній рік вони збільшилися на 24%! Це прямий вплив GenAI і його «апетитів» щодо обчислювальних потужностей.
Специфіка енергетичних запитів дата-центрів у тому, що вони створюють навантаження на енергосистему порівняно з промисловими підприємствами, які також працюють цілодобово. Наприклад, у ЦОД є резервні системи зберігання енергії для безперервної роботи обладнання, а за електроенергію їхні власники вже платять і далі готові платити більше, ніж у середньому по ринку.
Збільшення навантаження, спровоковане AI, вже спричинило дефіцит обчислювальних потужностей через складнощі з підключенням до нових електромереж. Водночас темпи генерації електроенергії зростають синхронно з кількістю дата-центрів, що вводяться в експлуатацію, — тобто проблема стосується тільки інфраструктури енергоресурсів, а не їхньої кількості. Ще одним стримувальним фактором є складна ситуація з кадрами: для реалізації великих проєктів бракує електромонтерів і робітників на виробничі підприємства, які випускають напівпровідники та акумулятори.
Міжнародне енергетичне агентство (IEA) прогнозує, що глобальний попит на електроенергію в дата-центрах до 2026 року щонайменше подвоїться, переважно через розвиток AI-додатків.
Подальше розширення екосистеми дата-центрів залежить не тільки від енергетичного сектору, а й від бажання великих інвесторів брати участь у розв'язанні перерахованих проблем. Вони можуть зробити те, що в кінцевому підсумку допоможе задовольнити попит AI-систем на додаткові обчислювальні потужності.
Необхідні інвестиції в передачу і розподіл електроенергії - не тільки в межах основних ринків ДЦ, а й у нетипових локаціях. Це можуть бути інвестиції в розширення гіперскейлерів, які дедалі частіше будують свої майданчики поруч із дешевими альтернативними джерелами енергії, або в нові дата-центри на ринках, що розвиваються, де менші терміни введення в експлуатацію. Також інвестори шукають можливості для зведення електростанцій, повністю ізольованих від мережі, підвищення щільності розміщення обладнання в наявних дата-центрах або реалізації нетипових рішень — як, наприклад, використання ядерної енергетики.
Найближчим часом інтерес до ядерної енергетики з боку обчислювального сектору може зрости, адже атомні станції надійні, забезпечують стабільну генерацію енергії та пропонують конкурентну ціну. І хоча ядерні проєкти дуже складні та дорогі в реалізації, тривале зростання навантаження (зокрема спричинене AI) може призвести до того, що вони зможуть залучити необхідні інвестиції.
Будуть потрібні інвестиції в нові технології, що розвиваються, щоб компенсувати брак критично важливого обладнання. Фінансування насамперед потребують невеликі компанії, які постачають генератори і блоки живлення — без інвесторів вони не зможуть масштабуватися і переорієнтуватися на роботу з гіперскейлерами. Практика збільшення щільності наявних дата-центрів задає тренд на випуск потужнішого обладнання для розміщення в стійках — відповідно, знадобляться ресурси на зміну наявних лінійок продуктів. А переорієнтація на випуск модульних рішень дасть змогу швидше вводити в експлуатацію і масштабувати наявні ЦОД.
Тренд на будівництво нових ДЦ у віддалених районах, де немає достатньої кількості фахівців, збігся зі зростаючим дефіцитом на електромонтажників. Це відкриває можливості як для компаній, що займаються пошуком або підготовкою персоналу, так і інвесторів. Вони можуть фінансувати перенесення частини виробничих потужностей за межі основного підприємства, щоб скоротити потребу у фахівцях на місцях, або знаходити нові підходи до пошуку та навчання персоналу. Він, очевидно, стане важливим фактором успіху для ключових гравців у сфері надання обчислювальних ресурсів.
Генеративний AI вплинув на темпи масштабування і введення в експлуатацію обчислювальних потужностей сильніше, ніж будь-яка інша технологія з початку 2000-х. Однак нові дата-центри з'являються не так швидко, як того вимагає технологія, що стрімко розвивається — будівництво енергетичної інфраструктури ведеться дуже повільно. Ситуацію, що склалася, можуть виправити інвестиції в розробку наступних поколінь систем електропостачання та зберігання даних. Це ті галузі, де великі гравці готові платити більше, ніж у середньому по ринку, щоб задовольнити зростаючий попит на обчислювальні ресурси з боку AI-систем.
26 ноября 2024 г., 18:12
«Штучний інтелект» та «машинне навчання» багатьма сприймаються синонімами, але це не так.
Існує кілька визначень даних технологій, але виберемо ті з них, які найкраще підкреслюють різницю між ними.
Штучний інтелект (Artificial Intelligence, AI) — це спеціалізоване програмне забезпечення, яке для виконання складних завдань імітує когнітивні здібності людини, а саме її здатність навчатися, розмірковувати та аналізувати інформацію. Умовно кажучи, АІ, як і людина, може приймати рішення, робити переклади текстів, аналізувати історичні дані та багато іншого. Іншими словами, штучним інтелектом можна назвати набір програмних інструментів, які змушують обчислювальні машини поводитися розумно, як людина.
Водночас значна частина завдань штучного інтелекту виконується з допомогою машинного навчання.
Машинне навчання (Machine Learning, ML) - це різновид штучного інтелекту, який використовує результати навчання на наборах даних для створення моделей, здатних виконувати складні завдання. Замість програмування ML використовує алгоритми, щоб аналізувати дані, навчатись на них та приймати обґрунтовані рішення. У міру навчання та збільшення кількості даних алгоритми стають все більш точними, тобто чим більше даних буде використано у процесі, тим кращою та ефективнішою буде модель.
У багатьох випадках програмі машинного навчання надають багато вхідних даних (наприклад, зображень, текстів, повідомлень), де вона знаходить спільні патерни та виявляє закономірності. Такий метод машинного навчання називається «навчання з учителем». Існують і інші підходи: «навчання з частковою участю вчителя», «навчання без вчителя» (воно ж «навчання без нагляду») та «навчання з підкріпленням».
З визначень видно, що машинне навчання є підмножиною, одним із компонентів штучного інтелекту, тобто вони відрізняються, але при цьому тісно пов’язані. AI - ширше поняття, що визначає здатність комп’ютерної системи думати, міркувати та діяти як людина. Водночас ML — один із напрямків AI, що дозволяє комп’ютерній системі навчатися на даних та приймати рішення, що базуються на результатах навчання. Крім машинного навчання до поняття AI входить також глибоке навчання (Deep Learning), робототехніка, обробка природної мови (Natural Language Processing, NLP) та інші напрями.
Взаємозв’язок штучного інтелекту з машинним навчанням та іншими дисциплінами наочно представлений на цій схемі:
У чому штучний інтелект та машинне навчання ще перетинаються?
- Керуються даними: АІ використовує їх для прийняття обґрунтованих рішень, а ML — для навчання та моделей.
- Автоматизація: обидві технології в кінцевому підсумку дозволяють автоматизувати завдання, які зазвичай виконує людина.
- Постійне вдосконалення: чим більше даних у розпорядженні АІ та ML, тим більш точними будуть результати їхньої роботи.
- Вимоги до ресурсів: обидві технології потребують великих обчислювальних потужностей.
У чому різниця між АІ та машинним навчанням?
Основна відмінність у тому, що машинне навчання аж ніяк не імітує людський інтелект, а займається виявленням закономірностей у даних. У ML більш вузька, специфічна сфера застосування: створення прогнозних моделей, водночас як у АІ набагато більше можливостей для використання у вирішенні різних завдань.
Крім цього, відмінності між ML та АІ виражаються в наступному.
- Кінцеві цілі: АІ має імітувати людський інтелект, а ML - навчатись на даних, щоб давати точні прогнози.
- Процес навчання: для АІ навчання не обов’язкове, чого не скажеш про ML - тут процес навчання безперервний.
- Вимога до даних: ML для навчання потрібні структуровані дані, причому ця властивість має вирішальне значення для точності прогнозування, а АІ висуває різні вимоги до даних залежно від специфіки завдання та складності алгоритму.
- Участь людини: в АІ людина часто встановлює певні правила і вручну налаштовує інтелектуальну систему, тоді як у ML втручання незначне (максимальна автоматизація роботи).
- Вихідні дані: у випадку з АІ сильно відрізняються залежно від конкретної задачі, в ML - це числові дані або класифікації.
У деяких завданнях є сенс використовувати і штучний інтелект, і машинне навчання. Наприклад, це може принести певний ефект тоді, коли необхідно:
- проаналізувати великі обсяги структурованих та неструктурованих даних;
- скоротити кількість помилок, спричинених людським фактором;
- забезпечити більш швидке та точне прийняття рішень на основі даних;
- інтегрувати прогнозну аналітику у бізнес-процеси.
Хоч машинне навчання по суті є складовою штучного інтелекту, говорити про їхнє спільне використання цілком коректно. Поєднання машинного навчання та штучного інтелекту ми часто спостерігаємо в різних сферах. Наприклад, в охороні здоров’я може бути аналіз медичних даних пацієнтів, прогнозування результатів лікування, прискорення розробки нових лікарських засобів. На виробництві — моніторинг обладнання та виявлення потенційних проблем у майбутньому, підвищення експлуатаційної ефективності. У ритейлі — прогнозування попиту, складання персоналізованих рекомендацій. А у фінтеху — аналіз ризиків, виявлення випадків шахрайства. У кожному з цих випадків свою роль відведено як АІ, так і ML, які до того ж можуть працювати з іншими дисциплінами — наприклад, математичною статистикою та аналітикою.
Впровадження штучного інтелекту та машинного навчання дозволяє компаніям переосмислити користь від даних та навчитися використовувати їх для підвищення ефективності, покращення процесу прийняття рішень та якості обслуговування клієнтів.
31 октября 2024 г., 17:47
За прогнозами Fortune, глобальний ринок предиктивної аналітики, який на початок 2024 року оцінюється в 18,02 млрд доларів, до 2032 року досягне вражаючих 95,3 млрд доларів. Це зростання пов’язане з активним інтересом до рішень на основі АІ, інтеграцією прогнозної аналітики в усі сфери економіки та активним впровадженням технологій IoT.
Нагадаю, прогнозна (або предиктивна) аналітика - це потужний інструмент, що дозволяє передбачати майбутні події на основі історичних даних. І зараз завдяки розвитку штучного інтелекту, машинного навчання та статистичних методів, компанії можуть виявляти закономірності та формувати сценарії розвитку подій з високою точністю.
Процес прогнозування включає кілька важливих етапів. Спочатку необхідно визначити задачу та сформулювати вимоги до результатів прогнозування. Наприклад, це може бути оцінка ймовірності неповернення кредиту або визначення розмірів складських запасів перед великими розпродажами. Далі, на етапі підготовки даних, здійснюється збір та систематизація як історичних, так і поточних даних. Це може включати дані, зібрані протягом кількох років, а також ті, що постійно генеруються в результаті взаємодії з клієнтами. Наступним кроком є попередня обробка даних, де проводиться очищення від аномалій і помилок, що знижує ймовірність неточностей у прогнозах.
Після означених підготовчих етапів вибирається відповідна модель для розробки прогностичних рішень. Це може бути машинне навчання, регресійна модель або дерево рішень. І фінальним етапом є перевірка результатів, коли тестується точність моделі та вносяться корективи, поки результати не стануть прийнятними.
Також слід вказати, що серед основних методів прогнозної аналітики виділяються дерева рішень, регресивний аналіз і машинне навчання. Дерева рішень допомагають візуалізувати та аналізувати можливі варіанти розвитку подій, дозволяючи оцінити ризики та можливості. Регресивний аналіз дає змогу виявити закономірності між змінними та оцінити їхній вплив, наприклад, на обсяги продажу. Машинне навчання, особливо нейронні мережі, є оптимальним вибором для складного моделювання, дозволяючи автоматизувати процеси аналізу та створювати точні прогнози на основі великих обсягів даних.
Спільне використання предиктивної аналітики та хмарних технологій дозволяє швидко та ефективно обробляти великі обсяги даних, використовуючи найсучасніші методи прогнозування. Крім того, завдяки хмарі (а саме доступності віртуальних інфраструктур) прогнозна аналітика стає більш доступною для компаній, які раніше не використовували її через відсутність компетенцій та відповідної IT-інфраструктури.
У хмарі можна досить швидко розгорнути платформу для прогнозної аналітики й легко масштабувати її, якщо через час потреби зміняться: збільшиться обсяг даних, з’являться нові цілі тощо. По суті, хмарні технології вже стали game-changer для прогнозної аналітики — тим, що дуже змінило все, що пов’язане із прийняттям рішень на основі даних.
У завершенні важливо зазначити, що прогнозна аналітика відкриває нові горизонти для бізнесу, дозволяючи не тільки передбачати майбутні події, але й адаптувати стратегії для досягнення максимальних результатів. З розвитком технологій, таких як АІ та IoT, прогностична аналітика стане ще більш доступною та ефективною, роблячи її невід’ємною частиною сучасного бізнесу.
20 сентября 2024 г., 13:48
За даними Veeam для резервного копіювання, 85% компаній наголошують на невідповідності між тим, які дані вони можуть відновити та які необхідно відновлювати з урахуванням специфіки бізнес-процесів.
Про це йде мова у звіті компанії «Тенденції в галузі захисту даних», який підготовлено у результаті опитування серед 1200 IT-директорів та фахівців із впровадження.
Згідно з дослідженнями Veeam до кінця року понад 47% IT-керівників та фахівців із захисту даних планують змінити місце роботи та посаду. Основні причини — відсутність необхідних навичок та можливостей для їх отримання, наслідки кібератак, відсутність підтримки з боку керівництва у питаннях адаптації стратегії захисту даних під нові реалії.
Втрата кваліфікованих фахівців, як правило, негативно впливає на роботу всієї компанії. Частково виходом у цій конкретній ситуації може стати співпраця з постачальниками послуг BaaS та DRaaS. Майданчики для віддаленого зберігання бекапів та відновлення IT-інфраструктури відповідно не вирішать кадрової проблеми, проте разом з перерахованими сервісами компанія зможе отримати і необхідну технічну підтримку. Крім цього, фахівці допоможуть підібрати оптимальні параметри бекапування з урахуванням специфіки бізнесу та бюджету.
Також зазначається, що використання застарілих методів резервного копіювання призводить до появи недостатньо повних бекапів або таких, при відновленні з яких частина даних втрачається. У центрі уваги багатьох IT-директорів опинилися навантаження, розміщені в публічних хмарах (IaaS) та дані SaaS-сервісів, кількість яких неухильно зростає. За інформацією Productiv, середня їхня кількість у малому та середньому бізнесі перевищила 370 застосунків станом на кінець 2023 року.
У звіті Veeam зазначається, що третій рік поспіль більша частина респондентів вказують, що вже використовують контейнерну технологію та ще 30% планують почати робити це найближчим часом. Однак лише в кожній четвертій компанії захищають контейнери за допомогою спеціального інструментарію, а резервні копії створюють переважно лише для базового сховища та компонентів БД.
Зберігання бекапів на безпечному віддаленому майданчику
88% учасників опитування зазначили, що вже використовують або планують найближчим часом замовити BaaS чи DRaaS у постачальника хмарних послуг. Це допоможе підвищити надійність зберігання бекапів та забезпечити оперативне відновлення працездатності всієї IT-інфраструктури або хоча б критичної її частини у хмарі у разі аварії.
Картина, яку малюють у Veeam, є досить похмурою. За даними компанії, лише 32% організацій зможуть повністю відновити навіть невеликий стек серверів, причому на це піде щонайменше один робочий тиждень. А за підсумками останнього тесту виконати відновлення даних відповідно до затвердженого раніше плану вдалося лише 58% учасникам опитування. Що стосується частоти проведення самих тестів та оновлення відповідної документації, то компанії роблять це в середньому раз на 7 місяців, а повністю налагоджено процеси з аварійного відновлення даних та перемикання інфраструктури на резервний майданчик лише у 13% респондентів.
Відповіддю на багато викликів, перерахованих у звіті Veeam, може стати хмара: приватна, публічна, гібридна або навіть мульти хмара — все залежить від специфіки бізнесу, вимог до безпеки та потреб компанії. Як мінімум, хмара відповідає концепції «винеси свої дані за межами будівлі», але насправді відкриває набагато більше можливостей у питаннях захисту даних. Тут можна отримати більше, ніж інструментарій автоматизованого створення та відновлення бекапів — а саме можливість протягом короткого часу запустити критичні IT-навантаження на віддаленому майданчику, не допускаючи зупинки бізнесу. Вибираючи постачальника хмарних послуг, звертайте увагу на його досвід, реалізовані кейси захисту даних та наявність сервісів, що відповідають вашим потребам (наприклад, ті самі BaaS і DRaaS). Обов’язково аналізуйте SLA та консультуйтеся з приводу розробки відповідного вам плану аварійного відновлення (DR).
16 августа 2024 г., 16:35
Сам термін мультихмара передбачає використання кількох публічних хмар в одній ІТ-інфраструктурі. Однак якщо розглянути ще приватну хмару, яка доповнює публічні хмари, то можна говорити про гібридну мультихмарну інфраструктуру. І цей підхід з багатьох причин виглядає дуже перспективною.
Рушійною силою розвитку мультихмарних рішень стало не тільки бажання відмовитися від прив’язки до одного постачальника, а ще й використати найкращі пропозиції — як за ціною, так і за функціональністю — від різних хмарних провайдерів. Проте деяким компаніям не менш важливо забезпечити фізичну безпеку та жорсткий контроль над окремими даними. Для цього виникає необхідність розміщувати частину навантажень локально у власному дата-центрі або в приватній хмарі.
Чому ж необхідно інтегрувати приватну хмару в мультихмарну IT-інфраструктуру.
Перш за все — не всі робочі навантаження можуть повною мірою використати потенціал публічної хмари. Це призводить до того, що в ряді сценаріїв витрати на розміщення тих самих навантажень у приватній хмарі будуть вищими, ніж при розміщенні в публічній хмарі.
По друге — публічна хмара не є захищеною на 100%, хоч і наближається до цього показника — в історії вразливостей були інциденти, коли дані перехоплювали всередині одного процесора. Не завжди можна забезпечити бажаний суверенітет даних, оскільки клієнт не керує автентифікацією користувачів, не контролює спроби підбору пароля та не має доступу до інших функцій безпеки. Приватна хмара гнучкіша в цьому плані: дані в цьому випадку розміщуються на сервері, яким управляє один клієнт. Плюс можна реалізувати управління інфраструктурою без доступу до публічного інтернету (через захищений L2-канал). Все це забезпечує високий рівень контролю, конфіденційності та виконання нормативних вимог (наприклад, як GDPR у ЄС).
У приватній хмарі клієнт самостійно розпоряджається доступними обчислювальними ресурсами та не залежить від інших клієнтів провайдера. У ряді випадків також можливе пряме спілкування за допомогою вендора (програмного та апаратного забезпечення).
Приватна хмара виграє у локального розміщення, тому що всі завдання щодо побудови, підтримки та масштабування необхідної інфраструктури бере на себе постачальник послуги. Також йому можна довірити керування та підтримку приватної хмари — у такому разі можна говорити про модель Managed Private Cloud.
Наприклад Colobridge має можливість підключення своєї платформи до гіперскейлерів і вже пропонує послугу проєктування та реалізації IT-інфраструктури на базі приватної та публічної хмар.
Слід зазначити, що приватна хмара може стати чудовою альтернативою локальному розміщенню, оскільки підходить навіть для тих IT-навантажень, які складно чи неможливо перенести в публічну хмару, зокрема через використання якихось застарілих IT-операцій. Насамперед це стосується CRM, ERP та HR-систем, які може бути проблематично мігрувати до IaaS-інфраструктури без істотного рефакторингу застосунків. А для багатьох подібних систем це ще економічно недоцільно.
Крім того, в Private Cloud можна врахувати специфіку робочих навантажень та забезпечити дотримання вимог регуляторів або інших, якщо вони виникнуть під час масштабування бізнесу чи реалізації нових проєктів. А якщо зробити приватну хмару основним місцем для зберігання корпоративних даних, можна значно скоротити експлуатаційні витрати та плату за вихідні дані в різних середовищах у межах всього IT-ландшафту.
18 июля 2024 г., 19:47
Проведене IBM опитування показало, що мультихмарні та гібридні обчислювальні моделі найчастіше використовуються саме для розміщення навантажень, пов’язаних з АІ, машинним навчанням, бізнес-аналітикою та Інтернетом речей.
Хмари дозволяють встановлювати застосунки з мінімальними витратами, а також зберігати обсяги даних, що постійно зростають, і отримувати до них практично миттєвий доступ з будь-якої точки світу. Все це дозволяє повною мірою реалізувати потенціал АІ-застосунків - останні дедалі частіше стають частиною цифрової екосистеми підприємств. Наприклад, використовуються як бізнес-асистенти, розпізнають візуальні образи та мовлення, аналізують дані в режимі реального часу та готують прогнози.
Застосування АІ в різних сферах допомагає бізнесу стати більш гнучким та, як результат, підвищити ефективність виконання бізнес-процесів. Крім цього штучний інтелект дає можливість автоматизувати більшість рутинних операцій та скоротити кількість помилок.
А застосування АІ у боротьбі з кіберзлочинністю в цілому та кіберзагрозами у хмарі вже стає звичайною практикою для великого бізнесу. За даними Acumen Research and Consulting, обсяг світового ринку у сфері кібербезпеки з 2021 по 2030 рік зросте з 14,9 млрд дол. до 133,8 млрд дол. Окремі SaaS-рішення вже здатні виявляти та миттєво реагувати на загрози у хмарі.
Якщо раніше більшість компаній потребувала значних технічних та людських ресурсів для впровадження АІ-рішень, сьогодні це завдання максимально спрощене. Наприклад продукт Colobridge AI-Engine as a Service дозволяє отримувати з неструктурованих даних цінну для бізнесу інформацію (зокрема прогнозну аналітику) та вибудовувати максимально ефективну взаємодію з клієнтами. Для цього не потрібні великі вкладення або команда IT-фахівців — клієнт отримує готову хмарну платформу машинного навчання, гнучку, просту у розгортанні, обслуговуванні та масштабуванні. Поєднання АІ, машинного навчання та даних у хмарі дозволить навчитися керувати даними з метою виходу на новий рівень доходу організації через скорочення витрат, зростання конверсії та підвищення лояльності клієнтів.
Інновації в області АІ та хмарних обчислень дозволяють отримувати додаткову цінність із даних, які бізнес у будь-якому випадку збирає та зберігає. Наслідком цього може стати інтелектуальна автоматизація процесів у хмарі та без втручання людини. Хмара в цьому випадку спрощує роботу рішень, заснованих з урахуванням штучного інтелекту, забезпечуючи практично необмежені можливості для оброблення даних і масштабування обчислювальних потужностей. Завдяки інтеграції хмари та АІ-рішень з’являється можливість швидко керувати та обробляти великі обсяги даних, впроваджувати інновації, підвищувати продуктивність роботи завдяки постійному самонавчанню та покращенню АІ-алгоритмів.
Хмара дозволяє повною мірою реалізувати потенціал штучного інтелекту.
Однією з методологій штучного інтелекту є машинне навчання, що дозволяє знаходити закономірності у великих наборах даних. У бізнесі МО використовується для вирішення безлічі завдань:
- сегментація клієнтів за перевагами, поведінкою чи іншими характеристиками;
- оцінка ризиків та виявлення випадків шахрайства (наприклад, при проведенні транзакцій);
- складання прогнозів про ймовірність настання певних подій, вчинення дії покупцями тощо;
- надання персоналізованих рекомендацій на основі історичних даних;
- розпізнавання людей за біометричними даними;
- виконання медичної, автомобільної та інших видів діагностики;
- автоматична генерація текстів, зображень та відео.
Пов’язані з машинним навчанням процеси можна оптимізувати за допомогою хмарних обчислень. Для реалізації проєктів на базі МО не потрібні великі інвестиції — провайдер надає обчислювальні ресурси, зокрема високопродуктивні GPU, на вимогу в рамках гнучкої моделі ціноутворення. При цьому публічна хмара дозволить експериментувати з МО не лише з мінімальними вкладеннями, а й без технічних навичок.
Історія з використанням АІ завжди передбачає збір, зберігання та обробку великих наборів даних, тому розвиток та масове впровадження АІ-рішень збільшує попит на хмарні сховища. Водночас технології штучного інтелекту безпосередньо впливають функціональність цих сховищ. Наприклад, з’явилися АІ-системи, що автоматизують процеси управління даними, що мінімізує ручне втручання і скорочує час недоступності даних. Інтелектуальні системи зберігання у хмарі використовують машинне навчання та штучний інтелект, щоб оптимізувати місткість, а також моніторити та аналізувати стан сховища в режимі реального часу.
В Україні ще не сформувався запит на інтелектуальні системи зберігання, проте не виключено, що це станеться протягом кількох найближчих років. Цього разу йдеться не про черговий модний тренд, а про реальний інструмент із практичною цінністю. Наприклад, хмарні сервіси з вбудованим АІ можуть відстежувати закономірності та прогнозувати потенційні збої накопичувачів, а в більш просунутому варіанті зможуть самостійно запустити процес резервного копіювання в хмару, щоб унеможливити втрату даних у разі настання інциденту. Або інший кейс: алгоритми стиснення на базі АІ дозволяють ефективно оптимізувати об’єми даних без втрати якості. При цьому скорочуються вимоги до обсягу сховища, а передача даних між ШІ та хмарними сховищами займає менше часу.
27 июня 2024 г., 20:40
Вибір необхідного рішення серед мультихмарних моделей може виявитися непростим завданням.
Існує багато різних конфігурацій одиночної хмари, гібридної мультихмари, основної хмари + додаткової хмари та мультихмарних конфігурацій «активний-активний». Як прийняти обґрунтоване рішення, що відповідає потребам саме вашого бізнесу.
Моделі мультихмари передбачають використання кількох постачальників хмарних послуг (CSP), щоб задовольнити різноманітні потреби бізнесу. Цей підхід допомагає пом’якшити ризики, пов’язані із залежністю від одного оператора, покращити доступність та здатність до відновлення після збоїв, а також оптимізувати витрати на хмару. При цьому необхідно розглядати конкретні бізнес-потреби, вимоги до відповідності стандартам та враховувати плани масштабування.
Окрема хмара проти гібридної мультихмари
Окремої хмари може бути достатньо для бізнесу з простими потребами в обчисленнях в умовах жорсткої економії. Однак це може призвести до залежності від одного постачальника, що обмежує можливості його змінити, якщо ваші потреби зміняться або з’являться інші кращі варіанти.
З іншого боку, гібридна мультихмара поєднує приватні, публічні та ресурси всередині підприємства. Ця модель пропонує збалансований підхід, забезпечуючи гнучкість та захист даних у мультихмарному середовищі, дозволяючи зберігаючи контроль над чутливими робочими навантаженнями. Це ідеальне рішення для бізнесу, який хоче знайти надійні заходи захисту даних та уникнути високих витрат на хмару пов’язаних із повним переходом до загальнодоступних хмарних послуг.
Основна хмара + додаткова хмара
У цій моделі основний постачальник хмарних послуг розміщує значну частину робочих навантажень, а другий використовується під специфічні завдання. Такий підхід знижує залежність від одного постачальника та дозволяє використовувати спеціалізовані сервіси.
Серед плюсів вочевидь керування ризиками, спеціалізовані послуги, операційна гнучкість. Серед мінусів — збільшена складність, можливі підвищені витрати, проблеми з інтеграцією.
Розподілені робочі навантаження
Оптимізація продуктивності та можливостей шляхом вибору найкращих хмарних сервісів від різних постачальників для конкретних завдань. Це надає бізнесу гнучкості та масштабованості, доступу до інновацій. Однак має складність запуску та управління, можливі проблеми з узгодженістю, вірогідно збільшення витрат, не підходить для всіх типів робочих навантажень.
Мультихмара active-active: крок до стійкості
Конфігурація мультихмари виду active-active є найвищим рівнем надмірності та розподілу в хмарі. У цій моделі робочі навантаження розподіляються на декілька хмар, забезпечуючи високу доступність і можливості відновлення після збоїв. Таке налаштування є особливо корисним для бізнесів, яким потрібні мультирегіональні пропозиції для обслуговування глобальних клієнтів зі зменшеною затримкою.
Слід зазначити, що сьогодні існує безліч можливостей для реалізації як проактивних, так і реактивних заходів безпеки для задоволення основних вимог безпеки мультихмарного рішення.
Використання інструментів керування мультихмарою
Навігація у складних мультихмарних середовищах потребує надійних інструментів керування мультихмарою. Ці інструменти допомагають оптимізувати операції, керувати витратами на хмару та забезпечувати дотримання єдиних безпекових політик на різних платформах. Інвестування в правильні інструменти є критично важливим для підтримки узгодженої та безпечної мультихмарної архітектури.
Оцінка постачальників хмарних послуг
Під час вибору постачальників хмарних послуг необхідно розглядати такі фактори, як сумісність, показники продуктивності, витрати на хмару та набір запропонованих послуг. Оцінка мультирегіональних пропозицій кожного постачальника також може бути важливою, особливо якщо ваш бізнес потребує глобального охоплення та високої доступності.
Добре продумана стратегія повинна враховувати захист даних у мультихмарних сценаріях та гібридні хмарні рішення, забезпечуючи збалансований підхід між гнучкістю, витратами та безпекою. А ключ до успіху лежатиме у ретельному плануванні, використанні ефективних інструментів управління мультихмарою та фокусуванні з метою вашого бізнесу.
23 мая 2024 г., 17:55
За даними Mordor Intelligence, як мінімум до 2028 року ринок штучного інтелекту щороку зростатиме на 31,22%. Багато в чому цьому сприяє популярність хмарних обчислень серед бізнесу всіх розмірів, а також збільшення кількості впроваджень хмарних застосунків.
Проведене в IBM опитування показало, що мультихмарні та гібридні обчислювальні моделі найчастіше використовуються саме для розміщення навантажень, пов’язаних з АІ, машинним навчанням, бізнес-аналітикою та Інтернетом речей.
Хмари дозволяють встановлювати застосунки з мінімальними витратами, а також зберігати обсяги даних, що постійно зростають, і отримувати до них практично миттєвий доступ з будь-якої точки світу. Все перераховане дозволяє повною мірою реалізувати потенціал АІ-застосунків — останні дедалі частіше стають частиною цифрової екосистеми підприємств. Наприклад, використовуються як бізнес-асистенти, розпізнають візуальні образи та мовлення, аналізують дані в режимі реального часу та готують прогнози.
Застосування АІ в різних сферах допомагає бізнесу не тільки отримати важливу конкурентну перевагу, але й стати більш гнучким та масштабованим і підвищити ефективність виконання бізнес-процесів. Також це може допомогти автоматизувати більшість рутинних операцій та приймати обґрунтовані бізнес-рішення.
Крім того, застосування АІ у боротьбі з кіберзлочинністю в цілому та кіберзагрозами у хмарі стає все більше звичайною практикою для великого бізнесу.
Якщо раніше більшість компаній потребувала значних технічних та людських ресурсів для впровадження АІ-рішень, то сьогодні це завдання максимально спрощене. Наприклад наш продукт Colobridge AI-Engine as a Service дозволяє отримувати з неструктурованих даних цінну для бізнесу інформацію (зокрема прогнозну аналітику) та вибудовувати максимально ефективну взаємодію з клієнтами. Для цього не потрібні великі вкладення або команда IT-фахівців - як клієнт — ви отримуєте готову хмарну платформу машинного навчання, гнучку, просту у розгортанні, обслуговуванні та масштабуванні.
Важливо також додати, що Інновації в області АІ та хмарних обчислень дозволяють отримувати додаткову цінність із даних, які бізнес у будь-якому випадку збирає та зберігає. Хмара в цьому випадку спрощує роботу рішень, заснованих з урахуванням штучного інтелекту, забезпечуючи практично необмежені можливості для оброблення даних і масштабування обчислювальних потужностей.
Пов’язані з машинним навчанням процеси можна оптимізувати за допомогою хмарних обчислень. І для цього не потрібні великі інвестиції — провайдер надає обчислювальні ресурси, зокрема високопродуктивні GPU, на вимогу в рамках гнучкої моделі ціноутворення. При цьому публічна хмара дозволить експериментувати не лише з мінімальними вкладеннями, а й без технічних навичок.
Масове впровадження АІ-рішень збільшує попит на хмарні сховища. Водночас технології штучного інтелекту безпосередньо впливають функціональність цих сховищ. Наприклад, з’явилися АІ-системи для автоматизації процесів управління даними, що мінімізує ручне втручання і скорочує час недоступності даних. Інтелектуальні системи зберігання у хмарі використовують машинне навчання та штучний інтелект, щоб оптимізувати місткість, а також моніторити та аналізувати стан сховища в режимі реального часу.
В українських компаній ще не сформувався запит на АІ-системи зберігання, проте не виключено, що це станеться протягом кількох найближчих років. Важливо, що цього разу йдеться не про черговий модний тренд, а про реальний інструмент із практичною цінністю. Наприклад, хмарні сервіси з вбудованим АІ можуть відстежувати закономірності та прогнозувати потенційні збої накопичувачів. А в більш досконалому варіанті зможуть самостійно запустити процес резервного копіювання в хмару, щоб унеможливити втрату даних у разі настання інциденту. Або інший кейс: алгоритми стиснення на основі АІ дозволяють ефективно оптимізувати об’єми даних без втрати якості. При цьому скорочуються вимоги до обсягу сховища, а передача даних між АІ та хмарними сховищами займає менше часу.
|
|

|