На конференції WWDC було анонсовано Apple Intelligence і мова йшла про сам підхід компанії до штучного інтелекту, який ставить на перше місце переваги та захист користувачів.
У своїй комунікації розробник більш зосереджен на тому, як Apple Intelligence допоможе пересічним користувачам краще виконувати повсякденні справи – писати, спілкуватися, користуватися Siri – і водночас ретельно захищати їхню приватність і безпеку. Це, в свою чергу, має трохи полегшити життя ІТ-спеціалістам та службам безпеки.
ІТ-спеціалісти, без сумніву, почуют від користувачів своїх компаній про Apple Intelligence, коли рішення почне з’являтися в бета-версії цієї осені. Але вони також, швидше за все, почують про технологію і від відділів безпеки, комплаєнсу та управління, які, зрозуміло, матимуть певні запитання та занепокоєння щодо неї.
Як і будь-яка інша система штучного інтелекту, Apple Intelligence потребуватиме серйозних обчислювальних ресурсів. Компанія заявляє, що вирішує цю проблему шляхом створення трирівневої системи обробки даних.
Ключ до забезпечення переваг штучного інтелекту при мінімізації ризиків для конфіденційності та безпеки полягає в тому, що Apple Intelligence виконує якомога більшу частину обробки даних локально, на самому пристрої.
Частково це є наслідком роботи Apple над інтегруванням нейронних рушіїв у її процесори, останній приклад - чип M4. З часом компанія відводить все більше місця на чіпі для таких модулів, які можуть забезпечити роботу штучного інтелекту.
Архітектура на чипі особливо добре відповідає пріоритету Apple щодо захисту конфіденційності користувачів. Оскільки більша частина обробки відбувається на пристрої, дані, на які покладається Apple Intelligence, ніколи не залишають пристрій, таким чином мінімізуючи його потенційний вплив на зловмисників.
Тим не менш, Apple Intelligence іноді вимагає більше обчислювальних ресурсів, ніж може впоратися сам пристрій. Саме тому компанія вбудувала другий рівень обчислювальних потужностей у структуру Apple Intelligence: Private Cloud Compute (PCC). Як випливає з назви, це хмарна обчислювальна система, яка, за словами Apple, буде використовуватися для обробки «більш складних запитів», що вимагають «допомоги від більших, складніших моделей у хмарі».
Apple заявляє, що PCC побудована навколо «обчислювальних вузлів». Серверне обладнання, яке покладається на кремній Apple (і вбудовану систему безпеки), а також «посилену підгрупу основ iOS і macOS, пристосовану для підтримки робочих навантажень з виведення великих мовних моделей (LLM), представляючи при цьому надзвичайно вузьку поверхню для атак».
За словами Apple, запити від пристроїв до PCC будуть наскрізно зашифровані.
Коли Apple Intelligence потребує використання приватних хмарних обчислень, вона створює запит, що складається з підказки, а також бажаної моделі та параметрів виведення, які слугуватимуть вхідними даними для хмарної моделі. Потім клієнт PCC на пристрої користувача шифрує цей запит безпосередньо за допомогою відкритих ключів вузлів PCC, які він попередньо підтвердив як дійсні та криптографічно сертифіковані. Це забезпечує наскрізне шифрування від пристрою користувача до підтверджених вузлів PCC, гарантуючи, що до запиту не може отримати доступ будь-хто поза межами цих високозахищених вузлів PCC.
Що стосується «приватної» частини PCC, Apple заявляє, що вона зосереджена на захисті користувачів у п’ятьох напрямках.
Приватні дані, які завантажуються в хмару Apple, використовуватимуться лише для безпосередньої обробки і ніколи не зберігатимуться після завершення цього завдання.
Повинна бути можливість підтвердити, що будь-які інструменти, які Apple використовує для обслуговування PCC, відповідають її гарантіям безпеки та конфіденційності; Apple не використовуватиме інструменти, які не можна перевірити, для обслуговування або моніторингу системи.
Гарантії конфіденційності PCC не можуть бути обійдені навіть співробітниками Apple під час збою в роботі системи.
Архітектура PCC означає, що зловмисники не можуть націлитися на дані конкретного користувача – вони можуть націлитися лише на PCC в цілому.
Дослідники безпеки повинні мати можливість перевірити, що гарантії конфіденційності та безпеки PCC виконуються. доведеться почекати, поки PCC стане доступною в бета-версії цієї осені, перш ніж вони зможуть почати оцінювати, чи справді Apple досягла цих цілей. Але ключовим моментом є те, що Apple заявляє, що зробить такі оцінки можливими.
Нарешті, Apple запропонує додаткову інтеграцію між Apple Intelligence і ChatGPT, яка може допомогти в роботі з Siri та інструментами для написання текстів. Наприклад, Siri може звертатися до ChatGPT за запитаннями про фотографії. А коли справа доходить до написання тексту в текстовому редакторі, це теж може стати роботою для ChatGPT.
Але це завжди буде лише опція. Користувачі контролюватимуть, коли і чи викликається ChatGPT, і вони повинні будуть підтвердити, чи хочуть вони, щоб їхня інформація була передана сервісу. Використання ChatGPT як частини Apple Intelligence не потребує окремого облікового запису в OpenAI, але якщо він у вас є, ви зможете отримати доступ до додаткових функцій, які постачаються разом з ним, з Apple Intelligence.
Очікується, що Apple Intelligence вийде на ринок цієї осені, принаймні у вигляді бета-версії, хоча коли саме це станеться, поки що невідомо. Це означає, що у ІТ-команд є кілька місяців, щоб вирішити проблеми, які можуть виникнути у відділів безпеки та комплаєнсу вашої організації.
Їхні головні питання, ймовірно, будуть такими. Що Apple Intelligence може зробити з власними даними компанії? Куди ці дані підуть? Хто матиме до них доступ? Звідки ми знаємо, що це безпечно?
Інші інструменти штучного інтелекту стикаються з тими ж питаннями. На щастя, Apple, схоже, готова вирішити їх.
Як зазначалося вище, Apple свідомо обмежує дані, які надсилаються за межі пристрою. У конкретному випадку з PCC, в нього вбудовані деякі, здавалося б, суворі запобіжники для захисту конфіденційності даних кінцевих користувачів.
Крім того, Apple не просто просить організації довіряти їй, вона вбудовує можливість перевірки в архітектуру. Кожна організація зможе сама вирішувати, чи хоче вона довіряти цій системі. Apple також пообіцяла провести аудит третьою стороною і поділитися результатами публічно.
Партнерство з OpenAI, можливо, викликало найбільше запитань. Але важливо пам’ятати, що для використання ChatGPT потрібен дозвіл користувача. OpenAI, схоже, дотримується принаймні деяких рекомендацій Apple, коли йдеться про управління даними для Apple Intelligence: Apple заявляє, що IP-адреси користувачів, які вирішили використовувати ChatGPT, будуть приховані. Як і у випадку з PCC, запити користувачів до ChatGPT не зберігатимуться ніде в хмарі, і ці дані не використовуватимуться для навчання моделей OpenAI.
Найкращою відповіддю на багато з цих занепокоєнь, ймовірно, буде навчання користувачів, щоб переконатися, що вони розуміють політику вашої організації щодо використання генеративного штучного інтелекту будь-якого типу.
Стратегія охолодження ЦОД для епохи AI