`

СПЕЦІАЛЬНІ
ПАРТНЕРИ
ПРОЕКТУ

Чи використовує ваша компанія ChatGPT в роботі?

BEST CIO

Определение наиболее профессиональных ИТ-управленцев, лидеров и экспертов в своих отраслях

Человек года

Кто внес наибольший вклад в развитие украинского ИТ-рынка.

Продукт года

Награды «Продукт года» еженедельника «Компьютерное обозрение» за наиболее выдающиеся ИТ-товары

 

Рішення з відкритим кодом від Nvidia додасть захисні можливості для АІ-чатботів

0 
 
Nvidia оголосила, що випускає NeMo Gardrails з відкритим вихідним кодом, надаючи розробникам фреймворк, який гарантує, що генеративні чат-боти зі штучним інтелектом залишатимуться точними та безпечними для користувачів.

Нещодавно випущене програмне забезпечення з'явилося в той час, коли багато галузей все швидше впроваджують ці чат-боти зі штучним інтелектом, що працюють на основі великих мовних моделей. Ці потужні двигуни АІ мають безліч застосувань, наприклад, відповідають на запитання клієнтів, створюють програмний код, генерують ілюстрації тощо.

Навіть коли ці чат-боти стали більш потужними, з'явилися деякі підводні камені. Відомо, що деякі з найпопулярніших LLM, такі як ChatGPT, "галюцинують". Це коли АІ впевнено заявляє абсолютно неправдиву інформацію. Деякі чат-боти також можуть ставати нестабільними і давати небажані відповіді залежно від поставлених їм запитів, а в інших випадках зловмисники також намагалися використовувати ШІ для створення шкідливого програмного забезпечення.

"Безпека генеративного АІ - це проблема всієї індустрії, - сказав Джонатан Коен (Jonathan Cohen), віце-президент з прикладних досліджень Nvidia. "NeMo Guardrails покликаний допомогти користувачам захистити цей новий клас додатків на основі А»І.

NeMo Guardrails надає розробникам просте рішення для встановлення меж для чат-ботів зі штучним інтелектом, які можуть контролювати розмови між користувачами та чат-ботами, включаючи теми, безпеку та захист. Інструмент робить це, відстежуючи розмову і застосовуючи прості правила англійської мови, встановлені розробником, щоб переконатися, що відповіді бота є доречними. Розробникам не потрібно володіти складним кодуванням, щоб встановити правила, вони можуть бути написані природною мовою і будуть зрозумілі інтерпретатору Guardrails, який застосує їх до взаємодії між чат-ботами та користувачами.

Тематичні обмеження дозволяють підтримувати розмову з чат-ботом у межах теми та підтримувати тон будь-якої розмови. Наприклад, вони можуть гарантувати, що бот для обслуговування клієнтів залишається в режимі обслуговування клієнтів, наприклад, бот для стоматологічного кабінету буде говорити лише про надані послуги і не відповідатиме на запитання, скільки заробляє адміністратор, або не вступатиме в розмову, яка може відволікти від його початкового призначення.

Засоби безпеки допоможуть зменшити кількість галюцинацій, забезпечуючи отримання точної та доречної інформації від чат-бота, використовуючи власні ресурси для перевірки фактів з бази знань і переконуючись, що бот заявляє, що він чогось не знає, а не видає неправдиву інформацію. Вона також захищає від небажаної мови та токсичної поведінки, відстежуючи підказки користувача та відповіді бота, таким чином підтримуючи професійність чат-бота.

Стратегія охолодження ЦОД для епохи AI

0 
 

Напечатать Отправить другу

Читайте также

 

Ukraine

 

  •  Home  •  Ринок  •  IТ-директор  •  CloudComputing  •  Hard  •  Soft  •  Мережі  •  Безпека  •  Наука  •  IoT