+11 голос |
OpenAI оприлюднила свої пропозиції для «Плану дій щодо AI», який має бути представлений президенту США до липня. У своїх рекомендаціях OpenAI наголошує на необхідності прискорення розробки штучного інтелекту і закликає до мінімального регулювання. Компанія виступає за «свободу інновацій у національних інтересах» і «добровільне партнерство між федеральним урядом і приватним сектором», а не за «надмірно обтяжливі закони штатів».
Серед пропозицій є і вельми спірні: наприклад, тимчасово відмовитися від програми FedRAMP (федеральної системи управління ризиками) і «модернізувати» процес схвалення AI-інструментів для урядового використання. OpenAI стверджує, що це дасть змогу уряду отримувати доступ до нових AI-сервісів на 12 місяців раніше, ніж за поточних процедур.
Компанія також закликає до співпраці з приватним сектором у розробці AI для потреб національної безпеки та виступає за «стратегію авторського права, що сприяє свободі навчання» і зберігає «здатність американських AI-моделей вчитися на матеріалах, захищених авторським правом».
Щодо Китаю OpenAI попереджає, що DeepSeek та інші китайські AI-стартапи становлять загрозу для приватності та безпеки. «Хоча Америка сьогодні зберігає лідерство в AI, DeepSeek показує, що наша перевага невелика і скорочується», – вважають у компанії.
**
Google, слідом за OpenAI, опублікував пропозиції щодо політики в галузі штучного інтелекту у відповідь на заклик адміністрації Трампа створити національний «План дій щодо AI». Компанія також виступає за мінімальні обмеження авторських прав під час навчання AI-моделей і «збалансований» контроль експорту, який «захищає національну безпеку, даючи змогу водночас здійснювати експорт зі США і глобальні бізнес-операції».
У документі Google стверджує, що винятки в рамках сумлінного використання (fair use) і дозвіл на аналіз текстів і даних мають «критичне значення» для розвитку AI й пов'язаних із ним наукових інновацій. Фактично, компанія хоче закріпити право навчати моделі на загальнодоступних даних, включно із захищеними авторським правом, практично без обмежень. Аналогічну пропозицію висуває й OpenAI.
Що стосується відповідальності, Google виступає проти покладення надмірних зобов'язань на розробників AI-систем, стверджуючи, що вони «мають мало або взагалі не мають контролю» над тим, як використовується модель, і тому не повинні нести відповідальність за неправильне використання.
Google також назвав вимоги до розкриття інформації, подібні до тих, що розглядаються в ЄС, «занадто широкими» та закликав уряд США виступити проти правил прозорості, які вимагають «розкриття комерційних таємниць» або «дозволяють конкурентам дублювати продукти».
+11 голос |