×

Які ризики варто враховувати розробникам ігор при використанні AI? Поради юриста CD PROJEKT RED

Які юридичні ризики мають враховувати розробники ігор, коли використовують генеративний AI на кшталт ChatGPT чи Midjourney для створення контенту в іграх? Нещодавно своїми міркуваннями на цю тему поділився юрист CDPR Куба Янковський на конференції Digital Dragons 2023. Наша редакція відвідала цю лекцію, тож переказуємо головні тези.

Вже є чимало прикладів використання контенту в іграх — скажімо, технологія Ubisoft Ghostwriter, що генерує чернетки фраз або звуків для NPC, або AI-озвучування гри High on Life. А нещодавно Blizzard запатентувала технологію, що може перетворити 2D-начерк на текстуроване зображення.


Тож ця тема викликає багато питань: власники бізнесу думають, як пришвидшити й здешевити процеси за допомогою AI; художники ж непокояться, чи не замінить їх AI у майбутньому. Тим часом юристів цікавить, як студіям використовувати AI, щоб це було безпечно і як уникнути ризиків.

Які ризики є у використанні AI для ігор

Генеративні AI-програми створюють новий контент на основі запитів і здебільшого вони тренуються на контенті з інтернету без згоди людей, які цей контент створили. Зокрема навчаються на запитах та іншій інформації, яку надають користувачі. Тож теоретично ваші запити, надіслані зображення тощо можуть використати для відповіді іншим користувачам.

Порушення авторських прав

В теорії, якщо ви створюєте новий контент у ChatGPT чи Midjourney, вони можуть використати чиюсь інтелектуальну власність без дозволу. Наприклад, можна згенерувати різнобарвного Дарта Вейдера на коні — але це не означає, що такий Дарт Вейдер не буде захищений авторським правом. Тож за його використання можна отримати позов від правовласників. Те саме стосується використання образів або голосів відомих людей — наприклад, акторів чи президентів США.

У правилах використання всі провайдери AI-інструментів зазначають, що не несуть відповідальності за те, як їх застосовують. Тож що б ви не створили через AI, відповідальність буде лише ваша.

Цікавий прецедент був, коли Getty Images подала до суду на авторів Stable Diffusion за те, що AI-інструмент явно тренувався на колекціях Getty Image і навіть генерував зображення з водяними знаками — бо вважав, що так і має бути.


Досі в юридичній галузі немає одностайної думки, чи законно навчати AI на даних з інтернету: підпадає це під принципи fair use чи ні. Але потенційно ця судова справа може знищити Stable Diffusion — адже якщо Getty Images виграє справу, всі почнуть слідувати її прикладу.

Є інструменти на кшталт Adobe Firefly, які мають навчатися лише на матеріалах зі згоди їхніх авторів. Але водночас Firefly пропонує для комерційного використання зображення з персонажем Cyberpunk 2077, хоча CDPR точно не давала на це згоди. Тож начебто інструмент Adobe більш безпечний, але не зовсім.

Потенційна втрата своєї інтелектуальної власності

У багатьох країнах вже визначили, що AI не може створювати захищені копірайтом роботи. Наприклад, у США копірайт стосується лише робіт створених людьми, і не захищає роботи, створені тваринами чи AI.

Тож якщо ви створили через AI об’єкт чи персонажа і без змін додали його у свою гру, то в теорії це саме може зробити й будь-хто інший. І якщо ваш персонаж стане успішним, то будь-хто зможе додавати його у свої проєкти, комікси, фільми без вашої згоди.

Зливи даних

Якщо переглянути правила використання AI-інструментів, ви побачите, що провайдери не зобов’язуються зберігати вашу інформацію в секреті. У більшості випадків надана інформація може, навпаки, використовуватися як навчальний матеріал.

Тут наочним прикладом є компанія Samsung, програмісти якої хотіли зробити код продукту кращим, надали його ChatGPT і спровокували витік конфіденційних даних. Тепер компанія забороняє співробітникам використовувати генеративні AI на внутрішніх пристроях компанії.

Етичний момент

В ігровій індустрії чимало людей негативно ставиться до AI через етичні питання — зокрема порушення авторських прав, невиплату компенсацій авторам і потенційні звільнення фахівців індустрії. Тож якщо ви використовуєте AI у грі, то варто враховувати це ставлення спільноти.

То що робити

З юридичного боку, можливо, й безпечніше просто відмовитися від AI, але це може бути невигідно з погляду бізнесу. Тож ось кілька порад, як використовувати AI безпечніше.

  1. Перевіряйте інструменти — попросіть юристів прочитати правила використання програм. Врахуйте, що вони дуже часто змінюються й оновлюються, тож краще переглядати їх хоча б раз на місяць.
  2. Не переносьте у гру контент, повністю згенерований AI. Краще взяти його за основу як джерело натхнення і додати щось своє, аби матеріал можна було захистити копірайтом. Що більше змін, то краще.
  3. Якщо ви надсилаєте AI-контент як референс, поставте якусь позначку, що це AI-контент. Людям вже буває важко відрізнити AI-зображення від фотографії, через два роки це, напевно, буде неможливо. Тож краще одразу це позначати такі матеріали, щоб уникати непорозумінь.
  4. Не використовуйте AI для ключових асетів гри — головних персонажів, важливих об’єктів, маркетингових матеріалів, логотипу тощо. Їх будете важко захистити й вони можуть базуватися на чужій інтелектуальній власності.
  5. Уникайте конфіденційної інформації в командах і запитах до AI. Особливо інформацією про фінансовий стан проєкту чи внутрішні дані компанії, в деяких випадках за таке можна потрапити у в’язницю.

Бонус-порада: якщо не хочете порушувати авторське право, краще не використовувати назви чужих проєктів у запитах (на кшталт «замок в стилі Disney» чи «графіті в стилі Бенксі»).

Підписуйтеся на Telegram-канал @gamedev_dou, щоб не пропустити найважливіші статті і новини

👍ПодобаєтьсяСподобалось1
До обраногоВ обраному0
LinkedIn

Схожі статті



Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Підписатись на коментарі