Юридичний бік використання штучного інтелекту в геймдеві. Інтерв’ю з президентом асоціації AIEI Сергієм Барбашиним

Питання захисту інтелектуальної власності охоплює усі елементи ігрової розробки: від коду і зображень, до саундтреку і дизайну. З інтенсифікацією використання ШІ актуалізується й питання формування нормативних баз та інструментів регулювання ринку.

У цьому інтервʼю ми поговорили з адвокатом та президентом міжнародної асоціації зі штучного інтелекту та бізнесу (AIEI) Сергієм Барбашиним про сучасні світові практики з регулювання AI, українську політику у цьому напрямку і те, як це безпосередньо впливає на геймдев.

— Розкажіть про вашу діяльність, та який вплив вона на розвиток індустрії розробки ігор?

Що ж, якщо розпочати з особистого, то відеоігри завжди мене приваблювати і це навряд колись зміниться. Від нічних походів до компʼютерних клубів, «життя в lineage» і до професійної гри в Доту: команда, турніри і постійні тренування. Я, навіть, розглядав кіберспорт через призму професійної діяльності. Та бажання бути поруч зі сферою відеоігор спочатку привели мене до програмування, а далі до IP-права.

Наразі я зосереджений на двох напрямках діяльності. Перший — юридичний. Я керуючий партнер міжнародної юридичної компанії Barbashyn Law Firm. Ми профільно працюємо зі сферами tech, в якій активно перетинаємось з індустрією ігор. Серед відзнак нашої «нішевості» — увійшли до 100 провідних юридичних компаній України за версією рейтингу «Юридична практика — 2025», а також до ТОП-10 у галузях IT та інтелектуальної власності.

Другий напрямок моєї діяльності — міжнародна АІ асоціація (AI Ethics and Integrity International Assocation — AIEI), в якій я СЕО. AIEI займається питаннями відповідального та етичного використання штучного інтелекту. Серед наших проєктів — міжнародні АІ принципи, гайд у сфері АІ (статті, журнал, конференція та рейтинг), у майбутньому — платформа оцінки АІ ризиків та навчання. Мене цікавить технологічний розвиток і особливо ШІ, його вплив на різні сфери життя.

— Нещодавно на Games Gathering ви прочитали на тему «Використання штучного інтелекту в іграх: регулювання, ризики систем та ІР». Підсумувавши, якими є наразі основні практики використання ШІ та які правові виклики стоять перед українськими розробниками?

На Games Gathering — завжди круто і я завжди радий бути частиною їхніх івентів. Моя «місія там» — розповідати про складні юридичні конструкції простою мовою. Приємно, що індустрія обирає проактивний підхід і вже активно готується до нових вимог, зокрема у сфері ШІ.

Юридичні питання у геймдеві часто комплексні. У фокусі мають бути питання інтелектуальної власності (IP), корпоративної структури, захисту даних, взаємодії з маркетплейсами тощо. Останнім часом

штучний інтелект став окремим напрямом. Це вже не просто частина технології, а повноцінна зона регулювання, яка активно розвивається в різних юрисдикціях.

Моя головна порада для розробників — на старті визначитися з цільовими ринками, а далі оцінити вимоги кожного щодо використання ШІ. Від жорсткого регулювання в ЄС і до гнучких принципів в Англії, Японії та інших країнах.

Можна навести наступні приклади. Україна орієнтується на європейську модель, де є дорожня карта Мінцифри, яка передбачає прозорість, регуляторні вимоги, інтеграцію ЄС-правил і наступну розробку власних. Цікаво чи в підсумку це буде про жорстке регулювання, чи про гнучкі принципи.

В ЄС діє AI Act — один з перших у світі комплексних нормативних актів щодо ШІ, де системи класифікуються за рівнями ризику. За загальним правилом, відеоігри належать до систем найменших ризиків, але не все так просто. Наприклад, якщо гра використовує генеративний ШІ для створення облич, що можуть бути ідентифіковані або сприйматися як реальні, або якщо NPC демонструють поведінку, яка імітує емоційно-чутливу чи персоналізовану взаємодію з користувачем, така система може підпадати і під категорію високого ризику відповідно до AI Act.

У таких випадках виникають зобов’язання щодо прозорості, належного маркування, ведення технічної документації та забезпечення можливості зовнішнього аудиту. Вихід з ситуації — якісна документація, дисклеймери та угоди з користувачами. А також, сподіваюсь, скоро надійдуть і розʼяснення регулятора по сфері та колізійним питанням. Бо норми то видали, а як з ними працювати і що робити з сірими зонами, не до кінця зрозуміло. Забороняти все, чи усувати функціонали, які можуть потенційно підвищити рівень системи до вищого рівня — не завжди належний вихід з ситуації.

Якщо ми говоримо про діяльність в США чи Великобританії, то підхід там наразі більш орієнтований на гнучкі принципи. Це не означає повної свободи дій, і є окремі галузеві норми, які варто враховувати. Наприклад, коли в ігровому контексті користувач взаємодіє з чат-ботом або ШІ-помічником, дуже важливо забезпечити, щоб така взаємодія не трактувалася регуляторами як надання медичних порад або не мала впливу на ментальне здоровʼя, оскільки це може потрапити під дію окремого регулювання.

— Захист інтелектуальної власності в контексті AI експансії та імплементації у студійні пайплайни є надзвичайно актуальним питанням. Найбільш гучними є занепокоєні голоси художників, з огляду на засилля та наочність генеративних ресурсів. Водночас і код може вважатися інтелектуальною власністю. Чи не могли б ви розповісти про особливості захисту різних елементів розробки?

Код та художні твори, такі як зображення, музика чи анімація, охороняються авторським правом у більшості країн без потреби в реєстрації, однак використання цих творів у наборах даних для AI може вважатися порушенням, якщо автор не дав на це згоди. Художники мають право вимагати компенсацію або заборону використання їхніх творів у таких системах.

Генеративні AI-системи, такі як DALL·E або Midjourney, використовують для навчання великі масиви даних, що часто включають твори художників. Це породжує проблему можливого порушення авторських прав, оскільки роботи можуть бути використані без дозволу їхніх авторів. Доведення порушення прав у AI-генеративних системах ускладнене, оскільки згенерований продукт (до прикладу, зображення) часто не має явної схожості з оригіналом. Це вимагає створення нових правових інструментів для регулювання таких випадків.

Для полегшення захисту своїх прав художники можуть реєструвати твори в національних установах, наприклад, в Україні — УКРНОІВІ, США — бібліотека конгресу. Також варіантами є технології захисту, такі як водяні знаки, цифрові підписи чи блокчейн (наприклад, NFT), які допомагають відстежувати оригінальність робіт.

Давайте розберемося коли виникають ці права або монополія на результати. Тут принципово важливо, чи це створено людиною або ШІ. У більшості країн для захисту результату копірайтом (авторське право) — потрібна суттєва участь людини у процесі створення.

Іншими словами, якщо код повністю створено людиною — захист надається, якщо участь людини суттєва — копірайт застосовується, якщо створено повністю ШІ — у більшості країн копірайт не буде застосовуватися. У таких випадках можуть застосовуватися права особливого роду, як sue generis в Україні. Або ж, орієнтуватися та працювати за правами тієї країни, де згенеровані ШІ-обʼєкти можуть захищатися авторським правом, як то в Великобританії.

Не менш важливе питання: хто є власником результату та може забороняти використання. Якщо на прикладі коду — написано людиною, права належать автору або компанії-замовнику чи роботодавця. Зазвичай, у контракт є окремий розділ ІР, що передбачає повний перехід прав та як це відбувається (автоматично, після оплати чи підписання акту).

У разі повної AI-генерації слід уважно читати умови користування AI-сервісами. Доволі розповсюдженим є передача прав користувачу у разі платної підписки. Якщо ж це опен-рішення, то слід читати умови їх ліцензій. Доволі часто не вільне використання без обмежень, але можуть бути й інші випадки: обмеження щодо комерційного використання результатів, додавати дисклеймерів та інше. AI у студійних пайплайнах може створювати логотипи, брендинг або інтерфейси, які захищаються як торговельні марки чи промислові зразки.

Торговельні марки, на відміну від копірайту, підлягають захисту за територіальним принципом, що вимагає їхньої реєстрації в кожній країні, наприклад, логотип гри, створений AI, потрібно зареєструвати в країнах, де планується її дистрибуція. А до того звірити — чи дійсно права на результат такої розробки повністю отримано і відсутні обмеження.

Як підсумок, то захист інтелектуальної власності в епоху AI вимагає комплексного підходу, що поєднує правові, технологічні та етичні інструменти. Це дозволяє студіям не лише убезпечити свої активи, а й ефективно використовувати AI у пайплайнах, зберігаючи довіру творчої спільноти.

— Продовжуючи у цьому контексті, як визначити кому належать IP права? Якщо ми маємо ситуацію, коли є технологічна компанія, що надає інструмент та середовище для розробки, девелопери та гравці, що також можуть створювати додатковий контент чи технічні рішення для ігор.

Гра, як об’єкт інтелектуальної власності, здебільшого належить компанії-розробнику або видавцю, залежно від умов контракту. Гравець, який лише грає в гру, не створює окремий IP-контент, а використовує ліцензію, надану через EULA (кінцева ліцензійна угода користувача програмного забезпечення). Однак, якщо гравець створює моди, карти, відеоогляди чи інший контент, він може мати права на цей контент, але ці права обмежуються угодами з розробником чи платформою.

Давайте розглянемо деякі угоди. Наприклад, у пункті 6 (зокрема, розділ 6.A) Steam Subscriber Agreement зазначається, що контент, створений користувачами (Workshop Contributions), вважається частиною «Subscriptions».

Користувачі, які створюють такий контент, надають Valve (американська компанія, яка є розробником і власником платформи Steam) та, за необхідності, розробникам гри ліцензію на використання, модифікацію та поширення цього контенту. Це включає моди, карти чи інший контент, створений для ігор, що підтримують Steam Workshop. Valve має право модифікувати контент лише для забезпечення сумісності з платформою або для покращення ігрового процесу, якщо контент прийнято для використання в грі.

Згідно з розділом 6.2 Playstation™ Network Terms of Service and User Agreement, коли користувач створює та публікує контент, такий як моди, карти, відеоогляди чи інші матеріали (User Generated Content, або UGC), він надає Sony Interactive Entertainment (SIE) безоплатну, безстрокову, глобальну ліцензію на використання, розповсюдження, копіювання, модифікацію, відображення та публікацію свого контенту з будь-якою метою, без додаткового повідомлення чи компенсації собі або третім сторонам.

— Під час виступу на GG ви згадували про певну класифікацію GPAI та те, як ключові рушії індустрії інтегрують потужні AI-моделі у свої SDK. Чи не могли б ви наочно розповісти про їх диференціацію і оцінити ризики?

Використання моделей загального призначення в іграх, зокрема через SDK у популярних «рушіях», створює не лише технічні можливості, а й конкретні юридичні зобовʼязання.

GPAI — це універсальні ШІ-моделі, здатні генерувати контент, моделювати поведінку, адаптувати логіку. Їхня інтеграція в ігрові продукти відбувається все частіше через готові SDK, наприклад в Unity чи Unreal.

AI Act виокремлює GPAI як окремий об’єкт регулювання. Якщо модель навчена на великих обчислювальних потужностях понад 10²⁵ FLOPs або має системний вплив на користувачів, вона потрапляє під режим посиленого контролю. Це передбачає обовʼязкову документацію, оцінку ризиків, прозорість і кіберзахист.

Тому навіть якщо модель інтегрується через SDK, розробник все одно відповідає за її роботу в межах гри. Якщо ШІ впливає на сюжет, поведінку NPC чи адаптивну складність, студія має розуміти, як саме працює ця модель, які в неї обмеження і як контролювати результати її використання.

— Численні аналітичні центри прогнозують, що ринок AI в іграх зросте у 12 разів (до 28 млрд доларів) до 2033 року, що безперечно інтенсифікує потребу у нормативних базах та інструментів регулювання ринку. Активним учасником яких процесів ви наразі є і чи можете ви поділитись інсайдами зі спільнотою?

Такі прогнози тільки підтверджують, що потреба в зрозумілих і життєздатних правилах для ШІ зростає щодня. Але ключове питання не в тому, скільки норм ми напишемо, а в тому, якими будуть підходи.

Я відстоюю позицію, яка базується на Global AI Culture Beyond Regulation. Мається на увазі, що перш ніж формально щось регулювати, слід пройти хоча б базовий тест: чи потрібно це регулювати, чи потрібно це регулювати саме зараз, чи потрібно це регулювати саме зараз у цій сфері. На мою думку, має бути внутрішнє розуміння та культура ринку, його споживання. Так само як і в суспільстві етичні норми існують і працюють навіть тоді, коли вони прямо не прописані.

Водночас є критично важливі сфери, які можуть суттєво вплинути на права людини, безпеку і критичну інфраструктуру. У таких сферах я підтримую ідеї часткового регулювання і законодавчих гайдів. Наприклад, описані безпекові алгоритми, кваліфікація персоналу, внутрішні і зовнішні процеси взаємодії тощо.

У випадку зі ШІ це означає певні фреймворки, які дозволяють рухатись вперед без шкоди розвитку сфери, але з більш суворими вимогами до критичних сфер нашої діяльності. Також важливо, щоб ці мʼякі вимоги не перетворились на зарегульованість кожного процесу.

«Регулювання не має шкодити розвитку. Тому мені близька ідея саморегуляції»

В Україні це реалізується, наприклад, у форматі обговорення і розробки ШІ-принципів, а також sandboxes. Це практичний інструмент, який дозволяє командам тестувати свої рішення в контрольованому середовищі, бачити потенційні ризики й отримувати фідбек ще до появи обов’язкових правил. Я залучений до цього процесу й вважаю його ефективним.

У ситуації, коли регулювання не завжди встигає за темпами розвитку ШІ, важливо мати орієнтири, які дозволяють діяти відповідально вже зараз. Один із таких підходів — загальні підходи і декларативні принципи. Як приклад можу навести декларативні принципи AIEI. Дані принципи сформовані за участі представник восьми країн, а за основу взяти понад 12 авторитетних джерел ШІ-регулювання та рекомендацій (UNESCO, OECD, EU AI Act, US Blueprint for an AI Bill of Rights, AI Action Summit Declaration 2025 та інші).

Наведені та схожі принципи не є нормативним актом, але саме завдяки цьому залишаються гнучкими, адаптивними й доступними для широкого застосування. Багато компаній уже використовують їх як фреймворк для внутрішніх політик, користувацьких угод, модерації контенту та процесів оцінки ризиків. Це дає змогу розробникам формувати власну відповідальну позицію незалежно від формальних вимог, які ще можуть змінюватися або не охоплювати специфіку конкретної індустрії.

— Чи не могли б ви детальніше розповісти про AI Act та чотирьохрівневу класифікацію ризиків? Як цей акт впливає на стейкхолдерів геймдев індустрії і чи вбачаєте ви доцільність у запровадженні внутрішнього корпоративного моніторингу?

AI Act вводить класифікацію ШІ-систем за рівнем ризику. Це ключовий інструмент для всіх, хто створює або інтегрує AI-рішення у продукти, зокрема в ігровій індустрії.

Рівень ризику

Характеристика

Дата впровадження та вимоги

Неприйнятний

Системи, що порушують основоположні права або створюють серйозний суспільний ризик (наприклад, соціальний скоринг, маніпулятивні інтерфейси, біометрична категоризація).

2 лютого 2025 повна заборона використання. Включає AI-системи, що здійснюють маніпуляції, соціальне оцінювання або біометричне групування осіб без правових підстав.

Високий

Системи, які мають значний вплив на життя людей, зокрема у сферах освіти, працевлаштування, охорони здоров’я, правосуддя, правоохоронної діяльності або є компонентами безпеки продукції, що підпадає під інше законодавство ЄС і може суттєво впливати на безпеку або права людини (зокрема через масштаб, автоматизацію рішень або вразливість користувачів).

2 серпня 2026 починають діяти вимоги до високоризикових систем відповідно до ст. 6(2) та додатку III. Потрібна документація, моніторинг і оцінка ризиків.

2 серпня 2027 застосування ст. 6(1) для систем, що є компонентами безпеки (наприклад, у медичних виробах або транспорті).

Обмежений

Системи, що безпосередньо взаємодіють з користувачем (наприклад, чат-боти, генератори текстів або зображень), які можуть створювати враження, що користувач має справу з людиною.

2 серпня 2025 набуває чинності вимога чітко інформувати користувача про те, що він має справу з AI. Також застосовуються базові вимоги до прозорості, інформування держорганів та штрафи

Мінімальний

AI-рішення з мінімальним ризиком прості інструменти або допоміжні функції без істотного впливу на права чи безпеку осіб.

Регламент не встановлює обов’язкових вимог. Проте передбачається дотримання добровільних етичних стандартів або настанов.

Для геймдеву це може означати різний рівень ризику залежно від конкретного сценарію використання ШІ. Якщо модель використовується для покращення графіки або оптимізації, то, як правило, це мінімальний ризик. Але якщо ШІ генерує контент, взаємодіє з користувачем або впливає на поведінку NPC в ігровому середовищі, то як ми вже проговорювали такі випадки можуть вважатись обмеженим або високим ризиком. Варто звертати увагу на потенційний вплив на користувача і перевіряти відповідність кожного кейсу окремо з точки зору АІ комплаєнсу.

AI Act набув чинності у 2024 році та впроваджується поетапно. Вже з лютого 2025 року діють обмеження щодо заборонених систем, а з серпня 2025 року набирають чинності вимоги до систем загального призначення (General Purpose AI). Упродовж 2026–2027 років поступово почнуть діяти основні обов’язки щодо високоризикових систем, за які основну відповідальність нестимуть розробники, хоча низка зобов’язань покладається і на інших учасників ринку.

Йдеться не лише про технічну відповідність, а про здатність пояснити, що саме робить ваша модель, де вона взаємодіє з гравцем і який вплив може мати. Саме тому варто не чекати офіційних вимог, а перевіряти ризики до релізу, прибирати функціонал, який складно обґрунтувати і готувати супровідну документацію (окремо або в складі внутрішніх політик, угод чи описів гри).

Хоча вже є чинний AI act, ще немає практики його застосування та практичних інструкцій. Наприклад, якщо це гра, але використовує AI-функціонал для емоційного тесту та впливу на поведінку гравців, чи не вважається (і коли) це високим рівнем ризику. Бо з однієї сторони, це гра та кінцева мета — занурення у процес гри, з іншої — подібний функціонал може мати окремі вимоги на рівні фітнес трекера чи, навіть, психічного скринінгу здоровʼя.

Щоб краще розібратися з цими та подібними питаннями, в ЄС запроваджується АІ desk — платформа для допомогти бізнесу. Також розроблюється кодекс поведінки за AI-актом. Я включений до цього проєкту Єврокомісії, як один з експертів, однак наразі ще немає кінцевих документів чи рекомендацій. Дуже сподіваюся, що це буде реалізовано до кінця року.

— Ви згадували про Закон України «Про авторське право і суміжні права» та теперішню розробку дорожньої карти від Мінцифри. Наскільки цей закон відповідає актуальним викликам і який вплив матиме проєкт Мінцифри?

В Україні є Дорожня карта з регулювання ШІ. Це не нормативний акт, але вона виконує важливу функцію. Бізнес отримує чітке уявлення, які правила можуть з’явитися, які принципи будуть базовими і до чого варто готуватись.

Команда Мінцифри, що займається ШІ, працює з фокусом на практику. Йдеться не про загальні підходи, а про конкретні ініціативи. Україна долучена до глобальних процесів і це дозволяє будувати регулювання не у відриві, а з урахуванням того, що вже формується на рівні провідних держав.

Одним із прикладів можна назвати запуск регуляторних пісочниць. Це інструмент, який дає змогу компаніям, передусім стартапам, тестувати ШІ-рішення в умовах, де є зворотний зв’язок, але немає ризику одразу отримати санкцію за невідповідність. У межах пісочниці можна побачити слабкі місця, скоригувати продукт, задати правильну рамку ще до появи обов’язкових норм. Формат працює і я радий допомагати усім стартапам, які приймають в ньому участь.

Щодо закону про авторське право, то він не охоплює більшість кейсів, пов’язаних із генеративним ШІ. Але це питання не тільки українського законодавства. Базова конструкція авторства не відповідає тому, що створюють нові моделі. Зараз важливо, щоб розробники усвідомлювали ці прогалини й закривали їх через договірну базу, IP-стратегії, ліцензування і внутрішні політики. Очевидно, що оновлення буде, але вже зараз варто працювати в межах того, що реально контролюється.

— Як би ви сформували, у цьому контексті, формулу безпечного релізу ігор? До яких спеціалістів варто звертатись студіям та розробникам для професійного визначення рівнів ризику подібного характеру?

Реліз гри — це комплексне завдання. Тут багато рішень мають юридичні наслідки, які впливають на продукт ще до його появи на ринку. Якщо сформулювати базовий перелік напрямів, на які варто звертати увагу, я б виділив кілька основних блоків.

блок: інтелектуальна власність

Це основа продукту. Команда має чітко розуміти, кому належать права на код, графіку, звук, сюжет або дизайн. Потрібно переглянути всі угоди з учасниками розробки, перевірити ліцензії, закріпити права в договорах, зафіксувати авторство, а також подбати про реєстрацію та захист бренду у відповідних юрисдикціях.

блок: захист персональних даних

Якщо проєкт працює з користувачами з ЄС або США, потрібно дотримуватись вимог GDPR, COPPA або інших локальних актів. Формальна наявність політики конфіденційності лише частина задачі. Важливо, щоб продукт справді відповідав вимогам щодо обробки даних.

блок: AI-комплаєнс

Якщо у грі використовується ШІ, необхідно оцінити, який рівень ризику створює конкретне рішення. Все залежить від того, як працює ШІ, на що він впливає, чи взаємодіє з користувачем. Кожен кейс потрібно аналізувати окремо.

блок: корпоративна структура

Має бути чітко визначено, хто володіє компанією, куди спрямовуються доходи, на яких умовах залучаються інвестори, хто відповідає за фінальне рішення. Це впливає як на податкове навантаження, так і на договірну безпеку.

блок (опційно): робота з маркетплейсами

Якщо гра виходить на Google Play чи App Store, потрібно враховувати вимоги платформ щодо розміщення, контенту, доступу до даних і монетизації.

Отже, формула безпечного релізу — це не універсальна інструкція, а чітке опрацювання кожного напрямку з урахуванням конкретної моделі гри. Усі ключові зони ризику мають бути покриті відповідними спеціалістами. Це юристи з досвідом у сфері IP, захисту даних, AI-регулювання, договірного права, а також ті, хто розуміє специфіку геймдеву та дистрибуційних платформ. Без цього складно говорити про якісну підготовку продукту до релізу.

Підписуйтеся на Telegram-канал @gamedev_dou, щоб не пропустити найважливіші статті і новини

👍ПодобаєтьсяСподобалось4
До обраногоВ обраному3
LinkedIn


Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Підписатись на коментарі