Я спробував 3D-генерацію моделей. І в мене нічого не вийшло

Всім привіт! Останні місяці навколо 3D-генерації майже магічний шум:

  • «Скоро моделери будуть не потрібні»;
  • «Завантаж картинку — отримай готову модель»;
  • «AI зробить усе за 5 хвилин».

Як 3D-художник я не міг пройти повз. Звісно, я захотів спробувати.

2D генерація (ChatGPT)

Перша ейфорія

Спочатку все виглядало багатообіцяюче. Я завантажив референс — стилізованого персонажа. Система видала сірий скульпт. Ніби є форма. Силует читається. Навіть деталі проглядаються. Я подумав: «Ось воно. Почалося. Революція». Але це була ілюзія.

Рендер який в мене вийшов, важко сказати для чого він підійде, якщо 2D зображення все заміняє рендер.

ШІ генерація і потім я швидко зробив рендер, 2D генерація була краще

Нормалі замість геометрії

Коли я почав крутити модель у 3D-в’юпорті та увімкнув normal shading — стало зрозуміло:

  • топологія хаотична
  • щільність сітки нерівномірна
  • форми «пливуть» (це найбільша проблема для блокіна не підійде)
  • симетрія умовна
  • деталі не конструктивні

У статичному скріншоті це виглядало непогано.

Але це не була робоча 3D-модель. Приклади вище мешу.

Текстури є. Моделі — ні

Зі стилізованим «сосисковим» персонажем ситуація повторилася. У рендері — мило. Великі очі, усмішка, матеріали, блиск.

Але варто було:

  • наблизити камеру
  • подивитися wireframe
  • перевірити товщини
  • оцінити стики

— усе розсипалося.

Дірки, дивні заломи, зайві полігони, нечитабельна конструкція. Для продакшену — нуль.

Hard Surface? Майже неможливо.

3D рендер реальної моделі створений у 3ds max та Substance Painter

Я вирішив ускладнити задачу — спробував техніку. Начебто щось схоже на марсохід згенерувалося. Є силует, вікна, колеса, деталі.

Але:

  • кути неточні
  • фаски випадкові
  • елементи «вростають» один в одного
  • пропорції нестабільні
  • ніякої модульності

Це не hard surface. Це «щось схоже». Для концепту — можливо. Для реального пайплайну — ні.

Найбільше розчарування

AI не розуміє конструкцію. Він вгадує форму, імітує поверхню, копіює стиль. Але він не знає:

  • як об’єкт збирається
  • де навантаження
  • де логіка форми
  • де інженерія
  • де анатомія

А 3D — це не картинка. Це структура.

ШІ генерація і потім я швидко зробив рендер генерованої 3д моделі

Чому «не вийшло»

Бо я очікував інструмент. А отримав генератор зображень у 3D-оболонці.

Якщо чесно:

  • для превізу — цікаво
  • для експерименту — ок
  • для натхнення — можливо
  • для продакшену — поки що ні

І це важливо визнати.

Ліворуч ШІ генрація, праворуч — сітка 3D моделі

ComfyUI (локальна генерація із TRELLIS.2-4B від microsoft)

Що я зрозумів як моделлер

  1. AI прискорює ідеї, але не замінює розуміння.
  2. Форма без конструкції — це просто шум.
  3. Топологія — це мислення.
  4. 3D — це інженерія + скульптура + логіка.

І найнеочікуваніше — після експериментів я почав ще більше цінувати ручну роботу.

Коли ти будуєш модель сам:

  • ти контролюєш товщини
  • ти розумієш фаски
  • ти знаєш, де підтримка
  • ти тримаєш пропорції

AI цього не робить. Він вгадує.

Висновок

Я спробував 3D-генерацію. І в мене нічого не вийшло. (я хотів замінити перший етап роботи — блокін). Це розуміння меж інструмента. AI — це прискорювач мислення. Але поки що не заміна ремеслу. І, можливо, це хороша новина для нас — тих, хто справді вміє будувати форму.

Підписуйтеся на Telegram-канал @gamedev_dou, щоб не пропустити найважливіші статті і новини про геймдев

👍ПодобаєтьсяСподобалось5
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Дякую за статтю. Дійсно, це дуже важливо. Ще пару років тому назад я мав думку, що цей генеративний AI для генерації оптимізованих 3D-моделей для створення ігор робить зовсім не те, що потрібно.

І ця стаття розповідає, що саме не те. Це про інженерне мислення, якого у генеративного ШІ просто немає. І через це реально використання в продакшені неможливе.

Я маю думку, що скоро люди збагнуть цю суть і будуть навчати генеративний AI не на готових 3D-моделях, а на недороблених каркасах автомобілів, які створюють інженери, але це вже буде інструмент вузького застосування, а не масового, де потрібне інженерне поетапне планування, щоб збудувати певну структуру.

Генеративний AI можна застосовувати для задач таких як «розфарбуй мені 10 варіантів текстур моєї вручну зробленої 3D-моделі» або «придумай мені деталей, яких тут не вистачає, але я їх сам змоделюю вже далі».

Типу концепт арту? Або повністю текстури? Якщо повністю текстури то вони типу проекції працюють можна сказати просто 2д зображення, якщо концеп арт то тут можна і у гпт зробити, але окремо для 3д моделі текстури ще не спробував, думаю спробую, думаю теж цікаво буде переглянути

Текстури. Наприклад, Call of Duty в продакшені вже використовують текстури згенеровані штучним інтелектом для всяких там розкрасок зброї і тому подібного.

Щодо ідеї використання AI як:

придумай мені деталей, яких тут не вистачає, але я їх сам змоделюю вже далі

Подивися це t.me/s/ualeveldesign?q=AI для натхнення як у фотошопі використовують генеративний AI і схожим чином можна застосувати для процесу моделювання. Там відео Використання штучного інтелекту Generative Fill у Photoshop для генерування ідей

Не хочу бути адвокатом диявола... але.

Чи не легше підправити згенеровано модель, ніж створювати таку саму модель з нуля?

Проблема у тому що ШІ пропорційно не правильно виходить, перший етап блокіну не проходить вже, і форми попили, можливо це можна змінити але думаю це буде довше, вид зверху переглянути можна

Як щодо того щоб генерувати такі об’єкти по-етапно? Я розумію що все разом для ШІ забагато, але якщо розділити на етапи і генерувати лише потрібні частини, підганяти пропорції і вже з цим працювати?

Буде ще більше проблем, але можна генерувати частини які не дуже критично якщо не повністю повторюють форму, наприклад сумку або якась пропи

Залишається вирішити де можна 3D ШІ застосовувати :)

Походу, як якийсь статік пропс десь так, щоб його толком ніхто не бачив :) Я краще посиджу і зроблю коряву лоу поллі модельку, аніж оцей недолугий результат ШІ заюзаю як головний об’єкт в грі.

Я думаю що фонові ассети генерувати буде норм, з меньшим полі каунтом

Хочу нагадати, що для фонових ассетів у старих іграх використовувалася двовимірна площина з натягнутини текстурами. Нащо генерувати 3D-моделі, коли воно не потрібне?

Так, мав наразі не ті що зовсім так далеко))

Мені то відразу згадалися скайбокси, які були в іграх багато років тому назад. Ну зараз це перетворилося на скайсфери, хоча досі називають скайбоксами. Там текстуру накладають на сферу всередину, а не на коробку, як було раніше.

Для фону можна використати Skybox HDRI фотографії справжні фото як Skybox HDRIs Poly Haven — polyhaven.com/hdris

А генеративний AI вміє щось створювати таке як Skybox AI — Generate 360° Environments & Skyboxes with AI — www.blockadelabs.com

Спробуй генерацію+авторетопологію.

Так, можна, але це не вирішить проблему того що форма генерується не правильна

Підписатись на коментарі