[d | au / b / bro / cu / dev / hr / l / m / mu / o / s / tran / tu / tv / vg / x | a / aa / c / fi / jp / rm / tan / to / ts / vn]
- [Радио 410] [ii.booru-Архив РПГ] [acomics-cf-ost] [@] - [Архив - Каталог] [Главная]

[Назад]
Ответ
Leave these fields empty (spam trap):
Имя
Тема
Сообщение
Файл
Подтверждение
Перейти к [
Пароль (для удаления файлов и сообщений)
 
ЗАПРЕЩЕНО:
  • детская эротика/порнография
  • троллинг
 
  • Поддерживаются файлы типов GIF, JPG, MP4, OGV, PNG, WEBM размером до 4096 кБ.
  • Максимальное количество бампов треда: 500.
  • Всем посетителям рекомендуется ознакомиться с FAQ.

1586441542027.png - (569 KB, 512x768)  
569 KB №215635   #1

Привет, Чии!

Недавно начался бум генерации анимешных картиночек с помощью нейросетей. Но тут есть такая проблема, что на слабой видеокарта она просто не запустится (на GT 1030 ругается, что не хватает каких–то 20 мебибайт), а даже если и получится, то генерировать изображения в высоком разрешении не выйдет. Надо хотя бы 6–8 гигабайт видеопамяти (4 — самый–самый минимум), и чтобы сама видеокарта была достаточно производительной (и желательны тензорные ядра). Получается, что оптимальный минимум — RTX 3060 в версии с 12 гигабайт видеопамяти? Ну или хотя бы RTX 3050, где уже есть тензорные ядра и 8 ГБайт VRAM, в отличие от всяких GTX 1660 супер–дупер–пупер.

Или вполне сгодится и GTX 1650? Люди на ней ведь вполне что–то создают.

Другой способ — Google Colab. Но тут тоже есть проблема — при бесплатном использовании довольно много ограничений, и могут довольно легко ограничить доступ к ГПУ, если вовсе не забанить. Причём ограничения становятся более жёсткими, возможно, как раз потому, что многие полезли генерировать себе фап–контент (который получается весьма стрёмным, к слову, ибо нейросети скормили огромное количество низкопробного материала). Платную подписку купить невозможно по понятным причинам. В посвящённых генерации картинок тредам многие люди пишут, что им давали бан на один, или несколько, из аккаунтов по причине злоупотребления сервисом. Вроде подобного можно избегать, если пользоваться разными браузерами, не ставить сотни пикч на пакетную генерацию и не создавать explicit контент.

Третий способ — месячная подписка на Novel AI, но она мне кажется очень дорогой, т.к. возможность генерации бесконечного количества картиночек (да и то — а в разрешении не более 640 на 640) стоит 25 долларов, тогда как при более дешёвых тарифах их число ограничено, но можно докупить отдельно.

А ещё какие способы есть, Чии?

>> №215648   #2

Там какие-то костыли для низкой видеопамяти были, если они не помогают, то видимо не судьба.
У самого есть 1650 на старом ПК, но проверять неохота.

>> №215649   #3

Репост с другой борды.
Тогда, если всё-таки решишься запускать, то надо будет поколдовать с параметрами запуска, если проблемы будут. https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Command-Line-Arguments-and-Settings
--no-half, --no-half-vae, --medvram, --lowvram, ну и так далее, врама надо очень много, если хочешь генерить больше 512х512 в нативе, ну а от чипа, очевидно, просто скорость генерации зависит. И еще xformers для увеличения скорости можно тоже использовать.

>> №215652   #4
1586247288159.png - (522 KB, 512x768)  
522 KB

>>215649
Запускаю с set COMMANDLINE_ARGS=--no-half --no-half-vae --lowvram --always-batch-cond-uncond --opt-split-attention

Выдаёт: RuntimeError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 2.00 GiB total capacity; 1.68 GiB already allocated; 0 bytes free; 1.72 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
Для продолжения нажмите любую клавишу . . .

>> №215656   #5

>>215652
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/3527
Попробуй --precision full добавить.

>> №215657   #6
1605047148198.png - (410 KB, 512x768)  
410 KB

>>215656

> --precision ful

Всё равно та же ошибка. Видимо, 2 ГБ видеопамяти недостаточно. Наверное, можно попробовать запустить на встройке процессора (Intel HD Graphics 2000), но тогда картинка будет целую вечность генерироваться.

>> №215659   #7

>>215652
Сам выхлоп консоли предлагает решение "последней надежды", его попробовал?
https://pytorch.org/docs/stable/notes/cuda.html#memory-management

>> №215663   #8

>>215659
А как узнать в каком примерно диапазоне туда значение вписывать?

>> №215667   #9
1531551408358.png - (476 KB, 512x768)  
476 KB

>>215659
Не помогает. Похоже, что запуск этой нейросети с двумя гигабайтами видеопамяти — попытка пропихнуть слона через замочную скважину.

>> №215676   #10
tmpi3mk7fyy.png - (1005 KB, 1024x768)  
1005 KB

>>215667
Похоже, что так и есть. Сейчас замерял потребление памяти, даже с --lowvram при запуске в пике 13гб обычной рамы съедает, при генерации квадрата 512 на 512 ~2.3-2.4 врама.

>>215663
Я и сам не знаю, но там написано:

> The memory_stats() and memory_summary() methods are useful for tuning.

Может помогут определить что туда вписывать. Хотя, походу, это всё-таки безнадёжно для бюджеток.

>> №215679   #11

>>215635
Можешь ещё на Яндекс.Клауд или другом хостинге арендовать сервер с ГПУ.

>> №215680   #12
1578616920484.png - (52 KB, 1310x802)  
52 KB

>>215679

> Яндекс.Клауд
>> №215681   #13

>>215680
Зачем тебе месяц? Ты напиши заранее промпты, а потом гоняй. Когда не используешь, отключай.

>> №215683   #14

>>215681
Всё равно купить самому железо получше выходит дешевле.

>> №215693   #15

Там говорят, дифужон оптимизируют для запуска всего на 800 MB vram.

>> №215695   #16

>>215693
Где увидел? Дай почитать тоже.

>> №215743   #17
2022_3.png - (1028 KB, 768x768)  
1028 KB

Есть такая штука - stable horde, децентрализованная система генерации картинок на sd. Одни генерируют, другие - пишут запросы, нсфв можно отключить. https://aqualxx.github.io/stable-ui/ - клиент сайтом, там дофига моделей есть. Ну и у брата новелаи, anything v3 есть spaces - https://huggingface.co/spaces/noteh65036/anything-v3.0

>> №216650   #18
1673498787382.png - (749 KB, 1362x747)  
749 KB

Google теперь серьёзно принялся блочить генерацию картинок.

>> №216670   #19

В принципе, с новым драйвером, где для CUDA завезли shared memory, можно генерить и на GT 1030, только с учётом апскейла через Ultimate upscale выходит чуть ли не по полчаса на картинку.

>> №216686   #20

>>216670 Драйвер под никсы или только под форточки? Какая именно версия?



Удалить сообщение []
Пароль
[d | au / b / bro / cu / dev / hr / l / m / mu / o / s / tran / tu / tv / vg / x | a / aa / c / fi / jp / rm / tan / to / ts / vn]
- [Радио 410] [ii.booru-Архив РПГ] [acomics-cf-ost] [@] - [Архив - Каталог] [Главная]