Stable diffusion как пользоваться: Как пользоваться нейросетью Stable Diffusion Гайды на DTF

Stable diffusion как пользоваться

Теперь по тому же самому файлу, webui-user.bat, нужно дважды кликнуть, и откроется чёрное окно с командной строкой. Программа сама будет выполнять нужные для запуска команды, нужно просто подождать ― это может занять и 20 минут, и целый час, в зависимости от скорости интернета. Это можно сделать на официальном сайте по ссылке. Во время установки рекомендуется поставить галочку возле пункта Add python.exe to PATH. Эту версию можно установить автоматически на Windows через отдельный инсталлятор. Но если он почему-то не сработает, придётся всё делать вручную.

В конце концов, это представляет собой еще один инструмент для более быстрого и доступного выражения идей. Чем подробнее вы опишете свой запрос, тем лучше будет результат. Арты, неотличимые от созданных людьми, часто имеют около пяти-семи строк текста в запросе.

В 2022 году появилось много нейросетей, которые работают с изображениями. Их основной функционал — это создание новых картинок и модификация готового изображения. Замечательная опция, о которой многие забывают — можно дать изображение, которое выступит основой для генерации. Еще раз убедитесь, что у вас Nvidia 10XX с хотя бы 4гб видеопамяти. Быстро проверить можно, зайдя в диспетчер задач (Ctrl+Shift+Esc), вкладку «производительность», раздел «Графический процессор» и посмотрев на строку «Выделенная память графического процессора». В этом гайде я в основном описываю шаги, которых будет достаточно пользователю на Windows с видеокартами Nvidia 10XX с 4-6 гигабайтами видеопамяти и выше для запуска на своем компе.

Первая генерация после запуска проходит нормально, при повторной попытке выскакивает эта ошибка. Сверху крутится бесконечно зеленая хрень.

Модель Anything V3

В программе множество настроек — подробный гайд есть на «Гитхабе» проекта. Самый простой в использовании — переходите на сайт и сразу вводите запрос без регистрации. Использует версию 1,5, поэтому качество генерации не очень хорошее.

Для этого в интерфейсе нужно перейти в раздел img2img, если в вашей версии эта функция доступна. Кстати, во время работы вы можете наткнуться на ещё один баг. После ввода запроса и нажатия на кнопку Generate система может писать, что вы бесконечно стоите в очереди («In queue…»), либо вообще ничего не писать. При этом кнопки для прерывания и отмены запроса могут не работать. Нам помогло нажать Enter в командной строке в чёрном окне ― программа выполнила ещё несколько действий, и потом всё заработало.

Git ― система управления версиями файлов на компьютере, она понадобится для работы со Stable Diffusion. Скачать Git можно на официальном сайте по ссылке. Установите его и переходите к следующему шагу. Чтобы установить Easy Diffusion, скачайте файл установки на компьютер, запустите его и следуйте инструкции. Установленная программа занимает 25 гигабайт.

Не бойтесь повторяться в запросах — так нейросеть попытается понять, к чему вы больше всего стремитесь. Например, если вы хотите передать мрачное настроение, то одновременно используйте слова «темно», «мрачно», «плохо освещено», «страшно», «хоррор». На сайте CitivAI доступны модели, которые дообучали сами пользователи. Чаще всего их обучают на определенных стилях — ультрареализме, научной фантастике, аниме или иллюстрациях.

Эта функция нужна, чтобы вручную дорисовывать на референсе конкретные объекты. Можно загрузить изображение, дорисовать на нём то, что нужно, условными пятнами, написать промпт и получить готовую картинку. Частицу «не» в промптах нейросети воспринимают с трудом, поэтому второе поле выделено для негативного промпта. Перечисляйте там всё, чего на картинке быть не должно.

Как пользоваться нейросетью Stable Diffusion

В настоящее время невозможно предвидеть, какие последствия могут возникнуть в долгосрочной перспективе. Перспектива на лет становится неясной, учитывая то, что трудно представить, какие возможности будут доступны с версией, работающей в реальном времени и в 10 раз лучше. Также существует проблема культурных предубеждений, так как нейросети изучают социальные и культурные стереотипы, присутствующие в наборе данных. Однако, модель не учитывает физические особенности людей на изображениях, поэтому при создании текстовых подсказок необходимо учитывать это самостоятельно. В будущем, модели, вероятно, будут улучшаться, чтобы фильтровать и корректировать изображения более эффективно. Для достижения качественных результатов разработчики рекомендуют использовать графический процессор NVIDIA серии 3xxx с минимальным объемом оперативной памяти в 6 ГБ.

  • Для этого в интерфейсе нужно перейти в раздел img2img, если в вашей версии эта функция доступна.
  • Нет, такая нейросеть существует, а имя ей Stable Diffusion.
  • Если у вас неподходящая видеокарта, то можете попробовать работать с тем, что есть, ― но тогда генерация изображений будет идти дольше.
  • Проблема лишь в том, что подавляющее большинство таких онлайн-сервисов стоят денег или имеют очень серьезные ограничения, мешающие полноценной работе с ними.

Оно использует ресурсы телефона для генерации, поэтому время создания зависит от мощности вашего устройства. После установки скачивает дополнительные файлы, включая саму модель Stable Diffusion. Нейросеть обучали на базе данных, где каждое изображение связано с описанием. После этого Stable Diffusion изучила ассоциации о том, где пиксели должны находиться по отношению друг к другу.

Мощность компьютера и производительность Stable Diffusion

Кроме того, вы мало что сможете сгенерировать с видеокартой, имеющей 6 Гб памяти или менее. Для завершения работы с нейросетью нужно закрыть вкладку в браузере и закрыть чёрное окно с командной строкой. Когда понадобится открыть Stable Diffusion, нужно будет снова дважды кликнуть по webui-user.bat, скопировать ссылку и работать в браузере. Вы закрашиваете часть изображения, пишете, что хотите на этом месте, и нейросеть это переделывает. В базовом варианте интерфейс представляет собой командную строку ― это неудобно.

Stable diffusion как пользоваться

В Stable Diffusion можно сделать небольшой набросок, а нейросеть сама дорисует детали и фон. Так родители превращают детские рисунки в фотореалистичные картины, а художники пользуются функцией, чтобы сократить время создания арта. Если навести мышь на понравившееся изображение, появятся несколько кнопок, среди которых есть кнопка Make Similar Images. Это пивко действительно поможет воплотить в жизнь все ваши креативные идеи с легкостью.

Как составить запрос в Stable Diffusion

Сам пока пользовался только дискордными ботами и бесплатными онлайн генераторами. Все вокруг говорят о волшебном ИИ, который способен создать шедевры из текстовых запросов пользователей интернета. Это первый пост в недавно созданном сообществе Midjourney, который является полной инструкцией к применению. Чем он выше, тем менее свободно нейросеть будет интерпретировать текстовое описание изображения, «додумывать» недостающие элементы и т.д. По умолчанию рекомендуется устанавливать этот параметр на 8.

Stable diffusion как пользоваться

Не ожидайте сразу получить идеальный результат, вам, вероятно, придется попробовать много разных вариантов одного и того же запроса с разными настройками. Начинать необходимо с простых запросов, чтобы научиться генерировать более сложные. Не стоит сразу использовать k_lms и 50 шагов — когда вы генерируете множество запросов, важно, как много из них отрабатывает. Stable Diffusion — это отличная альтернатива нашумевшей Midjourney. В отличие от последней, она полностью бесплатна и может работать на вашем компьютере без какой-либо цензуры. Правда, и процесс настройки программы немного сложнее, а результаты ее работы сильно зависят от выбранной вами модели.

Каким образом функционирует Stable Diffusion?

Чтобы запустить код, нужны знания языка программирования Python, инструмент Git и программа с библиотеками для Python Miniconda3. Подробно процесс установки Stable Diffusion на русском языке описали пользователи «Пикабу». По умолчанию генерирует картинки размером 384 × 384. Если увеличить размер, приложение предупреждает, что, возможно, ресурсов телефона не хватит. В приложении есть базовый редактор — можно вручную дорисовывать картинку. Stable Diffusion — одна из самых продвинутых нейросетей для генерации изображений.

Stable Diffusion знает стили всех художников — от времен ренессанса до современных авторов концепт-артов в видеоиграх. Можно генерировать картинку одновременно в стиле Ван Гога и NFT-артиста Beeple. «Чистая» модель от разработчика Stable Diffusion, именно на её основе натренированы Deliberate и большинство других моделей. Вот её результат по нашему финальному описанию, которое мы использовали для котов-киборгов. Так что, если у вас слабый компьютер и не получается увеличить сгенерированные изображения прямо в Stable Diffusion, вы можете использовать программу от Topaz — результат будет не хуже. О том, как это сделать, мы писали в этой статье.

Выберите версию 1.5 или 2.1, справа на странице нажмите «Подключиться», затем «Среда выполнения» — «Выполнить все». После этого начнется скачивание моделей — это занимает 5-10 минут. Когда оно завершится, пролистайте страницу с кодом до конца и нажмите на любую из ссылок. Есть более сложный сценарий — отрисовывать отдельные детали изображения с помощью нейросети, а потом соединять их с помощью инструментов «Фотошопа». Для удобства Stable Diffusion уже интегрировали в программу.

Нейросеть Stable Diffusion — как пользоваться?

Его имя использовалось в запросах более 93 тысяч раз. Если попытаться поискать работы Рутковски, чаще появляются сгенерированные картинки в его стиле, а не оригиналы. Стандартные модели нейросетей вроде DALL-E 2 и Midjourney работают с отдельными пикселями, из-за этого создание картинки занимает много времени и вычислительных ресурсов. Stable Diffusion экономит время и мощности компьютера, потому что работает не с пикселями, а с их сжатыми версиями изображений. Примерно через минуту откроется браузер с пользовательским интерфейсом, в котором и происходит общение с нашей нейросетью.

Вверх