Коллеги, просветите изображения сгенирированные локально при помощи Stable Diffusion миктостоки принимают? Adobe вчастноти.
У самого SD путаница с лицензиями различных версий. SD 3.5 вроде как позволяет коммерческое использование:
"Модель доступна под лицензией Stability Community License, которая разрешает бесплатное использование для исследовательских, некоммерческих и коммерческих целей организациями или частными лицами с годовым доходом менее 1 млн. долл. США"
Или это справедливо только для онлайн генерации на их серверах?
Коллеги, просветите изображения сгенирированные локально при помощи Stable Diffusion миктостоки принимают? Adobe вчастноти.
У самого SD путаница с лицензиями различных версий. SD 3.5 вроде как позволяет коммерческое использование:
"Модель доступна под лицензией Stability Community License, которая разрешает бесплатное использование для исследовательских, некоммерческих и коммерческих целей организациями или частными лицами с годовым доходом менее 1 млн. долл. США"
Или это справедливо только для онлайн генерации на их серверах?
Любое применение ИИ в картинке даже локальное считается ИИ сгенерированной картинкой. Насколько мне известно, принимают ИИ только Адобе, Пикста, Дримс, Лори и 123рф. Везде надо указывать, что это ИИ
Любое применение ИИ в картинке даже локальное считается ИИ сгенерированной картинкой. Насколько мне известно, принимают ИИ только Адобе, Пикста, Дримс, Лори и 123рф. Везде надо указывать, что это ИИ
сейчас любой норм смарт делает фото и видео с применением ии технологий
Любое применение ИИ в картинке даже локальное считается ИИ сгенерированной картинкой. Насколько мне известно, принимают ИИ только Адобе, Пикста, Дримс, Лори и 123рф. Везде надо указывать, что это ИИ
Вопрос-то был не об этом. Спрашивали - разрешено ли отправлять на продажу изображения созданные на локальной машине в нейронке стейбл дифьюжн.
Все верно. Именно об этом был вопрос.
С лицензиями ии моделей путаница несусветная.
У Flux, если я не ошибаюсь, лицензия позволяет коммерческое использование результатов генерации моделей pro и (как ни странно) shell. Лиценция модели dev допускает лишь некоммерческое использование.
У ST с выходом модели 3.0 с ее лицензией возникли непонятки по части коммерческого использования.
Модель 3.5 large опять расширяет права на коммерческое использование ( см.. пост авше).
Иными словами, вопрос к тем у кого есть опыт генерации изображений локально с последующим размещением на стоках: не возникало ли на стоках проблем с подобным контентом? Какую модель используете для генерации?
Последний раз редактировалось DmyTo, 29.10.2024 в 00:07.
У Flux, если я не ошибаюсь, лицензия позволяет коммерческое использование результатов генерации моделей pro и (как ни странно) shell. Лиценция модели dev допускает лишь некоммерческое использование.
Flux только schnell коммерческий за просто так. Dev и Pro коммерческие лицензии тоже есть, но за них надо платить. Я так понимаю, вариант оплаты только один - связываться и договариваться. Не слышал, чтобы это делали частники, но у всех площадок для генерации сейчас стоит Dev и они дают коммерческие права.
SD 3.5 имеет коммьюнити-лицензию, то есть он бесплатен для коммерции до выручки 1 млн долларов в год. Но это я из третьих рук узнал, сам лицензию не читал (и не планирую)
Насчет того, что стоки будут интересоваться происхождением ИИ-картинок - вообще не думаю. Этих работ такие миллионы, что никто никогда в них рыться не будет И со стороны авторов движка тоже никаких вопросов не возникнет, потому что это мало реализуемо в принципе. Тем более, пока невозможно сказать по самой картинке, где она сгенерирована и на чем (чужую LoRA видно гораздо лучше и автор может спалить, теоретически).
Как я понимаю, сейчас куча стокеров генерит на Мидже за $30, который дает приватку, но не коммерс. И такая же куча генерит через боты в телеге, которые вообще никаких прав не дают - все те работы принадлежал автору самого аккаунта, по-хорошему. Всем наплевать.
Единственное мерило тут - наша честность. Мы подписываемся, что имеем права на эти генерации.
Доброго всем времени суток. Я вообще в этой теме пока плаваю.
Посему вопрос. Насколько я понял, максимальное разрешение ъ, которое выдают нейросети, это около 1920 по большей стороне, то есть, и близко ничего нет к нужным 4 мегапикселям, или 6 мегапикселям, которые нужны для 123 РФ, и каким тогда образом доводят до нужного разрешения? Можно конечно наложить картинку на белый фон в шопе и просто тянуть, пока верхняя картинка является смарт объектом (в разумных предела х конечно)...Правильно вопрос понимаю? или что не так.?...Так же и с плотностью в ppi? накладываем на белый фон с 300ppi и вроде все норм?
Доброго всем времени суток. Я вообще в этой теме пока плаваю.
Посему вопрос. Насколько я понял, максимальное разрешение ъ, которое выдают нейросети, это около 1920 по большей стороне, то есть, и близко ничего нет к нужным 4 мегапикселям, или 6 мегапикселям, которые нужны для 123 РФ, и каким тогда образом доводят до нужного разрешения? Можно конечно наложить картинку на белый фон в шопе и просто тянуть, пока верхняя картинка является смарт объектом (в разумных предела х конечно)...Правильно вопрос понимаю? или что не так.?...Так же и с плотностью в ppi? накладываем на белый фон с 300ppi и вроде все норм?
Введите в гугл запрос - апскейл изображений. Вам выдаст кучу вариантов, чем можно увеличить картинки.
Неплохо увеличивает бесплатный Upscayl. Но надо экспериментировать с разными моделями, т.к. одна подходит для компьютерной графики, другая - для фотографий и т.п.
Многие пользуются Topaz Gigapixel. Есть "народные" версии. Все ищется быстро и работает отлично.
Есть также неплохая нейронка для апскейла - Chainner. Устанавливается на компьютер.
Там тоже есть множество моделей, которые можно качать из репозитария и подключать для использования. Каждая модель заточена на определенный тип изображений. Описания все есть на сайте.
Непохоже, что вы в теме.
Я вот совсем не в ней и то знаю, что можно генерить в большем разрешении. А тянуть картинку в фш последнее дело.
Подумал, вот сколько же такого "растянутого" ии загружают?.. жуть
Генерированный мусор был всегда, но кажись сейчас это вышло на новый уровень.
Пока писал, тут про Топаз и пр. появилось. Так не поможет. Если там гладкая лысина вместо текстуры, то откуда она появится?
Эти проги хорошо ресайзят, но рисовать то они не умеют. А искусственно накинутые текстуры зачастую выглядят дико, типа гусиной кожи на лице.