por cardano en fc
copypasteo ayusssssssssssssssssssssssssso:
He entrenado a StableDiffusion (una inteligencia artificial que genera imágenes a partir de texto) con fotos de Isabel Diaz Ayuso y no se me ocurre un mejor lugar para publicar el modelo que este nuestro floro.
Si no teneis experiencia con StableDiffusion o este tipo de IAs recomiendo echar un vistazo a este hilo:
https://forocoches.com/foro/showthread.php?t=9217508
En este hilo veremos como ENTRENAR el modelo con imágenes de lo que queramos que StableDiffusion aprenda, tanto en instalación local como en Google Colab (ShivamShrirao, Huggingface) y Jupyter Notebook (JoePenna). También publicaré aquí algunos de los modelos que haga (abajo de todo en el OP)
[CENTER]
--- EJEMPLOS ---[/CENTER]
Esta IA funciona de una forma muy simple, escribes lo que quieres y te genera la imagen. Este modelo ha sido entrenado para asociar la imagen de Ayuso con el token "diazayuso person"
*Perdón por poner ejemplos tan cutres, apenas tienen steps (sampling/denoise) ni tampoco he jugado con el prompt(input), parámetros y seeds pero es que no me da la vida. Estoy seguro de que en minutos podréis generar imágenes mucho mejores con los modelos pre-entrenados que he puesto abajo.*
Input: photo of diazayuso person
Input: photo of diazayuso person dressed as a general
Input: portrait of isabel diaz ayuso, digital art
Input:diazayuso person with horns and armor, painted by artgerm and tom bagshaw, fantasy art, dramatic lighting, highly detailed oil painting, diazayuso person
Input: photo of diazayuso person wearing a bikini, big boobs, sexy, perfect tits
Input: diazayuso person dominatrix, bdsm, perfect big boobs
Input: diazayuso person, ingame photo of diazayuso person in gta5, gta 5 gameplay, fullhd 4k
Input: photo of diazayuso person naked, nude, topless, perfect tits, huge boobs, sexy
[CENTER]
--- ENTRENAMIENTO ---[/CENTER]
Tal y como os prometí en el primer hilo, en cuestión de 4 semanas hemos llegado a un punto en el que cualquier persona con conexión a internet puede entrenar su propio modelo de stable diffusion gratis y en menos de 1h, con tan solo 6-20 imágenes de lo que queramos "enseñarle" podemos conseguir resultados increíbles.
AVISO: Necesitarás unas 20 imágenes de lo que quieras entrenar (persona, animal, objeto...) en una resolución de 512x512, con 5-6 ya se pueden obtener buenos resultados pero yo recomiendo de 20 a 30. Ojo porque más imágenes o más training steps no implican necesariamente mejores resultados, a veces es incluso al contrario. Esto acaba de salir y aun hay mucha incertidumbre en cuanto a cueles son los mejores parámetros de entrenamiento así que no os agobiéis y dedicad un rato a consultar los enlaces de interés abajo de todo (sobre todo discord), ahorrareis muuucho tiempo y recursos. Cuanta más variedad mejor, primer plano, medio cuerpo, cuerpo completo... (mirad recomendaciones en discord y el repo de github)
Web para recortar todo el dataset a la vez:
https://www.birme.net/?target_width=512 ... height=512
Antes de nada, tienes una GPU NVIDIA con al menos 16gb (24gb recomendado) de VRAM? (Ya hay gente entrenando en menos de 10gb)
*Si la respuesta es
SI te recomiendo instalar y ejecutar el modelo en tu PC
No le veo el sentido a desglosar por aquí la guía, con este tutorial podrás hacerlo mucho mejor:
[YOUTUBE]
https://www.youtube.com/watch?v=hZNrlHmA4WQ&t[/YOUTUBE]
*Si la respuesta es
NO tienes 2 opciones:
1- Google Colab: Google nos cede gratis una GPU de 16gb para entrenar y ejecutar el modelo en remoto, si no tienes una GPU y tampoco quieres gastar ni un duro esta es tu opción. Aun necesita afinarse un poco y PARECE que no ofrece unos resultados tan buenos como el resto de métodos, aunque yo he conseguido resultados muy decentes en alguna de las pruebas y es una buena opción para empezar.
No voy a entrar en tantos detalles como en el primer hilo así que os dejo un par de tutoriales que deberían ser suficiente. Puede ser interesante pagar el Colab Pro (10eur mal mes) para acceder a GPUs mas rápidas, aunque seguramente sería mejor usar ese dinero en el método de abajo (jupyter), yo solo uso Colab para probar los modelos no para entrenarlos.
-Directo en castellano de DotCSV en YT sobre como entrenar (-1h) y usar el modelo en Colab desde el min 59:23 hasta el 1:13:18
(librería diffusers, SIN archivo .ckpt)
[YOUTUBE]
https://www.youtube.com/watch?v=hZNrlHmA4WQ&t[/YOUTUBE]
*A parte del Colab de la descripción del video tenemos este otro, mucho más cómodo y fácil de seguir con el video de arriba, además cuenta con un script para convertir la librería de difusores a un archivo .ckpt que podremos usar en los WebUi convencionales:
https://colab.research.google.com/githu ... sion.ipynb
-Video en inglés para el colab de ShivamShrirao (y comparación con jupyter):
[YOUTUBE]
https://www.youtube.com/watch?v=mVOfSuUTbSg[/YOUTUBE]
-Video en ingles sobre errores y consejos para Jupyter además de varios Colabs:
[YOUTUBE]
https://www.youtube.com/watch?v=TgUrA1Nq4uE&t[/YOUTUBE]
2- [RECOMENDADO] Jupyter Notebook (by JoePenna): Ahora mismo es de lejos la mejor opción si no puedes ejecutar en local. Consiste en usar un notebook de Jupyter, que funciona igual que un Colab con la diferencia de que Google no pone la GPU y tendremos que conseguirla (alquilarla) por nuestra cuenta, es muy fácil y muy barato, entrenar un modelo durante 1h nos costará menos de 0,50$ (mucho mejor que los créditos de Colab Pro)
Usaremos este repositorio (info y tips importantes dentro): https://github.com/JoePenna/Dreambooth- ... Diffusion/
Para alquilar la GPU tenemos vast.ai y RunPod.io (crea una cuenta en una de las 2 y mete algo de "saldo")
*Enlace referido RunPod:
https://runpod.io?ref=saqdji51
*Vast.ai:
https://vast.ai/console/
Para usar Jupyter en Windows por SSH necesitareis esta guía (en el caso de que os salga un error al abrir la instancia):
https://towardsdatascience.com/connecti ... 87664d82d0
-Video en ingles sobre como usar este método tanto con RunPod como con Vast.ai:
[YOUTUBE]
https://www.youtube.com/watch?v=7m__xadX0z0&t[/YOUTUBE]
-Continuación del video en ingles sobre errores frecuentes y consejos para Jupyter además de varios Colabs: [YOUTUBE]
https://www.youtube.com/watch?v=TgUrA1Nq4uE&t[/YOUTUBE]
*Recomiendo encarecidamente ver los 2 videos completos, se explican muchísimos detalles y soluciones a errores que alargarían demasiado el hilo (estamos a la espera de un tutorial en español, es cuestión de dias)*
COMPARACIÓN: En este video tenemos una comparación entre los resultados de ambos métodos, la comparación no es justa pero gana Jupyter:
[YOUTUBE]
https://www.youtube.com/watch?v=mVOfSuUTbSg[/YOUTUBE]
[CENTER]
--- USAR EL MODELO ---[/CENTER]
Tras el entrenamiento se genera un archivo .ckpt que podremos usar tanto en local como en varios Google Colab, no entraré en detalles ya que para eso está mi primer hilo (arriba de todo) sin embargo os dejo algunos recursos básicos.
[RECOMENDADO] Guía para instalar en local con el webui de
AUTOMATIC1111:
https://rentry.org/voldy
Videotutorial para instalar en
LOCAL y también para
2 Google Colabs distintos (en el 2º podemos usar nuestro propio modelo):
[YOUTUBE]
https://www.youtube.com/watch?v=5z223SxlAcA&t[/YOUTUBE]
[CENTER]
--- MODELOS PRE-ENTRENADOS ---[/CENTER]
Isabel Diaz Ayuso 2424 training steps (palabras clave: diazayuso person):
https://drive.google.com/file/d/1xMgwir ... sp=sharing
Isabel Diaz Ayuso 4040 training steps (palabras clave: diazayuso person):
https://drive.google.com/file/d/1DJt8OG ... sp=sharing
Ibai Llanos 2424 training steps (palabras clave: ibaillanos person):
https://drive.google.com/file/d/1WcwoxZ ... sp=sharing
El Xokas 2424 training steps (palabras clave: elxokas person):
https://drive.google.com/file/d/1JUM_Bv ... sp=sharing
IlloJuan 2424 training steps (palabras clave: illojuan person):
https://drive.google.com/file/d/16DaNiI ... sp=sharing
[CENTER]
--- LINKS DE INTERÉS ---[/CENTER]
Joe Penna (dev notebook jupyter):
https://twitter.com/MysteryGuitarM
ShivamShrirao (dev colab y -24/19/12gb):
https://twitter.com/shivamshrirao/
Emad, el millonario que ha pagado la fiesta (entrenar StableDiffusion):
https://twitter.com/EMostaque
Reddit oficial de esta IA (no +18):
https://www.reddit.com/r/StableDiffusion/
Discord Dreambooth Stable Diffusion Training: [url]https://***********/XGYSaECW[/url]
-Sustituid los * por "discord . gg" (sin los espacios)
Web MUY BUENA con ejemplos y sus PROMPTS además de seed, escala y tamaño:
https://lexica.art/
[IMPORTANTE] Repositorio GitHub de JoePenna:
https://github.com/JoePenna/Dreambooth- ... Diffusion/
Web para recortar varias imágenes a la vez para el dataset:
https://www.birme.net/?target_width=512 ... height=512
Dall.e 2 de OpenAI (Ahora público y muy útil para inpaint outpaint):
https://openai.com/dall-e-2/
DISCLAIMER: Evidentemente no me hago responsable de lo que hagáis y distribuyáis, estos modelos open source no son míos y el propósito de este hilo es puramente educativo. Desde aquí hago un llamamiento a usar esta tecnología de forma responsable respetando la dignidad de terceros y la legalidad vigente.