Ich werde Ihnen von dem KI -Bild Webui (stabile Differenz) erzählen


 


Heute werde ich Ihnen die Website führen, die das Bild kostenlos mit KI zeichnet!
Sie können ein Bild wirklich leicht zeichnen!

Webui (stabile Differenz)

Die am 22. August 2022 veröffentlichte Stabilität AI ist ein KI -Modell, das Text in ein Bild umwandelt. Dieses Modell wird als Open -Source -Lizenz verteilt, sodass eine Vielzahl von Benutzern es frei verwenden kann. Wenn Sie den Text eingeben, erstellt die Stabilitäts -KI ein hochwertiges Bild basierend auf diesem Text.

Webseitenadressse :
https://stability.ai/


charakteristisch :
Stabiles Diffusion ist ein Deep -Lern -Modell für künstliche Intelligenz, das auf der Basis der "Hochauflösungsbild -Syntheseforschung" des Labors für Bildschirm Vision & Learning Group (COMPVIS) in der Universität München in München, Deutschland, entwickelt wurde. Es wurde mit Unterstützung von Stabilität AI und Runway ML entwickelt.

Stability AI ist ein britisches Unternehmen namens Emad Mostaque, das Rechenressourcen für eine stabile Differenz bereitstellt und es Ihnen ermöglicht, eine Laion-5b-Datenbank zu lernen. Im Gegensatz zu den Text-zu-Image-Modellen wie Dall-E 2 oder Image kann dieses Modell auch auf Computern mit VRAMs von 4 GB oder weniger verwendet werden, indem die Computerressourcen stark reduziert werden.

Auch wenn es teuer ist, ist es außer Open Source offen und kann von der Öffentlichkeit verwendet werden. Dies hat das Zeitalter der Malerei KI eröffnet, und die auf dem Modell basierende KI -Bild -Service -Funktion nimmt weiter zu.

Sie können das Plug -in "ControlNet" verwenden, um eine Pose zu erstellen. Darüber hinaus wird durch die Verwendung verschiedener Steuernetz -Hilfsmodelle wie das von Openpost abgeleitete Canny -Modell die Pflanzen des Körperbereichs angepasst, um die Skizze der Linienebene zu unterstützen.

Die stabile Differigkeit besteht hauptsächlich aus drei künstlichen neuronalen Netzwerken: Clip, Unet und VAE (VAE). Wenn der Benutzer in den Text eingeht, konvertiert der Text -Encoder, Clip, den Text in das Token, das Unet verstehen kann. UNET erstellt ein Bild, indem es zufällig erzeugte Rauschen basierend auf Token entfernt. Das Wiederholen des Dinoisierungsvorgangs erzeugt ein genaues Bild, und die VAE spielt eine Rolle bei der Konvertierung dieser Bilder in Pixel.

Im Gegensatz zum herkömmlichen Modell zur Erstellung von Diffusionswahrscheinlichkeitsbild hat die stabile Diffness den Otto -Incderator vor und nach dem Problem eingeführt, um das Problem zu lösen, dass der Ressourcenkonsum mit zunehmender Auflösung zunimmt. Auf diese Weise können Sie ein relativ großes Auflösungsbild erstellen, indem Sie Geräusche in einem kleinen potenziellen Raum und nicht im gesamten Bild manipulieren und nicht viele Rechenressourcen benötigen. Daher kann der stabile Unterschied als Ressource von Grafikkarten verwendet werden, die in allgemeinen Annahmen verwendet werden.


Lizenz:
Stable AI führte eine Open -Source -Lizenz [4] für neues maschinelles Lernen ein. Diese Lizenz hat eine andere Funktion als die übliche Open -Source -Lizenz. Wenn Sie einen Dienst mit stabiler Differenz anbieten, muss der Benutzer diese Lizenz explizit einhalten. Wenn das Pin -Tuning des Modells auch für die in der Lizenz angegebene spezifische Verwendung verwendet werden sollte, sollte es außerdem nicht für andere Zwecke verwendet werden.

Wie benutzt man :
Verschiedene Open -Source -Projekte wurden unter Verwendung einer stabilen Differenz entwickelt. Unten finden Sie eine Beschreibung jedes Projekts:

1. Stabile Diffness -Web -Benutzeroberfläche: Ein Projekt, das eine Web -Basis -Benutzeroberfläche bietet, um das stabile Diffusionsmodell einfach zu verwenden. Entwickler aktualisieren und fügen zusätzlich zur Front -End -Funktion der stabilen Diffusion eine Vielzahl von Funktionen wie GFPgan -Korrektur, Esrgan Upscaling und Textinversion hinzu.

2. Originalautor: Das von Compvis veröffentlichte Originalprojekt. Die Benutzerfreundlichkeit ist begrenzt, sodass sie für Referenzzwecke verwendet werden kann.

3. Diffusoren: Dies ist ein Rahmen für das neue Diffusionsmodell, das von Herging Face, einem berühmten Anbieter von maschinellem Lernen, bereitgestellt wird. Es bietet eine Möglichkeit, die Finetuneng der stabilen Diffusion leicht zu gestalten. Es enthält auch Frameworks wie Transformatoren oder Datensätze.

4. Diffnessbee: Sie können den stabilen Unterschied direkt mit der App für den Mac ausführen. Es ist möglich, Text und Bilder einzugeben und auch in den Malt- und Outposting -Funktionen zu unterstützen. Die Apple Silicon -Version verwendet einen neuronalen Motor im Apple Silicon, und die HQ -Version verwendet die GPU, um die Qualität zu erhöhen, aber die Geschwindigkeit ist langsam. Es unterstützt auch Intel Mac und unterstützt Windows in Zukunft.

5. Zeichnen Sie Dinge: Sie können eine stabile Differenz mit Apps für iOS, iPados und macOS ausführen. Es unterstützt drei Modi: CPU + GPU, CPU + Neuralmotor, CPU + GPU + Neural Motor (alle). Sie können Checkpoint, Lora, Textinversion usw. verwenden und bieten eine ähnliche Funktion wie Webui. Die Expansionsfunktion wird nicht unterstützt, und aufgrund von Speicherkapazitätsbeschränkungen kann die App häufig aufgrund des Mangels an Speicher enden, wenn sie in alten und neuen Geräten mehr als eine bestimmte Auflösung ausführt.

6. Riffusion: Dies ist ein Beispiel dafür, dass es mit dem Spektrogramm auf die Zusammensetzung AI angewendet wird.

7. Gericht in der AI -Bildergalerie: Wir haben eine dedizierte Galerie eröffnet, mit der AI -Bilder mit dem Dienst von Civitai erstellt werden können.

Die obigen Projekte verwenden die stabile Diffusion, um AI -Bilder in verschiedenen Funktionen und Umgebungen zu erstellen.




Kommentare