Falls es euch interessiert: Das mit den Bots oder auch der undress.ai App sind auch die Stable difusion Modelle.
Das funktioniert mal besser und mal weniger gut, weil da natürlich keiner sitzt und die Bereiche maskiert, die ersetzt werden sollen. Der Bot erkennt selbst die Zonen, die zu ersetzen sind und macht dann genau den vorher genannten inpainting prozess mit einem Modell.
Für jemand, der schnell Ergebnisse haben will und evtl. auch keine Grafikkarte hat, eine super Sache. Man hat halt weniger Kontrolle drüber aber ich muss auch zugeben, dass das Ergebnis von
@Etmo ganz gut aussieht.
Eine Sache ist natürlich noch anzumerken - alle Bilden gehen in die Cloud - wer weiß was mit denen passiert.