Fotografia 3D? Ruota la Camera in 2D con Qwen 2511 Gaussian Splat!
687 segments
Ciao a tutti, ben ritrovati. Ben
ritrovati. Sono Edo. Grazie di essere
anche qui oggi con me su questo canale
dove parlo esclusivamente di
intelligenza artificiale generativa
avanzata e oggi ho intenzione di farvi
scoprire spero, qualcosa di molto
interessante che riguarda un metodo di
scomposizione dell'immagine che si
chiama lo splash gaussiano. Ok? Forse
molti di voi riconosco, lo riconoscono
perché ne avevamo già parlato forse un
anno fa in alcuni video meno recenti. E
il concetto dietro a questo grande
modello è la possibilità di
aprire un'immagine qualsiasi come
questa, creare un distorcimento del
punto di vista, una distorsione del
punto di vista, ok? Distorsione che eh
spezzerà l'immagine in tanti piccoli
pixel.
in tante aree nere che sono aree dove il
modello non riesce a intuire che cosa ci
sarà ma ne crea una sintesi e poi
tramite Quen, in questo caso Quen 2511,
ci sarà una ricostruzione dell'immagine
basata sul modello e sull'immagine di
partenza e questo ovviamente ci
permetterà di ad esempio prendere
un'immagine come questa, ruotare la
camera verso l'alto e ricostruirla
basandoci su quen. prendere una donna,
ad esempio, laterale,
ruotare ancora la camera verso l'alto e
riprenderla dall'alto.
È lo stesso per la bambina, eccetera
eccetera. è un modello particolarmente
interessante, particolarmente potente
che oggi andremo a eh diciamo studiare
nel dettaglio, a vedere nel dettaglio.
Vi consiglio chiaramente di scaricare da
qui eh il modello, poi lascio tutto
tutti i link a disposizione e di aprire.
Dopo lo vedremo. Vi faccio vedere quali
sono le estensioni che ho installato,
che sono queste. Eh.
Oh, porca miseria, perché non me lo fa
vedere? Not, scusate, che ovviamente ho
una parte qua. Ok. Eh, ci sono un paio
di ehm di di nodi che potete installare
direttamente da da qua. Ehm e sono
appunto relativi al ehm a questo modello
qui che si chiama Sharp, ok? Che
questo workflow ha bis necessita per
fare alcuni aggiustamenti ed è questo
modello qua, ok? che permette di avere
una precisione nel nel dettaglio quando
eh l'immagine viene modificata.
Un'immagine, una precisione
particolarmente interessante.
Questo sharp viene poi utilizzato grazie
ai nodi di Andrea Pozzetti all'interno
di workflow che creano appunto una sorta
di preed, ok? che ci serve per i nostri
i nostri scopi. Eh, quindi lo potete
installare direttamente da Confui
andando sul vostro menù,
digitando appunto su estensioni, nodi,
digitando Sharp, lo trovate qui, PZ
Nodes, ok?
Eh, se non erro da qui non c'è
null'altro da installare se non sbaglio
perché eh per quanto invece riguarda per
quanto invece riguarda il nodo eh questo
nodo gaussiano, questo nodo dello
splatter gaussiano, potete innanzitutto
dovete innanzitutto installare questo
ehm viewer, ok?
Semplicemente andate sui vostri custom
node nella vostra cartella solito cmd,
quindi noi siamo all'interno della
nostra cartella di confui custom node
sono qua.
CMD
Command essenzialmente aprite questo
menù e in questo menù incollate questa
eh questa riga di testo che installerà
tutto automaticamente.
Qui ti dice di rinominare il folder to
confue Gaution Viewer che in realtà a me
ha installato esattamente così, quindi
non vedo perché rinominarlo. E questo è
il viewer che serve all'interno del
workflow e lo sharp lo installate
direttamente dal da Conf Manager e poi
qua andate sul nostro ehm come si dice,
su questo modello qua e quello che fate
è scaricate il nodo generale del
workflow che poi vediamo nel dettaglio
che serve per avere tutti i nodi giusti
e poi scaricate questo che è un lora,
ok? Quindi andrà inserito all'interno
della vostra cartella modelli Lora. è il
l'ora che serve per dire al nostro
workflow utilizza lo splash gausiano e
infatti dopo lo vediamo nel dettaglio
all'interno del nostro workflow noi
dovremmo inserire questa dicitura che è
la traduciamo velocemente traduttore
e facciamo rilevalingua
effetto splash gausiano. Facciamolo in
inglese perché è meglio utilizzare
l'inglese con quen. Ok. Ocean Splash
Effect referring to the scene Imagine
Figure 2, dopo lo vediamo eccetera
eccetera.
Questi sono i pezzi che vi servono per
poter lavorare con lo splash Gausiano.
E questo è il workflow che ho
sviluppato. Ringrazio anche Stefano,
Stefano Flore, col quale ci siamo ci
siamo sentiti e che spesso mi indirizza
su questi bellissimi e nuovi strumenti.
Ehm, devo a lui la scoperta di questo di
questo workflow e che adesso vediamo un
attimo un attimo nel dettaglio.
Ho creato un workflow ripartito oggi.
Vediamo le prime due parti. Magari
questa qui la vediamo se riesco più
avanti o alla fine del video. Adesso
capiamo l'idea. Qual è? La prima parte è
proprio lo splash gaussiano. Noi
partiamo da un'immagine, un'immagine di
partenza e una camera farà ruotare la
nostra visuale. Questa camera ruoterà la
visuale e creerà un'immagine ruotata, ma
con tanti errori, tanti errori dati dal
fatto che ovviamente c'è uno spostamento
nello spazio che il modello eh crea a
livello artificiale, crea a livello
statistico e poi queste due immagini,
l'immagine di partenza e l'immagine con
la rotazione di camera, ok?
eh vengono inserite ehm all'interno di
un workflow creato con Quen 2511 dove
abbiamo il modello di base, il Lightning
che mi serve per velocizzare i calcoli,
il nostro Lora che io ho rinominato, io
ho rinominato, eliminando questa
dicitura in cinese, ho utilizzato Splash
Sharp e poi ho utilizzato anche un Lora
Multiangle che, devo essere sincero,
potrebbe non funzionare, ma io l'avevo
già all'interno del mio modello, di
conseguenza l'ho tenuto.
La parte ovviamente di clip e di è
rimane la stessa base di di quen 2511.
Ho semplicemente unito, ho utilizzato
due m nodi di scale per avere le
immagini a 1 megapixel, perché come
ricordate Quen lavora a 1 megapixel,
quindi è inutile avere eh 3500 pixel per
2000 perché tanto Quen non li calcola.
Di conseguenza noi utilizziamo le le
immagini di partenza e le scaliamo a
megapixel. Utilizziamo le immagini di
partenza e le scaliamo a megapixel e le
inseriamo nel workflow. Qual è l'idea?
L'idea è utilizziamo questa parte del
nostro workflow, resettiamo la view,
portiamo la schela uno così vediamo
bene. Ehm,
e ruotiamo la visuale,
ok? dall'alto, dal basso, dal da quello
che ci pare. Questo è il viewer
gausiano. Una volta che abbiamo ruotato
l'immagine come ci piace,
il modello creerà questa rotazione e il
nostro Quen 2511 cosa farà? Riferendosi
all'immagine della figura 2, che è
questa
ruotata.
Ristora, rimette a posto la prospettiva
della scena nella figura 1 e e replace
the blank. gli spazi bianchi. Quindi,
scusate, riferendovi all'immagine due,
che è questa qui, l'immagine di base,
cambia
e aggiusta la prospettiva e l'immagine
con l'immagine uno
tramite chiaramente il nostro quen.
Questa è l'idea, no? Eh, io qui poi ho
inserito un refiner, refiner sviluppato
con Z image, molto semplice, dove la
nostra immagine di latenza base è
chiaramente la nuova immagine creata con
Quen e però dove ho abbassato il The
Noise a 0,40. Si può abbassare ancora
0,30, dopo vediamo. È semplicemente per
rendere ancora più, se volete, eh
gradevole l'output. Facciamo una prova,
sperando che regga il motore.
Allora, questa è l'immagine di partenza,
come vedete, non mi interessa. Voglio
ruotarla e andarla un po' più nel
dettaglio qui e poi voglio cominciare
aumentare,
ok, questa scale che serve per
aggiustare un attimo. Sembra che non
stia Ok, lo faccio un reload e faccio
partire semplicemente per caricarla in
cash.
Ok, perfetto. E interrompo il coso. E
vedete? Ecco, questa è l'immagine a a
scala di uno. Ora comincia a aumentare
un po' la scala
in modo che questi pixel si addensino.
Ora dovrebbe farlo, spero. Una cosa che
a livello di calcoli non è proprio
leggerissima, ma spero che lo faccia.
Che ci serve.
Vediamo. Non gli è piaciuto moltissimo.
Ah,
andiamo a spingere subito a cinque. Ma
no, non sta caricando. Forse perché non
ce la fa, però non ne sono del tutto
sicuro. Quindi lo lo rilodiamo un
secondo.
Il bello della diretta, come si suol
dire. Rifacciamo partire semplicemente
il render a scala 1. Cancelliamo la
parte di calcolo.
Ok, ruotiamo questa, la zoomiamo un po',
settiamo la camera e proviamo aumentare
un po' la risoluzione di questi di
questa scala
che però non mi pare
Spengo un attimo il video, vediamo se
questo è il problema. Effettivamente era
un problema di di video, nel senso che
appena ho smesso di registrare, come
vedete, la scala è aumentata e i pixel
si sono addensati. A questo punto
settiamo la camera che ci serve, la
prospettiva che ci serve, che, come
vedete, è un po' diversa, ok? E facciamo
partire il nostro workflow. A questo
punto questa è la camera settata, come
vedete, nella nuova prospettiva. E cosa
fa Quen? cercherà di ricostruire le
parti mancanti.
Ricostruire le parti mancanti basandosi
sul modello, sull'immagine di base,
l'immagine uno, ok? Di partenza, e
creando tutto quello che manca a
livello, appunto, di eh di spazi neri.
In questo caso ce ne sono pochi perché
la parte di addensamento dei pixel è
andata molto bene e di conseguenza c'è
un po' di macello qui, un po' di qui,
però poca roba. Devo essere sincero,
questo è un tentativo. È un tentativo, è
una prova che avevo fatto prima con
un'altra prospettiva. Adesso dovrebbe
appunto
vedere il nuovo il nuovo risultato. Beh,
direi che è tantissima roba.
trovo che sia splendido. Ok, quello che
voglio provare a fare è semplicemente
farlo rilanciare. A farlo rilanciare,
intendo a rilanciarlo e sviluppare cosa?
Quello che volevo farvi vedere prima.
Adesso vediamo se se riusciamo. Eh, un
refiner, un nodo di refiner in più.
Ehm, assolutamente a vostro eh a vostro
piacere nel caso in cui lo vogliate
inserire o meno. A me personalmente Z
Image piace sempre da un punto di vista
estetico e di dettagli. Di conseguenza
lo uso con molto piacere. Peraltro è
particolarmente leggero, ovviamente
adesso l'ho detto, di conseguenza si
impallerà, però è particolarmente
leggero. Ehm, mi sembra di non averlo
fatto partire prima, quindi magari
clipping ci metterà un po' a caricarsi.
questa leggerezza perché la lavoriamo
con otto step. Vi ricordo che io lavoro
con Z Image Turbo, ok? Eh, 8 step
diventa particolarmente interessante da
un punto di vista, diciamo, eh di
velocità, ok? Di render. E questo ci
permette
di avere al nostro arco delle opzioni,
ok? di visualizzazioni diverse. Eh, vi
ricordate che in altri video avevo fatto
vedere che c'era anche questa
possibilità, questo multiangle camera,
che però è stato creato su una base di
diverse ehm impostazioni l'ora di
camera, ok? Quindi è un è un modo
diverso di vedere la questione. Questo
ti permetteva di zoomare da con questo
lavoro qua. Lo trovate sul canale. Ho
fatto un tutorial apposta. Qui siamo su
un'altra su un'altra dimensione.
L'obiettivo è lo stesso. Ok? L'obiettivo
è lo stesso. Eh, il secondo passaggio è
lo stesso, nel senso che una volta
trovato il modello è trovata la nuova
ehm punto di vista quen ricrea il tutto.
Ok? Chiaro che la partenza è molto
diversa perché la partenza gaussiana si
basa appunto su una eh una
frammentazione dello dello spazio
latente, molto molto bello da un punto
di vista proprio tecnico. Ehm
dopo magari vi lascio il link di un
videogioco, un FPS che hanno fatto tutto
in gausiano che viaggia su web a livello
di peso. Ok, ho dovuto spegnere il
video, scusate, ma non ce la facciamo
neanche con la 5070 Ti. Qual è il
concetto? Il concetto bellissimo, a mio
dire, è che Z image in questo specifico
caso aggiunge quel flavor, quel
dettaglio che può essere molto
interessante.
Ok? Eh, il tappeto, il cuscino, gli
alberi di la cos'è? banano,
lo stesso
c'è c'è un po' di cambiamento perché
siamo al 40% che è tanto, potremmo
scendere al 30 per evitare questo tipo
di aggressioni, ok? E per rimanere più
adesi a questo tipo di design. Qui ZM è
già fatto un saltino, però a livello di
qualità, a livello proprio di di
crisness, ok? Guardate che bello dietro,
è più bello, più interessante tutto, eh.
Guardate le ombre qua rispetto a qua
è un'opzione in più che inserisco nel
workflow. Adesso devo capire questo
workflow, magari l'opposto. Adesso devo
vedere un attimo. Eh, devo ancora
raffinarlo un secondo perché è un po' un
po' un po' brutto da vedere. E io qui
utilizzo due due
questo fast group muter che è molto
interessante. A me a me piace molto
perché in questo caso spengo Refiner e
di conseguenza si spegne in automatico
tutto che che è un vantaggio. Ehm e poi
utilizzo ovviamente il set get input set
input che cioè get node e set node get
node and set node che serve per evitare
di avere troppi e come posso dire
eh troppi nodi tutti in giro. Ok? Però
questa è una questione personale più che
altro. Eh facciamo un'altra prova, se vi
va. La prova la facciamo con qualcosa di
diverso, la facciamo con una donna, con
un essere umano. Il concetto è il
medesimo. Faccio partire il round di
calcolo, ok? sul quale il mio viewer mi
farà una previsione,
meglio una previsione, una divisione
gausiano, uno splashing gaussiano.
Perfetto.
Ok, spengo perché non ci interessa. Come
vedete è un macello a livello di di come
posso dire di di polverizzazione. Ok,
l'immagine
però quello che facciamo adesso è
aumentare la scala un pezzettino alla
volta, un pochino alla volta. Come
vedete, purtroppo devo spegnere la
registrazione, ma ritorniamo subito.
Eccoci. Ho ho ripreso l'immagine da
sotto. Come vedete, ho aumentato la
scala 371 che ci permette di avere più
dettaglio. Ok? Poi dovete ricordarvi di
scrivere set camera. Di conseguenza lui
blocca questo frame e eh Ma sì, facciamo
tutto, chi ci frega, ma che ce frega, ma
che c'è importa. E qui però scendiamo a
0,30, tanto perché tanto per vedere.
Facciamo partire tutto il workflow.
Quindi lui prenderà l'immagine del della
camera settata da sotto. Come vedete qui
c'è tanto nero, c'è tanto mess da un
punto di vista di pixel. Speriamo che
Quen faccia il suo
e nel caso in cui Quen non dovesse fare
il suo, noi speriamo che Z Image faccia
di nuovo eh il suo e e aggiusti ancor
meglio questo scarto.
Eh, lo faccio per con voi per la prima
volta con questo modello, quindi vediamo
cosa salta fuori.
Però capite,
al netto del risultato che comunque
abbiamo visto essere un risultato molto
interessante. Ok.
Ehm
il flusso di lavoro, il tipo di di
sviluppo di questo di questo modo di
ragionare eh ci porta su territori
creativi nuovi, territori creativi super
interessanti e territori creativi che ci
permettono di avere il un controllo
maggiore di quello che facciamo.
Controllo perfetto, no? Lo posso fare
con Nano Banana, con Nano Banana 2, con
Nano Banana Pro, con Crog. Sì, la stessa
cosa la potete fare con nano banana
scrivendo i vostri prompt. Ok, va
benissimo. Il vantaggio grosso qui è che
stiamo parlando di open source,
ok? Tutto questo è open source.
Trovo che sia un vantaggio notevole nel
momento in cui eh Igfield crolla e non
vi fa lavorare eh oppure dovete
utilizzare modelli che non potete
caricare online perché magari lavorate
con aziende, imprese che non vogliono
che le loro modelle o loro modelli
vengano inseriti in database esterni,
avete un NDA che vi blocca da un punto
di vista di copyright e di conseguenza
non potete caricarli sul server esterno.
Questo è tutto locale, lo fate sulla
vostra macchina e potete chiaramente
sperimentare.
Avete bisogno almeno di 16 GB di VAM,
quindi ve lo dico, dovete avere una
macchina che sappia calcolare parecchio
da quel punto di vista. Di conseguenza
dalla 50-70 in su direi che siamo tutti
tranquilli. Come vedete
il risultato è particolarmente
interessante. Vi ricordo che noi l'idea
è possiamo ruotare il punto di vista di
una di una camera. Sì, lo possiamo fare.
In questo caso c'è un po' di sporcizia
generalizzata da un punto di vista del
del maglione, però è una sporcizia che,
devo essere sincero, non mi preoccupa.
Dovessimo metterla a posto, anche solo
in post produzione, anche solo col
vecchio e caro Photoshop, ci metteremmo
pochi secondi. Cosa diversa sarebbe
chiedere a Photoshop di girare la la
punto di vista della telecamera, cosa
che potremmo chiaramente fare così.
Adesso facciamo una prova secondaria.
Appena Z Image mi fa la grazia di
caricare il maledetto, ma non è Z Image,
in questo caso è proprio Quen 3, il clip
testuale che purtroppo è pesantissimo
che Ma va bene, vediamo il risultato con
eh con chiaramente un refiner.
Anche qui io uso Z Image come Refiner. È
l'unico Refiner che potremmo utilizzare?
Assolutamente no. però trovo che abbia
una qualità estetica e una velocità di
render che me lo fanno preferire a molti
altri. Di conseguenza ci muoviamo in
questo senso.
Vediamo se ci fa la grazia Santo Z
image.
Poi magari se lo metto online qui faccio
un po' di pulizia, eh, perché in effetti
c'è un bel Ovviamente nei clip qua nei
text encoder non ci sono testi perché il
latente è un'immagine di partenza, di
conseguenza non dobbiamo scrivere un
tubo.
Anche qui si potrebbe mettere un bel
nodo, gete e set vae, però
vabbè, qui siamo vicini, eh, adesso chi
se ne frega alla fine. Ehm, potremmo
anche fare una cosa, ma non voglio
caricare i calcoli qua.
Si potrebbe avere,
però facciamo, non ci interessa. A me
piacciono questo tipo di nodi un po'
morbidi.
Vediamo se image ci fa. Ok, come vedete
ha pulito il maglione, ha aggiunto della
grana alla pelle della ragazza, ha
cambiato un po' l'espressione, ma devo
essere sincero non mi non mi turba. E
qui magari con delle maschere eccetera
potremmo fare un prima e un dopo. Adesso
cambio la prospettiva un attimo. Allora,
come vedete ho ruotato ancora di più la
ragazza, l'ho ruotata la camera più che
la ragazza, la vista è completamente
laterale. Ho settato la camera, ho
spento il refiner questione di calcolo
che adesso non mi interessa. Ehm e
ovviamente facciamo ripartire il tutto.
Lui calcola da questa prospettiva la
nuova prospettiva.
C'è un bel caos. qui perché chiaramente
noi partiamo da un'immagine
completamente frontale e tutto ciò che
c'è attorno non esiste, semplicemente
viene inventato, viene viene eh
sintetizzato a livello statistico e di
conseguenza diventa un po' difficile per
il modello lavorare eh di fantasia, però
quello che noi possiamo fare sia a
livello di prompting che a livello
appunto di Lora con questo splash è
semplicemente dirgli ok, guarda nuova
prospettiva e correggila.
correggi gli spazi che mancano basandoti
su quello che hai visto nell'immagine
due, no? Che poi sarebbe l'immagine uno,
l'immagine di partenza.
Ehm, vediamo, vediamo il risultato.
Sono curioso esattamente come voi, eh,
spero siate curiosi. Ehm,
e vediamo che cosa ci porta questo quen.
Allora, qui io ho inserito un un
comparer che serve semplicemente per
l'immagine due è che si riferisce a
questa qua. Ok. Ok.
Serve semplicemente per farci vedere
come funziona eh la sovrapposizione. In
realtà noi dobbiamo vedere questa
immagine qui che poi l'immagine che
salvo. Sto salvando tutto sbagliando mi
si sarà riempito di nuovo l'hard disk.
Grande tema legato non solo alle RAM
e alle intelligenze artificiali.
Sappiamo tutti che gli hard disk
diventeranno un altro grande
un altro grande quesito.
Allora, in questo caso, come vedete,
forse non ha
esageratamente inserito, non ha riuscito
a calcolare bene quello che manca. Ok, a
questo punto proviamo a fare yes e fare
replace the blank and black
spaces. No, non a spaces a
Ok, riproviamo semplicemente.
Ah, non cambiamo la la prospettiva, mi
piace. Teniamola. Ok, abbiamo cambiato
però il prompt conseguenza, boh,
proviamo a spingere un filo di più. Quen
non sono sicuro che riesca perché c'è
tantissimo nero, forse troppo.
Probabilmente
questa parte qui è esageratamente
piegata, ok?
Eh, e di conseguenza lo spazio nero
diventa veramente difficile da da
immaginare, però noi comunque facciamo
delle prove anche per capirne gli
eventuali limiti.
Non sono modelli
magici, anche se fanno cose che fino
all'anno scorso, fino a due anni fa, eh
sembrano lunari, eh ed è chiaro che
servono per darci un'indicazione di
quello che succederà. Vedete che ha
fatto già un passaggio in più, secondo
me più interessante, ha tolto questa
grana che prima c'era e ha pulito un po'
il il muro che prima era ancora più
sporco. È chiaro che ci sono molti
errori da un punto di vista
dell'immagine che non potremmo
utilizzare, anche perché rimettere a
posto i capelli fino a che mettere a
posto questo nero che potrebbe essere
boh, una porta aperta, è chiaro che qua
potremmo andare tranquilli. sui capelli,
no? Ovviamente avremmo molto molto
faremmo molta fatica, però è chiaro che
stiamo partendo da questa, capite? Cioè
non c'è niente, non non esiste nulla,
ok?
se non una propagazione di punti. Però,
come dico, eh non sono strumenti che
dovete utilizzare
ehm ciecamente, sono strumenti che
possono darvi un aiuto nel momento in
cui avete bisogno di
quell'aggiustamento.
Eh, anche Nanobanana può fare queste
cose qui. Anche Nano Banana 2 ha
sicuramente questi vantaggi, eh, al
momento è tutto prompting. Potreste
integrarlo con del ma è tutto prompting.
Ehm
e soprattutto anche nanoban
e anche nanoban pro tendono, soprattutto
quando ci sono prodotti, scritte, loghe,
eccetera, a inventare un po'. Quindi
attenzione, la magia di questi strumenti
deve essere sempre subordinata
all'obiettivo che avete a livello di
business e chiaramente a la conoscenza
che avete di ciò a cui dovete tendere.
Ehm,
trovo che questo splash gausiano abbia
delle potenzialità incredibili, trovo
che sia divertentissimo da usare, trovo
che abbia anche quell'ordine di magia
che mi piace eh intravedere in questi
strumenti.
È un workflow, è uno strumento, è un
modello che integrerei completamente in
tutto quello che faccio a livello
professionale, no?
o meglio, dipende,
tutto dipende da quello che state
facendo. Ci sono alcuni progetti dove un
approccio del genere mi può essere
utile. Ci sono altri progetti dove un
approccio del genere è troppo laborioso,
troppo complesso, troppo impreciso e di
conseguenza non mi può essere utile.
Però è chiaro che stiamo parlando anche
di un tema di open source. Questi sono
modelli che noi possiamo utilizzare eh
liberamente
e eh qui lo dico e qui lo nego, ma ne
sono abbastanza sicuro, diventerà una
rarità, sempre più una rarità il modello
open source da cui ricordiamo partiva
tutto il famoso open AI che di open
ormai non ha più nulla, però partiva
dall'idea che sono strumenti che devono
essere utilizzati da tutti con grande
libertà eccetera. In realtà quello che
stiamo vedendo che i modelli più
potenti, modelli più grossi vengono
chiusi, sottoscritti, nulla di male, ci
mancherebbe. Eh, il mercato funziona
così da quando è nato il mercato, però
mettiamo in conto che esiste la
possibilità di lavorare open source
in modo assolutamente dignitoso. Ehm, eh
vedete, questo era il risultato. Ci sono
molte parti che vengono ricostruite
molto bene, a mio dire. Guardate che
bello il maglione. E di conseguenza
vediamo cosa fa il Refiner, ma il
Refiner non potrà fare moltissimo perché
ovviamente non è che ricostruisce che
che cosa. Abbiamo ovviamente migliorato
un po' la resa della faccia con questo
blu eliminato. Il maglione è sicuramente
un un ottimo risultato. I capelli sono
stati assolutamente rovinati dalla dalla
dallo splettingsiano. Come risolvere? E
in realtà l'unica soluzione qui sarebbe
continuare a spingere sullo scaling per
riuscire ad avere meno pixel possibili,
ma tutto dipende dal punto di partenza.
È chiaro che se ho una foto così
frontale e voglio fare questo, capite
che tutto questo nero è interpretazione.
Io posso spingere lo scale quanto
volete, ma rimarranno tante aree nere
sulle quali poi il modello dovrà eh
muoversi di conseguenza.
Basta, oggi volevo farvi vedere questo.
Spero che il video sia stato di vostro
interesse, spero che il mio canale sia
di vostro interesse.
Like, non like, segui, non segui. Non
sto certamente qui a dirvi queste cose,
eh. Sono a disposizione, se avete
domande, dubbi, ogni tanto mi scrivete,
cerco di rispondere a tutti quando
posso, come posso. Spero che questi
contenuti possano interessarvi e spero
di rivedervi chiaramente al prossimo
video. Per oggi è tutto e quindi vi
saluto da Edo.
Ciao. Ciao. C
Ask follow-up questions or revisit key timestamps.
In questo video, Edo illustra una tecnica avanzata di scomposizione e ricostruzione delle immagini chiamata "Gaussian Splatting" (o splash gaussiano). Attraverso un workflow in ComfyUI che utilizza il modello Quen 2.5-11B, viene mostrato come sia possibile ruotare virtualmente la telecamera su una foto statica, lasciando che l'intelligenza artificiale ricostruisca le parti mancanti e i nuovi angoli di visione. Il tutorial copre l'installazione dei nodi necessari, la gestione della scala dei pixel per aumentare il dettaglio e l'uso di un refiner per migliorare la qualità estetica finale dell'output.
Videos recently processed by our community