HomeVideos

Fotografia 3D? Ruota la Camera in 2D con Qwen 2511 Gaussian Splat!

Now Playing

Fotografia 3D? Ruota la Camera in 2D con Qwen 2511 Gaussian Splat!

Transcript

687 segments

0:01

Ciao a tutti, ben ritrovati. Ben

0:03

ritrovati. Sono Edo. Grazie di essere

0:05

anche qui oggi con me su questo canale

0:08

dove parlo esclusivamente di

0:09

intelligenza artificiale generativa

0:11

avanzata e oggi ho intenzione di farvi

0:15

scoprire spero, qualcosa di molto

0:18

interessante che riguarda un metodo di

0:21

scomposizione dell'immagine che si

0:23

chiama lo splash gaussiano. Ok? Forse

0:27

molti di voi riconosco, lo riconoscono

0:29

perché ne avevamo già parlato forse un

0:31

anno fa in alcuni video meno recenti. E

0:34

il concetto dietro a questo grande

0:37

modello è la possibilità di

0:41

aprire un'immagine qualsiasi come

0:43

questa, creare un distorcimento del

0:47

punto di vista, una distorsione del

0:49

punto di vista, ok? Distorsione che eh

0:54

spezzerà l'immagine in tanti piccoli

0:55

pixel.

0:56

in tante aree nere che sono aree dove il

0:59

modello non riesce a intuire che cosa ci

1:02

sarà ma ne crea una sintesi e poi

1:05

tramite Quen, in questo caso Quen 2511,

1:08

ci sarà una ricostruzione dell'immagine

1:11

basata sul modello e sull'immagine di

1:12

partenza e questo ovviamente ci

1:14

permetterà di ad esempio prendere

1:16

un'immagine come questa, ruotare la

1:18

camera verso l'alto e ricostruirla

1:22

basandoci su quen. prendere una donna,

1:25

ad esempio, laterale,

1:27

ruotare ancora la camera verso l'alto e

1:30

riprenderla dall'alto.

1:32

È lo stesso per la bambina, eccetera

1:34

eccetera. è un modello particolarmente

1:36

interessante, particolarmente potente

1:39

che oggi andremo a eh diciamo studiare

1:41

nel dettaglio, a vedere nel dettaglio.

1:44

Vi consiglio chiaramente di scaricare da

1:47

qui eh il modello, poi lascio tutto

1:51

tutti i link a disposizione e di aprire.

1:56

Dopo lo vedremo. Vi faccio vedere quali

1:58

sono le estensioni che ho installato,

2:02

che sono queste. Eh.

2:05

Oh, porca miseria, perché non me lo fa

2:07

vedere? Not, scusate, che ovviamente ho

2:11

una parte qua. Ok. Eh, ci sono un paio

2:15

di ehm di di nodi che potete installare

2:19

direttamente da da qua. Ehm e sono

2:23

appunto relativi al ehm a questo modello

2:26

qui che si chiama Sharp, ok? Che

2:31

questo workflow ha bis necessita per

2:34

fare alcuni aggiustamenti ed è questo

2:37

modello qua, ok? che permette di avere

2:40

una precisione nel nel dettaglio quando

2:43

eh l'immagine viene modificata.

2:46

Un'immagine, una precisione

2:47

particolarmente interessante.

2:49

Questo sharp viene poi utilizzato grazie

2:53

ai nodi di Andrea Pozzetti all'interno

2:55

di workflow che creano appunto una sorta

2:58

di preed, ok? che ci serve per i nostri

3:02

i nostri scopi. Eh, quindi lo potete

3:05

installare direttamente da Confui

3:07

andando sul vostro menù,

3:10

digitando appunto su estensioni, nodi,

3:13

digitando Sharp, lo trovate qui, PZ

3:16

Nodes, ok?

3:19

Eh, se non erro da qui non c'è

3:22

null'altro da installare se non sbaglio

3:26

perché eh per quanto invece riguarda per

3:30

quanto invece riguarda il nodo eh questo

3:33

nodo gaussiano, questo nodo dello

3:35

splatter gaussiano, potete innanzitutto

3:38

dovete innanzitutto installare questo

3:41

ehm viewer, ok?

3:44

Semplicemente andate sui vostri custom

3:46

node nella vostra cartella solito cmd,

3:49

quindi noi siamo all'interno della

3:51

nostra cartella di confui custom node

3:56

sono qua.

3:58

CMD

4:00

Command essenzialmente aprite questo

4:02

menù e in questo menù incollate questa

4:07

eh questa riga di testo che installerà

4:08

tutto automaticamente.

4:12

Qui ti dice di rinominare il folder to

4:15

confue Gaution Viewer che in realtà a me

4:18

ha installato esattamente così, quindi

4:20

non vedo perché rinominarlo. E questo è

4:22

il viewer che serve all'interno del

4:24

workflow e lo sharp lo installate

4:26

direttamente dal da Conf Manager e poi

4:30

qua andate sul nostro ehm come si dice,

4:34

su questo modello qua e quello che fate

4:38

è scaricate il nodo generale del

4:42

workflow che poi vediamo nel dettaglio

4:44

che serve per avere tutti i nodi giusti

4:47

e poi scaricate questo che è un lora,

4:51

ok? Quindi andrà inserito all'interno

4:53

della vostra cartella modelli Lora. è il

4:55

l'ora che serve per dire al nostro

4:59

workflow utilizza lo splash gausiano e

5:01

infatti dopo lo vediamo nel dettaglio

5:04

all'interno del nostro workflow noi

5:06

dovremmo inserire questa dicitura che è

5:09

la traduciamo velocemente traduttore

5:13

e facciamo rilevalingua

5:16

effetto splash gausiano. Facciamolo in

5:18

inglese perché è meglio utilizzare

5:21

l'inglese con quen. Ok. Ocean Splash

5:23

Effect referring to the scene Imagine

5:26

Figure 2, dopo lo vediamo eccetera

5:27

eccetera.

5:29

Questi sono i pezzi che vi servono per

5:31

poter lavorare con lo splash Gausiano.

5:34

E questo è il workflow che ho

5:37

sviluppato. Ringrazio anche Stefano,

5:39

Stefano Flore, col quale ci siamo ci

5:41

siamo sentiti e che spesso mi indirizza

5:44

su questi bellissimi e nuovi strumenti.

5:47

Ehm, devo a lui la scoperta di questo di

5:50

questo workflow e che adesso vediamo un

5:52

attimo un attimo nel dettaglio.

5:55

Ho creato un workflow ripartito oggi.

5:59

Vediamo le prime due parti. Magari

6:01

questa qui la vediamo se riesco più

6:03

avanti o alla fine del video. Adesso

6:05

capiamo l'idea. Qual è? La prima parte è

6:09

proprio lo splash gaussiano. Noi

6:11

partiamo da un'immagine, un'immagine di

6:13

partenza e una camera farà ruotare la

6:17

nostra visuale. Questa camera ruoterà la

6:20

visuale e creerà un'immagine ruotata, ma

6:23

con tanti errori, tanti errori dati dal

6:25

fatto che ovviamente c'è uno spostamento

6:28

nello spazio che il modello eh crea a

6:31

livello artificiale, crea a livello

6:33

statistico e poi queste due immagini,

6:36

l'immagine di partenza e l'immagine con

6:38

la rotazione di camera, ok?

6:42

eh vengono inserite ehm all'interno di

6:45

un workflow creato con Quen 2511 dove

6:48

abbiamo il modello di base, il Lightning

6:50

che mi serve per velocizzare i calcoli,

6:52

il nostro Lora che io ho rinominato, io

6:56

ho rinominato, eliminando questa

6:58

dicitura in cinese, ho utilizzato Splash

7:01

Sharp e poi ho utilizzato anche un Lora

7:04

Multiangle che, devo essere sincero,

7:06

potrebbe non funzionare, ma io l'avevo

7:07

già all'interno del mio modello, di

7:09

conseguenza l'ho tenuto.

7:12

La parte ovviamente di clip e di è

7:16

rimane la stessa base di di quen 2511.

7:20

Ho semplicemente unito, ho utilizzato

7:22

due m nodi di scale per avere le

7:25

immagini a 1 megapixel, perché come

7:27

ricordate Quen lavora a 1 megapixel,

7:29

quindi è inutile avere eh 3500 pixel per

7:33

2000 perché tanto Quen non li calcola.

7:35

Di conseguenza noi utilizziamo le le

7:38

immagini di partenza e le scaliamo a

7:39

megapixel. Utilizziamo le immagini di

7:41

partenza e le scaliamo a megapixel e le

7:43

inseriamo nel workflow. Qual è l'idea?

7:46

L'idea è utilizziamo questa parte del

7:49

nostro workflow, resettiamo la view,

7:52

portiamo la schela uno così vediamo

7:54

bene. Ehm,

7:58

e ruotiamo la visuale,

8:01

ok? dall'alto, dal basso, dal da quello

8:04

che ci pare. Questo è il viewer

8:06

gausiano. Una volta che abbiamo ruotato

8:08

l'immagine come ci piace,

8:11

il modello creerà questa rotazione e il

8:14

nostro Quen 2511 cosa farà? Riferendosi

8:19

all'immagine della figura 2, che è

8:22

questa

8:23

ruotata.

8:25

Ristora, rimette a posto la prospettiva

8:27

della scena nella figura 1 e e replace

8:31

the blank. gli spazi bianchi. Quindi,

8:33

scusate, riferendovi all'immagine due,

8:35

che è questa qui, l'immagine di base,

8:38

cambia

8:40

e aggiusta la prospettiva e l'immagine

8:44

con l'immagine uno

8:46

tramite chiaramente il nostro quen.

8:48

Questa è l'idea, no? Eh, io qui poi ho

8:51

inserito un refiner, refiner sviluppato

8:54

con Z image, molto semplice, dove la

8:57

nostra immagine di latenza base è

9:00

chiaramente la nuova immagine creata con

9:02

Quen e però dove ho abbassato il The

9:05

Noise a 0,40. Si può abbassare ancora

9:07

0,30, dopo vediamo. È semplicemente per

9:09

rendere ancora più, se volete, eh

9:11

gradevole l'output. Facciamo una prova,

9:15

sperando che regga il motore.

9:18

Allora, questa è l'immagine di partenza,

9:20

come vedete, non mi interessa. Voglio

9:23

ruotarla e andarla un po' più nel

9:24

dettaglio qui e poi voglio cominciare

9:26

aumentare,

9:29

ok, questa scale che serve per

9:33

aggiustare un attimo. Sembra che non

9:36

stia Ok, lo faccio un reload e faccio

9:40

partire semplicemente per caricarla in

9:42

cash.

9:44

Ok, perfetto. E interrompo il coso. E

9:48

vedete? Ecco, questa è l'immagine a a

9:51

scala di uno. Ora comincia a aumentare

9:54

un po' la scala

9:56

in modo che questi pixel si addensino.

10:01

Ora dovrebbe farlo, spero. Una cosa che

10:05

a livello di calcoli non è proprio

10:07

leggerissima, ma spero che lo faccia.

10:11

Che ci serve.

10:16

Vediamo. Non gli è piaciuto moltissimo.

10:20

Ah,

10:22

andiamo a spingere subito a cinque. Ma

10:25

no, non sta caricando. Forse perché non

10:27

ce la fa, però non ne sono del tutto

10:29

sicuro. Quindi lo lo rilodiamo un

10:31

secondo.

10:33

Il bello della diretta, come si suol

10:35

dire. Rifacciamo partire semplicemente

10:38

il render a scala 1. Cancelliamo la

10:42

parte di calcolo.

10:44

Ok, ruotiamo questa, la zoomiamo un po',

10:48

settiamo la camera e proviamo aumentare

10:52

un po' la risoluzione di questi di

10:55

questa scala

10:58

che però non mi pare

11:01

Spengo un attimo il video, vediamo se

11:02

questo è il problema. Effettivamente era

11:05

un problema di di video, nel senso che

11:08

appena ho smesso di registrare, come

11:10

vedete, la scala è aumentata e i pixel

11:13

si sono addensati. A questo punto

11:15

settiamo la camera che ci serve, la

11:18

prospettiva che ci serve, che, come

11:19

vedete, è un po' diversa, ok? E facciamo

11:22

partire il nostro workflow. A questo

11:25

punto questa è la camera settata, come

11:28

vedete, nella nuova prospettiva. E cosa

11:31

fa Quen? cercherà di ricostruire le

11:35

parti mancanti.

11:38

Ricostruire le parti mancanti basandosi

11:41

sul modello, sull'immagine di base,

11:43

l'immagine uno, ok? Di partenza, e

11:46

creando tutto quello che manca a

11:49

livello, appunto, di eh di spazi neri.

11:52

In questo caso ce ne sono pochi perché

11:55

la parte di addensamento dei pixel è

11:56

andata molto bene e di conseguenza c'è

11:58

un po' di macello qui, un po' di qui,

12:01

però poca roba. Devo essere sincero,

12:03

questo è un tentativo. È un tentativo, è

12:06

una prova che avevo fatto prima con

12:07

un'altra prospettiva. Adesso dovrebbe

12:09

appunto

12:12

vedere il nuovo il nuovo risultato. Beh,

12:16

direi che è tantissima roba.

12:23

trovo che sia splendido. Ok, quello che

12:27

voglio provare a fare è semplicemente

12:29

farlo rilanciare. A farlo rilanciare,

12:33

intendo a rilanciarlo e sviluppare cosa?

12:38

Quello che volevo farvi vedere prima.

12:40

Adesso vediamo se se riusciamo. Eh, un

12:43

refiner, un nodo di refiner in più.

12:48

Ehm, assolutamente a vostro eh a vostro

12:52

piacere nel caso in cui lo vogliate

12:54

inserire o meno. A me personalmente Z

12:57

Image piace sempre da un punto di vista

12:58

estetico e di dettagli. Di conseguenza

13:01

lo uso con molto piacere. Peraltro è

13:03

particolarmente leggero, ovviamente

13:04

adesso l'ho detto, di conseguenza si

13:06

impallerà, però è particolarmente

13:08

leggero. Ehm, mi sembra di non averlo

13:10

fatto partire prima, quindi magari

13:11

clipping ci metterà un po' a caricarsi.

13:14

questa leggerezza perché la lavoriamo

13:16

con otto step. Vi ricordo che io lavoro

13:18

con Z Image Turbo, ok? Eh, 8 step

13:22

diventa particolarmente interessante da

13:24

un punto di vista, diciamo, eh di

13:28

velocità, ok? Di render. E questo ci

13:31

permette

13:32

di avere al nostro arco delle opzioni,

13:37

ok? di visualizzazioni diverse. Eh, vi

13:40

ricordate che in altri video avevo fatto

13:43

vedere che c'era anche questa

13:44

possibilità, questo multiangle camera,

13:47

che però è stato creato su una base di

13:50

diverse ehm impostazioni l'ora di

13:53

camera, ok? Quindi è un è un modo

13:55

diverso di vedere la questione. Questo

13:58

ti permetteva di zoomare da con questo

14:02

lavoro qua. Lo trovate sul canale. Ho

14:05

fatto un tutorial apposta. Qui siamo su

14:07

un'altra su un'altra dimensione.

14:10

L'obiettivo è lo stesso. Ok? L'obiettivo

14:12

è lo stesso. Eh, il secondo passaggio è

14:15

lo stesso, nel senso che una volta

14:18

trovato il modello è trovata la nuova

14:20

ehm punto di vista quen ricrea il tutto.

14:26

Ok? Chiaro che la partenza è molto

14:28

diversa perché la partenza gaussiana si

14:30

basa appunto su una eh una

14:32

frammentazione dello dello spazio

14:34

latente, molto molto bello da un punto

14:36

di vista proprio tecnico. Ehm

14:40

dopo magari vi lascio il link di un

14:42

videogioco, un FPS che hanno fatto tutto

14:45

in gausiano che viaggia su web a livello

14:49

di peso. Ok, ho dovuto spegnere il

14:52

video, scusate, ma non ce la facciamo

14:54

neanche con la 5070 Ti. Qual è il

14:56

concetto? Il concetto bellissimo, a mio

14:59

dire, è che Z image in questo specifico

15:02

caso aggiunge quel flavor, quel

15:04

dettaglio che può essere molto

15:06

interessante.

15:08

Ok? Eh, il tappeto, il cuscino, gli

15:12

alberi di la cos'è? banano,

15:16

lo stesso

15:18

c'è c'è un po' di cambiamento perché

15:20

siamo al 40% che è tanto, potremmo

15:22

scendere al 30 per evitare questo tipo

15:24

di aggressioni, ok? E per rimanere più

15:27

adesi a questo tipo di design. Qui ZM è

15:30

già fatto un saltino, però a livello di

15:33

qualità, a livello proprio di di

15:35

crisness, ok? Guardate che bello dietro,

15:39

è più bello, più interessante tutto, eh.

15:43

Guardate le ombre qua rispetto a qua

15:48

è un'opzione in più che inserisco nel

15:50

workflow. Adesso devo capire questo

15:52

workflow, magari l'opposto. Adesso devo

15:55

vedere un attimo. Eh, devo ancora

15:57

raffinarlo un secondo perché è un po' un

15:58

po' un po' brutto da vedere. E io qui

16:01

utilizzo due due

16:05

questo fast group muter che è molto

16:07

interessante. A me a me piace molto

16:08

perché in questo caso spengo Refiner e

16:11

di conseguenza si spegne in automatico

16:13

tutto che che è un vantaggio. Ehm e poi

16:17

utilizzo ovviamente il set get input set

16:21

input che cioè get node e set node get

16:25

node and set node che serve per evitare

16:28

di avere troppi e come posso dire

16:33

eh troppi nodi tutti in giro. Ok? Però

16:36

questa è una questione personale più che

16:37

altro. Eh facciamo un'altra prova, se vi

16:40

va. La prova la facciamo con qualcosa di

16:42

diverso, la facciamo con una donna, con

16:44

un essere umano. Il concetto è il

16:46

medesimo. Faccio partire il round di

16:50

calcolo, ok? sul quale il mio viewer mi

16:53

farà una previsione,

16:56

meglio una previsione, una divisione

16:59

gausiano, uno splashing gaussiano.

17:02

Perfetto.

17:03

Ok, spengo perché non ci interessa. Come

17:07

vedete è un macello a livello di di come

17:10

posso dire di di polverizzazione. Ok,

17:14

l'immagine

17:16

però quello che facciamo adesso è

17:17

aumentare la scala un pezzettino alla

17:19

volta, un pochino alla volta. Come

17:21

vedete, purtroppo devo spegnere la

17:23

registrazione, ma ritorniamo subito.

17:25

Eccoci. Ho ho ripreso l'immagine da

17:28

sotto. Come vedete, ho aumentato la

17:29

scala 371 che ci permette di avere più

17:32

dettaglio. Ok? Poi dovete ricordarvi di

17:35

scrivere set camera. Di conseguenza lui

17:37

blocca questo frame e eh Ma sì, facciamo

17:42

tutto, chi ci frega, ma che ce frega, ma

17:45

che c'è importa. E qui però scendiamo a

17:47

0,30, tanto perché tanto per vedere.

17:49

Facciamo partire tutto il workflow.

17:51

Quindi lui prenderà l'immagine del della

17:54

camera settata da sotto. Come vedete qui

17:56

c'è tanto nero, c'è tanto mess da un

18:00

punto di vista di pixel. Speriamo che

18:02

Quen faccia il suo

18:04

e nel caso in cui Quen non dovesse fare

18:06

il suo, noi speriamo che Z Image faccia

18:09

di nuovo eh il suo e e aggiusti ancor

18:13

meglio questo scarto.

18:16

Eh, lo faccio per con voi per la prima

18:18

volta con questo modello, quindi vediamo

18:20

cosa salta fuori.

18:23

Però capite,

18:25

al netto del risultato che comunque

18:26

abbiamo visto essere un risultato molto

18:28

interessante. Ok.

18:30

Ehm

18:32

il flusso di lavoro, il tipo di di

18:34

sviluppo di questo di questo modo di

18:37

ragionare eh ci porta su territori

18:40

creativi nuovi, territori creativi super

18:43

interessanti e territori creativi che ci

18:46

permettono di avere il un controllo

18:48

maggiore di quello che facciamo.

18:51

Controllo perfetto, no? Lo posso fare

18:53

con Nano Banana, con Nano Banana 2, con

18:56

Nano Banana Pro, con Crog. Sì, la stessa

18:59

cosa la potete fare con nano banana

19:01

scrivendo i vostri prompt. Ok, va

19:03

benissimo. Il vantaggio grosso qui è che

19:06

stiamo parlando di open source,

19:10

ok? Tutto questo è open source.

19:14

Trovo che sia un vantaggio notevole nel

19:16

momento in cui eh Igfield crolla e non

19:20

vi fa lavorare eh oppure dovete

19:22

utilizzare modelli che non potete

19:25

caricare online perché magari lavorate

19:27

con aziende, imprese che non vogliono

19:30

che le loro modelle o loro modelli

19:33

vengano inseriti in database esterni,

19:36

avete un NDA che vi blocca da un punto

19:38

di vista di copyright e di conseguenza

19:41

non potete caricarli sul server esterno.

19:43

Questo è tutto locale, lo fate sulla

19:45

vostra macchina e potete chiaramente

19:47

sperimentare.

19:49

Avete bisogno almeno di 16 GB di VAM,

19:52

quindi ve lo dico, dovete avere una

19:54

macchina che sappia calcolare parecchio

19:56

da quel punto di vista. Di conseguenza

19:57

dalla 50-70 in su direi che siamo tutti

20:00

tranquilli. Come vedete

20:03

il risultato è particolarmente

20:05

interessante. Vi ricordo che noi l'idea

20:08

è possiamo ruotare il punto di vista di

20:10

una di una camera. Sì, lo possiamo fare.

20:12

In questo caso c'è un po' di sporcizia

20:15

generalizzata da un punto di vista del

20:18

del maglione, però è una sporcizia che,

20:20

devo essere sincero, non mi preoccupa.

20:22

Dovessimo metterla a posto, anche solo

20:24

in post produzione, anche solo col

20:26

vecchio e caro Photoshop, ci metteremmo

20:27

pochi secondi. Cosa diversa sarebbe

20:29

chiedere a Photoshop di girare la la

20:35

punto di vista della telecamera, cosa

20:37

che potremmo chiaramente fare così.

20:39

Adesso facciamo una prova secondaria.

20:42

Appena Z Image mi fa la grazia di

20:45

caricare il maledetto, ma non è Z Image,

20:48

in questo caso è proprio Quen 3, il clip

20:51

testuale che purtroppo è pesantissimo

20:54

che Ma va bene, vediamo il risultato con

20:57

eh con chiaramente un refiner.

21:03

Anche qui io uso Z Image come Refiner. È

21:06

l'unico Refiner che potremmo utilizzare?

21:08

Assolutamente no. però trovo che abbia

21:09

una qualità estetica e una velocità di

21:12

render che me lo fanno preferire a molti

21:14

altri. Di conseguenza ci muoviamo in

21:17

questo senso.

21:19

Vediamo se ci fa la grazia Santo Z

21:23

image.

21:29

Poi magari se lo metto online qui faccio

21:31

un po' di pulizia, eh, perché in effetti

21:33

c'è un bel Ovviamente nei clip qua nei

21:36

text encoder non ci sono testi perché il

21:39

latente è un'immagine di partenza, di

21:41

conseguenza non dobbiamo scrivere un

21:43

tubo.

21:47

Anche qui si potrebbe mettere un bel

21:48

nodo, gete e set vae, però

21:53

vabbè, qui siamo vicini, eh, adesso chi

21:56

se ne frega alla fine. Ehm, potremmo

21:59

anche fare una cosa, ma non voglio

22:01

caricare i calcoli qua.

22:04

Si potrebbe avere,

22:10

però facciamo, non ci interessa. A me

22:12

piacciono questo tipo di nodi un po'

22:14

morbidi.

22:16

Vediamo se image ci fa. Ok, come vedete

22:21

ha pulito il maglione, ha aggiunto della

22:24

grana alla pelle della ragazza, ha

22:27

cambiato un po' l'espressione, ma devo

22:28

essere sincero non mi non mi turba. E

22:31

qui magari con delle maschere eccetera

22:33

potremmo fare un prima e un dopo. Adesso

22:35

cambio la prospettiva un attimo. Allora,

22:37

come vedete ho ruotato ancora di più la

22:40

ragazza, l'ho ruotata la camera più che

22:43

la ragazza, la vista è completamente

22:45

laterale. Ho settato la camera, ho

22:48

spento il refiner questione di calcolo

22:50

che adesso non mi interessa. Ehm e

22:53

ovviamente facciamo ripartire il tutto.

22:54

Lui calcola da questa prospettiva la

22:57

nuova prospettiva.

22:59

C'è un bel caos. qui perché chiaramente

23:02

noi partiamo da un'immagine

23:04

completamente frontale e tutto ciò che

23:06

c'è attorno non esiste, semplicemente

23:08

viene inventato, viene viene eh

23:10

sintetizzato a livello statistico e di

23:12

conseguenza diventa un po' difficile per

23:15

il modello lavorare eh di fantasia, però

23:18

quello che noi possiamo fare sia a

23:20

livello di prompting che a livello

23:21

appunto di Lora con questo splash è

23:23

semplicemente dirgli ok, guarda nuova

23:27

prospettiva e correggila.

23:29

correggi gli spazi che mancano basandoti

23:31

su quello che hai visto nell'immagine

23:33

due, no? Che poi sarebbe l'immagine uno,

23:35

l'immagine di partenza.

23:37

Ehm, vediamo, vediamo il risultato.

23:41

Sono curioso esattamente come voi, eh,

23:44

spero siate curiosi. Ehm,

23:47

e vediamo che cosa ci porta questo quen.

23:51

Allora, qui io ho inserito un un

23:54

comparer che serve semplicemente per

23:57

l'immagine due è che si riferisce a

24:00

questa qua. Ok. Ok.

24:03

Serve semplicemente per farci vedere

24:05

come funziona eh la sovrapposizione. In

24:09

realtà noi dobbiamo vedere questa

24:10

immagine qui che poi l'immagine che

24:11

salvo. Sto salvando tutto sbagliando mi

24:14

si sarà riempito di nuovo l'hard disk.

24:18

Grande tema legato non solo alle RAM

24:21

e alle intelligenze artificiali.

24:23

Sappiamo tutti che gli hard disk

24:25

diventeranno un altro grande

24:28

un altro grande quesito.

24:30

Allora, in questo caso, come vedete,

24:32

forse non ha

24:35

esageratamente inserito, non ha riuscito

24:39

a calcolare bene quello che manca. Ok, a

24:42

questo punto proviamo a fare yes e fare

24:46

replace the blank and black

24:50

spaces. No, non a spaces a

24:56

Ok, riproviamo semplicemente.

24:59

Ah, non cambiamo la la prospettiva, mi

25:02

piace. Teniamola. Ok, abbiamo cambiato

25:05

però il prompt conseguenza, boh,

25:07

proviamo a spingere un filo di più. Quen

25:11

non sono sicuro che riesca perché c'è

25:14

tantissimo nero, forse troppo.

25:17

Probabilmente

25:18

questa parte qui è esageratamente

25:22

piegata, ok?

25:25

Eh, e di conseguenza lo spazio nero

25:28

diventa veramente difficile da da

25:30

immaginare, però noi comunque facciamo

25:32

delle prove anche per capirne gli

25:34

eventuali limiti.

25:37

Non sono modelli

25:39

magici, anche se fanno cose che fino

25:42

all'anno scorso, fino a due anni fa, eh

25:45

sembrano lunari, eh ed è chiaro che

25:48

servono per darci un'indicazione di

25:50

quello che succederà. Vedete che ha

25:51

fatto già un passaggio in più, secondo

25:53

me più interessante, ha tolto questa

25:56

grana che prima c'era e ha pulito un po'

25:58

il il muro che prima era ancora più

26:01

sporco. È chiaro che ci sono molti

26:04

errori da un punto di vista

26:06

dell'immagine che non potremmo

26:07

utilizzare, anche perché rimettere a

26:09

posto i capelli fino a che mettere a

26:10

posto questo nero che potrebbe essere

26:12

boh, una porta aperta, è chiaro che qua

26:15

potremmo andare tranquilli. sui capelli,

26:18

no? Ovviamente avremmo molto molto

26:21

faremmo molta fatica, però è chiaro che

26:23

stiamo partendo da questa, capite? Cioè

26:26

non c'è niente, non non esiste nulla,

26:29

ok?

26:31

se non una propagazione di punti. Però,

26:33

come dico, eh non sono strumenti che

26:35

dovete utilizzare

26:38

ehm ciecamente, sono strumenti che

26:41

possono darvi un aiuto nel momento in

26:42

cui avete bisogno di

26:43

quell'aggiustamento.

26:45

Eh, anche Nanobanana può fare queste

26:48

cose qui. Anche Nano Banana 2 ha

26:50

sicuramente questi vantaggi, eh, al

26:52

momento è tutto prompting. Potreste

26:55

integrarlo con del ma è tutto prompting.

26:58

Ehm

27:00

e soprattutto anche nanoban

27:04

e anche nanoban pro tendono, soprattutto

27:08

quando ci sono prodotti, scritte, loghe,

27:10

eccetera, a inventare un po'. Quindi

27:13

attenzione, la magia di questi strumenti

27:16

deve essere sempre subordinata

27:17

all'obiettivo che avete a livello di

27:19

business e chiaramente a la conoscenza

27:22

che avete di ciò a cui dovete tendere.

27:25

Ehm,

27:27

trovo che questo splash gausiano abbia

27:29

delle potenzialità incredibili, trovo

27:31

che sia divertentissimo da usare, trovo

27:34

che abbia anche quell'ordine di magia

27:36

che mi piace eh intravedere in questi

27:39

strumenti.

27:41

È un workflow, è uno strumento, è un

27:44

modello che integrerei completamente in

27:47

tutto quello che faccio a livello

27:49

professionale, no?

27:52

o meglio, dipende,

27:55

tutto dipende da quello che state

27:56

facendo. Ci sono alcuni progetti dove un

27:59

approccio del genere mi può essere

28:01

utile. Ci sono altri progetti dove un

28:04

approccio del genere è troppo laborioso,

28:05

troppo complesso, troppo impreciso e di

28:07

conseguenza non mi può essere utile.

28:10

Però è chiaro che stiamo parlando anche

28:13

di un tema di open source. Questi sono

28:15

modelli che noi possiamo utilizzare eh

28:18

liberamente

28:21

e eh qui lo dico e qui lo nego, ma ne

28:24

sono abbastanza sicuro, diventerà una

28:26

rarità, sempre più una rarità il modello

28:29

open source da cui ricordiamo partiva

28:31

tutto il famoso open AI che di open

28:34

ormai non ha più nulla, però partiva

28:36

dall'idea che sono strumenti che devono

28:38

essere utilizzati da tutti con grande

28:40

libertà eccetera. In realtà quello che

28:42

stiamo vedendo che i modelli più

28:43

potenti, modelli più grossi vengono

28:46

chiusi, sottoscritti, nulla di male, ci

28:48

mancherebbe. Eh, il mercato funziona

28:50

così da quando è nato il mercato, però

28:53

mettiamo in conto che esiste la

28:54

possibilità di lavorare open source

28:58

in modo assolutamente dignitoso. Ehm, eh

29:03

vedete, questo era il risultato. Ci sono

29:05

molte parti che vengono ricostruite

29:07

molto bene, a mio dire. Guardate che

29:08

bello il maglione. E di conseguenza

29:12

vediamo cosa fa il Refiner, ma il

29:14

Refiner non potrà fare moltissimo perché

29:17

ovviamente non è che ricostruisce che

29:19

che cosa. Abbiamo ovviamente migliorato

29:23

un po' la resa della faccia con questo

29:24

blu eliminato. Il maglione è sicuramente

29:28

un un ottimo risultato. I capelli sono

29:32

stati assolutamente rovinati dalla dalla

29:36

dallo splettingsiano. Come risolvere? E

29:39

in realtà l'unica soluzione qui sarebbe

29:42

continuare a spingere sullo scaling per

29:44

riuscire ad avere meno pixel possibili,

29:46

ma tutto dipende dal punto di partenza.

29:49

È chiaro che se ho una foto così

29:50

frontale e voglio fare questo, capite

29:52

che tutto questo nero è interpretazione.

29:54

Io posso spingere lo scale quanto

29:56

volete, ma rimarranno tante aree nere

29:58

sulle quali poi il modello dovrà eh

30:01

muoversi di conseguenza.

30:04

Basta, oggi volevo farvi vedere questo.

30:07

Spero che il video sia stato di vostro

30:08

interesse, spero che il mio canale sia

30:10

di vostro interesse.

30:12

Like, non like, segui, non segui. Non

30:15

sto certamente qui a dirvi queste cose,

30:17

eh. Sono a disposizione, se avete

30:19

domande, dubbi, ogni tanto mi scrivete,

30:21

cerco di rispondere a tutti quando

30:23

posso, come posso. Spero che questi

30:26

contenuti possano interessarvi e spero

30:29

di rivedervi chiaramente al prossimo

30:30

video. Per oggi è tutto e quindi vi

30:32

saluto da Edo.

30:34

Ciao. Ciao. C

Interactive Summary

In questo video, Edo illustra una tecnica avanzata di scomposizione e ricostruzione delle immagini chiamata "Gaussian Splatting" (o splash gaussiano). Attraverso un workflow in ComfyUI che utilizza il modello Quen 2.5-11B, viene mostrato come sia possibile ruotare virtualmente la telecamera su una foto statica, lasciando che l'intelligenza artificiale ricostruisca le parti mancanti e i nuovi angoli di visione. Il tutorial copre l'installazione dei nodi necessari, la gestione della scala dei pixel per aumentare il dettaglio e l'uso di un refiner per migliorare la qualità estetica finale dell'output.

Suggested questions

4 ready-made prompts