HomeVideos

Perché tutti stanno abbandonando CHATGPT?

Now Playing

Perché tutti stanno abbandonando CHATGPT?

Transcript

868 segments

0:00

Ciao ragazzi, come state? Spero bene nel

0:02

video di oggi voglio fare un qualcosa di

0:04

diverso dal solito. Voglio fare una

0:06

specie di chiacchierata perché sono

0:08

successe e stanno succedendo delle cose,

0:11

dei fenomeni, degli avvenimenti in

0:13

America che secondo me meritano

0:16

attenzione, meritano di essere

0:17

conosciute e meritano anche di essere

0:19

discusse. Allora, come forse alcuni di

0:21

voi sapranno, sta avvenendo una disputa

0:23

anche abbastanza pesante tra Antropic,

0:26

che è l'azienda che sviluppa Cloud, e

0:29

Trump barra il Pentagono, o barra barra

0:32

il Dipartimento della Difesa, ecco, e

0:34

questo scontro ha causato degli

0:35

avvenimenti che secondo me meritano di

0:38

essere argomentati, meritano di essere

0:40

quantomeno dibattuti, ecco, discussi. Ci

0:42

sono già altri YouTuber che hanno

0:43

parlato di questo argomento, tra cui per

0:45

esempio Hank. che io ho guardato il

0:46

video di Hank e penso che sia comunque

0:48

necessario parlare e ripetere quello che

0:51

sta succedendo a tutti gli avvenimenti

0:52

che stanno accadendo, perché a mio

0:54

parere noi canali che parliamo di

0:56

intelligenza artificiale, sia i più

0:57

grandi che come me più piccolini,

0:59

dovrebbero anche porsi l'obiettivo un

1:01

po' di sensibilizzare tutto quello che

1:04

succede dietro l'intelligenza

1:06

artificiale che utilizziamo ogni giorno,

1:08

cioè tutte le decisioni che vengono

1:09

prese da quelle aziende che ci offrono

1:12

certi strumenti di intelligenza

1:14

artificiale. Secondo me bisogna

1:15

cominciare anche in Italia a

1:17

sensibilizzare le persone, a capire come

1:19

ragionano certe aziende e cercare anche

1:22

di essere consapevoli che stiamo

1:23

utilizzando magari degli strumenti di

1:26

aziende che hanno preso delle decisioni

1:28

che magari possono essere un po'

1:30

controverse. Ecco, quindi nel video di

1:31

oggi faremo un video molto tranquillo,

1:33

una chiacchierata. cercherò di fare meno

1:35

tagli possibili se non quando mi

1:36

impappino. E niente, proviamo a parlare

1:38

un po' della vicenda, di tutto quello

1:40

che è successo e cerchiamo di fare

1:42

qualche ragionamento. Ok, allora io mi

1:43

sono fatto una breve scaletta di tutto

1:45

quello che c'è un po' da parlare, di

1:47

tutte le vicende che sono successe.

1:49

cercherò di utilizzarla appunto come

1:50

come scaletta e di argomentare un po'

1:53

tutta la vicenda che ha portato a quello

1:55

che è successo qualche giorno fa,

1:57

insomma, con la rottura dei rapporti tra

1:58

Antropic e possiamo definire Donald

2:01

Trump, possiamo dire il Pentagono,

2:03

possiamo dire il Dipartimento di Guerra,

2:04

insomma generalizzando potremmo dire

2:06

Tranthropic e gli Stati Uniti intesi

2:08

come stato. Allora, partiamo proprio

2:09

dall'inizio. Siamo intorno al 2023,

2:11

2024-2025.

2:13

Tutti sappiamo che in questi 3-4 anni

2:16

l'intelligenza artificiale ha avuto un

2:18

boom incredibile. Un sacco di aziende

2:20

hanno cominciato a investire cifre

2:23

incredibili di denaro e sono usciti

2:25

anche per il pubblico i primi sistemi di

2:27

intelligenza artificiale all'intesa come

2:29

la conosciamo oggi, quindi i chatbot e

2:31

tutte queste cose qua. Bene, con questo

2:32

diffondersi incredibile e velocissimo

2:35

dell'intelligenza artificiale è chiaro

2:37

che anche settori diversi da quelli di

2:41

noi consumatori iniziano a interessarsi

2:44

a queste risorse, a questi strumenti. E

2:46

chi è che in America comincia a

2:47

interessarsi di queste intelligenze

2:48

artificiali? E chiaramente il settore

2:50

della difesa, se vogliamo metterlo in

2:52

termini proprio generali, l'esercito in

2:54

generale. L'esercito americano, il

2:56

settore della difesa inizia a

2:57

interessarsi alle aziende private più

2:59

famose che iniz che sviluppano sistemi

3:01

di intelligenza artificiale come Google,

3:04

Open AI, Antropic e con l'intento di

3:06

collaborare e sviluppare dei sistemi

3:09

anche proprio per l'apparato militare di

3:11

intelligenza artificiale iniziano a

3:13

concludere i primi contratti da tanti

3:16

soldi, insomma, si parla di più di da

3:18

centinaia di milioni di dollari.

3:20

Infatti, se clicchiamo questo link e

3:22

questi due link, abbiamo subito i primi

3:24

accordi che hanno fatto con eh per

3:27

esempio in questo caso Antropic con il

3:29

Dipartimento della Difesa per sviluppare

3:31

appunto i primi sistemi di intelligenza

3:33

artificiale eh che possono che potessero

3:36

aiutare tutto quel tutto il settore

3:38

della difesa, tutto il settore

3:39

dell'esercito. E fin qua tutto ok.

3:41

Insomma, tutte le aziende iniziano a

3:42

collaborare, iniziano a sviluppare

3:44

ognuno i propri sistemi di intelligenza

3:46

artificiale sviluppato per qualche

3:48

qualche settore, qualche sezione,

3:50

qualche interesse dell'esercito. Open

3:52

per esempio, ha iniziato a sviluppare un

3:54

sistema, mi pare, per le pubbliche

3:55

amministrazioni. Esatto. Presentazione

3:57

di Open AI per la pubblica

3:58

amministrazione. Quindi, col governo

3:59

degli Stati Uniti hanno iniziato a

4:00

collaborare diverse diverse aziende che

4:03

sviluppano l'intelligenza artificiale in

4:05

diversi settori. Dobbiamo noi dobbiamo

4:07

considerare un po' il contesto più ampio

4:09

della vicenda. Allora, come tutti

4:10

sappiamo, al momento eh nel presidente

4:13

degli Stati Uniti è Donald Trump, che

4:14

tutti noi conosciamo per la sua politica

4:17

abbastanza diretta, per il suo modo

4:18

abbastanza diretto di esprimersi e per

4:20

le sue opinioni anche abbastanza forti,

4:23

ecco, potremmo definirlo così. E infatti

4:25

il 5 settembre 2025 il presidente Donald

4:28

Trump decide di firmare un ordine

4:30

esecutivo per cambiare il nome del

4:32

dipartimento della Difesa in

4:34

Dipartimento della Guerra, Department of

4:36

War. E già questo dovrebbe fare intuire

4:38

alle persone il modo di pensare di

4:41

Donald Trump e il modo di pensare di

4:43

certi politici americani, un certo

4:45

orientamento, ecco, potremmo definirlo

4:47

così, insomma, cambiare da Dipartimento

4:49

della Difesa, che vuol dire una certa

4:51

cosa, a Dipartimento della Guerra, che

4:52

vuol dire tutta un'altra cosa. Capite

4:54

bene la strada che Donald Trump ha

4:56

deciso di intraprendere per il suo

4:58

paese, insomma, per gli interessi del

5:00

suo paese. Poi cosa succede a gennaio?

5:02

Intanto voi pensate che intanto in

5:03

questi mesi gli accordi con queste

5:06

aziende private di intelligenza

5:07

artificiale vanno avanti, iniziano a

5:08

svilupparsi. Nel frattempo, a gennaio

5:11

2026 succede un'altra cosa, insomma, che

5:14

il segretario, in questo caso della

5:15

guerra, non più della difesa, pubblica

5:17

un documento programmatico che si chiama

5:19

l'Atificial Intelligence Strategy, che,

5:21

come ho scritto qua, impone una

5:22

trasformazione EI first delle forze

5:25

armate e richiede ai fornitori di

5:27

accettare l'uso dei modelli per

5:28

qualsiasi scopo legale. All lowful

5:31

purposes. Infatti cliccando qua noi

5:33

abbiamo, io poi vi lascio tutti i link

5:35

in descrizione perché io, ripeto, faccio

5:37

una io cerco di parlare in generale di

5:39

tutti questi avvenimenti, ma se volete

5:41

approfondire vi lascio tutti i link in

5:43

descrizione, potete vedere ogni singola

5:44

cosa, ogni singolo aspetto che magari vi

5:46

interessa di più perché ognuno magari ha

5:48

degli interessi diversi. Comunque con

5:49

questo documento programmatico

5:51

sostanzialmente si dice che il

5:53

dipartimento della guerra in questo caso

5:55

dovrà cercare di raggiungere determinati

5:57

obiettivi. Questi obiettivi sono, per

5:59

esempio, identificare e eliminare

6:02

qualunque barriera

6:04

burocratica per avere una maggiore

6:06

integrazione dell'intelligenza

6:07

artificiale all'interno de dei loro

6:10

modelli, dei loro sistemi di guerra, di

6:13

provare di sperimentare tutti i modelli

6:15

più avanzati di intelligenza artificiale

6:17

all'interno

6:18

del del loro dipartimento, cercare

6:21

proprio anche poi di ricompensare questi

6:23

modelli di intelligenza artificiale che

6:24

funzionano bene, di concentrare gli

6:26

investimenti proprio nell'innovazione in

6:28

questi innovazioni tecnologiche e

6:31

insomma una serie di cose. Comunque

6:32

capite che come questo documento

6:34

programmatico fa ben capire appunto la

6:36

strategia che attualmente in America si

6:39

vuole adottare in merito

6:41

all'intelligenza artificiale nel settore

6:43

della difesa, nel settore militare.

6:45

Quindi, lo ripeto, una trasformazione AI

6:47

first, prima di tutto l'intelligenza

6:49

artificiale delle forze armate, quindi

6:51

innovare e iniziare a introdurre questi

6:53

sistemi in maniera massiccia all'interno

6:55

delle forze armate. Già da queste tre

6:57

prime informazioni iniziamo a farci

6:59

un'idea chiara della panoramica

7:00

generale. Le aziende iniziano a

7:02

sviluppare i sistemi di intelligenza

7:03

artificiale, il settore militare si

7:05

interessa a questi sistemi di

7:07

intelligenza artificiale, iniziano a

7:09

collaborare per innovare tutto questo

7:11

sistema, iniziano a collaborare per

7:13

creare qualcosa di nuovo, per migliorare

7:14

ulteriormente. Arriviamo a un momento

7:17

abbastanza critico, gennaio 2026,

7:19

l'operazione in Venezuela. Per chi non

7:21

fosse informato, il 3 gennaio 2026 le

7:24

forze speciali statunitensi conducono

7:25

l'operazione Absolute Resolve a Caracas

7:29

e catturano sostanzialmente il

7:30

presidente Maduro. La cosa che ci

7:32

interessa e che emerge qualche qualche

7:34

tempo dopo è che per la cattura di

7:37

Nicolas Maduro è stato utilizzato un

7:40

sistema a noi conosciuto che è

7:42

un'intelligenza artificiale a noi

7:44

conosciuta che è Cloud tramite la

7:46

piattaforma Palantier. Ecco, se non

7:48

conoscete, se non sapete che cos'è

7:49

Palantier, vi metto in descrizione un

7:51

video di Nova Lexio che parla, che

7:53

spiega bene che cosa fa questa azienda,

7:55

quello che conosciamo di questa azienda

7:57

è anche molto interessante. Fatto sta

7:58

che tramite Palenter viene utilizzata

8:00

Cloud non come sistema da non dobbiamo

8:02

pensare all'utilizzo di Cloud come

8:05

sistema d'arma vero e proprio. Non è che

8:07

l'intelligenza artificiale Cloud eh

8:09

attraverso un robot è andato a catturare

8:11

Maduro, no. Cloud è stata utilizzata per

8:14

raccogliere dati, per l'analisi dei dati

8:16

in tempo reale e per sintetizzare questi

8:19

dati e come ho scritto qua anche per

8:21

dare un un supporto tattico. Capite bene

8:23

come questo è il primo momento in cui

8:25

un'intelligenza artificiale è stata

8:27

utilizzata per quello che potremmo

8:28

definire un'operazione di guerra. E la

8:30

cosa interessante è che ehm Cloud, cioè

8:34

gli sviluppatore di Cloud, o meglio

8:36

l'azienda che sviluppa Cloud, quindi

8:37

Antropic, ha sempre eh affermato, ha

8:41

sempre esplicitato

8:44

un certo modo di vedere l'intelligenza

8:45

artificiale, un certo modo di sviluppare

8:47

l'intelligenza artificiale che potremmo

8:49

definire abbastanza etico. Cosa cosa

8:51

intendiamo con etico? Anche qua ci

8:53

sarebbe da discutere. Fatto sta che sono

8:55

sempre stati attenti a come veniva

8:57

utilizzata questa intelligenza

8:58

artificiale, perché sono sempre stati

9:00

attenti proprio a a voler evitare

9:02

fenomeni che potessero diventare o

9:05

potessero in qualche modo essere

9:06

pericolosi per gli umani e per la vita

9:09

delle persone. sono sempre stati molto

9:10

attenti, infatti hanno anche pubblicato

9:13

una costituzione dell'intelligenza

9:15

artificiale, cercano di essere il più

9:17

trasparenti possibili. Insomma, tra

9:19

tutte le aziende antropiche è quella che

9:20

sembrerebbe avere un interesse

9:23

particolare, un interesse peculiare su

9:26

un utilizzo etico dell'intelligenza

9:28

artificiale. Poi, ripeto, cosa

9:30

intendiamo con etico? Ognuno ha la sua

9:32

concezione, quindi potete anche

9:34

scriverlo nei commenti. Si dibatte, si

9:35

discute un po' di queste cose perché

9:37

secondo me è interessante, secondo me

9:38

bisogna discuterne, bisogna parlare

9:40

tanto, deve cercare di entrare un po'

9:42

nella coscienza comune certe questioni.

9:45

Ecco, tutto questo ha portato il CO di

9:47

Antropiche, che è Dario Amodei, che

9:49

forse alcuni di voi conosceranno, a

9:51

fissare delle linee rosse, a dire

9:53

attenzione Dipartimento della Difesa o

9:55

comunque "Attenzione settore militare,

9:57

voi potete utilizzare la mia

9:58

intelligenza artificiale, ma non potete

10:00

superare certi limiti." Infatti lo

10:03

vediamo scritto anche qua, Antropic e

10:05

supporta l'utilizzo legale, diciamo,

10:08

l'utilizzo eh giusto di Cloud, ma ci

10:11

sono due eccezioni. Non vogliamo che

10:13

l'intelligenza artificiale venga

10:15

utilizzata per la sorveglianza di massa

10:17

e non vogliamo che l'intelligenza

10:19

artificiale venga sviluppata per creare

10:22

delle vere e proprie armi autonome. Come

10:24

armi autonome potete pensare a un robot

10:26

dotato di capacità, tra virgolette

10:28

intellettuali, comunque dotate di

10:30

capacità di pensare, possiamo definire

10:33

pensare, andare in giro e fare cose di

10:35

sua spontanea iniziativa. Ecco, Cloud

10:37

non voglio non vuole queste due cose.

10:39

Qua nel post dicono anche cosa cosa loro

10:41

intendono con sorveglianza di massa. Qua

10:44

dicono l'utilizzo dell'intelligenza

10:46

artificiale per la sorveglianza di massa

10:49

presenta dei rischi seri alle nostre

10:52

libertà fondamentali e quindi non è

10:55

compatibile con i nostri valori

10:56

democratici. Inoltre dicono

10:58

l'intelligenza artificiale al momento

11:00

non è assolutamente perfetta, fa un

11:02

sacco di errori ed è ben lontana da

11:04

svolgere determinati compiti in maniera

11:06

totalmente autonoma. E quindi cosa

11:08

dicono? appunto lo dicono, i nostri

11:09

attuali sistemi di intelligenza

11:10

artificiali non sono abbastanza

11:12

affidabili per poter creare dei sistemi

11:15

d'arma autonomi. Noi non vogliamo

11:17

sviluppare dei sistemi che rischiano di

11:19

mettere in pericolo sia l'esercito, sia

11:23

i soldati che combattono americani, sia

11:25

i civili americani, perché quando

11:27

l'intelligenza artificiale non è

11:28

perfetta si mettono eh a rischio le vite

11:31

anche di certe persone. Immaginatevi,

11:33

per esempio, nello scenario più assurdo,

11:34

un robot dotato di una propria autonomia

11:37

che, per assurdo, per un errore

11:38

dell'intelligenza artificiale, scambia

11:40

un civile per un nemico. Cosa succede?

11:43

Eh, cosa succede? Io non lo dico, però

11:45

capite bene cosa potrebbe succedere. Chi

11:47

risponde poi di questa cosa? Chi è

11:49

responsabile di un'azione sbagliata

11:51

fatta dall'intelligenza artificiale? Eh,

11:53

anche qua bella domanda. È lo Stato? È

11:56

sono i militari? Eh, chi è? È l'azienda?

11:59

Anche qua bella domanda. E quindi,

12:00

sostanzialmente, eh Antropic ha detto:

12:03

"Va bene collaborare con voi eh

12:05

esercito, ma vi impediamo

12:07

categoricamente di eh oltrepassare certe

12:10

linee rosse." Apriti cielo. Cosa è

12:12

successo? Subito alcuni membri del

12:14

governo, tra cui Donald Trump stesso,

12:16

poi lo vedremo, e anche il Pentagono, si

12:18

sono fermamente opposti a questa

12:20

decisione di antropiche, dicendo che

12:23

un'azienda privata non può imporre allo

12:26

stato dei limiti, è lo Stato che in caso

12:29

può imporre dei limiti all'azienda

12:31

privata e quindi sostanzialmente dicono

12:34

"Noi non possiamo avere delle linee

12:36

rosse nello sviluppo delle nostre

12:37

intelligenze artificiali". E alcuni

12:39

ovviamente qua gli americani sono sempre

12:40

esag esagerati, alcuni hanno accusato a

12:43

Modèi di avere un complesso di Dio, di

12:44

voler controllare l'esercito

12:45

statunitense. Cosa succede? Il 25

12:47

febbraio 2026 il Dipartimento della

12:49

Guerra invia ad Antropico un'offerta

12:52

ultima e definitiva, concedendo tempo,

12:54

vabbè, fino al venerdì, fino a quel

12:55

giorno, un tempo limite per accettare i

12:58

termini e questi termini senza

13:00

restrizioni. Ecco, anche qua poi ci

13:02

sarebbe da fare una discussione

13:05

interessante perché perché quello che

13:07

dice Amode e quello che dice Antropic

13:09

non si può dire che sia sbagliato, cioè

13:10

è un loro è un loro prodotto, è un loro

13:13

software. È chiaro che loro abbiano il

13:14

diritto, tecnicamente dovrebbero avere

13:16

il diritto di mettere delle linee rosse

13:18

sull'utilizzo del loro sistema di

13:20

intelligenza artificiale. D'altro canto

13:23

si sta parlando di un accordo tra un

13:25

privato e uno Stato qui e

13:27

tendenzialmente è lo Stato che dovrebbe

13:29

avere il potere di eh imporre dei limiti

13:33

a eh allo Stato stesso e in caso ai

13:36

privati. Quindi ci sono due

13:38

argomentazioni in realtà abbastanza

13:39

valide, sia eh quindi sia l'azienda che

13:42

vuole mettere imporre dei limiti sia

13:44

dall'altra parte uno stato che ha la

13:47

sovranità e quindi che non può essere

13:49

limitato da un'azienda privata perché

13:50

sotto certi punti di vista vorrebbe dire

13:52

che l'azienda privata ha più potere di

13:55

uno stato. Anche qua ci sarebbero da

13:57

fare delle riflessioni. Chiaro? sarebbe

13:59

facile dire, eh, dovrebbe essere lo

14:00

Stato stesso a mettere delle linee

14:02

rosse, a imporre delle linee rosse a se

14:04

stesso sul non sviluppare certi tipi di

14:06

arma. Però ripeto, siamo umani, non il

14:08

mondo non va come vorremo, non c'è il

14:11

non il bianco e nero non esiste, esiste

14:13

il grigio, esistono queste zone grigie

14:16

ed è chiaro che in una fase anche

14:18

geopolitica come quella che stiamo

14:20

vivendo attualmente, in cui è pieno di

14:21

tensioni e in giro per il mondo, è

14:24

chiaro che nessuno voglia certe linee

14:26

rosse. È chiaro che gli stati vogliono

14:29

poter sviluppare al massimo certe

14:31

tecnologie, quindi anche qua eh ci

14:34

sarebbe da discutere. Ripeto, se avete

14:36

qualche qualche opinione, scrivetemi nei

14:38

commenti che io sono molto contento in

14:39

caso di rispondere a queste cose perché

14:41

mi interessa e sento anche tra

14:42

virgolette un po' mie. Mi piacciono

14:44

queste cose, mi piace sapere quello che

14:46

succede. Ecco, ecco l'ultimum che viene

14:48

dato da questo dipartimento della

14:49

Guerra, chiaramente ha una scadenza e

14:51

Antropic nel momento della scadenza

14:54

conferma ufficialmente le sue posizioni,

14:56

ossia il proprio rifiuto, dichiarando di

14:58

non poter acconsentire allo sviluppo di

14:59

intelligenze artificiali anche oltre

15:01

quelle linee rosse che avevano messo.

15:04

Cosa succede? Vi faccio un attimo vedere

15:05

questo bel post di Trump. Scusate qua un

15:08

po' l'ho incollato così. Ecco, ve lo ve

15:11

lo potete leggere qua. Potete

15:12

chiaramente vedere la risposta molto

15:15

tranquilla, molto professionale del

15:17

presidente degli Stati Uniti. Questo è

15:19

quello che dice in merito a Danropic

15:23

e

15:25

non penso di dover aggiungere

15:26

nient'altro sul tipo di risposta. Il

15:29

presidente ordina a tutte le agenzie

15:31

federali di cessare immediatamente l'uso

15:34

dei prodotti di Antropical. Ma non è

15:36

finita qua. Oltre al post di insulti di

15:38

Trump che ordina appunto a tutte le

15:39

agenzie di cessare l'utilizzo di

15:42

qualunque prodotto di Antropic, arriva

15:45

un'ulteriore questione, un ulteriore

15:46

avvenimento anche abbastanza abbastanza

15:48

rilevante. Insomma, quello che ho

15:49

scritto qua è il Pentagono decide di

15:52

etichettare Antropic come supply chain

15:55

risk. Cosa vuol dire? è un rischio per

15:58

la catena di approvvigionamento. E qua

16:00

ho scritto: "Questo comporta un

16:01

boicottaggio totale che impedisce anche

16:03

ai partner privati come Amazon e

16:05

Palantier di lavorare con Antropic se

16:07

vogliono mantenere contratti

16:08

governativi." Ecco, in questo articolo

16:10

che poi vi lascio ovviamente in

16:12

descrizione vi dice brevemente che cosa

16:14

costituisce un rischio nella catena di

16:16

fornitura. È tradotto in italiano vuol

16:18

dire supply chain risk. Quindi ai sensi

16:20

di questo articolo il rischio che un

16:21

avversario possa sabotare, attenzione,

16:23

un avversario. Quindi questo vorrebbe

16:25

dire che Antropic, un'azienda americana,

16:28

viene definita proprio come avversario.

16:30

Comunque il rischio che un avversario

16:32

possa sabotare, introdurre

16:34

intenzionalmente funzioni indesiderate o

16:37

altrimenti sovvertire la progettazione,

16:39

l'integrità, la fabbricazione, la

16:41

produzione, la distribuzione,

16:43

l'installazione, il funzionamento o la

16:45

manutenzione di un sistema coperto in

16:47

modo da sorvegliare, negare,

16:49

interrompere o altrimenti degradare la

16:52

funzione, l'uso, il funzionamento di

16:53

tale sistema. Bene, questo in parole

16:55

super semplici cosa vuol dire? che io

16:57

stato decido di etichettare te azienda

16:59

mia privata come un rischio o una supply

17:03

chain risk di etichettarti come supply

17:05

chain risk. Quindi io sostanzialmente

17:08

ritengo che tu possa introdurre nei miei

17:10

sistemi, in questo caso militari, un

17:13

qualcosa che possa essere pericoloso e

17:15

che rischi di compromettere l'integrità

17:18

del mio sistema militare. E siccome c'è

17:20

questo rischio, io vieto a qualunque

17:22

istituzione governativa di utilizzare

17:25

qualunque prodotto sviluppato da te.

17:27

anche il più semplice, il più stupido,

17:29

te lo proibisco, perché potresti in

17:31

qualche modo boicottare o in qualche

17:33

modo danneggiare il mio sistema

17:34

militare. E inoltre con questa

17:36

etichettatura affermo che qualunque

17:38

altra azienda eh lavori con te, in

17:41

questo caso Antropic, non non debba

17:43

avere assolutamente nessun contatto con

17:46

noi stato, perché potreste in qualche

17:47

modo avere qualche accordo che possa

17:49

comunque che potrebbe in ogni caso m

17:51

provocarmi dei danni. capite bene qui

17:54

come questo voglia dire attenzione tu

17:56

sei stata designata come eh supply chain

17:59

risk, quindi perdi tutti i contratti che

18:00

avevamo prima, perché vi ricordo prima

18:03

erano stati stipulati dei contratti da

18:04

200 milioni. Bene, perdi quel contratto.

18:07

Inoltre non sviluppiamo, non

18:09

collaboriamo più. Non puoi più

18:10

sviluppare nessun software in

18:12

collaborazione con noi, non utilizziamo

18:14

più niente di te e inoltre se le altre

18:17

aziende vogliono continuare a

18:18

collaborare con noi ti devono mollare te

18:21

Antropic ti devono lasciar là mettere in

18:23

disparte. capite bene il danno che una

18:25

cosa del genere può causare a un'azienda

18:28

e capite bene come questa cosa qua,

18:30

questa etichettatura era stata data ad

18:32

aziende, in questo caso cinesi o

18:33

straniere, come per esempio Huawei, non

18:36

ad aziende americane come Antropic. non

18:39

era mai successa una cosa del genere,

18:40

quindi anche qua fa capire quanto in

18:43

realtà sia importante in questo momento

18:45

per gli Stati Uniti e per qualunque

18:47

altro stato avere certi sistemi di

18:49

intelligenza artificiale e quanto sia in

18:52

realtà incisivo il potere che questo che

18:54

alcuni stati hanno. Perché se tu non fai

18:56

le cose alle mie condizioni,

18:58

sostanzialmente io posso praticamente

19:00

rovinarti sotto certi punti di vista

19:02

economicamente. antropica ha

19:03

definitivamente rifiutato qualunque

19:06

collaborazione con il Dipartimento della

19:08

della Guerra. il Dipartimento della

19:09

Guerra adesso ha minacciato e di

19:11

etichettare questa cosa qua. Chiaramente

19:13

Cloud ha risposto di voler portare

19:16

davanti a una corte queste minacce e di

19:18

voler portare eventuali decisioni da

19:21

parte dello Stato davanti alla Corte e

19:24

comunque la situazione si evolverà e

19:26

andrà avanti sicuramente in qualche

19:27

modo. Ci sarebbe un'altra cosa da dire,

19:29

ma che la anzi vabbè la dico adesso.

19:31

Notizia degli ultimi giorni proprio

19:33

Cloud è stato utilizzato anche per

19:35

l'attacco in Iran, quindi fa un po'

19:37

ridere. Io, presidente degli Stati

19:39

Uniti, io dipartimento della guerra, ti

19:42

massacro economicamente, cerco di eh

19:44

distruggerti come azienda, ma nel

19:46

frattempo, siccome mi sei comunque

19:48

utile, ti utilizzo per le mie operazioni

19:50

di guerra. Top, complimenti. Cosa

19:52

succede? Una volta che Antropic decide

19:54

sostanzialmente di chiudere qualunque

19:56

rapporto, rifiuta totalmente eh di

19:59

collaborare con il dipartimento della

20:02

guerra, col Pentagono, improvvisamente

20:04

subentra Open AI. Chi è Open AI? Per chi

20:07

non lo sapesse, Open AI è l'azienda che

20:09

sviluppa Chat GPT. Infatti, poche ore

20:12

dopo, il bando di Antropic, Sam Eltman,

20:14

che è il CEO o comunque colui che ha

20:16

fondato Chat GPT, annuncia un accordo

20:19

definitivo tra Open AI e il Dipartimento

20:21

della Guerra. questa cosa un po'

20:22

particolare, sia per le tempistiche, sia

20:24

proprio per quello che è successo.

20:26

Insomma, si sa che vabbè, Cloud e Open

20:28

AI non è che vadano particolarmente

20:30

d'accordo, però a raggiungere un accordo

20:32

proprio qualche ora dopo il rifiuto

20:34

totale di Antropic

20:36

fa un po' ridere. In ogni caso hanno

20:38

postato sia un articolo, quelli di Open

20:40

AI, sia un post, io vi lascio ovviamente

20:42

tutto in descrizione, in cui cercano di

20:45

giustificare o comunque di spiegare il

20:47

loro accordo con il Dipartimento della

20:49

Guerra Americano. Qua iniziano subito a

20:50

giustificarsi, a dire alcune cose del

20:52

loro accordo, ossia che pensano che il

20:54

loro accordo sostanzialmente sia, detto

20:57

proprio semplicemente più sicuro del di

21:00

accordi precedenti fatte da con altre

21:02

aziende di intelligenza artificiale

21:04

inclusa Antropic. dicono sostanzialmente

21:06

che abbiamo ci siamo accordati col

21:08

Dipartimento della Guerra su in merito a

21:11

tre ehm mega eh a tre principali linee

21:14

rosse che sono tendenzialmente condivise

21:16

anche da altri laboratori di

21:18

intelligenza artificiale, ossia non

21:20

utilizzare Openi AI per ehm sistemi

21:24

appunto di sorveglianza di massa. Non

21:27

utilizzare Open AI per lo sviluppo di

21:29

armi autonome, non utilizzare Open Ai

21:34

per creare sistemi di decisioni

21:37

automatiche e forse qua adesso non non

21:39

la sto traducendo bene, penso che sia

21:41

così, correggetemi se sbaglio. Ecco,

21:43

questa cosa fa un po' riflettere perché

21:45

mi sembra un po' strana come cosa, nel

21:47

senso Antropic ha appena rifiutato

21:49

l'accordo proprio perché il Pentagono o

21:51

proprio perché il Dipartimento della

21:52

Guerra americano si è rifiutato di

21:56

sottostare a queste linee rosse, ma

21:58

invece secondo Open e loro questo

22:00

accordo sono riusciti a farlo, anzi in

22:02

maniera anche un po' più

22:04

stringente, un po' più restrittiva. Che

22:06

sia vero, che non sia vero, a noi

22:08

persone normali non penso sia mai, non

22:10

penso sarà mai dato sapere. Mi pare

22:12

sinceramente un po' mh strana la

22:16

questione. Quantomeno mi sembra lecito

22:18

avere qualche dubbio perché perché

22:19

allora non avrebbe senso aver aver

22:21

chiuso così male con Antropic. Se poi

22:23

posso fare questo accordo

22:25

tranquillamente col dipartimento della

22:26

boh, non so, mi pare un po' strano.

22:28

Vabbè, dicono qua sostanzialmente che

22:29

loro riescono a mantenere una certa

22:31

discrezione, un certo controllo in certe

22:33

decisioni all'interno del del processo

22:35

di sviluppo di intelligenza artificiale,

22:37

all'interno del sistema militare che

22:39

comunque faranno tutto in base alle

22:41

leggi americane che credono fermamente e

22:45

fortemente nella democrazia e qua

22:47

insomma vanno sull'approfondito. Io

22:49

ripeto c'è anche questo accordo, c'è

22:50

anche questo articolo qua abbastanza

22:52

approfondito. Io ve lo lascio da vedere.

22:54

Fatto sta che mi sembra molto sospetta

22:59

come cosa. Capite bene un po' la

23:01

questione. E poi ci sono altre

23:02

intelligenze artificiali come XI che

23:05

posiziona la sua azienda come partner

23:07

privilegiato, accettando

23:09

incondizionatamente i termini del

23:11

pentagono per il modello Grock. Questo

23:13

lo sapete, Elon Musk ha rapporti molto

23:17

stretti con l'amministrazione Trump e

23:19

con gli Stati Uniti, con lo Stato in

23:21

generale, con anche il Dipartimento

23:23

della Guerra. Capite bene? Quindi, come

23:25

mh non ci fossero dubbi sul fatto che

23:28

Musk lasciasse totale controllo, totale

23:31

discrezionalità al Pentagono, al

23:33

dipartimento di guerra sull'utilizzo

23:34

della sua intelligenza artificiale. Su

23:36

questo non c'era alcun dubbio. Ma capite

23:38

bene come in questo momento tra le

23:41

maggiori aziende ci sono forti eh

23:44

opinioni e forti modi di pensare

23:46

diversi. Chi dice o c'è un utilizzo

23:49

etico o niente da fare, chi dice eh sì,

23:52

ok, ci dovrebbe essere questo utilizzo

23:54

etico, lo metto negli accordi, ma

23:56

intanto io collaboro così m mi

23:59

bombardano dei soldi e sviluppo e

24:01

divento un po' più famoso, ecco, diventa

24:03

un po' più importante. E poi chi invece

24:05

dice "Non me ne frega niente dell'etica,

24:07

fate tutto quello che volete, USA, USA,

24:10

insomma, capite bene come ci sono al

24:11

momento queste tre posizioni qua." da

24:13

notare, ve lo dico, poco dopo questo

24:16

accordo è arrivo, qua, ve lo cerco al

24:19

volo. Open AI, accordo finanziario. È

24:22

arrivato subito, vabbè, qua prendo il

24:24

primo articolo che mi viene in mente.

24:26

Vabbè, anzi qua EI overview a fine

24:28

febbraio, inizio marzo 2026, nel

24:30

frattempo, Open AI ha chiuso uno dei più

24:32

grandi round di finanziamento nella

24:33

storia del settore tecnologico,

24:35

raccogliendo 110 miliardi di dollari e

24:37

raggiungendo una valutazione post money

24:39

di circa 840 miliardi di dollari. Anche

24:42

qua ci sarebbe da fare una discussione e

24:45

ci sarebbe da capire il motivo di un di

24:47

un accordo così grande. Insomma, ci sono

24:49

tante cose di cui parlare, ci sono tante

24:50

cose di cui bisognerebbe parlare, ma in

24:52

un unico video diventa una cosa forse un

24:54

po' troppo lunga e anche noiosa, anche

24:56

perché ho notato adesso sto parlando da

24:57

50 minuti. Spero che venga più breve il

24:59

video, perché sennò vi ammazzate voi, mi

25:02

ammazzo io. Bene, quindi siamo arrivati

25:04

a questo punto. Cloud aveva detto di no.

25:05

Open e si infila subito appena Cloud

25:08

dice di no. Tropic dice di no e crea e

25:10

stipula questo bellissimo accordo che

25:12

gli porterà una bombata di soldi, forse

25:15

perché era in rosso, era in totale

25:16

perdita fino ad ora, non si sa, non dico

25:18

nulla. Cosa succede? Ovviamente

25:21

succedono chiaramente ci sono delle

25:22

reazioni anche abbastanza forti da parte

25:25

sia dei dipendenti di certe aziende sia

25:27

da parte dei consumatori. Ho scritto

25:29

rivolta dei dipendenti. Oltre 500

25:32

dipendenti di Google e Open AI stessa

25:35

firmano la lettera aperta We will not be

25:37

divided in solidarietà ad Antropic

25:39

temendo una corsa al ribasso sulla

25:41

sicurezza etica. È molto interessante

25:43

questa cosa perché proprio i dipendenti

25:45

stessi di Open AI hanno firmato questa

25:47

petizione che non so se il link sia

25:49

quello corretto, fatto sta che io ho

25:51

trovato questo. We will not be divided.

25:54

E questo è e qua vedete tutte le firme,

25:57

adesso sono già più di penso quasi 1000,

26:00

prima erano 500, di tutte le persone

26:03

sviluppatori all'interno, dipendenti

26:04

all'interno di queste aziende che si

26:06

sono sostanzialmente schierate contro un

26:09

utilizzo, un abbassamento dell'etica

26:11

nell'utilizzo dell'intelligenza

26:12

artificiale. Le persone sono tantissime

26:14

e sono tutti effettivamente dipendenti

26:16

delle grandi delle bigte tech o comunque

26:18

delle grandi aziende che stanno

26:19

sviluppando questi software di

26:21

intelligenza artificiale. Alcuni

26:22

anonimi, sembra, sì, alcuni anonimi,

26:25

però molti con nome e cognome. Ma non

26:27

finisce qua perché oltre a questo cosa è

26:30

successo? Antropic cloud supera Chat GPT

26:34

tra le app più scaricate dopo gli

26:35

scontri con governo USA. Cosa è

26:37

successo? È successo che molti

26:39

consumatori una volta eh venuti a

26:42

conoscenza di questa notizia cosa hanno

26:44

deciso di fare? È nato proprio un

26:45

movimento anche molto forte. Hanno

26:47

deciso di disinstallare Chat GPT e hanno

26:50

deciso di installare Cloud. Questo cosa

26:52

ha portato? Ha portato a Cloud, ha

26:55

portato Cloud a salire le vette della

26:57

classifica e ha portato chat GPT un

26:59

ribasso, un down nelle classifiche

27:01

notevole. E fa un po' ridere perché in

27:03

realtà Openi aveva fatto questo accordo

27:05

proprio per ricevere soldi. Rischia al

27:07

contrario invece di perderne una

27:08

vagonata perché perde i consumatori che

27:10

magari si disiscrivono anche dagli

27:12

abbonamenti. Nel frattempo Cloud, che

27:14

era stata etichettata come rischio per

27:16

la catena di approvvigionamento, quindi

27:18

rischia di perdere soldi, tac, che viene

27:20

sostenuta invece dai consumatori, da

27:21

quelli che hanno visto in Antropic una

27:25

scelta più etica, più professionale

27:27

nello sviluppo di intelligenza

27:28

artificiale e devo dire bene, così ci

27:31

voleva una cosa del genere. Ecco, quindi

27:33

questo era un po' il riassunto totale di

27:34

questa vicenda abbastanza importante che

27:37

non è finita qua, che sicuramente si

27:39

andrà avanti nei prossimi giorni e a mio

27:41

parere è molto importante parlare e

27:43

riflettere su queste questioni perché

27:46

viviamo in un momento in cui

27:47

l'intelligenza artificiale sta

27:48

procedendo a ritmi sotto certi punti di

27:51

vista molto veloci. Ogni giorno vediamo

27:53

aggiornamenti, ogni giorno vediamo una

27:54

qualche novità e a mio parere è molto

27:57

importante che che canali piccolissimi

27:59

come il mio e canali molto più grandi

28:01

come quello di Hank, come quello di

28:03

Raffaele Gaito e tanti altri parlino

28:05

anche di questi aspetti qua, perché è

28:07

molto importante che chi parla anche di

28:09

questi settori qua, di questi argomenti

28:10

qua, provi quantomeno a sensibilizzare

28:13

le persone che utilizzano certi sistemi

28:14

di intelligenza artificiale su quello

28:17

che sta succedendo, su quello che le

28:18

aziende che sviluppano il prodotto che

28:20

stiamo usando stanno facendo. facendo su

28:22

quello che fanno le aziende e che ci

28:24

propongono nel frattempo questo

28:25

prodotto. E io infatti sono molto

28:27

contento che tantissimi tantissime

28:29

persone che erano abbonate a Chat GPT o

28:31

che avevano quantomeno l'app installata

28:33

di Chat GPT abbiano deciso di

28:35

disinstallarla, di disiscriversi, di

28:37

togliere l'abbonamento, perché vuol dire

28:39

per fortuna che c'è una sensibilità

28:41

anche a questi temi e che deve essere

28:42

sempre maggiore perché noi dobbiamo

28:44

comunque fare le cose in maniera un po'

28:46

più etica, dobbiamo utilizzare

28:48

l'intelligenza artificiale con una certa

28:50

consapevolezza e noi dobbiamo sapere,

28:52

insomma, che certe aziende hanno deciso

28:54

di prendere certe

28:56

strade di prendere certe decisioni ed è

28:58

giusto di conseguenza che noi

29:00

consumatori agiamo. Di conseguenza, se

29:03

un'azienda fa un qualcosa che non mi

29:05

piace è giusto che io, tra virgolette,

29:07

nel mio piccolo, possa ribellarmi a

29:10

questa decisione, possa decidere "Ok,

29:12

questa azienda ha fatto questo, a me non

29:14

sta bene, io non voglio più avere

29:15

rapporti con questa azienda". È così che

29:17

in realtà si formano quei grandi

29:19

movimenti che poi portano le aziende a

29:21

cambiare strada. In questo caso non

29:23

penso succederà nulla per Open AI. anzi

29:25

penso che cercherà di trovare altre

29:26

giustificazioni a non finire per cercare

29:29

di recuperare un po' tutti i consumatori

29:30

che ha perso. Fatto sta che, a mio

29:32

parere è eh molto importante

29:34

sensibilizzare le persone anche su

29:36

questi argomenti qua. Spero di aver

29:37

raccontato in maniera abbastanza

29:39

interessante o comunque di aver

29:40

raccontato in maniera abbastanza

29:41

corretta tutti gli avvenimenti. Ripeto,

29:43

ci sono tanti argomenti di cui si può

29:45

discutere, di cui si può fare una

29:47

riflessione. Se avete voglia, se avete

29:50

visto questo video, scrivete nei

29:51

commenti che proviamo a dibattere un po'

29:53

a discutere di queste cose perché è

29:55

molto interessante ed è anche molto

29:57

utile per chi magari non conosce certe

29:59

vicende. Detto questo, non ho altro da

30:01

aggiungere, un video lunghissimo di

30:02

un'ora, spero che venga più breve,

30:04

tagliato e basta così. Ci vediamo in un

30:07

prossimo video.

Interactive Summary

Il video analizza un conflitto significativo nel settore dell'IA americano tra Anthropic (sviluppatore di Cloud AI) e il governo statunitense. La disputa si è intensificata quando il Dipartimento della Guerra, sotto la strategia "AI First" di Donald Trump, ha richiesto ai fornitori di AI di accettare un uso illimitato per "qualsiasi scopo legale". Anthropic, nota per la sua etica nell'IA, ha rifiutato di scendere a compromessi sulle sue "linee rosse" contro la sorveglianza di massa e le armi autonome, anche dopo che la sua AI era stata utilizzata in un'operazione militare in Venezuela. Questo rifiuto ha portato alla condanna pubblica di Trump e alla classificazione di Anthropic come "supply chain risk" da parte del Pentagono, innescando un boicottaggio totale. Immediatamente dopo, OpenAI ha annunciato un proprio accordo con il Dipartimento della Guerra, affermando di rispettare linee guida etiche simili, suscitando scetticismo. Nel frattempo, xAI di Elon Musk ha accettato incondizionatamente i termini del Pentagono. Il conflitto ha scatenato una rivolta dei dipendenti e una significativa reazione dei consumatori, con molti utenti che sono passati da ChatGPT a Cloud, danneggiando finanziariamente OpenAI e rafforzando la posizione di Anthropic. L'oratore sottolinea l'importanza dello sviluppo etico dell'IA e della consapevolezza dei consumatori.

Suggested questions

4 ready-made prompts