Perché tutti stanno abbandonando CHATGPT?
868 segments
Ciao ragazzi, come state? Spero bene nel
video di oggi voglio fare un qualcosa di
diverso dal solito. Voglio fare una
specie di chiacchierata perché sono
successe e stanno succedendo delle cose,
dei fenomeni, degli avvenimenti in
America che secondo me meritano
attenzione, meritano di essere
conosciute e meritano anche di essere
discusse. Allora, come forse alcuni di
voi sapranno, sta avvenendo una disputa
anche abbastanza pesante tra Antropic,
che è l'azienda che sviluppa Cloud, e
Trump barra il Pentagono, o barra barra
il Dipartimento della Difesa, ecco, e
questo scontro ha causato degli
avvenimenti che secondo me meritano di
essere argomentati, meritano di essere
quantomeno dibattuti, ecco, discussi. Ci
sono già altri YouTuber che hanno
parlato di questo argomento, tra cui per
esempio Hank. che io ho guardato il
video di Hank e penso che sia comunque
necessario parlare e ripetere quello che
sta succedendo a tutti gli avvenimenti
che stanno accadendo, perché a mio
parere noi canali che parliamo di
intelligenza artificiale, sia i più
grandi che come me più piccolini,
dovrebbero anche porsi l'obiettivo un
po' di sensibilizzare tutto quello che
succede dietro l'intelligenza
artificiale che utilizziamo ogni giorno,
cioè tutte le decisioni che vengono
prese da quelle aziende che ci offrono
certi strumenti di intelligenza
artificiale. Secondo me bisogna
cominciare anche in Italia a
sensibilizzare le persone, a capire come
ragionano certe aziende e cercare anche
di essere consapevoli che stiamo
utilizzando magari degli strumenti di
aziende che hanno preso delle decisioni
che magari possono essere un po'
controverse. Ecco, quindi nel video di
oggi faremo un video molto tranquillo,
una chiacchierata. cercherò di fare meno
tagli possibili se non quando mi
impappino. E niente, proviamo a parlare
un po' della vicenda, di tutto quello
che è successo e cerchiamo di fare
qualche ragionamento. Ok, allora io mi
sono fatto una breve scaletta di tutto
quello che c'è un po' da parlare, di
tutte le vicende che sono successe.
cercherò di utilizzarla appunto come
come scaletta e di argomentare un po'
tutta la vicenda che ha portato a quello
che è successo qualche giorno fa,
insomma, con la rottura dei rapporti tra
Antropic e possiamo definire Donald
Trump, possiamo dire il Pentagono,
possiamo dire il Dipartimento di Guerra,
insomma generalizzando potremmo dire
Tranthropic e gli Stati Uniti intesi
come stato. Allora, partiamo proprio
dall'inizio. Siamo intorno al 2023,
2024-2025.
Tutti sappiamo che in questi 3-4 anni
l'intelligenza artificiale ha avuto un
boom incredibile. Un sacco di aziende
hanno cominciato a investire cifre
incredibili di denaro e sono usciti
anche per il pubblico i primi sistemi di
intelligenza artificiale all'intesa come
la conosciamo oggi, quindi i chatbot e
tutte queste cose qua. Bene, con questo
diffondersi incredibile e velocissimo
dell'intelligenza artificiale è chiaro
che anche settori diversi da quelli di
noi consumatori iniziano a interessarsi
a queste risorse, a questi strumenti. E
chi è che in America comincia a
interessarsi di queste intelligenze
artificiali? E chiaramente il settore
della difesa, se vogliamo metterlo in
termini proprio generali, l'esercito in
generale. L'esercito americano, il
settore della difesa inizia a
interessarsi alle aziende private più
famose che iniz che sviluppano sistemi
di intelligenza artificiale come Google,
Open AI, Antropic e con l'intento di
collaborare e sviluppare dei sistemi
anche proprio per l'apparato militare di
intelligenza artificiale iniziano a
concludere i primi contratti da tanti
soldi, insomma, si parla di più di da
centinaia di milioni di dollari.
Infatti, se clicchiamo questo link e
questi due link, abbiamo subito i primi
accordi che hanno fatto con eh per
esempio in questo caso Antropic con il
Dipartimento della Difesa per sviluppare
appunto i primi sistemi di intelligenza
artificiale eh che possono che potessero
aiutare tutto quel tutto il settore
della difesa, tutto il settore
dell'esercito. E fin qua tutto ok.
Insomma, tutte le aziende iniziano a
collaborare, iniziano a sviluppare
ognuno i propri sistemi di intelligenza
artificiale sviluppato per qualche
qualche settore, qualche sezione,
qualche interesse dell'esercito. Open
per esempio, ha iniziato a sviluppare un
sistema, mi pare, per le pubbliche
amministrazioni. Esatto. Presentazione
di Open AI per la pubblica
amministrazione. Quindi, col governo
degli Stati Uniti hanno iniziato a
collaborare diverse diverse aziende che
sviluppano l'intelligenza artificiale in
diversi settori. Dobbiamo noi dobbiamo
considerare un po' il contesto più ampio
della vicenda. Allora, come tutti
sappiamo, al momento eh nel presidente
degli Stati Uniti è Donald Trump, che
tutti noi conosciamo per la sua politica
abbastanza diretta, per il suo modo
abbastanza diretto di esprimersi e per
le sue opinioni anche abbastanza forti,
ecco, potremmo definirlo così. E infatti
il 5 settembre 2025 il presidente Donald
Trump decide di firmare un ordine
esecutivo per cambiare il nome del
dipartimento della Difesa in
Dipartimento della Guerra, Department of
War. E già questo dovrebbe fare intuire
alle persone il modo di pensare di
Donald Trump e il modo di pensare di
certi politici americani, un certo
orientamento, ecco, potremmo definirlo
così, insomma, cambiare da Dipartimento
della Difesa, che vuol dire una certa
cosa, a Dipartimento della Guerra, che
vuol dire tutta un'altra cosa. Capite
bene la strada che Donald Trump ha
deciso di intraprendere per il suo
paese, insomma, per gli interessi del
suo paese. Poi cosa succede a gennaio?
Intanto voi pensate che intanto in
questi mesi gli accordi con queste
aziende private di intelligenza
artificiale vanno avanti, iniziano a
svilupparsi. Nel frattempo, a gennaio
2026 succede un'altra cosa, insomma, che
il segretario, in questo caso della
guerra, non più della difesa, pubblica
un documento programmatico che si chiama
l'Atificial Intelligence Strategy, che,
come ho scritto qua, impone una
trasformazione EI first delle forze
armate e richiede ai fornitori di
accettare l'uso dei modelli per
qualsiasi scopo legale. All lowful
purposes. Infatti cliccando qua noi
abbiamo, io poi vi lascio tutti i link
in descrizione perché io, ripeto, faccio
una io cerco di parlare in generale di
tutti questi avvenimenti, ma se volete
approfondire vi lascio tutti i link in
descrizione, potete vedere ogni singola
cosa, ogni singolo aspetto che magari vi
interessa di più perché ognuno magari ha
degli interessi diversi. Comunque con
questo documento programmatico
sostanzialmente si dice che il
dipartimento della guerra in questo caso
dovrà cercare di raggiungere determinati
obiettivi. Questi obiettivi sono, per
esempio, identificare e eliminare
qualunque barriera
burocratica per avere una maggiore
integrazione dell'intelligenza
artificiale all'interno de dei loro
modelli, dei loro sistemi di guerra, di
provare di sperimentare tutti i modelli
più avanzati di intelligenza artificiale
all'interno
del del loro dipartimento, cercare
proprio anche poi di ricompensare questi
modelli di intelligenza artificiale che
funzionano bene, di concentrare gli
investimenti proprio nell'innovazione in
questi innovazioni tecnologiche e
insomma una serie di cose. Comunque
capite che come questo documento
programmatico fa ben capire appunto la
strategia che attualmente in America si
vuole adottare in merito
all'intelligenza artificiale nel settore
della difesa, nel settore militare.
Quindi, lo ripeto, una trasformazione AI
first, prima di tutto l'intelligenza
artificiale delle forze armate, quindi
innovare e iniziare a introdurre questi
sistemi in maniera massiccia all'interno
delle forze armate. Già da queste tre
prime informazioni iniziamo a farci
un'idea chiara della panoramica
generale. Le aziende iniziano a
sviluppare i sistemi di intelligenza
artificiale, il settore militare si
interessa a questi sistemi di
intelligenza artificiale, iniziano a
collaborare per innovare tutto questo
sistema, iniziano a collaborare per
creare qualcosa di nuovo, per migliorare
ulteriormente. Arriviamo a un momento
abbastanza critico, gennaio 2026,
l'operazione in Venezuela. Per chi non
fosse informato, il 3 gennaio 2026 le
forze speciali statunitensi conducono
l'operazione Absolute Resolve a Caracas
e catturano sostanzialmente il
presidente Maduro. La cosa che ci
interessa e che emerge qualche qualche
tempo dopo è che per la cattura di
Nicolas Maduro è stato utilizzato un
sistema a noi conosciuto che è
un'intelligenza artificiale a noi
conosciuta che è Cloud tramite la
piattaforma Palantier. Ecco, se non
conoscete, se non sapete che cos'è
Palantier, vi metto in descrizione un
video di Nova Lexio che parla, che
spiega bene che cosa fa questa azienda,
quello che conosciamo di questa azienda
è anche molto interessante. Fatto sta
che tramite Palenter viene utilizzata
Cloud non come sistema da non dobbiamo
pensare all'utilizzo di Cloud come
sistema d'arma vero e proprio. Non è che
l'intelligenza artificiale Cloud eh
attraverso un robot è andato a catturare
Maduro, no. Cloud è stata utilizzata per
raccogliere dati, per l'analisi dei dati
in tempo reale e per sintetizzare questi
dati e come ho scritto qua anche per
dare un un supporto tattico. Capite bene
come questo è il primo momento in cui
un'intelligenza artificiale è stata
utilizzata per quello che potremmo
definire un'operazione di guerra. E la
cosa interessante è che ehm Cloud, cioè
gli sviluppatore di Cloud, o meglio
l'azienda che sviluppa Cloud, quindi
Antropic, ha sempre eh affermato, ha
sempre esplicitato
un certo modo di vedere l'intelligenza
artificiale, un certo modo di sviluppare
l'intelligenza artificiale che potremmo
definire abbastanza etico. Cosa cosa
intendiamo con etico? Anche qua ci
sarebbe da discutere. Fatto sta che sono
sempre stati attenti a come veniva
utilizzata questa intelligenza
artificiale, perché sono sempre stati
attenti proprio a a voler evitare
fenomeni che potessero diventare o
potessero in qualche modo essere
pericolosi per gli umani e per la vita
delle persone. sono sempre stati molto
attenti, infatti hanno anche pubblicato
una costituzione dell'intelligenza
artificiale, cercano di essere il più
trasparenti possibili. Insomma, tra
tutte le aziende antropiche è quella che
sembrerebbe avere un interesse
particolare, un interesse peculiare su
un utilizzo etico dell'intelligenza
artificiale. Poi, ripeto, cosa
intendiamo con etico? Ognuno ha la sua
concezione, quindi potete anche
scriverlo nei commenti. Si dibatte, si
discute un po' di queste cose perché
secondo me è interessante, secondo me
bisogna discuterne, bisogna parlare
tanto, deve cercare di entrare un po'
nella coscienza comune certe questioni.
Ecco, tutto questo ha portato il CO di
Antropiche, che è Dario Amodei, che
forse alcuni di voi conosceranno, a
fissare delle linee rosse, a dire
attenzione Dipartimento della Difesa o
comunque "Attenzione settore militare,
voi potete utilizzare la mia
intelligenza artificiale, ma non potete
superare certi limiti." Infatti lo
vediamo scritto anche qua, Antropic e
supporta l'utilizzo legale, diciamo,
l'utilizzo eh giusto di Cloud, ma ci
sono due eccezioni. Non vogliamo che
l'intelligenza artificiale venga
utilizzata per la sorveglianza di massa
e non vogliamo che l'intelligenza
artificiale venga sviluppata per creare
delle vere e proprie armi autonome. Come
armi autonome potete pensare a un robot
dotato di capacità, tra virgolette
intellettuali, comunque dotate di
capacità di pensare, possiamo definire
pensare, andare in giro e fare cose di
sua spontanea iniziativa. Ecco, Cloud
non voglio non vuole queste due cose.
Qua nel post dicono anche cosa cosa loro
intendono con sorveglianza di massa. Qua
dicono l'utilizzo dell'intelligenza
artificiale per la sorveglianza di massa
presenta dei rischi seri alle nostre
libertà fondamentali e quindi non è
compatibile con i nostri valori
democratici. Inoltre dicono
l'intelligenza artificiale al momento
non è assolutamente perfetta, fa un
sacco di errori ed è ben lontana da
svolgere determinati compiti in maniera
totalmente autonoma. E quindi cosa
dicono? appunto lo dicono, i nostri
attuali sistemi di intelligenza
artificiali non sono abbastanza
affidabili per poter creare dei sistemi
d'arma autonomi. Noi non vogliamo
sviluppare dei sistemi che rischiano di
mettere in pericolo sia l'esercito, sia
i soldati che combattono americani, sia
i civili americani, perché quando
l'intelligenza artificiale non è
perfetta si mettono eh a rischio le vite
anche di certe persone. Immaginatevi,
per esempio, nello scenario più assurdo,
un robot dotato di una propria autonomia
che, per assurdo, per un errore
dell'intelligenza artificiale, scambia
un civile per un nemico. Cosa succede?
Eh, cosa succede? Io non lo dico, però
capite bene cosa potrebbe succedere. Chi
risponde poi di questa cosa? Chi è
responsabile di un'azione sbagliata
fatta dall'intelligenza artificiale? Eh,
anche qua bella domanda. È lo Stato? È
sono i militari? Eh, chi è? È l'azienda?
Anche qua bella domanda. E quindi,
sostanzialmente, eh Antropic ha detto:
"Va bene collaborare con voi eh
esercito, ma vi impediamo
categoricamente di eh oltrepassare certe
linee rosse." Apriti cielo. Cosa è
successo? Subito alcuni membri del
governo, tra cui Donald Trump stesso,
poi lo vedremo, e anche il Pentagono, si
sono fermamente opposti a questa
decisione di antropiche, dicendo che
un'azienda privata non può imporre allo
stato dei limiti, è lo Stato che in caso
può imporre dei limiti all'azienda
privata e quindi sostanzialmente dicono
"Noi non possiamo avere delle linee
rosse nello sviluppo delle nostre
intelligenze artificiali". E alcuni
ovviamente qua gli americani sono sempre
esag esagerati, alcuni hanno accusato a
Modèi di avere un complesso di Dio, di
voler controllare l'esercito
statunitense. Cosa succede? Il 25
febbraio 2026 il Dipartimento della
Guerra invia ad Antropico un'offerta
ultima e definitiva, concedendo tempo,
vabbè, fino al venerdì, fino a quel
giorno, un tempo limite per accettare i
termini e questi termini senza
restrizioni. Ecco, anche qua poi ci
sarebbe da fare una discussione
interessante perché perché quello che
dice Amode e quello che dice Antropic
non si può dire che sia sbagliato, cioè
è un loro è un loro prodotto, è un loro
software. È chiaro che loro abbiano il
diritto, tecnicamente dovrebbero avere
il diritto di mettere delle linee rosse
sull'utilizzo del loro sistema di
intelligenza artificiale. D'altro canto
si sta parlando di un accordo tra un
privato e uno Stato qui e
tendenzialmente è lo Stato che dovrebbe
avere il potere di eh imporre dei limiti
a eh allo Stato stesso e in caso ai
privati. Quindi ci sono due
argomentazioni in realtà abbastanza
valide, sia eh quindi sia l'azienda che
vuole mettere imporre dei limiti sia
dall'altra parte uno stato che ha la
sovranità e quindi che non può essere
limitato da un'azienda privata perché
sotto certi punti di vista vorrebbe dire
che l'azienda privata ha più potere di
uno stato. Anche qua ci sarebbero da
fare delle riflessioni. Chiaro? sarebbe
facile dire, eh, dovrebbe essere lo
Stato stesso a mettere delle linee
rosse, a imporre delle linee rosse a se
stesso sul non sviluppare certi tipi di
arma. Però ripeto, siamo umani, non il
mondo non va come vorremo, non c'è il
non il bianco e nero non esiste, esiste
il grigio, esistono queste zone grigie
ed è chiaro che in una fase anche
geopolitica come quella che stiamo
vivendo attualmente, in cui è pieno di
tensioni e in giro per il mondo, è
chiaro che nessuno voglia certe linee
rosse. È chiaro che gli stati vogliono
poter sviluppare al massimo certe
tecnologie, quindi anche qua eh ci
sarebbe da discutere. Ripeto, se avete
qualche qualche opinione, scrivetemi nei
commenti che io sono molto contento in
caso di rispondere a queste cose perché
mi interessa e sento anche tra
virgolette un po' mie. Mi piacciono
queste cose, mi piace sapere quello che
succede. Ecco, ecco l'ultimum che viene
dato da questo dipartimento della
Guerra, chiaramente ha una scadenza e
Antropic nel momento della scadenza
conferma ufficialmente le sue posizioni,
ossia il proprio rifiuto, dichiarando di
non poter acconsentire allo sviluppo di
intelligenze artificiali anche oltre
quelle linee rosse che avevano messo.
Cosa succede? Vi faccio un attimo vedere
questo bel post di Trump. Scusate qua un
po' l'ho incollato così. Ecco, ve lo ve
lo potete leggere qua. Potete
chiaramente vedere la risposta molto
tranquilla, molto professionale del
presidente degli Stati Uniti. Questo è
quello che dice in merito a Danropic
e
non penso di dover aggiungere
nient'altro sul tipo di risposta. Il
presidente ordina a tutte le agenzie
federali di cessare immediatamente l'uso
dei prodotti di Antropical. Ma non è
finita qua. Oltre al post di insulti di
Trump che ordina appunto a tutte le
agenzie di cessare l'utilizzo di
qualunque prodotto di Antropic, arriva
un'ulteriore questione, un ulteriore
avvenimento anche abbastanza abbastanza
rilevante. Insomma, quello che ho
scritto qua è il Pentagono decide di
etichettare Antropic come supply chain
risk. Cosa vuol dire? è un rischio per
la catena di approvvigionamento. E qua
ho scritto: "Questo comporta un
boicottaggio totale che impedisce anche
ai partner privati come Amazon e
Palantier di lavorare con Antropic se
vogliono mantenere contratti
governativi." Ecco, in questo articolo
che poi vi lascio ovviamente in
descrizione vi dice brevemente che cosa
costituisce un rischio nella catena di
fornitura. È tradotto in italiano vuol
dire supply chain risk. Quindi ai sensi
di questo articolo il rischio che un
avversario possa sabotare, attenzione,
un avversario. Quindi questo vorrebbe
dire che Antropic, un'azienda americana,
viene definita proprio come avversario.
Comunque il rischio che un avversario
possa sabotare, introdurre
intenzionalmente funzioni indesiderate o
altrimenti sovvertire la progettazione,
l'integrità, la fabbricazione, la
produzione, la distribuzione,
l'installazione, il funzionamento o la
manutenzione di un sistema coperto in
modo da sorvegliare, negare,
interrompere o altrimenti degradare la
funzione, l'uso, il funzionamento di
tale sistema. Bene, questo in parole
super semplici cosa vuol dire? che io
stato decido di etichettare te azienda
mia privata come un rischio o una supply
chain risk di etichettarti come supply
chain risk. Quindi io sostanzialmente
ritengo che tu possa introdurre nei miei
sistemi, in questo caso militari, un
qualcosa che possa essere pericoloso e
che rischi di compromettere l'integrità
del mio sistema militare. E siccome c'è
questo rischio, io vieto a qualunque
istituzione governativa di utilizzare
qualunque prodotto sviluppato da te.
anche il più semplice, il più stupido,
te lo proibisco, perché potresti in
qualche modo boicottare o in qualche
modo danneggiare il mio sistema
militare. E inoltre con questa
etichettatura affermo che qualunque
altra azienda eh lavori con te, in
questo caso Antropic, non non debba
avere assolutamente nessun contatto con
noi stato, perché potreste in qualche
modo avere qualche accordo che possa
comunque che potrebbe in ogni caso m
provocarmi dei danni. capite bene qui
come questo voglia dire attenzione tu
sei stata designata come eh supply chain
risk, quindi perdi tutti i contratti che
avevamo prima, perché vi ricordo prima
erano stati stipulati dei contratti da
200 milioni. Bene, perdi quel contratto.
Inoltre non sviluppiamo, non
collaboriamo più. Non puoi più
sviluppare nessun software in
collaborazione con noi, non utilizziamo
più niente di te e inoltre se le altre
aziende vogliono continuare a
collaborare con noi ti devono mollare te
Antropic ti devono lasciar là mettere in
disparte. capite bene il danno che una
cosa del genere può causare a un'azienda
e capite bene come questa cosa qua,
questa etichettatura era stata data ad
aziende, in questo caso cinesi o
straniere, come per esempio Huawei, non
ad aziende americane come Antropic. non
era mai successa una cosa del genere,
quindi anche qua fa capire quanto in
realtà sia importante in questo momento
per gli Stati Uniti e per qualunque
altro stato avere certi sistemi di
intelligenza artificiale e quanto sia in
realtà incisivo il potere che questo che
alcuni stati hanno. Perché se tu non fai
le cose alle mie condizioni,
sostanzialmente io posso praticamente
rovinarti sotto certi punti di vista
economicamente. antropica ha
definitivamente rifiutato qualunque
collaborazione con il Dipartimento della
della Guerra. il Dipartimento della
Guerra adesso ha minacciato e di
etichettare questa cosa qua. Chiaramente
Cloud ha risposto di voler portare
davanti a una corte queste minacce e di
voler portare eventuali decisioni da
parte dello Stato davanti alla Corte e
comunque la situazione si evolverà e
andrà avanti sicuramente in qualche
modo. Ci sarebbe un'altra cosa da dire,
ma che la anzi vabbè la dico adesso.
Notizia degli ultimi giorni proprio
Cloud è stato utilizzato anche per
l'attacco in Iran, quindi fa un po'
ridere. Io, presidente degli Stati
Uniti, io dipartimento della guerra, ti
massacro economicamente, cerco di eh
distruggerti come azienda, ma nel
frattempo, siccome mi sei comunque
utile, ti utilizzo per le mie operazioni
di guerra. Top, complimenti. Cosa
succede? Una volta che Antropic decide
sostanzialmente di chiudere qualunque
rapporto, rifiuta totalmente eh di
collaborare con il dipartimento della
guerra, col Pentagono, improvvisamente
subentra Open AI. Chi è Open AI? Per chi
non lo sapesse, Open AI è l'azienda che
sviluppa Chat GPT. Infatti, poche ore
dopo, il bando di Antropic, Sam Eltman,
che è il CEO o comunque colui che ha
fondato Chat GPT, annuncia un accordo
definitivo tra Open AI e il Dipartimento
della Guerra. questa cosa un po'
particolare, sia per le tempistiche, sia
proprio per quello che è successo.
Insomma, si sa che vabbè, Cloud e Open
AI non è che vadano particolarmente
d'accordo, però a raggiungere un accordo
proprio qualche ora dopo il rifiuto
totale di Antropic
fa un po' ridere. In ogni caso hanno
postato sia un articolo, quelli di Open
AI, sia un post, io vi lascio ovviamente
tutto in descrizione, in cui cercano di
giustificare o comunque di spiegare il
loro accordo con il Dipartimento della
Guerra Americano. Qua iniziano subito a
giustificarsi, a dire alcune cose del
loro accordo, ossia che pensano che il
loro accordo sostanzialmente sia, detto
proprio semplicemente più sicuro del di
accordi precedenti fatte da con altre
aziende di intelligenza artificiale
inclusa Antropic. dicono sostanzialmente
che abbiamo ci siamo accordati col
Dipartimento della Guerra su in merito a
tre ehm mega eh a tre principali linee
rosse che sono tendenzialmente condivise
anche da altri laboratori di
intelligenza artificiale, ossia non
utilizzare Openi AI per ehm sistemi
appunto di sorveglianza di massa. Non
utilizzare Open AI per lo sviluppo di
armi autonome, non utilizzare Open Ai
per creare sistemi di decisioni
automatiche e forse qua adesso non non
la sto traducendo bene, penso che sia
così, correggetemi se sbaglio. Ecco,
questa cosa fa un po' riflettere perché
mi sembra un po' strana come cosa, nel
senso Antropic ha appena rifiutato
l'accordo proprio perché il Pentagono o
proprio perché il Dipartimento della
Guerra americano si è rifiutato di
sottostare a queste linee rosse, ma
invece secondo Open e loro questo
accordo sono riusciti a farlo, anzi in
maniera anche un po' più
stringente, un po' più restrittiva. Che
sia vero, che non sia vero, a noi
persone normali non penso sia mai, non
penso sarà mai dato sapere. Mi pare
sinceramente un po' mh strana la
questione. Quantomeno mi sembra lecito
avere qualche dubbio perché perché
allora non avrebbe senso aver aver
chiuso così male con Antropic. Se poi
posso fare questo accordo
tranquillamente col dipartimento della
boh, non so, mi pare un po' strano.
Vabbè, dicono qua sostanzialmente che
loro riescono a mantenere una certa
discrezione, un certo controllo in certe
decisioni all'interno del del processo
di sviluppo di intelligenza artificiale,
all'interno del sistema militare che
comunque faranno tutto in base alle
leggi americane che credono fermamente e
fortemente nella democrazia e qua
insomma vanno sull'approfondito. Io
ripeto c'è anche questo accordo, c'è
anche questo articolo qua abbastanza
approfondito. Io ve lo lascio da vedere.
Fatto sta che mi sembra molto sospetta
come cosa. Capite bene un po' la
questione. E poi ci sono altre
intelligenze artificiali come XI che
posiziona la sua azienda come partner
privilegiato, accettando
incondizionatamente i termini del
pentagono per il modello Grock. Questo
lo sapete, Elon Musk ha rapporti molto
stretti con l'amministrazione Trump e
con gli Stati Uniti, con lo Stato in
generale, con anche il Dipartimento
della Guerra. Capite bene? Quindi, come
mh non ci fossero dubbi sul fatto che
Musk lasciasse totale controllo, totale
discrezionalità al Pentagono, al
dipartimento di guerra sull'utilizzo
della sua intelligenza artificiale. Su
questo non c'era alcun dubbio. Ma capite
bene come in questo momento tra le
maggiori aziende ci sono forti eh
opinioni e forti modi di pensare
diversi. Chi dice o c'è un utilizzo
etico o niente da fare, chi dice eh sì,
ok, ci dovrebbe essere questo utilizzo
etico, lo metto negli accordi, ma
intanto io collaboro così m mi
bombardano dei soldi e sviluppo e
divento un po' più famoso, ecco, diventa
un po' più importante. E poi chi invece
dice "Non me ne frega niente dell'etica,
fate tutto quello che volete, USA, USA,
insomma, capite bene come ci sono al
momento queste tre posizioni qua." da
notare, ve lo dico, poco dopo questo
accordo è arrivo, qua, ve lo cerco al
volo. Open AI, accordo finanziario. È
arrivato subito, vabbè, qua prendo il
primo articolo che mi viene in mente.
Vabbè, anzi qua EI overview a fine
febbraio, inizio marzo 2026, nel
frattempo, Open AI ha chiuso uno dei più
grandi round di finanziamento nella
storia del settore tecnologico,
raccogliendo 110 miliardi di dollari e
raggiungendo una valutazione post money
di circa 840 miliardi di dollari. Anche
qua ci sarebbe da fare una discussione e
ci sarebbe da capire il motivo di un di
un accordo così grande. Insomma, ci sono
tante cose di cui parlare, ci sono tante
cose di cui bisognerebbe parlare, ma in
un unico video diventa una cosa forse un
po' troppo lunga e anche noiosa, anche
perché ho notato adesso sto parlando da
50 minuti. Spero che venga più breve il
video, perché sennò vi ammazzate voi, mi
ammazzo io. Bene, quindi siamo arrivati
a questo punto. Cloud aveva detto di no.
Open e si infila subito appena Cloud
dice di no. Tropic dice di no e crea e
stipula questo bellissimo accordo che
gli porterà una bombata di soldi, forse
perché era in rosso, era in totale
perdita fino ad ora, non si sa, non dico
nulla. Cosa succede? Ovviamente
succedono chiaramente ci sono delle
reazioni anche abbastanza forti da parte
sia dei dipendenti di certe aziende sia
da parte dei consumatori. Ho scritto
rivolta dei dipendenti. Oltre 500
dipendenti di Google e Open AI stessa
firmano la lettera aperta We will not be
divided in solidarietà ad Antropic
temendo una corsa al ribasso sulla
sicurezza etica. È molto interessante
questa cosa perché proprio i dipendenti
stessi di Open AI hanno firmato questa
petizione che non so se il link sia
quello corretto, fatto sta che io ho
trovato questo. We will not be divided.
E questo è e qua vedete tutte le firme,
adesso sono già più di penso quasi 1000,
prima erano 500, di tutte le persone
sviluppatori all'interno, dipendenti
all'interno di queste aziende che si
sono sostanzialmente schierate contro un
utilizzo, un abbassamento dell'etica
nell'utilizzo dell'intelligenza
artificiale. Le persone sono tantissime
e sono tutti effettivamente dipendenti
delle grandi delle bigte tech o comunque
delle grandi aziende che stanno
sviluppando questi software di
intelligenza artificiale. Alcuni
anonimi, sembra, sì, alcuni anonimi,
però molti con nome e cognome. Ma non
finisce qua perché oltre a questo cosa è
successo? Antropic cloud supera Chat GPT
tra le app più scaricate dopo gli
scontri con governo USA. Cosa è
successo? È successo che molti
consumatori una volta eh venuti a
conoscenza di questa notizia cosa hanno
deciso di fare? È nato proprio un
movimento anche molto forte. Hanno
deciso di disinstallare Chat GPT e hanno
deciso di installare Cloud. Questo cosa
ha portato? Ha portato a Cloud, ha
portato Cloud a salire le vette della
classifica e ha portato chat GPT un
ribasso, un down nelle classifiche
notevole. E fa un po' ridere perché in
realtà Openi aveva fatto questo accordo
proprio per ricevere soldi. Rischia al
contrario invece di perderne una
vagonata perché perde i consumatori che
magari si disiscrivono anche dagli
abbonamenti. Nel frattempo Cloud, che
era stata etichettata come rischio per
la catena di approvvigionamento, quindi
rischia di perdere soldi, tac, che viene
sostenuta invece dai consumatori, da
quelli che hanno visto in Antropic una
scelta più etica, più professionale
nello sviluppo di intelligenza
artificiale e devo dire bene, così ci
voleva una cosa del genere. Ecco, quindi
questo era un po' il riassunto totale di
questa vicenda abbastanza importante che
non è finita qua, che sicuramente si
andrà avanti nei prossimi giorni e a mio
parere è molto importante parlare e
riflettere su queste questioni perché
viviamo in un momento in cui
l'intelligenza artificiale sta
procedendo a ritmi sotto certi punti di
vista molto veloci. Ogni giorno vediamo
aggiornamenti, ogni giorno vediamo una
qualche novità e a mio parere è molto
importante che che canali piccolissimi
come il mio e canali molto più grandi
come quello di Hank, come quello di
Raffaele Gaito e tanti altri parlino
anche di questi aspetti qua, perché è
molto importante che chi parla anche di
questi settori qua, di questi argomenti
qua, provi quantomeno a sensibilizzare
le persone che utilizzano certi sistemi
di intelligenza artificiale su quello
che sta succedendo, su quello che le
aziende che sviluppano il prodotto che
stiamo usando stanno facendo. facendo su
quello che fanno le aziende e che ci
propongono nel frattempo questo
prodotto. E io infatti sono molto
contento che tantissimi tantissime
persone che erano abbonate a Chat GPT o
che avevano quantomeno l'app installata
di Chat GPT abbiano deciso di
disinstallarla, di disiscriversi, di
togliere l'abbonamento, perché vuol dire
per fortuna che c'è una sensibilità
anche a questi temi e che deve essere
sempre maggiore perché noi dobbiamo
comunque fare le cose in maniera un po'
più etica, dobbiamo utilizzare
l'intelligenza artificiale con una certa
consapevolezza e noi dobbiamo sapere,
insomma, che certe aziende hanno deciso
di prendere certe
strade di prendere certe decisioni ed è
giusto di conseguenza che noi
consumatori agiamo. Di conseguenza, se
un'azienda fa un qualcosa che non mi
piace è giusto che io, tra virgolette,
nel mio piccolo, possa ribellarmi a
questa decisione, possa decidere "Ok,
questa azienda ha fatto questo, a me non
sta bene, io non voglio più avere
rapporti con questa azienda". È così che
in realtà si formano quei grandi
movimenti che poi portano le aziende a
cambiare strada. In questo caso non
penso succederà nulla per Open AI. anzi
penso che cercherà di trovare altre
giustificazioni a non finire per cercare
di recuperare un po' tutti i consumatori
che ha perso. Fatto sta che, a mio
parere è eh molto importante
sensibilizzare le persone anche su
questi argomenti qua. Spero di aver
raccontato in maniera abbastanza
interessante o comunque di aver
raccontato in maniera abbastanza
corretta tutti gli avvenimenti. Ripeto,
ci sono tanti argomenti di cui si può
discutere, di cui si può fare una
riflessione. Se avete voglia, se avete
visto questo video, scrivete nei
commenti che proviamo a dibattere un po'
a discutere di queste cose perché è
molto interessante ed è anche molto
utile per chi magari non conosce certe
vicende. Detto questo, non ho altro da
aggiungere, un video lunghissimo di
un'ora, spero che venga più breve,
tagliato e basta così. Ci vediamo in un
prossimo video.
Ask follow-up questions or revisit key timestamps.
Il video analizza un conflitto significativo nel settore dell'IA americano tra Anthropic (sviluppatore di Cloud AI) e il governo statunitense. La disputa si è intensificata quando il Dipartimento della Guerra, sotto la strategia "AI First" di Donald Trump, ha richiesto ai fornitori di AI di accettare un uso illimitato per "qualsiasi scopo legale". Anthropic, nota per la sua etica nell'IA, ha rifiutato di scendere a compromessi sulle sue "linee rosse" contro la sorveglianza di massa e le armi autonome, anche dopo che la sua AI era stata utilizzata in un'operazione militare in Venezuela. Questo rifiuto ha portato alla condanna pubblica di Trump e alla classificazione di Anthropic come "supply chain risk" da parte del Pentagono, innescando un boicottaggio totale. Immediatamente dopo, OpenAI ha annunciato un proprio accordo con il Dipartimento della Guerra, affermando di rispettare linee guida etiche simili, suscitando scetticismo. Nel frattempo, xAI di Elon Musk ha accettato incondizionatamente i termini del Pentagono. Il conflitto ha scatenato una rivolta dei dipendenti e una significativa reazione dei consumatori, con molti utenti che sono passati da ChatGPT a Cloud, danneggiando finanziariamente OpenAI e rafforzando la posizione di Anthropic. L'oratore sottolinea l'importanza dello sviluppo etico dell'IA e della consapevolezza dei consumatori.
Videos recently processed by our community