OpenAI è in crisi? (Notizie AI Marzo 2026)
477 segments
Ciao ragazzi, come state? Spero bene.
Con il video di oggi voglio dare
ufficialmente vita a quello che potremmo
definire un nuovo progetto, un nuovo
format, una nuova rubrica, vabbè,
insomma, una nuova tipologia di
contenuto in cui una volta ogni fine
mese andrò a parlarvi di quelle che sono
le notizie un po' più importanti che
sono uscite nell'ultimo mese. E perché
ho deciso di fare questa cosa? Beh, il
primo motivo è che non voglio che questo
canale diventi semplicemente un canale
di tutorial, voglio poter parlare anche
di notizie, voglio poter discutere anche
di varie questioni, varie tematiche,
vari argomenti, quindi penso che possa
essere una cosa interessante per me da
fare per informarmi. E secondo perché
ritengo che, beh, insomma, lo sappiamo
tutti, il mondo dell'intelligenza
artificiale sta andando avanti a
velocità pazzesche. Ogni giorno,
praticamente ogni settimana esce
qualcosa di nuovo, esce un modello
nuovo, esce una notizia nuova, tutto
relativo all'intelligenza artificiale.
Quindi penso che possa essere anche
utile per magari una persona che non è
sempre là a informarsi, non è sempre là,
non ha la possibilità, non ha il tempo
di stare là a informarsi, a leggere
tutto. Penso che possa essere utile
sapere quelle poche notizie che magari
possono essere un po' quelle più
importanti e che possono essere utili da
sapere. Con il video di oggi, siccome
comunque è un esperimento che ho appena
cominciato, partiremo con tre notizie,
però magari nel corso del tempo le
aguste le aggiusterò, farò magari un po'
più di notizie, faremo un po' qualcosa
di più approfondito, argomenti magari un
po' più insomma è tutto un po' in
itinere, sto provando un po' di cose.
Detto questo, non ho altro da
aggiungere, quindi cominciamo con le
notizie in tema intelligenza artificiale
di marzo. Ah, ve lo dico subito, non
sarà un video con notizie maneta super
super ritmato in cui in 5 minuti saprete
18.000 notizie e chi più ne ha più ne
mette. No, sarà una specie di
chiacchierata. Il mio stile è quello un
po' tranquillo, con pochi tagli, in cui
si fa una specie di, appunto,
chiacchierata e nulla di veloce, poche
cose fatte bene o fatte quantomeno
decentemente. Penso che sia penso che
possa essere un format utile e
interessante. Allora, cominciamo con la
notizia più recente. Open AI ha deciso
di chiudere Sora. Sora 2. Che cos'era
Sora 2? Sora 2 era il modello di
generazione di video di Open AI, un
modello che è andato incredibilmente
virale, soprattutto su TikTok, su
Instagram e su queste piattaforme qua in
cui c'è la possibilità di creare video
brevi. È andato virale nella maniera
penso peggiore possibile con il famoso
fenomeno del AI slop che sono
sostanzialmente contenuti spazzatura
creati dall'intelligenza artificiale.
Anzi, vediamo se riesco a farvene vedere
qualcuno, giusto per farvi capire.
Vabbè, direi che basta così, giusto per
farvi capire come veniva utilizzato
questo sistema, questo modello di
generazione di video. Ecco, lasciamo
stare. Fatto sta che Open AI ha deciso
sostanzialmente di chiuderlo. Allora,
quali sono le motivazioni? Sam Altman,
che è il CEO di Open AI, quello che ha
fondato, insomma, Chat GPT, che ha
creato tutte queste cose qua, ha
comunicato sostanzialmente che Sora 2 è
un modello che consuma molto e che per
decisioni sostanzialmente aziendali,
quindi di riallocazione delle risorse e
tutto il resto, ha sostanzialmente
deciso di concentrarsi su altri settori
e non sul modello di generazione di
video. In ogni caso c'è anche da dire
che Open AI e Disney avevano appena
siglato un accordo da oltre un miliardo
di dollari per far permettere a Sora di
generare contenuti che includessero
sostanzialmente i personaggi della
Disney, quindi senza violazioni di
copyright. Ecco un accordo da 1
miliardo, da più di un miliardo di
dollari che è andato in fumo così. Sam
Altman ha detto che vogliono
semplicemente riallocare le risorse, che
Sora 2 non gli serve più e che quindi
hanno semplicemente deciso di chiudere
il modello. in realtà la realtà potrebbe
essere ben diversa, infatti la chiusura
improvvisa potrebbe essere collegata
alle polemiche sui rischi deep fake,
perché con i modelli di generazione di
video uno dei più grandi problemi è la
creazione di deep fake, come che ne so
eh grandi personaggi pubblici che dicono
cose che non hanno mai detto, che fanno
cose che non hanno mai detto e anche dal
fatto che proprio l'utilizzo di Sora 2 è
calato drasticamente. Infatti c'era un
piccolo dato qua, diceva un calo di
interesse di installazioni del -32% a
dicembre e addirittura del -45% a
gennaio. Quindi, sostanzialmente, Sam
Altman ha appunto detto che il motivo è
questo qua del voler riallocare le
risorse. Il motivo, a mio parere, è
tutt'altro perché Open sta vivendo un
momento di forte crisi in primis per
quell'accordo che ha fatto con il
Pentagono, di cui ho anche fatto un
video, quindi se volete andarvelo a
vedere andatevelo a vedere che
sostanzialmente ha suscitato enormi
critiche da parte della community. Vi
spiego brevemente la faccenda. Cloud,
l'intelligenza artificiale di Antropic
stava eh siglando un accordo abbastanza
importante con il Pentagono, che poi per
motivi etici è venuto meno e OpenI si è
infilata subito dopo per siglare questo
accordo e sostanzialmente fregandosene
sostanzialmente di tutta quella che era
l'etica, le ragioni per cui Cloud aveva
rifiutato e questo aveva sollevato un
polverone anche abbastanza importante
che ha portato a un grosso movimento,
diciamo, antiopen AI, anti chat GPT.
Molti utenti, infatti si sono
disiscritti dagli abbonamenti di Chat
GBT e hanno proprio disinstallato
l'applicazione in favore di Cloud. C'era
proprio le notizie che Cloud stava
sorpassando eh in classifica delle
applicazioni Char GPT. E oltre a questo
c'è anche un altro elemento molto
importante, il fatto proprio che i
sistemi come Cloud e Open Clow stiano
avendo un enorme successo. la questione
della programmazione, la questione di
creare agenti AI, la questione di poter
attraverso il telefono mandare messaggi
al computer che faccia determinati
compiti attraverso l'intelligenza
artificiale è attualmente potremmo
definirla una moda, potremmo definirlo
un modo di utilizzare l'intelligenza
artificiale che sta andando veramente
forte e Open AI che ha in totale crisi
al momento perché i suoi modelli non
vengono scaricati perché eh Char GPT non
sta andando bene e altro vorrebbe vuole
in realtà cercare di tornare
competitiva, a mio parere vuole cercare
di tornare competitiva cercando di
concentrarsi su quei settori che al
momento stanno andando bene per altri
modelli di intelligenza artificiale. Non
so se sia la mossa giusta, la mossa più
adatta, però mi interessava appunto far
notare come OpenI si stia spostando
proprio per cercare di seguire quelle
che potremmo definire le mode. Questo,
per esempio, era il post che avevano
scritto su Sora su X e stiamo dicendo
addio all'applicazione di Sora, a tutti
quelli che hanno creato con Sora,
condiviso, bla bla bla, insomma, grazie.
queste cose qua se hanno l'hanno
sostanzialmente ufficializzato. Io
ovviamente qua mi son messo nel
documento un po' di link che vi carico
poi in descrizione su YouTube, quindi se
siete interessati potete andare ad
approfondire un po' le questioni. Detto
questo, passiamo alla seconda notizia
che è sempre relativa a Open AI e Cloud.
È sempre su quello che stavo dicendo
prima, ossia che Open AI sta
pianificando una specie di mega
applicazione desktop che riunisca tutte
quelle che potremmo definire tutte le
funzioni di Chart GPT per avere
sostanzialmente tutto in un unico
singolo pacchetto, in un'unica singola
applicazione che possa andare sul
computer desktop. E questo mi fa appunto
ricollegare a quello che stavo dicendo
prima, ossia che il settore di
applicazioni desktop che possono essere
che possono andare autonomamente, che
possono gestire task autonomamente, è un
modo di utilizzare l'intelligenza
artificiale che sta andando molto di
moda. È partito da OpenClow che non so
se lo conoscete che è un modello un po'
particolare di intelligenza artificiale,
anche abbastanza pericoloso in realtà.
Per esempio, anche Nvidia sta cercando
di sviluppare un modello simile. Fatto
sta che si è messa a fare una cosa
simile. Vi faccio vedere adesso anche,
ecco come vi faccio vedere qua. Anche
Cloud si è messo a fare una cosa simile,
si chiama dispatch. E che in che cosa
consiste? Attraverso il telefono tu puoi
dare delle indicazioni a Cloud che
utilizzerà il tuo computer per svolgere
determinate task. è una cosa che sta
andando molto di moda e Open AI,
appunto, sta cercando di eh vuole
investire su questo settore, vuole
cercare di competere, cercando di
includere tutte anche quelle
applicazioni di programmazione come
Codex e altre cose, vogliono anche loro
creare un unico pacchetto. Insomma,
stanno cercando di farsi un po'
concorrenza tutti un po' sulle stesse
cose che sotto certi punti di vista è
una cosa positiva, perché se c'è
concorrenza vuol dire che tutti cercano
poi di mettere un prezzo migliore, di
fare un qualcosa meglio degli altri, è
anche una cosa carina. D'altro canto,
invece vorrebbe dire che tutte le grandi
intelligenze artificiali si stanno
concentrando su un'unica cosa, invece
che magari pensare ad altre cose.
Insomma, è un po' anche qua ci sarebbe
un po' da ragionarsi su, però fatto sta
la notizione, diciamo, detta in termini
generali è che Open AI in crisi totale
sta cercando di modificare la sua
organizzazione, sta cercando di
concentrarsi su altro. Ecco, e l'ultima
notizia di cui vorrei parlarvi oggi è
una notizia un po' forse un po' più
tecnica, anzi non lo so, però che in
realtà ci riguarda un po' più
direttamente. Ecco, io che faccio
giurisprudenza e mi piace guardare un
po' anche l'apparato giuridico di come
viene regolamentata l'intelligenza
artificiale, quindi, non so se voi lo
sapete, è uscito un regolamento europeo
sull'intelligenza artificiale che mira a
regolare appunto l'utilizzo e lo
sviluppo di intelligenza artificiale. Si
chiama l'AICT. vi spiego un attimo che
cos'è e cosa sta succedendo in Europa e
e quindi indirettamente anche in Italia
in tema di intelligenza artificiale.
Perdonatemi se mi sono fatto un po' dei
punti qua, però non è una cosa semplice
da spiegare, quindi avere dei punti per
cercare di chiarire le cose penso sia
utile. Allora, che cos'è eh l'AIC act?
Intanto è un regolamento europeo ed è un
regolamento che mira a garantire
un'intelligenza artificiale in Europa
sicura. E come fai a rendere
un'intelligenza artificiale sicura? Devi
ovviamente regolamentarla in qualche
modo, anche per esempio per come abbiamo
parlato prima dei deep fake, come fai a
prevenire quei deep fake, come fai a
vietarli? Come fai a far capire alle
persone che quel contenuto è generato da
intelligenza artificiale? Eh, ci vuole
una regolamentazione a cui poi le
aziende che sviluppano intelligenza
artificiale dovranno poi sottostare. Ok?
Questo regolamento sull'intelligenza
artificiale pone determinati contenuti.
Il primo, che è un po' quello più
importante, unico più importante, è pone
un approccio all'intelligenza
artificiale basato sul rischio. La
normativa, infatti, classifica i sistemi
di intelligenza artificiale in quattro
livelli: un rischio inaccettabile, un
alto rischio, un rischio limitato e un
rischio minimo. Il rischio inaccettabile
in teoria dovrebbe essere quel tipo di
intelligenza artificiale utilizzata per
il controllo di massa, quello che aveva
portato a tutta la discussione tra Cloud
e il Pentagono. armi utilizzate
unicamente dall'intelligenza
artificiale. Insomma, tutte queste cose
qua che in altri paesi, come per esempio
la Cina esiste già, sono realtà in cui è
già presente un fenomeno del genere,
soprattutto della sorveglianza di massa,
ma che qua in Europa si vuole
assolutamente limitare e vietare. Quindi
ci sono questi livelli qua. Un rischio
inaccettabile, voi pensate a
sorveglianza di massa tramite
intelligenza artificiale è un rischio
inaccettabile ai vietato. Poi via
discorrendo ci sono quelle ad alto
rischio, ci sono quelle con un rischio
limitato in cui chi la sviluppa e chi
produce questa intelligenza artificiale
è sottoposta a limiti di trasparenza e
quelle con il rischio minimo. Insomma,
immaginatevi una piramide con dei
livelli di con dei livelli di
pericolosità. Ecco. Ah, ecco qua,
scusate, qua avevo messo anche per
esempio cosa intendono con intelligenza
artificiale ad alto rischio. Sono, per
esempio, sistemi usati infrastrutture
critiche come l'istruzione,
l'occupazione, la sanità,
l'amministrazione della giustizia in cui
richiedono una valutazione della
conformità, gestione dei rischi e
documentazione tecnica. Ecco, per farvi
capire quali sono i livelli di
intelligenza artificiale, quelli più
bassi sono, per esempio, quelli magari
di generazione di immagini in cui magari
l'azienda che produce quel modello là,
quel software là, potrebbe essere
sottoposta come per esempio su Gemini,
alla posizione del watermark del marchio
in basso a destra per far capire,
attenzione, quel contenuto è generato da
intelligenza artificiale, poi è super
bypassabile quella roba, però comunque
questa è la regolamentazione che
l'Europa vorrebbe attuare in tema di
intelligenza artificiale con ovviamente
anche tutto un apparato sanzionatorio
abbastanza importante. Cosa è successo?
Però allora parte di questo regolamento
è entrato in vigore, un'altra parte di
questo regolamento non è ancora entrato
in vigore. Qual è la problematica? La
problematica è che non sono ancora stati
individuati, non sono ancora stati
sviluppati delle linee guida o meglio
degli standard tecnici per capire quando
una determinata intelligenza artificiale
ricade in una di quelle classificazioni
che abbiamo visto prima o meno. E quindi
nel pratico qual è il problema? che
un'azienda magari sta sviluppando un
software, ma non sa se quel software
utilizzato in quel modo o sviluppato in
quel modo ricada magari nel rischio
inaccettabile, ricada invece nell'alto
rischio, ricada nel rischio minimo. Non
non ci sono proprio gli standard tecnici
o comunque quei quei parametri per
capire quando rientro in una determinata
categoria o meno. Mancano quei
parametri. Inoltre mancano le autorità
di controllo nazionali. Come scritto
qua, gli Stati membri dell'Unione
Europea avrebbero dovuto istituire e
nominare le proprie autorità di
vigilanza sull'intelligenza artificiale.
A marzo 2026 solo una manciata di paesi
lo ha effettivamente fatto. Senza
controllori e uffici preposti il sistema
non può funzionare chiaramente. E
inoltre, in un paese come il nostro, che
è un paese composto, per la stragrande
maggioranza, da piccole e medie imprese,
come ho scritto qua, si stima che
adeguarsi a questi requisiti per i
sistemi ad alto rischio di intelligenza
artificiale possa costare a una singola
azienda fino a €300.000 di burocrazia
iniziale. Capite bene che per una
piccola media impresa può essere una
spesa non indifferente, insomma. Quindi
è per questo che dico che ci può
riguardare tutti in qualche modo. E
inoltre a livello un po' più
concettuale, a livello un po' più di
principi, quindi un po' meno nel
pratico, c'è sostanzialmente quel timore
di perdere competitività in questo
mercato, che di fatto è già così perché
ne non abbiamo intelligenze artificiali
in Europa chissà quanto sviluppate. C'è
Mistral che mi pare sia francese, però
tutte quelle che utilizziamo noi sono
Open AI, sono Gemini di Google, sono
insomma intelligenze artificiali
sviluppate da aziende americane. E
proprio per questo principio qua,
proprio per questa paura qua, l'Unione
Europea ha deciso sostanzialmente di
rinviare questo regolamento a data da
destinarsi, sostanzialmente per cercare
anche di capire come bilanciare il
principio che è anche giusto di tutelare
le persone dai deep fake, di tutelare le
persone dall'utilizzo malsano, violento
anche dell'intelligenza artificiale e
allo stesso tempo di promuovere lo
sviluppo di questa intelligenza
artificiale che comunque per come la
conosciamo oggi in questi ultimi anni è
una tecnologia nuova, seppure esista da
m 50-60 anni, l'intelligenza
artificiale, quella che conosciamo
adesso, che tutti conoscono adesso, è
una tecnologia nuova, quindi iper
regolamentarla subito e potrebbe essere
potrebbe essere anche un problema. Qua
mi dispiace, oggi è andata un po' così,
volevo farvi vedere le cose un po' più
nel dettaglio. Questo, per esempio, è
proprio il regolamento dell'Unione
Europea sull'intelligenza artificiale,
però ovviamente andare a leggerlo sono
144 pagine, diciamo che ve lo lascio in
descrizione. Se volete andarvelo a
guardare va bene, ma sennò ovviamente ci
sono tante altri siti che lo riassumono
e fanno capire un po' il concetto. Eh,
volevo farvi vedere un po' appunto i
siti, mi sono dimenticato, mi dispiace
nel mentre che parlavo e cercherò di
migliorare anche questo aspetto.
Comunque qua questi sono un po' i siti e
Ajact, rinviate l'applicazione delle
norme per i sistemi ad alto rischio i
link ve li lascio tutti in descrizione.
Ecco, detto questo, questo video di
prova finisce qua. Ripeto, è un format
che vorrei fare perché mi piace, è bello
informarsi e penso che sia anche utile
per le persone conoscere un po' eh il
mondo dell'intelligenza artificiale in
maniera anche un po' diversa dal solo
imparare come si utilizza l'intelligenza
artificiale. Secondo me bisogna anche
capire quello che c'è all'esterno e
quello che succede in generale. Ho fatto
poche notizie, in realtà ne ho fatte
tre, in realtà ne ho raccontate come se
fossero due. Magari ne farò di più,
magari ne farò di meno, devo un po'
capire. Spero che sia un contenuto che
possa essere di vostro interesse. Se
avete qualche discussione, se avete
qualche opinione, scrivetemela nei
commenti. Detto questo, questa
chiacchierata finisce qua. Ci vediamo in
un prossimo video. Ciao ragazzi.
Ask follow-up questions or revisit key timestamps.
Il video introduce un nuovo format mensile dedicato alle notizie più importanti del mondo dell'intelligenza artificiale. L'autore spiega che l'obiettivo è ampliare i contenuti del canale oltre i semplici tutorial, offrendo spunti di discussione e informazione su un settore in rapida evoluzione. Vengono presentate tre notizie principali: la chiusura di Sora 2 da parte di OpenAI, il lancio di una mega-applicazione desktop da parte di OpenAI e l'introduzione dell'AI Act europeo. Viene analizzato il possibile declino di OpenAI, citando la controversia sull'accordo con il Pentagono e il successo di competitor come Anthropic, e si discute dell'AI Act europeo, spiegando la sua classificazione dei rischi legati all'IA e le sfide legate alla sua implementazione, come la mancanza di standard tecnici e autorità di vigilanza, oltre ai costi per le PMI. Si sottolinea la necessità di bilanciare la regolamentazione con la promozione dell'innovazione per non perdere competitività nel mercato globale dell'IA.
Videos recently processed by our community