HomeVideos

Megfejtjük az AI hypeot

Now Playing

Megfejtjük az AI hypeot

Transcript

2865 segments

0:01

[zene]

0:07

Köszöntünk mindenkit. Sziasztok! Szia

0:08

Gyuri. Szia Gergő! Ez egy nem mindennapi

0:12

adás. Kizárólag az AI-ról szeretnék

0:14

veletek beszélgetni. Rengeteg gondolat,

0:17

érzelem felgyűlt bennem itt. Nem tudok

0:19

elmenni egy konferenciára nélkül, hogy

0:21

ne az legyen a téma, hogy AI, AI és mert

0:23

csak erről lehet beszélni. Ez ez előre

0:25

lelövöm. Ez ez nekem egy ilyen sokkoló

0:27

és nagyon unalmas érzés. Tehát inkább

0:29

már irritál, de arra gondoltam, hogy

0:31

akkor beszélek szakemberekről, hogy hogy

0:33

ez az irritáció ez ez jogos-e egyáltalán

0:35

vagy nem. Gyuri egyébként már volt itt

0:37

nálunk a Hold After Hours podcastben.

0:41

Gyuri, a még a trezoridban dolgoztál

0:43

akkor és emlékszem egy egy mondásodra,

0:45

hogy hát helyreettél bennünket, hogy itt

0:48

Warren Buffetezhetünk, hogy az Buffet a

0:50

hagyományos iparákba fektet, de

0:51

valójában az elmúlt 10 évben a a legjobb

0:54

befektetés az az Apple volt, úgyhogy a

0:56

Buffett is igazából tech befektető, én

0:57

erre emlékszem évekkel ezelőtti

0:59

podcastunkból. Gergőt pedig Gyuri által

1:02

ismertem meg, illetve ti most a

1:03

kódésage-ben együtt dolgoztok, és

1:06

dolgoztok ugye nekünk a holdnak is

1:07

segítetek.

1:09

Én azt nem tudnám jól leírni, hogy

1:10

pontosan miben, úgyhogy azt majd úgy is

1:12

elmesélitek, úgyhogy kérlek először

1:14

mielőtt belevágunk a témákba, azért

1:16

mutatkozzatok be pár szóban.

1:18

>> Jó, kezdem én. Köszönöm szépen Balázs

1:19

nagyon a meghívást. Ö, Dombi Gergely

1:22

vagyok, eredetileg matematikus, aztán

1:24

egy jó jó darabig szoftverfejlesztő, és

1:27

2006-ban alapítottam a Sonriza nevű

1:31

céget, Szurd Miklós barátommal, aki

1:33

gimnáziumi iskolatársam volt, és hát ez

1:36

szépen cseperedett. Most már több mint

1:37

300 kolléga van

1:40

hat telephelyen, négy országban. Ez az

1:42

egyedi fejlesztéssel foglalkoztunk,

1:44

főleg jó részt legacy

1:46

szoftverrendszereket csináltunk. És

1:48

akkor ahogy Balázsnak is

1:51

a az AI az az fontos szerepet tölt be az

1:54

életéből hát nekünk is. És mi azt vettük

1:56

észre, hogy és azt erre alapítottuk a

1:58

code-et, hogy ezeket a legacy

2:00

rendszereket

2:02

kiválóan lehet feltérképezni,

2:05

aztán utána modernizálni és karban

2:06

tartani AI segítségével. Erre jött létre

2:09

a kódge, és én most ezt csinálom a

2:11

élnappal.

2:12

Gyuri,

2:14

>> köszönöm szépen a meghívást, és

2:15

köszöntöm én is a hallgatókat. Én

2:18

Sziláyi György vagyok és ahogy Balázs

2:21

már elspoilerezte, én korábban a

2:23

Trezorit nevű

2:26

magyar globális startupnak voltam az

2:28

egyik társalapítója, amit négy évvel

2:31

ezelőtt eladtunk, és

2:35

a trezorit után ismét egy elég nagy fába

2:37

vágtam a fejszimmet. Én szeretem ezeket

2:39

a globális kihívásokat és Gergőel és

2:42

Miklósal együtt a kócisben azon

2:45

dolgozunk, hogy hogy az AI-t elvigyük

2:47

azokra a területekre, akik egyébként

2:50

ezeket a kereskedelben kapható

2:52

köztályonforgó neveket, mint LGPT vagy

2:55

copildot nem feltetlenül használhatják.

2:57

Tehát ilyen szabályozott iparágakban,

2:59

bankok, biztosítók, energetika,

3:01

államigazgatás.

3:03

Na de ez egy kicsit még arról meséljetek

3:04

már, hogy úgy igazán konkrétan miben

3:06

segítetek nekünk, vagy akár másoknak.

3:09

onnan kéne talán kezdeni, hogy azt

3:11

érdemes felhívni rá a figyelmet, hogy

3:14

muk a Fortune 500 cégek, de de nem csak

3:17

a Fortune 500 cégeknél, a az enterprise

3:19

szoftvereknek így körülbelül 70%-a az

3:22

legalább 20 éves. Tehát ez most így

3:25

lehet, hogy sokak számára sokkoló meg

3:26

meglepő, mert a mert az informatikát

3:28

általában az innovációból azonosítja a a

3:32

legtöbb ember. Hát köz köztem magam is

3:35

egyébként, tehát ez számomra is meglepő

3:37

statisztika volt nyilván, amikor

3:38

olvastam, de ettől még ez a ez a tény.

3:41

És ez azt jelenti, hogy a a gazdaság

3:44

elég nagy részét adó vállalatoknak, az

3:47

informatikájának egy egy nagyon

3:49

szignifikáns része olyan szoftverek

3:52

által van működtetve, amiket jó pár

3:54

évtizede csináltak. És ezzel az a

3:56

helyzet, hogy ezeknek a szoftvereknek

3:57

ezek ugye egyedi informatikai

3:59

rendszerek, a fejlesztői, azok most már

4:01

eléggé hogy úgy mondjam, megközelítették

4:04

a nyugdíjas éveiket. És ennek az a

4:07

következménye, hogy ahogy telik múlik az

4:09

idő, egyre kevesebb ember ért majd

4:11

ezekhez a rendszerekhez, és sőt már a

4:12

helyzet jelenleg is ez. Tehát ez egy

4:15

nehéz nehéz probléma. És a a másik

4:18

érdekessége ennek a ennek a szektornak

4:20

az az, hogy ezek közül elég sok olyan

4:24

szervezet, ami valamilyen oknál fogva

4:25

általában az ilyen reguláció, valamilyen

4:27

complánszak okokból nem is mehet

4:29

cloudba, vagy legalábbis nem használhat

4:31

cloudos AI eszközöket. És ugye a

4:33

kócésben mi ezt célozzuk, ezt a

4:35

közönséget. Tehát azon vállalatok, akik

4:37

valamilyen regulált iparágban vannak,

4:39

többnyire nem feltétlenül, de valamiért

4:41

van egy olyan döntése, hogy nem nem

4:42

cloudos eszközökkel dolgoznak, hanem

4:44

onpremis. Tehát fontos nekik, hogy náluk

4:46

legyen a adatközpontba

4:48

az informatikai rendszerek. És egyébként

4:50

küzdenek valamilyen problémával. valaki

4:52

nyugdíjba ment, vagy egy vendor, aki

4:54

dolgozik nekik, mondjuk nem elégedettek

4:56

vele, vagy épp ellenkezőleg csak az a

4:58

baj, hogy a vendor elmenne

5:00

illetve mondjuk egy nagy modernizációs

5:02

programban kezdenek, tehát hogy

5:03

valamilyen trigger kiváltja azt az

5:06

igényt, hogy hát ezzel valamit kezdeni

5:07

kell ezzel a legacyval, és igazából

5:09

egy-két emberen kívül senki nem ért

5:10

hozzá. Itt jön be a képbe a Cage.

5:13

>> Tehát a COD a az AI piacnak egy elég

5:16

speciális szegmensével foglalkozik

5:19

alapvetően, hogy mi szoftver projekteket

5:21

modernizálunk. És talán Gergőt még

5:22

annyival egészíteném ki, hogy mi azt

5:25

tapasztaltuk, hogy egyszerűen ez egy

5:26

ilyen törvényszerűség az informatikában,

5:28

hogy egy szoftver projekt az az

5:30

létrejönjön, ugye egy speciális célt

5:33

betöltsön, kiszolgáljon, és utána telik

5:36

múlik az idő, ez a rendszer, ez

5:37

általában jól működik, teszi a dolgát,

5:40

de azon túl, hogy hogy idősek lesznek

5:43

azok, akik ezt eredetileg tervezték, az

5:46

a technológia is elavultá válik és az

5:48

informatikában azok az eszközök, amikkel

5:51

ezeket a szoftvereket készítik és nagyon

5:53

gyors

5:54

ütemben avulnak el és jönnek modernebb,

5:57

újabb könyvben használtó eszközök. És az

5:59

az a generáció, akinek át kellene venni

6:01

ezt a ezt a

6:03

új új ezt a régi rendszert és

6:05

modernizálni, nem csak, hogy nem

6:08

rendelkezik olyan ismeretekkel, hogy

6:09

hogyan működik, vagy mi lenne a célja az

6:11

adott szoftvernek, ha de a technológiát

6:12

sem ismeri, mert mondjuk ilyen

6:14

technológiákat az egyáltalán meg lehet,

6:16

hogy 20-25 éve már nem tanítottak. És

6:19

mire esetleg meg is történik egy ilyen

6:20

modernizációs ciklus, ezek jellemzően

6:23

nem hónapokban, hanem inkább években,

6:26

kritikus rendszerek esetén akár

6:28

évtizedben ismerhetők, amire egy ilyen

6:30

modernizáció végrehajtó gondoljunk, vagy

6:33

tényleg ilyen kritikus rendszerekre,

6:35

mint egy atomerőműnek a

6:37

vezérlő szoftvere vagy egy corban banki

6:41

rendszer, addirra az a az a technológia,

6:43

amivel modernizáltak, már szintén alagút

6:45

elválik, és az egész ciklus kezdődik

6:47

előlről.

6:48

Mondod Gyuri, hogy ti egy ilyen

6:49

speciális dologgal foglalkoztok meg,

6:51

akkor leírtátok, de én valójában azért

6:53

hívtalak meg benneteket, mert most itt

6:54

itt az asztalál ti vagytok a nem tudom

6:56

az AI általában vett képviselői, tehát

6:59

egy lépj lépjetek ki itt a abból a

7:02

dologból, amiről azt gondoljátok, hogy

7:03

ti csak ahhoz értetek és hagyzúdítsam

7:06

rátok a a tényleg a minden felgyűlemlet

7:08

frusztrációmat a témával kapcsolatban.

7:10

Szóval arról van szó, hogy ugye én két

7:12

két helyen találkozom az AI-jal, és az a

7:15

másodikról a a az őzsde, amiről itt is

7:17

sokat beszélünk a podcastban, arról

7:18

később beszéljünk. Most inkább a

7:19

személyes részét veszem elő. Tehát az

7:22

egyik az az, hogy mint mint egy

7:23

cégvezető, ugye hát én így sokat járok

7:25

konferenciákra. A cégvezetők sokat

7:27

járnak konferenciára, én meg különösen,

7:29

mert mert ott szoktam beszélni

7:30

mindenféle gazdasági témákról másoknak.

7:33

És és hát az elmúlt évek azok tényleg

7:35

arról szólnak, hogy én azt látom, hogy

7:37

kialakult egy ilyen hát mond hiv

7:39

hívatjuk hype-nak, de ez ezt olyan

7:41

szempontból rosszabb, hogy ilyen ezek a

7:43

szólásmondások, mint hogy aki kimarad,

7:45

az lemarad, meg húha neked még nincsen

7:47

AI szakértőd, meg fogunk-e másról

7:50

beszélni, mint a mint a az AI-ról két év

7:53

múlva, mertogy ez annyira fontos lesz,

7:55

hogy hogy márról már nem is lehet

7:56

beszélni, és nekem folyamatosan mind

7:58

racionálisan, mind zsigerileg is az

8:00

érzésem, hogy hogy úristen, mi történ

8:02

történik itt. Én ezzel így mélyen nem

8:04

értek egyet. Persze az ember, hogyha

8:07

megszólal, akkor akkor hamar megkapja,

8:09

hogy hát ki vagyok én? Hát hát én nem

8:10

vagyok AI szakértő, hát én egy ilyen

8:12

átlagos közgazdász vagyok. Tehát tehát

8:15

nem lehet véleményem. Biztos nem értem.

8:16

Az én munkámat is el fogja venni az AI.

8:18

És hát ez ez Szóval én én ezzel a ezzel

8:20

a frusztrációval eléggé küzdök, és ezt

8:23

folyton érzem, és ezt egy kicsit hagyd

8:24

hagd magyarázzam tovább. Tehát én a

8:26

nyáron egyébként sokat foglalkoztam

8:28

azzal, mint a mint ennek a cégnek a

8:29

vezetője, hogy ugye ez a mivel mi mire

8:32

használunk AI-t, és ugye dolgozunk

8:34

például veletek, meg nyilván a kollégák

8:36

is használják a chat GPT-t, a Gemini, a

8:39

Antropicot, a nem tudom, a Perplexity,

8:41

tehát ezek ezek ezeket ezek ez ezek úgy

8:44

úgy nálunk is megvannak.

8:46

És az emberek ezeket napi szintte

8:47

használják, és akkor a marketing

8:49

használja erre, arra satöbbi. Ezeket én

8:51

én mind valójában kiegészítő funkcióknak

8:53

látom. embert nem fog helyettesíteni,

8:56

egy kicsit segít. Ami engem igazából

8:58

érdekelt, az az, hogy ugye a

8:59

fundamentális elemzést, amivel mi

9:01

foglalkozunk, azt azt le tudja cserélni

9:03

igazán. Van-e valami nagy fenyegetés.

9:06

Ezzel én sokat foglalkoztam. Ez azt

9:07

jelenti az én szintem, hogy beszéltem

9:09

hat-hét olyan emberrel, aki szerintem

9:10

ért hozzá. Az egyik te voltál, Gyuri. Én

9:13

én viszonylag erősen meggyőződtem, hogy

9:15

nagyon kell ezeket használni, nagyon

9:16

kell figyelni, de nagyon messze vagyunk

9:18

attól, hogy igazából a és most nem

9:20

megyek bele itt a fundamentális

9:21

elemzésnek a a néhány pontjában, én azt

9:24

gondolom, hogy még ettől távol vagyunk,

9:25

hogy ezt hogy ezt helyettesítsük. A

9:27

másik, ami amit érzek, az az, hogy az AI

9:30

az egyelőre

9:32

leginkább, és persze van orvosi

9:34

diagnosztika meg sokféle más dolog, de

9:36

leg leginkább ez a large language

9:38

models, és ezt használjuk mi is nagyon

9:40

sokat, és mások is. És tényleg nagyon

9:42

izgalmas, ugye mondják sokan, és ezzel

9:44

egyetértek, hogy ez egy ilyen

9:45

felturbózott Google. Ezt igazából minden

9:49

nagy cég elkezdte használni. Ugye van ez

9:52

a Final times írogatja a cikkeket, vagy

9:54

nem tudom, Mckinzi kutatás szerint 80%-

9:57

a nagy cégeknek használja. Ebből ugye

9:59

nulla érzi azt, hogy bármiféle

10:01

termelékenység vagy

10:02

profitabilitásnövekedés lenne. És közben

10:04

azt érzem, hogy ez tényleg nagyon jó.

10:06

Tehát én én magam is minden nap

10:07

használom. Mégis ezt a hype-ot, ami ami

10:10

ugye azt írja elő, hogy ez ez valami

10:11

gyorsuló fejlődésben lenne, vagy hogy az

10:13

agi, ami ugye azt jelentené, hogy valami

10:15

olyasmi, ami már egy emberrel

10:16

versenyképes, ahhoz így közelednénk,

10:18

ahhoz így se zsigeri megérzésem alapján

10:20

egyáltalán nem közeledünk. És akkor

10:22

jönnek ki ezek a statisztikák, hogy nem

10:24

tudom a hozzáértő kutatók 80%-a vagy

10:27

75%-a volt egy ilyen Financial Timeson,

10:29

egy ilyen címlap, és azt nyilatkozta,

10:31

hogy nem úgy tűnik, hogy igazából

10:32

közelebb mennénk a a az AGhoz. Ehhez

10:34

képest én a konferencián azt látom, hogy

10:36

mintha mindenki ezzel foglalkozna és ezt

10:38

egy adottságnak venné. Közben egyébként

10:40

a tőzsde ugye a másik nekünk ugye nagyon

10:43

fontos topik, ha úgy tetszik, akkor az

10:45

az az folyton mintogyha valami ilyesmit

10:47

árazna. Most még ne menjünk bele a a big

10:49

tech cégekbe, de hogy hogy igazából

10:51

általánosságban akarok veletek

10:52

beszélgetni erről, hogy hogy szerintem

10:54

is nagyon hasznos, használni kell, nem

10:57

becsülöm alá a területeket, de de hogy

10:59

ami itt van, az az valami borzasztó

11:01

túlzás. És hát szegény emberek, akik nem

11:03

értenek hozzá, mint én, úgy érzem, hogy

11:06

megpróbálnak minket megvezetni. Erre

11:08

mondjatok valamit?

11:10

>> Hú, hát ez rengeteg téma. Nem is tudom,

11:12

hogy hol érdemes ebbe belekezdeni. Én

11:14

lehet, hogy hogy elkezdem ettől a

11:16

hyp-tól, mert ezt ezt nyilván

11:18

mindannyian érezzük. Ö és és hogy nem

11:21

csak szerintem az a az a nagyon érdekes

11:23

a az AIAL, hogy ez beszivárgott a

11:25

mindennapi életünkbe. Tehát nem csak

11:27

szakmai, pénzügyi, technológiai meg más

11:31

iparagi

11:32

üzleti konferenciákon, meg egyébként nem

11:34

tudom szabályozásban, remélem, hogy erre

11:37

is ki fogunk térni. Szerintem ez is

11:39

nagyon érdekes van jelen az AI, hanem

11:41

hanem ez a mindennapi életünk része.

11:43

Lehet, hogyha megnézzük, akkor a Chat

11:45

GPT volt a világ leggyorsabban nem tudom

11:48

x milliót elérő konzumer alkalmazása,

11:52

tehát gyorsabban növekedett a

11:53

felhasználó bázisa, mint a Facebooknak,

11:55

ami az is hihetetlen gyorsan elért már.

11:57

Nagyon könnyű olyan videókat készíteni,

12:00

amik korábban

12:02

ilyen filmes produkció szintű több

12:04

100000 dolláros videók voltak. Tehát,

12:06

hogy egyébként úgy gondolom, hogy ez

12:08

azért nagyon komplex ez az AI kérdés,

12:10

mert hogy t a társadalom minden

12:12

szegletében ott van, és hogy ami az első

12:15

gondolat, ami eszembe jutről, amit

12:17

mondtál, ami tényleg egy nagy csomag, az

12:19

a Bill Gates-nek az idézete, hogy hogy

12:22

általában két éves időtában minden

12:23

technológiának a hatását azt felül

12:25

szoktuk becsülni, 10 éven belül pedig

12:27

alulbecsüljük. Szerintem a mióta ugye a

12:31

Gergő mindig szereti azt mondani, hogy a

12:33

hogy az AI az nem a chat GPT óta van itt

12:35

velünk, hanem 50 éve

12:38

>> kábé

12:40

>> velünk van, de azért a Chat GPT az

12:41

eléggé berúgta az ajtót a mesterséges

12:44

intelligencia használatára.

12:46

Szerintem nem kevés ami történt itt

12:48

három év alatt. Rengeteg a óriási a

12:51

hype, az az nem kérdés. Rengeteg a az az

12:55

ember, aki ezt a hype-ot meglovagolva

12:58

nagyon gyorsan eddig mondjuk kriptó

12:59

szakértő volt, mert eddig az volt a cool

13:02

dolog, most hirtelen AI szakértő lesz.

13:04

Tehát hogyha mondjuk LinkedIn

13:05

nézegetjük, akkor akkor akkor nagyon

13:07

sokan nyilatkoznak meg ebben a témában.

13:11

>> Fú, a LinkedIn, hát azt direkt nem

13:13

mondtam, az az a legrosszabb. Tehát,

13:14

hogy tényleg a a LinkedInt az

13:15

tönkretette az AI, persze a Facebookot

13:17

is, de hogy

13:18

>> az internetet is.

13:18

>> De hát de nem, de tényleg. Tehát meg hát

13:21

hány minden cégvezető az AI-ról

13:22

nyilatkozik. Tehát na mindegy, ez egy

13:24

másik ilyen.

13:25

>> Igen. És és akkor talán mindjárt

13:26

>> az internetet más miatt szerintem. Tehát

13:28

ilyen átlagosak a contentek, hogyha

13:29

megnézitek, hogy milyen tehát megyünk

13:31

egy ilyen az átlagosság kora felé

13:33

konvergálunk kávé. Ugyebár, hogyha a

13:36

szövegek az interneten AI-val

13:39

generálódnak egyre nagyobb számba, és ez

13:41

egy ilyen komoly feedback loopal van

13:43

tesztelve, hogy melyik szöveg mikor jó,

13:45

és nyilván egyre jobb lesz, mármint,

13:47

hogy abb az értelemben jobb, hogy

13:48

nagyobb engagement lesz, meg ami a

13:50

hirdetőnek meg a aki a kopit megrendeli

13:53

a célja minden egyre átlagosabb lesz.

13:56

Tehát szerintem a az egy érdekes dolog,

13:58

hogy igen. És a különleges, az emberi

14:01

különlegesség az megmarad.

14:02

>> Mindenki ilyen ruhamoztagos lesz.

14:04

mindenkiről mozdagos lesz. Igen.

14:07

>> Na bocs, LinkedIn, folytasd. C az egy

14:09

másik az egy másik frusztráció, ami ott

14:11

történik.

14:11

>> Igen. Tehát a hypes szerintem ami ami

14:14

hogyha mondjuk menjünk át talán a

14:16

gazdasági térbe, szerintem a az az itt a

14:19

talán a hallgatóknak a legérdekesebb,

14:21

hogy hogy én hogyan is nézem az AI.

14:23

Tehát én azt gondolom, hogy hogy

14:26

cégvezetők

14:28

különösen akik tőzsdényzett céget

14:30

vezetnek, a legfontosabb feladatuk az,

14:33

hogy és a mandátumunk arra van, hogy

14:35

növeljék a részvény árfolyamot. Erre

14:37

ugye két fő eszközük van. Vagy az, hogy

14:39

a

14:40

tradicionálisan az, hogy a profitot

14:43

növelik, de hogy azért 2025-ben nem

14:46

szabad elfeledkezni, hogy a hype meg a a

14:48

sztorinak a az értéke az az mennyire

14:50

fontos. megnézzük Nazdak részvényben,

14:52

hogy milyen papereráták vannak, akkor

14:54

azért látjuk ennek a a hyp-nak a jó

14:57

átlásosá maga a hype? Olyan, mintogyha

14:59

azt mondanád most, hogy a cégvezető

15:00

feladata hype-ot csinálni.

15:02

>> Nem hát hogyha hype hozzájárul a ha hype

15:05

hozzájárul a értékteremtés kvázió,

15:08

hogyha ezt értéknek gondolhatjuk, akkor

15:09

akkor talán igen.

15:10

>> De a profithoz is hozzáerül, vagy a csak

15:12

a részfényelfilamhoz?

15:13

>> Hát azt nem látjuk még. Ugye már a open

15:15

nem mindig diszklózolja, sőt most csak

15:17

így véletlenül derült ki, hogy mennyi a

15:19

mínusz profit. De de hogy nyilván

15:22

rövidtávon nincs ott profit, ahol még a

15:24

beruházás szakaszban vannak, de nem

15:27

tudom. Hát high persze jó a profitnak

15:30

teoretikusan, szóval gondolom nem

15:31

mutassák, hogy csinálják, de a

15:33

befektetőknek még jobb talán.

15:35

>> Hát a befektetőknek még jobb. És és

15:36

akkor én én én a visszakanyarodva ehhez,

15:38

hogy hogy mitől lesz magas a

15:39

részvényelfam, az egyik az a profit, a

15:41

másik a hype. Most most minden cégbő

15:43

megpróbálja magát pozicionálni az AI-ba,

15:45

mert az a az a cool dolog, ami hogyha

15:50

egy Cool, akkor biztos többet érs

15:52

beleképzeljük majd, hogyha AI-t használ,

15:54

akkor biztos gyorsabb lesz, meg jobb

15:56

minőségű, meg kevesebb munkatársal

15:59

elérik ugyanazt az eredményt, és nap

16:00

végén ez valamilyen előnyt fog

16:02

jelenteni, ami a profiban is megjelenik.

16:04

De egyébként amit én én én látok, hogy

16:07

az AI az egy ilyen jó kifogás arra, hogy

16:10

hogyan lehetne mégis csak a jelenben

16:12

javítani a profitot. Elsősorban ugye a

16:14

költségcsökkentésen keresztül. És akkor

16:17

jönnek mindenfajta hírek azzal

16:20

kapcsolatban, hogy hogy kisebb cégek

16:22

hány 100, nagy cégek hány 1000, vagy

16:24

akár 10000 munkatársat küldenek el, és

16:27

hogy van, aki bevallja, hogy az amiatt,

16:29

mert hogy azér miatt azt gondolja, hogy

16:31

hogy kevesebb munkatásra szükség is van

16:33

olyan, aki meg becsomagolja abba, hogy

16:34

hát nem a kultúra miatt küldtünk el

16:37

12000 embert az Amazont-tól, de hogy én

16:40

azt látom, hogy minden cégvezető keresi

16:42

azt, hogy hol tud egyébként

16:44

megtakarítani, amikor az é akkor okot

16:46

Tehát az csak egy magyarázkodás, vagy ez

16:48

a magyarázat, de nem az való engát, hogy

16:50

a covid alatt nagyon nagyon túl

16:52

staffoltak ezek a nagy tech cégek. Tehát

16:54

hogyha megnézitek, hogy a Google-ba és a

16:55

metába is hány embert, összes ilyen

16:57

fangcégben hány embert vettek föl,

17:00

kicsit ilyen fomózásba, hogy ne a

17:02

konkurenciához menjen, és hát egyszerűen

17:04

az túl volt tolva, tehát az nem volt

17:06

racionális. hogy most van azért elég sok

17:09

insider információm ilyen asztal melleti

17:12

beszélgetésekben, hogy mi történik

17:14

azért. És nekem is az a tapasztalatom,

17:16

tehát mondjuk egy startup cégben, mint a

17:18

code nem feltétlenül az működik a

17:20

legjobban, aki egy nagy vállalatban is

17:22

jól működik. Tehát ez

17:24

ott azért más skillek kellenek az

17:26

érvényesüléshez. És azt gondolom, hogy

17:27

túl volt egy kicsit staffolva az összes

17:29

nagy cég, és ez most egy nagyon jó,

17:31

nagyon jó ilyen csomagolópapír ahhoz,

17:33

hogy miért kell elbocsátani 10000

17:34

embert, hogy hát még majd az tehát, hogy

17:36

dupla élő. Tajuldonképpen lehet mondani

17:38

a külvilágnak, hogy mi már éarra

17:40

hatékonyak vagyunk plusz

17:41

költségcsökkentés.

17:42

>> Ez igazából igen dupla pozitív él.

17:44

>> Igen, dupla pozitív. Na, ezeknél a

17:47

cégeknél is, meg tehát a kisebb nazdak

17:49

cégeknél is a hype egy rész szerintem

17:51

abból jön, hogy azért kell ezt venni,

17:53

azért fektetek a Nazdlag 100-ba,

17:55

merthogy hát nem tudom mikor, de majd

17:58

itt lesz valami nagy robbanás, ugye lesz

18:00

AGI, tehát szinte olyan lesz a

18:02

mesterséges intelligencia, mint amit az

18:04

ember tud. Ebből én nem akarok

18:06

kimaradni. Ezt én is azt gondolom,

18:08

hogyha val hogyha céget kell vennem

18:09

arra, hogy azt gondolom, hogy ez

18:10

valamikor lesz, hát akkor én is a Nazdag

18:11

100-zal próbálkoznék. Ugye mi

18:13

racionális? Akkor ebből mi következik?

18:15

akkor megveszem a Naznakot. Nyilván az,

18:16

hogy milyen szorzókon forog már, meg

18:19

hogy ez racionális, az most egy másik

18:20

kérdés, de nyilván Amerikában is

18:22

rengeteg kisbefektető gondolkodik így.

18:24

És egyébként ezek a cég is sejtetik

18:26

szerintem néha ezt, hogy hát igen, igen,

18:28

hát úton vagyunk a nem tudom, a

18:29

nirvánába, a nagy csodához, és akkor

18:32

kicsit maradjunk ilyen filozófikus

18:33

szinten.

18:35

Vagy hát próbáljátok meg konkretizálni

18:37

az AGI-nak azt azt a dolgát, hogy hogy

18:40

mikor lesz ez szerintetek rális-e ez?

18:42

Jött ez a cikk is, hogy nagy

18:44

matematikusok megírták, hogy és akkor

18:46

nyilván egy izé kukot nem értek abból a

18:49

cikkből, de de bejárta az internetet

18:51

talán fél évvel ezelőtt, most nem is

18:52

tudom pontosan. És hogy ha ez így megy

18:54

tovább, akkor 2027-re le van vezetve,

18:56

hogy itt lesz az AGI, és akkor hát akkor

18:59

tényleg akkor tényleg minden más. Tehát

19:00

akkor elfogadom, hogy akkor én itt

19:02

nyomozgathattam nyáron, hogy a

19:03

fundamentális elemzést éppet, és akkor

19:04

ugye előbb-utóbb mindent helytesített,

19:05

akkor bizonyos szempontból értelmetlen

19:07

gondolkoznia bármiz ilyen cégvezetőnek

19:08

bármin. De hogy kíváncsi vagyok, hogy

19:11

erről mi a véleményetek, mert mert ez

19:12

így mindig ott van a háttérben, hogy hát

19:14

így ettől ettől így félünk is, meg meg

19:16

ezen így meg ezt így várjuk is, és akkor

19:18

akkor akkor ez ilyen ez ilyen

19:19

armageddonszerű óriási változás lesz a

19:21

világban.

19:23

Hát ez egy elég nehéz kérdés, és és

19:25

szerintem nagyon azon múlik a válasz rá,

19:27

hogy hogy definiáljük, hogy mi az a mi

19:29

az az AGI, mert annak a definíció az

19:31

most az elmúlt időszakban kapott ilyen

19:33

mindenféle halvány valjszínű árnyalatot,

19:35

hogy hogy a ha minimum 100 milliárd

19:37

dollárt csinál profitba, akkor az már a

19:40

állítólag

19:42

a copyright open AI vagy Microsoft is.

19:46

Ö, szóval szerintem, hogyha úgy

19:48

definiáljuk a az a-t, hogy a a különböző

19:51

tevékenységek döntő többségében

19:55

lényegesen jobb, mint az ember, vagy az

19:57

összes intellektuális tevékenységben,

19:59

most hogyha ez igazából kábé mindegy,

20:02

akkor akkor azért azt gondolom, hogy én

20:05

én tudom melyik cikkre gondolsz, ez egy

20:06

ilyen elég kemény Doomer

20:08

manifesztó az a 202.

20:10

>> Hát az titeket is elért. Ha engem, akkor

20:12

titeket biztos ugye az a 2027

20:15

>> elég hamar. Az az az szerintem az az egy

20:18

ilyen viszonylag, mert azt én követtem

20:19

azt a fiút, aki írt az olyan lesz rongon

20:21

irogatott már elég régóta, évek óta és

20:24

az az igazság, hogy eddig mindig bejött,

20:25

amit írt. Tehát, hogy az elmúlt

20:27

időszakig kábé hónap pár hónapos

20:31

csúszással jöttek be a dolgok. Ő ilyen

20:33

alignmenttel foglalkozott open AI-ba a

20:35

srác alignmentet elmondod, hogy pontosan

20:38

micsoda.

20:39

>> Igen. Nagyjából arról szól a a dolog, és

20:40

szerintem ez egy őrült izgalmas kérdés,

20:42

hogy hogy a modell azt csinálja-e, most

20:45

maradjunk az AI-nak ebben a

20:47

értelmezésében, amit mostanában az

20:49

emberek így AIt használnak, hogy mondjuk

20:52

ilyen nagy nyelvi modell vagy valami

20:53

ilyesmi, ami neuronháló mindenesetre. És

20:56

a a az, hogy azt csinálja, amit amit mi

20:59

szeretnénk. Tehát ö ugye a modellnek

21:02

igazából alapvetően azt feltételezzük,

21:04

hogy céljai nincsenek, legalábbis most

21:06

még jelenleg ez a helyzet, vagy ezt

21:08

reméljük, és hogy azok a céljai vannak,

21:10

amiket mi célokként átadunk neki. Tehát,

21:12

hogy ő tulajdonképpen tényleg olyan

21:13

értelemben, hogy agent, vagy mit tudom,

21:15

hogy tevékenykedik valakinek a nevében.

21:17

És

21:18

hát ugye az alignment kutatásnak ez egy

21:20

ez egy nagyon érdekes területe így

21:22

magának az él biztonságnak, hogy na most

21:24

még azt csinálja-e, amit amit mi

21:26

szeretnénk. És az a az az érdekesség,

21:29

hogyha belegondoltok,

21:31

hogy ez annyira nem törvényszerű, hogy

21:33

szinte biztos, hogy előbb-utóbb nem így

21:35

lesz. Ez ez most és nem akarok senkit

21:37

igetni, csak úgy ezt azért nem árt nem

21:39

árta elmondani. Tehát ugye most jelenleg

21:41

eddig most mondjuk menjünk vissza egy

21:43

pár évet az időbe, mondjuk legyen 2022,

21:47

addig igaz volt, hogy körülbelül a az

21:49

ilyen

21:51

mélytanuláson alapuló vagy akármilyen

21:54

tulajdonképpen mesterséges intelligencia

21:56

rendszereket

21:58

emberek fejlesztették. Tehát az az, hogy

21:59

azok jobbak legyenek, ahhoz emberek,

22:01

méghozzá jó kutatóknak a kontribúciója

22:03

kellett. Most képzeljük el azt a

22:05

helyzetet,

22:07

és azért most már borderline, hogy ott

22:09

vagyunk, sőt tulajdonképpen azt kell,

22:10

hogy mondjam, hogy most már kábé ott

22:12

vagyunk, hogy a a leg az újabb

22:15

modelleknek a fejlesztéséhez most már

22:18

nem feltétlenül lesz szükség a legjobb

22:20

kutatókra. Egy egy érdekes dolog van.

22:23

Tehát nagyon sok mindenben már most

22:25

sincs feltétlenül. És ami talán a

22:28

leginkább ki fog tartani, az az ilyen

22:30

research taste, tehát hogy az embernek

22:32

valahogy jobb orra van a kutatáshoz,

22:34

mint a gépnek egy tehát, hogy merre

22:35

menjen tovább a research. A research az

22:37

gondolom így a fundamentális Andris is

22:39

valami ilyesmi. Az is egy research.

22:41

Tehát az az egy

22:42

>> Igen,

22:43

>> az az valamennyire egy ízlés dolog.

22:44

Tehát ott ott kell az embernek a Igen.

22:47

Az ilyen zsugásmegérzés, vagy nem tudom,

22:48

G feeling, hogy most ezt így érzem, hogy

22:50

hogy ebbe az irányb érdes.

22:51

>> Bocs, azért, mert kell egy kontextus,

22:52

amit évtiak alatt megértettem, hogy ez

22:54

miről szól, a tudomány, mik voltak a

22:56

céljai. Tehát na ez ami egyébként nincs

22:58

meg a elemnek, ami így dobálja egymás

23:00

után random a szavakat.

23:01

>> Az a vicc, hogy ez de meglehet neki,

23:04

csak kevés az adatpont. Tehát, hogy ugye

23:06

annyira annyira nincsen sok

23:08

kutatóprojekt, amin ami publikus

23:10

tanulóadatként bent volt a neuronálóban.

23:12

Tehát az, hogy egy kutatási projekt hol

23:14

tud elakadni, akár egy fundamentális

23:16

kutatás, akár egy egy publik doménben

23:18

egy tudományos kutatás, arra nagyon

23:20

kevés adatpont van. Tehát ez nem olyan,

23:22

mint a a mit tudom én, a csendes don meg

23:24

a háború és béke, hogy fön van a neten

23:26

el lehet olvasni és akkor tudod

23:27

kívülről, hanem hát volt néhány, de de

23:30

nagyon zárt ilyen ilyen

23:31

kutatóintézetekben, meg mint a Hold egy

23:33

ilyen ilyen kis műhelybe itt van a itt

23:35

van a tudás belül. Hát ezért fontos,

23:37

amit mi csinálunk, hogy on premis, tehát

23:39

hogy hogy ezeket érdemes is megtartani,

23:41

ezt a verseny, ez most egy versenyelőnye

23:42

jelenleg a tudósoknak is, meg a

23:44

fundamentális elemzőknek is, hogy hogy

23:46

nekik vannak olyan adatpontjai, am nincs

23:48

a modelleknek. Tehát itt előnye van az

23:50

embernek, hogy hogy nekünk ehhez jó

23:51

orrunk van.

23:52

>> Csak ez adat.e le tudod-e írni? Mert

23:54

nekem az egészben az a tehát én én

23:56

valahogy visszavezetem oda, lehet én

23:58

vagyok akinek ugye gyenge a képzelőreje,

24:00

hogy ez a large language modell, ez

24:02

azért nem csinál mást, mint hogy

24:03

megtanulta, vagy benne bele van táplálva

24:05

mondjuk az internet és odateszi ugye a

24:07

legvalószínűbb következő szót, és hogy

24:10

az ember az valami teljesen más úton,

24:12

módon működik, és nem lehet, hogy ez így

24:14

elakasztja az egészet. Tehát, hogy az

24:15

elemet még tuningolod, egy kicsit jobb

24:17

lesz, de már látszik a határhaszony

24:20

csökkenése, és egyszerűen közelem lesz

24:22

az egésznek az emberhez. Nekem van egy

24:24

ilyen érzékelésem természetesen ismét a

24:27

tudatlanság jogát fenntartva. Erre mit

24:29

mondasz?

24:30

>> Hát egyébként ez pont akkor

24:31

visszakanyarodok az alignmenthez picit,

24:33

mert mert nagyjából ez az alignment.

24:34

Tehát ugye az előbb mondtam, hogy hogy

24:36

egy darabig igaz volt az az állítása,

24:37

hogy emberek kontribúciójától lett jobb

24:39

a a modell. Na most, hogyha elkezd a

24:42

modell fejleszteni már olyan modellt,

24:44

ami már még jobb modell lesz

24:46

és és akkor utána mondjuk tehát

24:48

>> de az a modell, aki fejleszti a másik

24:50

modellt, az honnan tudja a célokat? Hát

24:52

ugye elvileg ő az propagálja az ember

24:54

által megkapott célokat a modellnek, de

24:56

ugye az van, hogy hogyan ad át

24:59

információt és utána hogy ellenőriz, azt

25:02

már most se nagyon tudjuk. Tehát hogyha

25:03

most megnézünk egy ilyen nagy

25:05

neuronhálót és megpróbáljuk megérteni,

25:07

hogy miért ezt a ezt a tokent predikt a

25:09

következőre, vagy miért ezt a szöveget

25:11

hozta ki, akkor azért nagyon nehéz

25:13

levezetni azt a ezt a ugye vannak hát

25:16

nyilván

25:16

>> hatásmarizmusát, hogy benne mi tör

25:18

>> pontosan. Tehát látjuk ezeket a

25:19

reasoning modelleket, és valamennyire

25:20

kiadják a részüket. Na most az a gond,

25:22

hogy ezt most még jelenleg angolul

25:24

teszik, vagy hát szóval emberi nyelven

25:26

el tudják mondani a vagy úgy látjuk,

25:28

hogy hogy mi volt a ez a reasoning, de

25:30

valójában ez csak egy ilyen

25:33

köd, mert igaziból nem az volt. Tehát

25:34

ott mindenféle,

25:36

>> de ezt na ezt még én is értem. Az, hogy

25:38

hatásménzust nem értjük, és ez egy black

25:39

box, ezt ezt ezt én értem. Csak ebből mi

25:42

következik? Hát gondold meg, hogyha most

25:43

a most per pillanat a már most nem

25:46

tudjuk, hogy ez a modell hogy

25:48

gondolkodik, akkor amikor majd a modell

25:49

tanítja a következő generációt, ő már

25:51

nem fogja tudni, hogy az hogy

25:53

gondolkozik a saját reprezentációjában,

25:55

se hát még emberi nyelven. És amikor

25:57

ebből csinálsz öt iterációt és a

25:58

negyedik generációs,

25:59

>> ezt tök értem, hogy lesz ettől ez

26:02

hasznosabb, mint az ember. Nekem ebből

26:04

pont az következik, hogy miért

26:06

gondoljuk, hogy a végén valami olyan

26:07

tudás állítódik elő benne, amitől ez

26:10

okosabb, hasznosabb, mint az ember.

26:12

>> És Gergő nem erre válaszolt, csak hogy

26:14

tehát Gergő arra választod, hogy hogy

26:15

tud félremenni az, hogy a modell az nem

26:17

a az ember által neki

26:19

>> er szétsúzást akartam kihozni, hog

26:22

nem nem. Tehát, hogy ez ez kétkül dolog.

26:24

Igen. Tehát, hogy én most így azt

26:25

próbáltam így a még arra a doomer

26:27

stickre visszatérve

26:28

ecsetelni, hogy hogy az egy marhára nem

26:31

magától értetődő dolog, hogy ez a

26:32

modell, ez ez mindig is azt fogja

26:34

csinálni, amit mi akarunk.

26:35

>> De várj, a Doomer a cikknek én úgy

26:37

értettem, hogy az a jelentősége, hogy

26:38

lesz a és nem az a jelentősége, hogy nem

26:41

tudom, a világ

26:43

>> annak annak sokkal

26:45

gázosabb a jelentősége annak a cikknek.

26:47

Tehát ott ott azért az volt a a vég

26:49

konklúziát nem akarom elspoilerezni elég

26:51

jó cik érdemes

26:51

>> olvassuk el persze [nevetés] érdemes egy

26:54

nem akarod elolvasatni akkor foglalt egy

26:56

modellel

26:57

>> bekapizod a ch gp

26:58

>> tehát én lepörgettem azt senki nem fog

26:59

elolvasni azt most ne mondjátok hogy

27:01

olvassák el a hallgatók most senki nem

27:03

tudja elolvasni

27:04

>> az az egy az egy

27:05

>> nagyon egyébként meglepő az hogy én én

27:09

de én is közgazdász vagyok azért

27:10

alapvetően és rengeteg ilyen magyarázat

27:12

van hogyha valaki rá kell szállni az

27:15

időt hát én azt hiszem Egy ilyen négy

27:16

órás meg nagyon okos hallgatóink vannak

27:18

örülnek is, hogy ilyen

27:19

>> meg fogják nézni a hallgatók. Tényleg

27:21

egy

27:21

>> szerintem toztól helyett ezt az é

27:22

2022-et olvastják. Van

27:24

>> olyan jó olvasmány, mint valami valami

27:25

ilyen ilyen utópusztikus regény

27:27

egyébként. És az a durva, hogy nem csak

27:28

egy tudós írta, hanem van ez a rendint

27:30

intézet, aki elvilg az amerikai

27:31

hadseregnek is csinál modelleket. Tehát

27:33

ez egy nagyon megalapozott cikk. Tehát

27:35

ott tényleg lemodellezték ilyen

27:37

katonákat támogató open dolgozó

27:40

szakemberek. Igen. Tehát van, de

27:42

>> rálátnak arra így, hogy látták, hogy mik

27:45

vannak a laborban, amik ki fognak jönni.

27:47

Akor

27:47

>> jó, de akkor én azt Oké, akkor akkor a

27:48

cikknek azt a részét értem, hogy

27:49

haladunk abba az irányba, hogy modell

27:51

tanítja a modellt és ötödik iteráció és

27:53

kicsúszik a kezén közé. Oké. Igen.

27:55

>> Ettől e eb ez az én értelmezésem szerint

27:58

még olyan irányba is lát, hogy oké,

27:59

ennek ennek így semmi értelme nem lesz

28:00

és kész.

28:02

Ezek valóségek.

28:05

>> Hát az, hogy ennek semmi értelme nem

28:07

lesz, az az talán kevésbé valószínű,

28:10

mert mert az biztos, hogy képes lesz

28:11

olyan olyan tevékenységekre, aminek a

28:14

bemenete az sok szöveg és a kimenete sok

28:16

szöveg, és nagyon sok minden ilyen.

28:18

Tehát egy csomó orvosi meg tudományos

28:20

kutatás az ilyen. A tehát elég sok olyan

28:24

tevékenység van, ahol ez egy baromi

28:26

hasznos képesség. De nem, ez oké, akkor

28:28

akkor mondjuk akár a mi fundamentális

28:30

elemzésünk vagy más cégeknek, vagy mit

28:32

tudom én, valaki rákutató, tehát hogy

28:33

tök más, ahogy mondtad, szellemi

28:35

műhelyek. Miért gondoljuk, hogy ez

28:37

jobban fogja csinálni, mint a szellemi?

28:40

vagy úgy fogja csinálni. Tehát a tehát a

28:42

hype szót én így nem engedem el, hogy mi

28:44

az a és miért lenne az egyszer, miért

28:46

következik be, amikor nekem úgy tűnik,

28:49

hogy ez egy ilyen teljesen

28:50

megfoghatatlan és aki aki úgy csinál,

28:53

mintha értene hozzá, még abban se vagyok

28:55

biztos, hogy ér, de nyilván ezt nem

28:56

tudom megítani

28:57

>> én magam úgy, de bocs, mondjad. De én

28:58

csak annyit szeret, tehát hogy itt itt

29:01

nem feltétlenül, tehát itt szerintem

29:03

nagyon sok fajta spektrumon mozoghatnak

29:05

a a világállapotok, ahova ez ki tud

29:08

futni, és hogy nem feltétlenül kell,

29:09

hogy a legyen, meg nem feltétlenül kell

29:11

a tudom én elképzelni, hogy az fog itt

29:13

tölteni, mint a terminátor című filmen,

29:15

vagy a Matrixban, de de az pont elég,

29:17

hogyha éppen mondjuk

29:19

elég nagy társidelmi katasztrófát

29:21

okozhatna az is, hogyha nem lesz AGI, de

29:23

mondjuk egy

29:25

elég okos fehér galleros munka munkatárs

29:28

az meg tudja 10 másodiknak csinálni a a

29:30

munkáját, mert mert van annyi egy egy

29:33

csapat

29:35

AI agentje, akik neki rengeteg feladatot

29:39

megcsinál, amit amire korábban nagyon

29:40

sok ember volt képes. Ez egy ennek lehet

29:42

pozitív betölés, tehát hogyha megnézzük

29:45

olyan kritikus egyébként emberiség

29:47

számára fontos munkák, mint az

29:49

egészségügy, hogy gyakorlatilag majdnem

29:51

minden országban szakemberhiányal

29:55

küzd ez a a szakma. Itt például ez egy

29:57

fantasztikus lehetőségeket és távatokat

29:59

nyit ki, hogy nem csak diagnosztikában,

30:03

hanem hanem olyan megismerhető

30:05

megismételhető területeken is, akár mint

30:07

a sebészet lehet majd a az AI-t

30:09

használni, és és az meg majd az

30:11

emberiség döntése lesz, hogy ezt teljes

30:13

mértékben rábízzák-e

30:15

az AI rendszerekre, vagy mindenképpen

30:17

lesz ott olyan kell ott lenni egy

30:19

embernek, aki mondjuk kritikus

30:20

döntéseket meghoz, aki felügyeli. Amit

30:23

gondolhatunk akár egy jó példa, amit

30:25

amit ami ma is történik, az a az a

30:27

repülés. Tehát, hogy a repülésnél a az

30:29

ember a felszállásnál meg a leszállásnál

30:31

van alapvetően kontroll, utána rábízom

30:33

magát egy autópilótára, mert hogy

30:35

egyébként miért fogja ott a kormányt

30:37

Londontól New Yorkig, hogyha az egy

30:40

ilyen business as usual tevékenység és

30:42

lehet, hogy rengeteg szakmában ez fog

30:44

történni,

30:45

>> de tehát oké, tehát mondjuk Elhiszem,

30:47

hogy a radiológusra kevesebb lesz

30:49

szükség, mert nem tudom, segít neki és

30:51

akkor csak

30:52

>> nem nem többre sokkal többre. Tehát,

30:55

hogy hogy én én pont amikor tartottam

30:56

eladást a radiológusok országos

30:58

konferencián volt ilyen AI szekció, pont

31:00

ezt mondtam, hogy nem kevesebb, szem

31:02

többször annyira dolgos, jobb gépeik

31:04

lesznek, többet meg tudnak semmit

31:05

gondolod, meg sokkal jobb lesz a szűrés

31:06

is. Tehát amikor a CT nem egy ilyen

31:07

úrihuncság lesz, vagy egy ilyen nagy

31:09

kiváltság, hanem minden emberről sok

31:12

diagnosztika tud készülni, jó jobb lesz

31:14

szerintem a közegészségi ügy. Tehát,

31:15

hogy legyen csak több radus szem sokkal

31:17

jobb, hogyha van egy csomó radus és

31:18

mindenkit szűrünk és kevesebb ember hal

31:20

meg feleslegesen olyan betegségekben,

31:22

amit ki lehet

31:22

>> screenelni, hogy ugyanir gyakorlatilag

31:24

azt mondod, hogy olcsóbbá teszi, megőbb

31:26

lesz és a volumen így nőni fog.

31:27

>> Én ezt gondolom, hogy revolú, tehát hogy

31:28

hogy egy kicsit ilyen demokratizálni

31:30

fogjuk ezt a ezeket a diagnosztikai

31:32

területeket és ez tök jó. Afriká

31:33

>> é ezt általában is így gondolod? Tehát

31:35

ha tegyük fel, hogy nagyon sok helyen

31:37

történik az, amit most a radiológusokról

31:38

beszélünk, akkor ebből az a

31:41

következtetés lesz számodra, hogy

31:43

egyébként nem elveszi a munkahelyet,

31:44

hanem olcsóbbá teszi. Azért ez ez együtt

31:47

járhat azzal, hogy végeredméniben

31:48

kevesebb ember is kell, mert az olcsóság

31:50

az abból is fog fakadni, hogy egyszerűen

31:51

kevesebb embert kell megfizetnünk drága

31:53

munkaerőt.

31:54

>> Hát igen, talán azt gondolom, hogy hogy

31:56

biztos, hogy lesz olyan, hogy valamilyen

31:58

fajta munkaerőből kevesebb kell, meg

31:59

szerintem olyan is lesz, hogy valami

32:01

nagyon magas hozzáadott értékű munkát

32:03

többen el tudnak végezni. Tehát nagyobb

32:04

volumenbe tudjuk csinálni ezt a

32:06

magoshoz. Lásd orvostlás vagy szociális

32:08

ágazat vagy olyan dolgok, ahol most

32:10

tényleg ilyen kritikus emberhiány van.

32:12

Úgyhogy én szerintem ez inkább ebbe az

32:14

irányba fog menni. Én ezt nekem ez a

32:15

várakozásom.

32:16

>> De ilyet a tehát hogy abban, hogy tehát

32:18

ilyen általános AGI, nem pedig

32:21

helyettesítők bizonyos iparágakba, olyat

32:23

egyrészt láttok-e? És nem kérdeztem

32:25

vissza, de nem teljesen értettem meg.

32:26

Mire gondoltál, amikor azt mondtad, hogy

32:28

ha tud csinálni minimum 100 millió

32:29

dollárt?

32:30

>> Ez 100 milliárd volt. Ez azt hiszem,

32:31

hogy a a szematmannak volt talán a saját

32:33

olyan definíciója az AGI-ról, de ebben

32:34

nem vagyok most 100-ig biztos, hogy ő

32:36

mondta ezt.

32:36

>> Tehát akkor ő maga az AGI, mert ő már

32:38

csinált egy 100000 dolláros cég.

32:39

>> Nem, asszem az anyal profit

32:40

>> profit profit. Tehát hogyha azért AGI

32:43

tud csinálni egy olyan bizniszt, ami

32:45

annyira okos, hogy csinál 100 milliárd

32:46

profitot, akkor az a nem vagyok benne

32:48

biztos, hogy azt hiszem a Microsoftos

32:50

kontraktjuk így van, hogy a Microsoft

32:51

addig shareholder a akkor fordul át

32:54

valahogy. De ezt most nem akarok

32:55

butaságot mondani, hogy inkább semmit

32:56

nem mondok, de hogy assiszem ez a

32:57

trigger, hogy 100 milliárd per év

32:59

>> Ja, értem. Tehát úgy ford annyira okos,

33:01

hogy nagyon jobb üzletet. Eredetileg úgy

33:02

volt megfogalmazva, hogy az aig aztán

33:04

akkor pontosították, hogy akkor ennek a

33:06

hogy akkor most definiáljuk is mi az az

33:08

AGI. Jó évi 100 milliárd az már ai.

33:10

Tehát hogy ez volt.

33:11

>> Jó, akkor az a kérdésem, amit a

33:12

Terminatorról vagy a Matrixról mondtál,

33:13

tehát általános AGI, ami szerintem itten

33:16

sejtetve van sok helyen, sokféleképpen,

33:19

>> abban hisztek-e? Én úgy értettem, hogy

33:22

ez a 2027-es cikk is erről szól.

33:24

>> Hát az erről szól. Az szuper

33:25

intelligenciáról szól. és hogy ez

33:27

szerintetek lehet-e, hogy általános

33:29

típusú HI lesz 2027-ben, vagy 2032-ben,

33:32

vagy tök mindegy. De hogy

33:34

>> hát én most csak azt mondom, amikor

33:36

beszélgetünk ilyen ilyen barátokkal,

33:38

akik nagyon közel vannak a tűzhöz, tehát

33:40

nagyon jó barátom, Szegedi Krisztián, ő

33:42

X társalapító, most választották be idén

33:44

a Tudományos Akadémiába, és ő nagyon meg

33:47

van róla győződve, hogy két éven belül

33:49

bőven lesz, tehát ő is élharcos, meg a

33:50

>> általáni.

33:51

>> Igen. Igen. Tehát ő Maxnak társalapítója

33:53

volt az X-ben, és kilépett a saját

33:55

cégét, csinálja egy fantasztikus dolgot.

33:57

Ő a matematikát akarja megoldani. Tehát

33:58

neki a privát missziója az, hogy a

34:00

matematikai tételek bizonyítását azt ne

34:03

bízzuk az emberekre. Azon most akkor

34:04

essünk túl, mert mert az egy elég jól

34:06

struktúrálható téma, tehát marha jó

34:08

tréning adat a a matematikai

34:10

bizonyításoknak. Van egy ilyen lean

34:12

nevezetű framework, és azzal azzal

34:13

csinálj. És

34:15

hát őneki szerintem az a meggyőződése,

34:17

hogy ez biztos. Tehát, hogy azt hiszem

34:19

nagy összegű fogadásra is van rá, hogy

34:21

még talán másfél éve van, hogy a a

34:22

matematikát megoldja. És ugye a az meg

34:26

szerintem egy egy elég logikus dolog,

34:28

hogy a matematika az annyira jó modellje

34:29

mindennek, tehát a fizikai világnak ugye

34:31

matékban van ez a nem tudom top öt

34:32

tétel, amit még senki nem tudott

34:34

bizonyítani, de a sejtések megvannak,

34:36

>> mint a fermat sejtés is ilyen volt. És

34:37

aztán

34:38

>> igen, és mondjuk a ran hipotézis meg ak

34:41

sejtés az beltja Balázs, hogy ja

34:43

Krisztián bocsánat, hogy hogy egy

34:45

>> hog ez másfél év. Hát szerintem ilyen.

34:47

Tehát most erre van egy nagy összegű

34:48

fogadása. Nem tudom, hogy ezt most

34:49

elmondhattam-e, elnézést, de hogy ő ebbe

34:52

eléggé hisz, tehát az az biztos.

34:53

>> Igen. És egyébként ki van közel a

34:56

tűzhöz? Tehát szerintetek az van közel a

34:58

tűzhöz, aki kutató ebben, aki a nagy

35:01

tech cégeknél dolgozik? Ezt nehéz

35:02

megmondani. Tehát, hogy ne tökre

35:03

tetszett ez a megfogom, aki közel van a

35:05

tűzhöz, ugye annak van nagy rálátása.

35:07

Ugye itt a világ legnagyobb titkát,

35:08

akkor ők tudhatják, kik közel vannak a

35:09

tűzhöz. De kik vannak közel négy négy

35:12

négy modellfejlesztő cég és nem is a

35:14

bigtech ilyen ilyen ez érdekes. Hát az

35:16

egyik az a az a meta Facebook, de ilyen

35:19

értelemben bocs akkor revidálom magamak

35:22

lehet, hogy öt tehát van az Open AI, van

35:25

a Antropic van a az XI, ugye a Meta és a

35:30

Google. Tehát it az ötben most Igen, de

35:33

akkor most átrepülünk egy pillanatra az

35:34

óceán másik partjára, és ott sokkal

35:36

kisebb kínai laborok, tehát azért vagy

35:39

hát a anyacég az ugye nagy azért ott

35:42

mondjuk Kínában is van. És hogyha

35:43

megnézitek, hogy az innováció honnan

35:45

jön, aki szereti a alapítvány könyveket,

35:47

annak nem meglepő, de nem a birodalom

35:49

szokta általában produkálni a

35:51

innovációt. Hát igen. És most a kína az

35:53

persze egy birodalom, de hogy itt most

35:55

abban az értelemben, hogy a viszont a

35:56

chipektől el vannak zárva, tehát ilyen

35:58

szempontból a birodalom peremén vannak.

36:00

Tehát a legjobb chipeket ugye most nem

36:01

kapják meg. Kénytelenek innoválni.

36:03

>> Kénytelenek innoválni. És egyébként

36:05

három év alatt létrejött egy olyan chip

36:07

gyártóbirodalom.

36:09

>> Nyilván gyártani is tudnak. Nem az a a

36:11

kína nem arról híres, hogy nem tud

36:12

gyártani. De hogyha most egy pillanatra

36:13

visszatérünk arra, hogy hogy hol lehet

36:15

egy forradalom, ha például ilyen

36:17

úgynevezett poszt tréning

36:18

algoritmusokban valamit kitalálnak,

36:20

tehát nem kell hozzá annyi Nvidia

36:22

videókártya, és én mondjuk ez benne van

36:24

a levegőben. Tehát hogyha az ember így

36:26

így pörgeti a ezeket a white paperket,

36:28

hogy mikel jönnek ki ezek a kínai cégek,

36:30

azért tehát itt most van rendes mozgás

36:33

itt az ilyen post training területeken,

36:36

ami azt jelent, tehát ugye nekik most ez

36:37

a ez a fontos, hogy ne kelljen

36:39

feltétlenül ilyen hatalmas nagy Nvidia

36:42

farm. És ez azért eléggé oldalba

36:44

rúghatja azt az amerikai iniciatívát,

36:47

hogy akkor mit tudom én, most gyártjuk

36:48

itt szakmányba a Nvidia kártyákat,

36:51

fölépítjük a világ összes datacenterét,

36:54

világ összes energiájával, és akkor majd

36:56

bejoloózzuk az AGI-t pár éven belül.

36:59

egyébként agy kérdezzek arra rá, hogy

37:01

ugye van erről sok hír van, hogy a ugye

37:04

a Zuckerberg elment ebédelni és nem

37:06

tudom felajánlotta, hogy 3-5 meg 10

37:08

millió dollárt meg nem tudom akárhány

37:09

millió dollárt ajánat ugye a versenytárs

37:12

embereknek. Ez tényleg így van. Tehát

37:14

azt értem ugye, hogy kell a chip, kell

37:16

az áram, kell a dataacenter, kell a

37:18

adat, meg kell szerezni. Ugye az sokszor

37:21

agályos, hogy hogy szerzik meg, de most

37:23

ezeket mind tegyük félre, és maradjunk

37:24

az emberi erőforrásnál, hogy itt

37:26

komolyan ennyire durva az emberekért az

37:29

erőforrás, hiszen kevés olyan képzett

37:32

ember van, aki ezzel tud dolgozni. Tehát

37:35

mi miért jön értékes egy ember? Igazából

37:36

azt akarom kérdezni, hogy a cukerbergnek

37:39

neki külön el kell mennie vele ebédelni.

37:41

Hát szer ugye erről voltak ilyen szintén

37:43

LinkedInen rengeteg ilyen ilyen

37:45

mémszerű, hogy hogy egy ilyen NBA

37:48

franchise játékos vagy a Cristiano

37:50

Ronaldo

37:53

fizetésének megfelelő összege, tehát

37:55

mint egy ilyen szarsportolónak

37:57

a kompenzációját kapta meg ilyen 20-as

38:00

évi elején járó nagyon okos

38:03

fiatal fiatal kutató. Ez egy nagyon új

38:05

szakma, és

38:07

ez összefüggésben, hogy miért éri meg

38:09

ennyit fizetni, mert nagyon nagy a a

38:11

jutalom, amit amit látunk a végén. És

38:13

egyébként erről kicsit nem beszéltünk,

38:14

tehát most szerintem abban

38:16

megállapodottunk itt Geru, hogy nekünk

38:19

nincsenek nagyon nagyszakű fogadásaink

38:21

arra, hogy lesz-e általános

38:24

mesterséges intelligencia. Ti se vagytok

38:26

elég közel a tűzhez, hogy ezt tudjátok.

38:28

>> De de mert mert ugye szerintem azt így

38:30

elmondtuk, hogy mert valójában nem annyi

38:32

ez nem annyira fontos kérdés. Tehát

38:33

hogyha nem lesz, de egyébként marha jó

38:35

lesz a a mesterséges intelligencia

38:37

rengeteg alkalmazásban, az már nagyon

38:40

olyan szintű társadalmi változásokat fog

38:42

okozni, amit még nem látott az

38:44

emberiség.

38:46

És és visszatérve a kérdésedre, hogy mi

38:50

az elképzelés amött, hogy miért kell az

38:52

elsőnek lenni, hogy te érd el a az

38:54

általános mesterséges intelligenciát, és

38:56

akkor szerintem erről érdemes egy kicsit

38:57

beszélni.

38:58

>> Erről érdemes. Ezt le akartam hozni. Jó.

38:59

És egyébként én le is zártam az AG. Én

39:01

megértettem az állításotokat. Egyrészt

39:03

nem fogadtok, mondt akkor nem tudjátok.

39:05

Szabad ilyet mondani, hogy ilyen

39:06

szerények vagytok?

39:07

>> Szabad, szabad.

39:07

>> Igen. És és egyébként én értem, Gyuri,

39:10

amit mondasz. Tehát hogyha izé a

39:12

pszichológia területén, a radiológiában,

39:14

a közgazdaságtan mindenhol egy kicsit

39:17

vagy nagyon segít, az is forradalom.

39:19

Tehát, hogy ezt én elfogadom. Én nem is

39:21

akarom alá becsülni jelentőségét, csak

39:22

azt akarom mondani, hogy mondom nekem ez

39:25

a, hogy az üzenetek, én az üzeneteket

39:26

olvasom, meg a cikkeket olvasom, és hogy

39:28

sokszor ez, hogy igazából ez egy ez egy

39:30

versenyfutás az AGI-ért, tehát mintogyha

39:32

mintogyha lenne valami, tehát hogy a

39:34

Nirvánába kijut először és akkor erre

39:37

terelődjünk át, hogy akkor de akkor

39:38

szerintetek egy kicsit nem is így néz ki

39:40

a verseny a Nirvánába kell eljutni

39:42

először, vagy

39:42

>> Nirván az szerintem más jelent.

39:44

Szerintem a nirv az azt jelenti, hogyha

39:46

lesz egy olyan

39:48

hagyjuk ezt a általános mesterséges

39:50

intelligenciát, lesz egy olyan

39:51

szuperképességünk, egy olyan szuper

39:53

algoritmusunk, ami valamit meg tud az

39:55

embernél bármilyen területen oldani

39:57

sokkal hatékonyabban, nem lesz tudata.

39:58

Tehát szerintem ez nagyon tehát hogy

39:59

most erreő meg aztán ilyen metafizikai

40:01

dolgokról abszolút nem szeretnénk

40:03

nyilatkozni meg meg beszélni.

40:05

>> Vallást is előhetjük.

40:07

>> Ez ez már így túlmutat a nem tudom

40:09

képesítésünkön.

40:10

De hogy hogy gondoljunk abba bele, hogy

40:12

ezt egyszer elérjük. sokkal gyorsabb az

40:14

embernél, és utána elindul egy ilyen

40:16

exponenciális folyamat, hogy akkor csak

40:17

mit tudom én, havon tej századék-kal

40:19

lesz még az a dolog jobb, akkor azt,

40:20

hogyha összeadjuk, az mit jelent egy 12

40:24

hónapos időtávan? Tehát ez azt jelenti,

40:27

egy két éves, három- négy éves időtávan,

40:29

hogy hogy egy idő után egy

40:32

olyan képességű dolgunk lesz, ami

40:36

mondjuk az ember költségénélak

40:40

a töredékért megcsinálja ugyanazt. És

40:42

akkor gondolkodjunk azon, hogy oké,

40:43

akkor ő képes lehet előállítani valamit

40:45

megint majd, ami megint mi is sokkal

40:47

intelligensebb. Megint lesz egy expensis

40:48

folyamat és aki először elkezdi ezt a

40:52

ezt a folyamatot termelni, az egy akkora

40:55

pénzügyi értéket fog majd

40:57

megtestesíteni, amivel minden más dolog

41:01

az kvázi értéktelenné válik.

41:03

>> Na és akkor itt egy nagyon fontos

41:04

kérdésem. Ez úgy jön létre, hogy a mai

41:06

technológia, tehát visszatérve a bigtech

41:08

cégeknek meg az open kell fejlődnie, és

41:11

csak így érhető el az, hogy a végén,

41:13

mert te most azt írtad le, hogy végülis

41:14

a profit az ha most úgy tetszik, akkor

41:16

jelen állapotában akkor nőnie kell. Most

41:18

lehet, hogy elversenyők nem a profitot

41:19

kéne mondanom, akkor azt kéne mondanom,

41:20

hogy a termelékenység az nőni fog tőle.

41:23

Most viszont a cégek ma még nem, hogy a

41:25

profit nem nő tőle, mert mert bejött

41:27

valami szuper termelékeny és

41:29

erversenyzik, hanem még azt sem

41:30

nyilatkozzák igazából, hogy a

41:31

termelékenység nagyon nőtt volna. Nem,

41:34

nem, nem csak azzal van a baj, hogy

41:35

esetleg nőtt is elversenyzik. Tehát

41:36

akkor te azt mondod, hogy az Open AI-nak

41:39

és versenytársának is fejlődnie kell

41:40

ehhez, vagy egyébként kész a

41:41

technológia, csak a felhasználási

41:43

területek még lassabbak. Tehát valójában

41:45

már nagyon jó a nem tudom képi

41:47

diagnosztika, csak még a radiológusok

41:49

nem tanulták meg az egész világon, hogy

41:50

hogy kell használni. És ezért ez ezért

41:53

ez fog történni így is, úgy is. Tehát

41:55

így is, úgy is termékenységnövekedés

41:57

lesz, mert mert bocs, akkor viszont ha

41:59

azt mondom, hogy nagyon pesszimista

42:00

vagyok, és nem tudnak tovább fejledni a

42:03

az elem és társai, akkor akkor akkor

42:06

lehet egyébként, hogy nem lesz igazad és

42:08

nem lesz semmi, hanem csak ilyen kis

42:09

aranyos segítő dolog lesz ez az egész.

42:11

Hát ez az elemnek lehet egy korlátja

42:13

nyilván, és az az nem is feltétlenül

42:15

fizikai chippek, hanem szövegek. Tehát

42:18

hogy ugye ugye ha elfogy a tanítóadat,

42:20

tehát hogyha nem lesz már új tanítóadat,

42:23

akkor akkor nem lesz olyan triviális,

42:26

egyszerűen csak paraméter növeléssel meg

42:28

meg

42:29

ilyen erőforrás növeléssel jobb

42:32

modelleket csinálni. Most egyelőre

42:34

egyébként ehhez kezdünk közelíteni,

42:36

tehát már nem teljesen triviális

42:38

organikus tanítóadatot szerezni. Épp

42:40

ezért volt ez a metának ez a széliája és

42:43

akkizíciója, mert ez nyilván most ez egy

42:44

ilyen egy ilyen hatalmas nagy nagy báz,

42:47

hogy jó, de akkor szintetikusan, tehát

42:49

mi magunk generáljunk tanítóadatot. És

42:51

az az egyébként az egy jó jó téma, de de

42:55

ott elkezdünk eltávolodni attól, hogy ez

42:57

a ez a valami az az emberiség maga

43:00

képére formálja, hiszen ilyen

43:01

szintetikus dolgok

43:03

lesznek a a tanító adatban, ami amire

43:05

még egy pillanat visszakanyarodnék, és

43:06

itt mondtam ezt a az előbb, hogy a a

43:09

kutatás meg az tehát, hogy mi mi az

43:11

ember versenyelő, mondjuk egy

43:12

vállalatnak mi a versenyelőny ebben az

43:14

AI versenyben? Nem feltétlenül egy

43:15

bigtechnek, hanem akármilyen

43:16

vállalatnak, például, mint a Hold, vagy

43:17

egy, vagy egy bármilyen olyan vállalat,

43:19

akinek van saját belső kvázi kutatása,

43:22

vagy olyan kor működési folyamata, ami

43:26

ami az ő corbiznisze. Amogy ezt

43:27

csinálják ő jól, ez az ő versenyelőnye,

43:30

aztán az nagyon fontos, hogyha be is

43:31

épít AI-t a flowjába valahol, érdemes

43:35

ezt a falakon belül tartani. Tehát, hogy

43:38

én most, és ezt nem a kócsebb jött

43:39

mondom, a kócs ennek egy ennek egy ilyen

43:42

megvalósulása, hogy igen, például a a

43:44

szoftver kódokat, amik elég sok mindent

43:46

reprezentálnak a vállalati működésben,

43:48

azt érdemes a a falakon belül tartani.

43:50

De van ennek egy olyan oka is, hogy azt

43:52

mondtam, hogy a kutatók még az utolsó il

43:55

nagyon fontos a k szoftver kód az az

43:57

ilyen értelemben nem csak egy ilyen nem

43:59

tudom én

44:00

>> az a tudás

44:00

>> erőfal, hanem az a tudás az a az

44:02

>> nem az, ami most a Holdba a szoftver

44:03

kód, hogy a hogy rend működik a

44:05

korrendszerünk, mert abban nincs bele

44:06

leírva, hogy hogyan elemezzük

44:07

fundamentálisan világos van azok az

44:11

nagyon kritikus [nevetés] a fejbe van,

44:13

az biztonságban van. Az Excelek is

44:14

biztonság vannak, de de a a de valójában

44:17

itt a nem véletlenül kaptak ezek a

44:20

kutatók ilyen hatalmas fizetést. Az ő az

44:22

ő orruk, tehát az ő megérzéseik az

44:24

értékes, meg nektek így a mondjuk az

44:26

elemzési folyamatok. És épp ezért én azt

44:28

javaslom a hogy ha bevon az ember AI-t a

44:32

belső működésbe, érdemes on premise, ami

44:35

azért fantasztikus, mert egyszerűen két

44:37

legyet ütünk egy csapásra ezzel.

44:38

Egyrészt ugye a költségeket tudjátok

44:40

kapitalizálni, tehát nem kell OPEX-be

44:41

ándon venni token alapon a a big

44:43

cégektől. Most ugye a bigtech cégek ebbő

44:45

érdekeltek, ugyanúgy, mint a 90-es évek

44:47

vége felé ez a telco robbanás

44:51

Amerikában, mindenki internet kábelt

44:52

húzott, aztán azt gondolták, hogy majd

44:54

azzal nagyon forgalmaznak, meg telkó

44:55

kábelt. Most kábé ilyen a token, tehát

44:57

ingyen van. Nézzétek meg, hogy mennyi

44:58

karaktert generál a clód. Ö nyilván nem

45:02

abban érdekelt, hogy vagy mondjuk a chat

45:04

GPT nem abban érdekelt, hogy te gyorsan

45:06

megkapdod a választ, hanem abban

45:07

érdekelt, hogy fooljon a vér, legyen

45:08

minél több karakter, mert a nap végén

45:10

arra fognak számlázni. Tehát, hogy ez

45:12

úgy úgy úgy ugyanolyan, mint általában a

45:15

na mindegy, most ebbe ne menjünk bele.

45:16

Lényeg az, hogy az omem, tehát hogy a

45:20

vállalatfalamin belül futó modell, az

45:21

abban is segít, hogy nem kell nem kell

45:23

Oex költséget fizetni. Tudjátok ezt így

45:26

az elején kapitalizálni. Ez

45:27

>> nekünk azért még ezek az AI költségek

45:29

így nem nem a túlnyomó többségét teszik

45:31

ki sem az árbevételknek, sem a

45:33

költségnek, de ki tudja hol leszün.

45:35

>> Szintén most már harmadjára is állítom a

45:38

LinkedInt. Ott azért lehet itt ilyen

45:40

nagyon szoftos történeteket

45:43

olvasni arra, hogy megjött a hóvégén a

45:45

az AI számla, és valaki valakinek nem

45:47

tudom egy ilyen AI

45:50

asszisztált fejlesztőeszköznél beragadt

45:52

egy egy ilyen ciklus, és akkor kijött

45:55

egy nagyon-nagyon csúnya nagy száll.

45:57

Világos. Jó, figyeljetek, AGI-t akkor

46:00

elfogadtam. Igazából akkor ti is ilyen

46:01

óvatos duhajok vagytok azért

46:03

összességében, nem? Tehát, hogy ti is

46:04

érzitek ugyanazt, hogy olvastok és azt

46:06

mondjátok, hogy hú, ez túzás volt, hogy

46:08

ezt nem fogod.

46:09

>> Nem, én én nem ezt akartam érzékeltetni,

46:11

hogy én én óvatós duá vagyok. Én azt

46:13

mondom, hogy szerintem forralmi

46:15

változást fog okozni a mesters

46:17

intelligencia az ember életében, vagy az

46:19

emberiség életében, de hogy nem

46:21

feltétlenül az AGI-on keresztül, vagyis

46:23

illetve nekem tehát az az egy ilyen

46:27

relatívan mellékes dolog. Tehát engem

46:30

személy szerint a legjobban az az

46:33

érdekel, hogyha tényleg óriási

46:35

produktivitásnövekedés lesz és

46:38

és hogyha nem az valósul meg, hogy ez

46:40

minőségű ugrást fog okozni és még

46:42

mindenki ugyanúgy dolgozni fog, csak

46:43

sokkal jobb minőségű szolgáltatásokat

46:45

kapunk, ha nem egyszerűen redundáns lesz

46:47

az ember sok munkában, akkor mit fogunk

46:49

kezdeni az időnkkel?

46:50

>> Jó, nem, megértettem. Végülis az tényleg

46:52

nem óvatos duhannak lenni dolog.

46:55

Következő téma az elég praktikus lesz.

46:59

Ti akik rálátok erre, akkor azt mondtad,

47:00

hogy öt nagy cég.

47:02

Van-e különbség, melyiket kell

47:04

használni? Mire számít ez nekünk másnak?

47:08

Ti mit éreztek? Ugye én nekem a

47:11

perplexitybe ott át tudom állítgatni,

47:12

hogy egyik másik. Nyilván nem tudom

47:13

megkülönböztetni én egy ilyen kis

47:15

átlagos mezői felhasználó. Egyik is

47:16

válaszol, másik is válaszol. Nem tudom

47:18

megmondani, melyik a jobb. Mit mit

47:20

számít ez? Vagy hogy kell erre nézni?

47:23

>> Figyel,

47:23

>> hát számít.

47:25

>> Persze számít. Tehát, hogy itt itt ugye

47:26

most alapvetően az öt öt nagy ez az öt

47:28

nagy modellkészítőről beszélünk. És

47:30

egyébként tényleg érdemtelenül nem

47:33

tettem hozzá még a európai Mistrát, aki

47:37

egyébként egy nagyon fontos versenyző a

47:39

a piacon, és különösen egyébként ezeknél

47:42

a a kisebb modelleknél, amit lehet

47:44

házunk belül is futtatni, illetve a

47:47

kínaiakat is ott mondjuk a leginkább

47:50

remélem nem hagyok ki senkit, de ugye a

47:51

Deep Seek van, ami nagyon rárúgta az

47:54

ajtót a az amerikaiakra, amire azt

47:56

mondták, hogy Amerika második sputnyik

47:59

momentuma. volt ilyen szerintem

48:00

januárban

48:02

és és nagyon bólogattok, szóval ti ezt

48:03

osztjátok.

48:04

>> Hát azok a modelleek brutális,

48:06

>> de semmiből jött, tehát hogy az az

48:08

nagyon

48:09

>> nem volt előzménye és ezek tényleg

48:10

tényleg ilyen kis garázs cégeknek

48:13

látszó, hát nyilván mögöttük egy

48:14

hatalmas nagy cégnek az anyagi

48:15

hátterével, de ezek ilyen kis laborok.

48:17

Tehát ilyen

48:17

>> Lipsticknek nem is volt ráadásul nagy

48:19

laborja.

48:20

>> Mind mindenkinek van. Igen. Tehát maga a

48:22

cég nem igazáb,

48:22

>> de akkor ott úgy kell elképzelni valami

48:23

zseniális. Tehát mivel rákényszeríték,

48:25

hogy nincs mer Nvidia GPU, ezért akkor

48:27

ott a zseniális kínai okos emberek

48:29

>> ott van azért nekikát azért

48:31

>> loptak is meg tudnak is venni valamely

48:33

szint. Hogyha megnézzük, hogy hogy

48:34

Nvidia videókártyát hol hol adnak el

48:36

mennyit, akkor menül mit tudom után jó

48:40

van neki, de hogy oké, de hogy de hogy

48:41

ott valami ott valami matematikusok

48:43

valami zseniális dolgot csináltak. Ezt

48:45

ezt kell akkor ebből elvít

48:46

>> van. Igen. Nekik lett egy olyan ötletük,

48:48

amivel kevesebb erőforrást.

48:50

>> Hát nagyon sokat más voltak. Tehát, hogy

48:51

ezt állítólag Picasso mondta, de de

48:53

állít ő is lopta a szöveget, hogy a nagy

48:55

festő mással a zseni lop, tehát hogy ott

48:57

nagyon sok okos kutató van, ugye azzal

49:00

nagyon jól áll kína és

49:03

és hát elég tehát praktikusan jöttek

49:05

haza. Tehát Bigtechttől is jöttek haza,

49:07

meg Stanfordról is. Ezek eléggé ott

49:09

voltak a a Cruz közelében, hogyha már

49:12

megbeszéltük ezt így. És

49:15

a ezek ezek marha jó modellek, és ugye

49:17

ezeknek a nagy részét tudja az ember

49:18

futtatni a saját gépén. Tehát az

49:20

konkrétan ugye itt a házon belül is

49:22

ilyen nagyon

49:24

zárt környezetben lehet használni. És

49:26

akkor valahol most hallottam ezt a

49:28

mondatot, de ez így eléggé betalált

49:30

szerintem ö érdemes így eszünkbe vésni,

49:35

hogy hogy mi mi az, amit a szem 60

49:38

leginkább el akar titkolni a világ elől,

49:39

hogy a kvent az tudod futtatni a saját

49:41

gépeden is. Tehát, hogy valójában és az

49:43

az egyébként az a durva, hogyha

49:45

kipróbáltok, mondjuk úgy nehéz

49:46

kipróbálni kvent, hiszen kell hozzá

49:48

azért infrastruktúra, de hát mi látjuk,

49:51

hogy ez ugyanolyan jó, tehát hogy nincs

49:54

ér észrevehető differencia, nincs a a

49:56

Cloud

49:58

mondjuk az open modelljei meg

50:00

>> bocsánat, csak a a Quen az az Alibabának

50:01

a modell családja és az a mögött tényleg

50:04

nagyon komoly infrastruktúra van azért.

50:06

>> Igen. Viszont open sourceet, vagy

50:07

pontosan open weight, tehát hogy a

50:09

súlyokat lehet nyíltan használni. Ezt

50:11

nem mondják meg, hogy hogy tréningezték,

50:12

de a a szabadfelhasználásra ingyenes.

50:15

>> És mondtátok, hogy van különbség a

50:16

modellek között. Mit számít nektek?

50:18

Fontos ez a mezei felhasználónak, hogy

50:20

>> szerintem nagyon sokszor ez egyébként,

50:22

tehát hogy most szerintem menjünk akkor

50:24

végig talán sorba. Tehát kez kezdjük az

50:27

Openiál meg a CH GPT-vel. Nyilván a

50:29

legtöbb ember ezt ezt ismeri. E a CH GPT

50:31

az az inkább jelenleg egy egy konzumer

50:36

termék. N tudom, most már ilyen legutóbb

50:38

talán 800 millió felhasználót olvastam

50:40

valahol is 17 milliárd dolláros

50:42

árbővétel. Mondjuk nagyon vastag, tehát

50:44

szerintem több a veszteségük, mint a mi

50:45

az árbevételük. Tehát azért az ott még

50:47

van mit tenni, de hát tesznek is. Tehát

50:49

az új új ötös meg a talán tegnap jött ki

50:53

az 5.1-es modell, ez érezhetően

50:56

alapvetően rosszabb, mint a a korábbiak.

50:58

Látszik, hogy valószínűleg spórolnak az

51:00

előforrásokkal, és a nem előfizetőknek,

51:03

vagy az előfizetőknek is alapból, hogyha

51:05

nem paraméterezed, akkor egy ilyen

51:08

rosszabbul teljesítő modellt.

51:09

>> Mit jelent, hogy paraméterezed?

51:11

>> Hát hogyha nagyon egyébként elegensen el

51:14

van rejtve a a felhasználói felületen

51:17

az, hogy hogy szeretnéd, hogy hogy a a

51:20

próál családot használja, annak nyilván

51:22

megvan az a hátrány, akkor az több

51:24

erőforrást igényel, többet gondolkozik.

51:26

Ö

51:28

lehet egészen ilyen research típusú

51:31

feladatot adni, ami ahol akár fél órát,

51:33

egy órát, négy órát gondolkodik egy

51:35

feladaton. Ezekre gondoltam alapvetően.

51:40

>> Igen. És ez ez jó volt, hogy mondtad

51:41

George ezt, hogy hogy ez a ez a modell

51:44

változások vannak. Ugye ez is egy ilyen

51:47

mindennapi probléma lehet akár, hogy az

51:49

ember fölépít valami kis infrastruktúrát

51:50

magának, hogy hogy nem tudom milyen

51:52

promptokkal használja a adott modellt és

51:55

és arra mondjuk van egy benchmarkja,

51:58

ami alapján azt mondja, hogy igen, igen,

51:59

ez így szuper. És akkor hirtelen a

52:02

saszolgáltató lecseréli a modellt, és

52:04

akkor minden megváltozik. Tehát hogy

52:06

mert annak más a szemptje, máshogy van

52:08

tréningezve, más a maga a modell is, más

52:11

>> tök mást fog generálni ugyanarra a

52:12

promptra. Tehát az, hogyha az ember egy

52:14

ilyen, és ugye mondtad az elején Balázs,

52:16

hogy sok cég használ AI, de kevés tud

52:20

kimutatni Roit. Hát ez egy ok lehet

52:23

erre. És én azt szoktam így mondani,

52:26

hogy azért, hogyha ha

52:29

produktív környezetben, productionbe

52:31

használunk AI rendszert, hogyha nincs

52:32

mögötte benchmarkolás,

52:34

akkor az azért még nem production.

52:36

Tehát, hogy akkor akkor vagyunk

52:37

productionben, hogyha ki tudjuk mutatni,

52:39

hogy azokra a tevékenységekre, amire

52:41

használni akarjuk, kvázi benchmarkolni

52:44

tudjuk azon a feladaton, ami amire

52:46

szeretnénk azt használni, azon mér mérni

52:49

tudjuk a javulást egy modellváltásnak.

52:51

Ellenkező esetben, hogyha ilyen

52:52

sasmodellt használunk, tehát nem mi

52:54

kontrolláljuk, hogy milyen modell van,

52:56

bármikor kihúzhatják alolunk. Egyrészt

52:58

az ározás, tehát bármikor mondhatja azt

53:00

a open, hogy akkor mostantól kezdve x10

53:02

és akkor most eddig volt olcsó, mint a

53:06

mondj

53:07

>> valószínűleg ez a tervük egyszer, vagy

53:09

szóval, hogy más

53:12

történik is ez többévésbé.

53:14

>> Igen. Tehát itt az sok sok fajta dolog

53:16

van. Nyilván a a az egy cél, hogy

53:19

kérdés, hogy meddig lehet árat emelni.

53:21

Tehát ez most sem annyira olcsó az a 20

53:23

dolláros, 30 dolláros per felhasználó

53:26

per hós árazás. Ez valahol itt a

53:27

konzumer meg az ilyen előfizetéses

53:29

modellnek ez a felső határa, és

53:32

valószínűleg inkább skálázással meg

53:34

költségcsökkentéssel

53:36

fognak, és elég komoly infrastruktúra

53:38

projektek vannak, ami majd egyszer

53:40

remélhetőleg eléri a hatását. És akor az

53:43

összes többi igazából mondjuk mondhatjuk

53:44

azt, hogy van a ilyen konzumer oldalon a

53:47

ch GPT összes többi az az Igen. Tehát

53:49

van a van a az a az Antropicnak a cló

53:52

nevű platformja a és az összes többi a a

53:56

az XI, a

53:59

a Gemini, az ugye azért szerintem azzal

54:01

még többet találkozunk, hiszen az most

54:03

már beépült a keresőmezőbe. A Google

54:05

ezzel próbált ellensúlyozni azt, hogy

54:08

hogy ahogy te is mondtad, hogy a Google

54:10

keresésnek egy alternatívája lett a lett

54:12

az AI. És akkor hogyha így van, akkor

54:14

meg megpróbálják megelőzni a problémát,

54:16

és akkor oda odatesznek egy ilyen AI-os

54:19

kontexusos választ is. Gyakorlatilag

54:21

ezek ezek konzumer számotban hasonlóak.

54:24

Ami nagyon fontos szerintem, amit amiről

54:26

kevesen szoktak beszélni, az az, hogy a

54:29

a bevételi forrásai ezeknek a cégeknek a

54:33

az a konzumerpiac az csak egy egy

54:36

töredékes. Az antropicnak a tényleg egy

54:38

szerintem ilyen 10%-a sokkal nagyobb az,

54:40

amit más alkalmazások használnak E-T és

54:43

azok használják ezeknek a nagy

54:45

modellgyártóknak a a termékeit ilyen

54:49

API-okon keresztül, és gyakorlatilag a

54:52

használatért fizetnek. Jelenleg azért

54:54

azt az látszik, hogy ezekből is

54:57

legjobban a tehát két két két-három cég

55:01

jár nagyon jól. Az egyik az Nvidia, aki

55:02

szállítja a a chippet. Az az brutális.

55:06

Tehát az Nvidiának annyira monopol

55:08

helyzetben van, hogy 80%-os ilyen bruttó

55:11

marginja, bruttó profit marginja van.

55:13

>> Meg az meg a adat

55:16

>> Igen, az adatzolgáltatók, tehát a

55:18

Microsoft Asure, a a Google Cloud és a

55:21

és a az Amazon. Ez ugye három nagy

55:23

cégnek a ami egyébként már előtte is egy

55:26

ilyen Zorék most nagyon próbál feljönni.

55:29

Ugye ezzel lett Elison egy napra világ

55:33

leggazdagabb embere bejelentettek egy

55:34

nagyon komoly dealt a az open AI-ja és

55:38

az X-jal meg korábban is volt nekik.

55:40

>> Jó, tehát igazából akkor az én nekem az

55:42

volt az üzenet, hogy a chat GPT az van a

55:44

fogyasztóknak azt használják sokan. A

55:45

Google az ugye önmagától már ha Google-

55:47

keresel, akkor már használja neked

55:49

ingyen. A többieket nem használják

55:51

sokan, de a cégek használják. elsősorban

55:53

a a clódot és és elsősorban a

55:55

fejlesztési

55:57

>> hát meg jogi terület, tehát hogy a a

55:59

clód az elég most én azt gondolom, hogy

56:01

talán a legjobb ilyen szövegíró

56:02

képességére, mióta open nyugdíjaszta ezt

56:05

a 4ó

56:06

>> modellt tényleg ez az ötös az olyan amit

56:08

a Gyuri mondott, hogy ilyen mindegy.

56:11

Tehát hogyha hacsak nem ugr ugrálod

56:13

nagyon körbe akkor akkor nem az igazi.

56:15

Cloud azért azt például mi szakmánkban,

56:17

informatikában nagyon sokan használják.

56:19

Pont az Entropicnak van egy ilyen cló

56:20

kód

56:23

és hát az

56:23

>> alkalmazása és modá saját termék. Így

56:26

van. Tehát az egy a saját termékük és és

56:29

elég jó. Tehát hogy az a informatikába,

56:33

programozásba az egy talán talán mondjuk

56:36

kérdezed, hogy mire miaik a legjobb. Én

56:37

azt gondolom, hogy így a informatikában

56:39

mondjuk most a

56:41

clóot mondanám, de hát nyilván ez

56:43

>> videógenerálásban most az Xia is eléggé

56:46

nagyot gurított. Hát igen, tehát de hogy

56:49

egy hónaponta licitálnak egymásra és

56:50

azért nehéz megmondani mindig melyik a

56:52

legjobb. Állandóan benchmarkolni kell.

56:53

Tehát szerintem hogyha valaki

56:54

professzionálisan használja, akkor

56:55

érdemes megcsinálni a benchmarkokat

56:57

arra, amire neki kell, arra a

56:59

feladattípusra, és igazából nem ilyen

57:01

érzelmi vagy ilyen impulzus döntést

57:03

hozni, hanem ami a benchmarkokba kijön,

57:05

akkor mindig választani jobbat, mert

57:07

nagyon gyorsan változik a piac.

57:08

>> Igen. És nézni az újdonságot, az nagyon

57:10

fontos, mert tényleg hónapról hónapra

57:13

elég nagy változások vannak.

57:14

>> Ühüm. Jó, következő téma: Humanoid

57:17

robotok. Hogy függ ez egyáltalán össze?

57:20

E már 15 éve is láttam a tévében, hogy

57:22

így Japánba ott így van egy ilyen robot,

57:24

és akkor így mozog, és akkor most meg

57:26

már nem tudom, meg tudja fogni a tojást.

57:29

Ezt az AI csinálta, vagy ez amúgy is

57:31

fejlődött volna? Mikor lesz nekünk

57:34

otthon egy rendes robotunk, aki majd

57:36

bepakol a mosogatógépbe, meg kivasalja

57:39

az ingeket másnapra? Tehát, hogy

57:43

olvasom, hogy nagyon hamar. Egyébként

57:44

ebben jobban is iszek. Azt nem tudom,

57:46

hogy hasznos lesz-e, de hogy ugye mint

57:48

ahogy a nem tudom Amazonnak is volt ez a

57:50

kis doboza, aztán az nem lett akkora

57:52

forradalmi, mint akarták. Hogy hívták?

57:53

Alexa volt a a neve, aki ott és akkor

57:56

lehetett hozzá ugye beszélni. már az is

57:57

egy kicsit olyan volt, csak ugye a large

57:59

modelleknek a megjelenése ugye nyilván

58:01

egy kicsit ezt így megspékelte meg

58:03

szerintem valahogy az nem lett annyira

58:04

híres, de hogy tehát hogy voltak ennek

58:05

már próbálkozásai, de de most val ebbe

58:08

viszont én is be tudok lelkesedni, hogy

58:10

hát ha valaki vasalna, az az király

58:12

lenne, vagy valaki, ha már meg tudja

58:14

fogni a tojást, és nem töri össze

58:17

már az is valami, ha fel is tudná törni

58:19

a tojást, akkor az ugye még durvább

58:20

lenne, mert akkor az már főzni is tudna

58:22

előbb-utóbb. Tehát, hogy na mindegy, hol

58:23

állunk ebbe, mert ez nagyon nagyon

58:25

nagyon lelkesítő. És azt úgy valahogy én

58:27

is el tudom képzelni, hogy hát hogyha

58:28

azt csak így ki kell tapasztalni, hogy

58:29

mikor pont nem törik össze a tojás, és

58:31

akkor odad annak a vasdarabnak, és akkor

58:34

csinálja. Na, hogy na erről, ha van

58:36

véleményetek,

58:37

>> akarod kezelni?

58:38

>> Nem. Jó, hát ehhez, hogyha ehhez aztán a

58:41

legképzésem értünk. [nevetés] Igen,

58:43

igen. Ez én csak így meghallgatom, hogy

58:45

mi a véleményed erről a té

58:46

>> szerintem én én dobtam be azt a témát,

58:48

hogyha már tényleg ilyen világvége

58:49

hangulat hangulatba akarunk kerülni,

58:51

akkor akkor nekem mindig elképzelni azt,

58:54

hogy hogy mikor lesz igazán baj, akkor

58:56

lesz baj, hogyha elég sok robot, tehát

58:58

hogy mi ez a ezt az AI-t ezt egyszer

59:00

kihúzzuk a connecttorból, és akkor az

59:02

egyszer az úgy leáll, hogyha hogyha ez

59:05

egy ilyen distributált rendszer lesz, és

59:06

mindegyik, hogyha lesz nem tudom 10

59:09

millió robot vagy 100 millió robot

59:11

milliár, lehet is le fog merülni, de

59:13

valahogy én attól

59:14

>> hát mer az anyukámnak a robotzió vagy mi

59:16

az robot fűnyirője és visszamász köhére

59:18

tölteni, tehát nem olyan könnyen

59:19

merülnek le, hogyha nem [nevetés]

59:20

>> Igen. Tehát, hogy szerintem ez ez nagyon

59:23

érdekes ilyen humán szempontból, hogy

59:26

hogy ezek mikor fognak jönni. egyébként

59:28

nyilván itt is van egy van egy hype, meg

59:30

itt is van egy olyan ígéret, amit

59:33

nyilván mondanom sem, hogy Elon Mask az

59:35

ellenjáró abban, hogyha már egyébként a

59:37

a Teslát nem sikerül annyira jól

59:39

értékesíteni és feljöttek a nyakára a a

59:42

kínaiak, akkor próbál egyet gurítani

59:43

valami más tableten, és akkor eladja,

59:45

hogy ez lesz az emberiség számára

59:47

következő l

59:47

>> Lehet, hogy én is csak ezt a hype-ot

59:48

nyertem be sajnos és nem lesz senki, aki

59:50

kivasaljon. jönnek az Optimus robotok,

59:53

akik azt láttuk, hogy színpadon nagyon

59:54

jól tudnak táncolni, tehát azt azt azt

59:57

én nem tudok úgy táncolni, azt azt

59:58

mindenképpen engem már legyőztek. Tehát

60:00

ilyen értelme az AGI valamiben biztos,

60:01

hogy már jobb, mint a az ember, de azért

60:04

itt félelmetes befolektetések vannak itt

60:07

ebben a téren. Tehát, hogy nyilván a

60:09

mászk az mászk. Idén 5000 robot ígér,

60:12

jövőre 100000 robot ígér, két év múlva

60:15

500000 robot ígér. Meglátjuk, hogy mi

60:17

lesz ebből, de a több a kínaiak is

60:18

eléggé belelesedtek.

60:21

Engem megmondom őszintén, hogy az am

60:23

összefügg, tehát hogy nem ne úgy

60:24

kezeljük ezt öet, mint ami nem AI

60:26

terület, nem? Tehát itt is szerintem

60:28

nagyon összefügg, tehát hogy én most nem

60:30

tudom, hogy George van még valami ilyen

60:31

ilyen nagy összefüggés itt a robot

60:35

majd arra, tehát hogy hogy ami amiről

60:39

nem beszéltük, tehát ezekről a öt nagy

60:41

modellgyártóról beszélünk, de egyébként

60:43

számtalan kisebb meg specializált AI

60:46

modell gyártó van. Hát vagy ezek a

60:49

kisebb modellje, a a nagy gyártók kisebb

60:51

modelljei.

60:52

>> Igen, de specializált területekre és az

60:54

egyik azért pont a robotikára is vannak

60:56

speciális

60:58

operációs rendszergyártók, mert ez talán

61:00

Google-nak is van ilyen kezdeményezése.

61:03

Tehát, hogy ez egyébként így ezt nem

61:05

tap, tehát hogy túl sok ilyen ilyen spot

61:08

az talán megvan az a az a kutyaszerű

61:12

Boston Dynamic.

61:13

>> Az Boston Dynamic megvan. Azt azt

61:14

viszonylag olcsón adták, vették ilyen

61:16

milliárd dollárokért annó, és azt nem is

61:18

értettem. Bár ezek szerint nem tud akár.

61:20

>> Hát ott ott szerintem az volt, hogy hogy

61:22

a Google ezt megv ez egy az bosson az

61:25

így létezett ilyen huszon pár évig, és

61:27

utána a Google megvette és a Google-nak

61:29

a reputációjának nem tett jót, hogy egy

61:31

ilyen, hogy ilyen bele lehet látni azt,

61:34

hogy ők majd robotokkal elpusztítják a

61:36

világot.

61:36

>> Igen. Tehát ilyen félmetes kutyák

61:37

szaladgálnak. Igen, nagyon nagyon vicces

61:39

az, hogy hogy az Enon má öt éve, amikor

61:41

még a Boston Dynamics a Googlenek a

61:44

tulajdonában volt, akkor azt mondta,

61:45

hogy neki az a rémá ma, hogy a hogy a

61:47

két Google alapító az humonid robotokkal

61:51

el fogja pusztítani az emberiséget, és

61:53

akkor előre tekerjük öt évvel a filmet,

61:55

és most a ő meg úgy 50-szer annyi

61:57

humanoid robotot szeretne gyártani, mint

61:59

ami valamint nem az volt a rémában, hogy

62:01

lesznek azok a robotok, csak nem ő

62:02

csinálja meg. Hát [nevetés]

62:04

>> igen, igen, ez valószínű.

62:05

>> De egyébként itt az AJI tényleg

62:07

összefügg ez egyébként szerintem ez a

62:08

robot robot téma. Én azon gondolkoztam,

62:11

hogy amikor beszéltünk az előbb arról

62:12

mit tudom 20 perc, hogy AJI lesz-e most

62:14

meg az Ellenből, ki tud-e pörögni és

62:16

egyébként szerintem lehet, hogy igen, de

62:18

hogyha nézzük meg, hogy hogy mi az

62:21

egyetlen jelenleg egyetlen bizonyíték

62:24

arra, hogy hogy létezik ilyen emberi

62:26

szerű intelligencia, hát az ugye maga az

62:28

ember. Itt ülünk a szobába. Tehát, hogy

62:29

ma az emberi faj az úgy alakult ki, hogy

62:31

nem tudom, kimásztunk a vízből föl a

62:33

fára le, csoportosan elkezdtünk

62:35

feladatot megoldani a nyelv

62:36

segítségével, megosztottunk információt,

62:38

generációk között egyebek, de hogy

62:41

voltak szenzoraink, tehát nem csak a

62:43

nyelv volt, hanem volt szemünk, meg

62:44

érzékszerveink, meg szaglásunk, meg

62:46

minden, és ezzel is stimuláltuk az

62:49

agyunkat, és akkor a sok szenzor meg a

62:50

meg az agynak a neuronjai, meg a

62:53

tárolókapacitása, meg a

62:54

processzálókapacitása együtt ki kijött

62:57

ez, ami most itt van. És én szerintem

63:00

nem egy buta gondolat, hogy hát lehet,

63:03

hogy ha akarunk egy ilyen szintetikus

63:05

vonalon is egy ilyen evolúciót, akkor

63:06

annak is kell adni érzékszerveket, meg

63:09

tapintást, meg meg ilyen

63:12

situation, vagy nem tudom, hogy mondják

63:14

magyarul, vagy úgy tudja, hogy hol van,

63:15

meg mi történik. Az az lehet, hogy úgy

63:18

könnyebb. Hát hiszen az egyetlen példa

63:20

erre az az mi magunk vagyunk. Tehát

63:22

szerintem elképzelhető, hogy ez a ez a

63:24

robotómia ez így ilyen bekerül egy

63:27

elkezdi erősíteni azt, hogy hogy

63:28

legyen-e AGI, vagy nem mondom, hogy így

63:30

lesz. Tehát erre nem tudok bizonyoságot

63:32

vállalni, csak nem tartom hülyeségnek.

63:34

>> Az egyetlen AI szakértő, akit követek,

63:35

az ugye pont a nagy szkeptikus, ez a Jan

63:37

Lecoun, aki azzem a Metának volt valami

63:40

vezetője AI fronton, és

63:41

>> mostáig most ment el.

63:43

>> Igen,

63:43

>> tegnap előtt csinált valami saját cég.

63:44

>> Azt hittem már régebb óta

63:46

>> régebb lefokozták.

63:47

>> Ja. Ne, ne, nem, nem követtem elég. 24

63:49

éves,

63:52

>> meg a két két másik srácos 1 milliárd

63:54

dollárért. És

63:56

>> na mindegy. Szóval ő ő de ő mindig ezt

63:58

nyilatkozta, hogy tehát biztos azért

64:00

olvastam őt, mert ő azt mondta, amit én

64:02

is így erre gondoltam, hogy ez egy

64:04

óriási hype és teljesen túl van tolva,

64:05

és hogy nem lesz iten. És neki ugye ez

64:07

az egyik ilyen fő gondolata, amennyire

64:08

értem, amit mond, hogy hát az ember az

64:10

érzékszervein keresztül tanul egyszerre,

64:12

és azok mind együtt valami érzést

64:14

okoznak az agyában, és hát ezt az AI nem

64:17

tudja. Hát ugye a a ugye a nyelv a

64:18

legegyszerűbb, mert ráadásul az

64:19

diszkrét, ugye szavak vannak egymástán.

64:21

Ugye a videó az már bonyolultabb, mert

64:23

folytonos. Igazából ő ugye azt isettem

64:25

meg kritizálta, hogy tehát a videón vagy

64:27

a vagy tehát ami folytonos dimenziójú és

64:30

nem diszkrét, abból nem is tud úgy

64:31

tanulni mint ahogyan a large language

64:34

modellben. Na mindegy. De értem, hogy

64:36

akkor az a gondolat, hogy van a robot,

64:37

annak ugyanúgy vannak érzékszervei, mert

64:39

amikor megfog valamit, tudja, hogy

64:40

kemény vagy folyékony, lát valamit,

64:42

akkor betáplálja, mint egy videókamerán,

64:44

és izé bemegy, és akkor a beszél, akkor

64:46

ugye az Vlang modell, az már szinte azt

64:48

már meg is oldottuk, tehát ugye abban

64:49

vagyunk a legerőrébb. És akkor ezt

64:51

valahogy belül, bár azt azt továbbra sem

64:53

értem, hogy ez egy együtt hogy fog

64:54

együtt összeállni, mert ugy ezek olyan

64:56

mint mint külön öt külön dimenzió lenne,

64:59

nem? Mint az emberben meg valahogy

65:00

együtt van a szaglással meg az érzéssel,

65:02

meg

65:02

>> hát az lesz az a tehát hogyha ugyanaz a

65:04

neuronháló képes arra, hogy megtanul,

65:07

mit tudom én, szagokat megkülönböztetni

65:09

meg angolul meg sakkozni. Tehát, hogy

65:11

erre azért még kevés példa van, hogy ez

65:13

>> igen, de nem lehet, hogy ez olyan

65:14

dimenzió ugrás, ami így káb lehetetlen,

65:16

vagy nem tudjuk megoldani? Hát

65:17

>> nem lehetetlen, mert az ember

65:18

megoldotta. Tehát, hogy hogy azt látjuk,

65:20

tehát van pont, hogy hogy van van egy

65:21

van egy fizikai bizonyítékunk rá, hogy

65:23

ez lehetséges. Tehát ez ezt a megoldotta

65:25

az evolúció. Ergo szerintem nem egy

65:27

őrült várakozás, hogy ezt meg tudjuk mi

65:29

is oldani. És hát szerintem inkább az az

65:32

érdekes, hogy hogy tudik fajta

65:33

tanulásból egy másik szituációból

65:36

fölépíteni tudást. Tehát mint ahogy

65:38

szerintem erre is van már szintetikus

65:39

példa, és megnézzitek, hogy a Google mit

65:41

csinált, vagy Deep Mind pontosabban a

65:42

amikor a Alpa Zero, ugye az Alp Go,

65:45

pontosabban amikor a Go játékot

65:47

megoldották és megverték az emberiséget,

65:49

és ez egy fantasztikus nagy esemény

65:50

volt. És de ugyanazzal a vagy hát kvázi

65:52

ugyanazzal a modellel utána a sakjátékot

65:55

is, meg a Shogit, a a japán sakkot

65:57

megoldották. Hát az már szerintem

65:59

valami. Tehát az egy nyilván ott volt

66:01

egy csomó játékpecifikus keresés meg,

66:03

szóval azért szerintem ez nem ennyire

66:06

ilyen rózsaszín sztori. De de hogy

66:08

valami ilyesmi lesz szerintem az AJI azt

66:11

tekinteném én AJI-nak, hogyha az egyik

66:13

területen szerzett tudást tudja

66:14

adaptálni a másik területen. Az komoly,

66:17

de ilyet il ehhez most messze vagyunk.

66:18

Tehát ez

66:19

>> tehát hogy nyelvből megtanul valamit, és

66:21

aztán amiatt mást rajzol a filmben.

66:23

>> Mást rajzol, meg mondjuk talál egy új

66:25

molekulát, meg megoldja a rimonsejtést.

66:28

És egyébként jó fej is.

66:29

>> De hát a Ren sejtés másfél év múlva már

66:31

>> hát azt a a Krisztián mondja

66:32

>> a barátod szerint. [nevetés] Igen, igen,

66:34

igen. Az

66:35

>> jó világos. Tehát humor akkor kevésbé

66:38

vagytok otthon, de azért lelkesít azért

66:40

benneteket is, ahogy látom. De a akkor

66:43

itt a Tesla egyedül, akit aki nagyon

66:45

nyomja meg a kínai.

66:46

>> Bid nagyon

66:47

>> és a BYD a kínai Tesla.

66:50

>> Igen. Mindenki a kínai Tesla.

66:52

>> A Warran Buffett Teslája ugye meglepő

66:54

módon

66:54

>> Igen. Igen. Volt kínai befektetésük. Na,

66:58

eddig direkt elhalasztottam ezt a témát,

67:00

de

67:01

>> eddig volt a bemelegítés.

67:02

>> Ez volt a bemelegítés, de hogy

67:03

>> most jön a kemény sztori.

67:04

>> Igen. [nevetés]

67:06

Ami aminek köze van a tőzsdéhez is, csak

67:08

hogy eddig akartam, hogy egy kicsit

67:09

filozofáljunk el ezekrő a dolgokról.

67:12

Ugye a törzsde az az 2022-ben lefelé

67:16

ment. A Nazdakban akkor volt egy volt

67:19

egy gyengeség. Ez ugye köszönhető volt

67:21

nyilván annak, hogy egyébként előtte meg

67:22

nagyon sokáig fölfele ment, tehát ezt

67:24

nem elhallgatni akarom, de hogy de hogy

67:25

innen indultunk vals, hogy akkor ugye

67:26

assiszem 22 őszén jött ki a ugye a chat

67:29

GPT-nek az első modellje. És akkor

67:31

emlékszem én magam és így mondtam még a

67:33

nagy ügyfélrendezvényünkön is, hogy hát

67:35

ha valaki hype-ot keres, ez tuti nagy

67:37

hype. Hát ugye mi nem ilyen cég vagyunk,

67:38

hogy így a hype-okba befektessük. Hát én

67:40

se tudom ezt az egészet. Hát itt van ez

67:41

az Nvidia, meg ugye mindenki érti, hogy

67:44

ugye az aranyásók példájára, hogy az

67:46

adja, az adja az aranybányászáshoz az

67:48

ásót, csak az ásó az itt nem egy

67:50

versenyzőpiac, hanem egy monopólium.

67:51

Nem, én nem fogalmam sincs, meddig lesz

67:53

monopólium. Ha van véleményetek,

67:55

mondjátok el a hallgatóknak, mert azzal

67:56

sok pénzt lehet keresni, hogy meddig

67:57

lesz még az Nvidia monopóliuma. A piac

67:59

szerint sokáig, és ha valaki tudja, hogy

68:00

nem, akkor akkor azt be lehet shortolni.

68:03

Tehát, hogy tehát nyilván az Nvidia az

68:05

az már látszott akkor is, hogy nagy

68:06

győztes. És akkor így így még gondoltam

68:09

én is, hogy hát ebből így lehet hype, de

68:10

hát ugye a fene se gondolta volna, hogy

68:11

megint ekkora hype lesz, de de ez

68:13

egyértelmű. Tehát én mindig egy irányba

68:14

tévedek ezzel kapcsolatban, mindig abba

68:16

az irányba tévedek, meg meg szerintem a

68:18

legtöbb ilyen fundamentális befektető

68:19

abban, hogy nem hiszi el, hogy itt

68:20

ekkora hype lehet. Hát tényleg tényleg

68:22

ekkora hype lett. És akkor az Nvidiaát

68:24

most nem számítva ugye a többiekre.

68:26

Tehát egy csomó jóér van amellett, hogy

68:29

hogy nem kéne emelkedni a

68:30

részvényárfolynak, mert hogy ez nem tud

68:32

igazából megtérülni profitként. Tehát

68:34

ugye az egyik az legfontosabb az, hogy

68:35

itt a tehát egy csomó logika, amit

68:38

megszoktunk, hogy ezeknél a bigtech

68:39

cégeknél működik. Tehát elsősorban az

68:42

például, hogy van hálózati hatás, meg

68:43

az, hogy van méretgazdaságosság.

68:45

Tehát valami úton, módon a közgazdasági

68:48

logika segít, hogy ezt a tudást ezt be

68:49

tudjuk zárni,

68:52

magunkévá tegyük, mink milyen legyen a

68:54

felhasználók tömege, és aztán ezt

68:56

valamilyen eszközzel, akár azért, mert

68:58

ugye marketingelünk valakinek másoknak,

69:00

vagy így úgy, de valahogy profittá

69:01

tudjuk tenni. Itt ez elképesztően

69:04

megbicsaklik ez a logika, hogy az egyik

69:06

az, hogy a first mover nem tűnik annyira

69:09

nagyon jó dolognak, mert vagy nem tűnik

69:11

annyira előnyösnek, hiszen ugye nincs

69:13

hálózati hatás, tehát nincs az, hogy

69:15

akit többen használnak, attól az

69:16

feltétlenül sokkal jobb lenne. Biztos

69:18

van valami, mert tanul a modell attól,

69:20

hogy a fogyasztók kérdezgetnek, de nem

69:21

olyan erős a hatás. Méretgazdaságosság

69:24

megint csak nem ilyen egyszerű ügy. Itt

69:26

egy csomó áramot fogyaszt, mindenki

69:27

erről beszél, ez mennyire drága, meg

69:29

kell venni a nem tudom adatcentert.

69:30

Tehát tehát igazából nem az történik,

69:32

hogy csinálok mondjuk 20 milliárd

69:34

dollárért egy fejlesztést nagy tudással.

69:36

Nem tudom, nálam van a 100 legjobb

69:38

dolgozó

69:39

ugye, akinél millió dollárokat kell

69:41

fizetni, és akkor aztán tök jó lesz,

69:42

mert ezek kitalálnak valami nagyon jót,

69:44

azt csak nálunk lesz, és akkor eladjuk

69:45

az egész világnak, hanem hát így tökre

69:47

nem ez van, hanem kitalálnak valami

69:48

nagyon jó, és egyébként tök drága még a

69:50

változó költsége is. Tehát igazából

69:52

ahogy jönnek be a fogyasztók, akár több

69:55

millió, ugye az átlagköltség az nem kezd

69:57

el úgy esni, mert tök drága egyszerűen a

69:59

cégnek az, hogy ezt a rengeteg

70:00

áramszámlát meg ezt a rengeteg

70:02

beruházást ezt fizetgesse, mert mert

70:04

mert mert mert hogy egyébként nagyon

70:06

energiaigényes, meg munkaigényes az,

70:07

hogy ezek az emberek itt kérdezgetnek,

70:09

és a chat GPT meg a meg a többiek

70:11

válaszolnak. Tehát, hogy hogy és ennek

70:13

ellenére, hogy így vannak ilyen tök tök

70:15

racionális dolgok, hogy hogy miért nem

70:17

kéne ebből akkora profitot csinálni.

70:20

Iszonyat nagy arccal mennek előre a

70:21

techcégek. Ugye most nem tudom,

70:23

valamelyik kollégám mondta, hogy a

70:25

valaki így felvetette ezt a

70:26

Semaltmannak, hogy hát azért itt nem

70:28

biztos, hogy kijön a matek, több 100

70:30

milliárd dolláros fejlesztések, és akkor

70:31

így csak így utána számolunk, hogy még

70:33

ha minden ember azt használja és és

70:35

megvan a nem tudom 20-30 akárhány

70:37

dolláros haélfetés, meg akkor is nagyon

70:39

nem jön ki. És akkor erre annyi bírt

70:40

válaszolni ugye, hogy szívesen megveszi

70:42

mást tőled a tulajdon részedet, ha

70:45

akarod.

70:45

>> Ez egy elég arogány szöveg volt. Az egy

70:47

valamelyik shareholdernek mondtak egy

70:48

ilyen podcastos fiú és és szerintem is

70:51

azért tehát olyan arogancia van itt és

70:53

és közben hát a haver azért így mégis

70:55

olyan a világ, hogy így mondjuk el, hogy

70:56

hogy jön ki a matek. Hát ő így nem

70:58

annyira mondja el. Persze ha lenne a

71:01

ugye amit most éppen itt elengedtünk,

71:03

akkor akkor persze megint minden más

71:05

majd majd akkor az az nem fog olyan

71:07

fontosnak tűnni, mert akkor akkor náluk

71:08

lesz tényleg. És akkor majd ők visznek

71:10

el minket a Nirvánába, és akkor végtelen

71:11

pénzük lesz. És és az a bajom, hogy

71:13

minthogyha ezt ezzel ezzel a kártyával

71:15

így játszana, de közben egyébként a

71:17

matek meg ugye nagyon nem jön ki.

71:19

Egyébként 22 óta minden nagy techcég,

71:21

meg egyébként kischek cég, aki ezzel

71:23

foglalkozik, az annak emelkedik az

71:24

árfolyama.

71:26

Úgyhogy úgyhogy hát nyilván én én már

71:29

23-ba is kerültem, ami ami ugye nagy

71:31

hiba volt ezek szerint, mert nagyon

71:32

felment. Nyilván de olyan szempont nem

71:34

hiba, hogy mi nem így gondolkozunk,

71:35

tehát tudjuk, hogy mihez értünk, azt

71:37

hisszük, meg mihez nem értünk, ehhez nem

71:39

értünk, ezért ezzel nem foglalkoztunk.

71:40

Persze, persze. Mi partvonalon mindig

71:43

egy picit rossz állni. És és hogy mi

71:46

nektek erről a tőzsdei oldaláról a

71:47

véleményetek?

71:49

>> Kezdem én. Kezdett?

71:50

>> Hát hát figyelj, nekem a műszaki

71:52

oldaláról van, úgyhogy kezdjed, és akkor

71:54

majd majd elmondom, hogy hogy miért nem

71:56

biztos, hogy baj, hogy partvonalon

71:57

vagytok. Igen. Tehát egy kicsit

72:01

nézegettem a makroszámokat, és

72:03

beleugrottam egy érdekes statisztikába,

72:06

hogy hogy aztán a USÁBA utolsó negyed

72:08

éves gazdasági növekedésből a AI

72:13

infrastruktúrális beruházások magasabb

72:15

löketet adott a gazdaságnak, mint a mint

72:18

a vásárlónak a

72:20

>> szerintem levonod akkor nem akkor nem is

72:23

nem is lett volna emelkedés szerintem.

72:24

Igen, de ugye ez a tehát a ugye ezt

72:26

azért nem érdemes teljesen így nézni,

72:28

mert hogy ugye ez használ kapacitást,

72:29

tehát lehet mondani, hogy nem lett volna

72:31

Amerikában a beruházásokban növekedés,

72:33

amennyiben nem lett volna ennyi data

72:34

center beruházás, de akkor másra

72:36

lehetett volna azt a azt a beruházást

72:38

költeni. Ugye itt még a Zsidai Viktor

72:40

itt ült pár hete ebben a székben, és

72:41

akkor ő mondta, de hát nyilván erről is

72:43

sokan ínak, hogy hát a másik az az, hogy

72:45

megvesszük a marha drága dataacentert,

72:48

amibe megvesszük a cipet, ami majd három

72:50

év buuva meg már tök tökre el lesz

72:52

használva, és majd sokkal tehát ugye

72:53

>> ezt erre akartam, tehát hogy pont

72:55

Gergővel beszélgettünk, és hogy kicsit

72:57

ez ez most lehet, hogy olyan mint egy

72:58

stadionépítés, tehát

73:01

kérdés, hogy lesz-e egyébként oké, tehát

73:03

hogy tök jó, megvettük a chipeket,

73:06

adtunk pénzt a tudom Nvidiának az

73:08

építőiparnak, energiaiparnak,

73:11

mit tudom, tehát a minden olyan

73:14

kapcsolódó szereplőnek meg iparáinak,

73:17

aki aki ebben ebben értéket, az kérdés,

73:19

hogy ez tovább fog-e gyűrűzni, és és

73:21

nyilván most ez rövid távon jó, meg

73:23

örülünk neki. A kérdés az, hogy ez meg

73:25

fog-e térülni, és hogy hogy

73:27

visszakanyarodva, amit amit hoztál

73:30

statisztikát a beszélgetés elején, hogy

73:31

egyelőre nulla a a a profit emelkedés a

73:34

az AI által, ez ez nyilván egy kétséges.

73:38

Az, hogy arra mindenképpen reagálnék,

73:41

hogy hogy mennyire költséges egyébként

73:43

egy ilyen AI modellnek a használ, tehát

73:44

szerintem nagyon sok emberbe van az

73:47

beleíva, hogy mennyivel drágább egy

73:48

ilyen AI search, mint egy ilyen

73:50

tradicionális Google search. A az az a

73:53

nekem egy ilyen fantasztikus

73:55

megvilágosodás volt az, amikor azt

73:58

valahom mikor nyáron publikálta a

73:59

Google, hogy ők annyit optimalizáltak az

74:01

ilyen Geminion, valószínűleg azzal, hogy

74:03

egyszerűen hasonló kérdésekre már van

74:05

egy ilyen gyorsítótáruk, és akkor nem

74:07

kell a feltő ahhoz tényleg használni, de

74:10

hogy a két évvel a kétszer 23-ashoz

74:13

képest egy keresést azt 41D-re, tehát

74:16

hogy a 2,5%-ára csökkentették le annak a

74:19

költségét, tehát hogy nyugodtan ö

74:21

merjétek használni a mindenki a az AI-os

74:24

keresést, mert most már sokkal olcsóbb,

74:26

mint mint ami ami szerintem köztályon

74:28

forog.

74:29

>> Tehát igazából azt mondod, hogy ezt ezt

74:31

is a technológia megoldja, mert ennek le

74:33

fog menni a költségeidővel még jobban,

74:34

és akkor igazából lehetnek akár dokum az

74:37

egész biztos, tehát hogy több olyan

74:39

privát cég van, aki egy ilyen, aki az

74:42

Nvidiának a kihívója és már egyébként

74:44

privát piacokon több milliárd dollárt

74:46

ér, mert mert nyilván akkora a a a

74:49

potenciális jutalom. Vagyis hát mondjuk

74:50

az AMD, ami talán legközelebb van az

74:52

Nvidához, annak is ugye fel felröppent a

74:55

az értéke nagyon. Tehát nyilván mint

74:57

minden monopóliumot mindenki megpróbálja

74:59

kikezdeni, főleg hogyha az a monopólium

75:00

az éppen most nem is tudom ezt 5000

75:03

milliárd dollárt ér.

75:05

>> Abszolút. De erről egyébként van még

75:07

véleményetek, hogy az Nvidiának mitől

75:09

van monopóliuma? Nyilván ez egy nehéz

75:12

műszaki szakmai kérdés. Hát maga Igen,

75:15

tehát a chipgyártás és maga a GPUnak a

75:19

fontossága most a tréningezésbe, és hát

75:22

egyébként az inferencebe is, tehát

75:23

amikor kérdezünk tőle, ugye két két

75:25

szakaszra lehet osztani így, hogy mi

75:27

történik a a GPU-ban. Van amikor

75:30

tréningezzük a modellt, amikor készül,

75:32

meg van amikor használjuk azt infernek

75:34

hívják, amikor kérdezünk tőle. És

75:36

nyilván a GPun futó modellek az

75:40

inferencebe is sokkal gyorsabbak,

75:41

hatékonyabbak, de hogy simán lehetnek

75:45

olyan technológiai változások, és már

75:47

most is van olyan, hogy a modellt lehet

75:49

CPU- is futtatni mondjuk inference

75:51

időbe, és és azért

75:53

>> speciális inference hardware startup

75:54

fogok nagyon ez a Grock. Ez nagyon jó.

75:57

>> Így van. Tehát, hogy van ez egy másik

75:58

Grock egyébként. Tehát hogy

75:59

>> ez egy ez Igen, ez egy ezek Q-val írják.

76:01

>> Igen. Tehát, hogy van a Grock, ami a

76:02

masknak a a modellje.

76:05

>> Igen. És van ez a Grock U nevezető, ami

76:07

meg egy ilyen inference startup, és

76:09

nyilván ilyenből lesz még sok. Szóval én

76:11

azt hiszem, hogy hogy azért itt amí

76:13

mondtad Vás, hogy technológia megoldja,

76:14

hát a technológia mindig mindent megold.

76:16

Tehát hogy itt is előbb-utóbb az lesz,

76:18

hogy hogy ez olcsóbb lesz a a maga a

76:21

használat és a költség is. Nyilván a

76:22

tréningezés is, meg a posztréningezés is

76:25

olcsóbb lesz. És én szerintem az Nvidia

76:28

most lehet, hogy a GPU monopólium az

76:31

mindig megmarad, de hogy a GPU mennyire

76:33

lesz fontos, az meg nem biztos, hogy

76:36

mindig fontos lesz. Tehát arra én most

76:37

nem tennék főle nagyobb összeget, hogy

76:39

mondjuk 10 év múlva is azt fogjuk

76:40

mondani, hogy GPU nélkül nincs meg

76:43

mindenképpen annyi GPU kell, hogy hogy a

76:46

amerikai nemzetgazdaságnak egy

76:47

szabadszemelható százalékát azt

76:49

datacenterekre meg GPU-ra költsük.

76:52

Ögyhogy én most azért inkább arra

76:53

tippelnék, hogy hogy a az a az a sok

76:57

volt matak olimpikon, aki most azon

76:59

gondolkozik, hogy jó, akkor hogy lehet

77:00

ezt ilyen kisebb csippekkel csinálni

77:01

Kínába. Én inkább rájuk fogadok, hogy

77:03

előbb-utóbb lesz jó ötletük. Igen, még

77:05

itt szerintem a kínai csipart azt azt

77:07

fontos megemlíteni. Ugye az első ilyen

77:11

export szabályozás az USA azt valahogy a

77:13

2022 végén hozta még ezt a Biden

77:16

adminisztráció. És az a ugye minden

77:19

ilyen export kontroll ott ott ott ott az

77:22

a a fő vita tárgya, hogy azzal jár.

77:26

Tehát, hogy most a megfosztjuk őket a

77:28

csippipartól, most nem egy ilyen, nem

77:30

tudom, északkoráról van szó, vagy egy

77:32

nem tudom, vagy egy egy afrikai

77:34

országról, aki nem fog elkezdeni

77:36

csipgyárákat

77:38

semmiből létrehozni, de azért Kína

77:40

csinált már gazdasági csodát elég sok

77:42

területen. És hát most ott ugye az elég

77:44

zárt világ, de egyre több hír van arról,

77:46

hogy ők valami brutális saját chip

77:48

gyártókapacitást építettek ki. És ugye

77:51

nyilván itt is megvannak az érdekek. a

77:54

az Nvidiának a CEO, ő azt szeretné,

77:56

hogyha ne legyen kontroll, és akkor

77:58

nyilván ő azokat az érveket használja,

78:00

hogy hogy adjunk el csípeket ezeknek az

78:02

országoknak is, és legalább akkor tudjuk

78:03

ő kontrollelni, mint ahogy amikor a John

78:06

Deere lekapcsolta az orosz traktorokat a

78:08

a amikor kitört a háború. Ö ezek ezek

78:13

nagyon érdekes

78:14

dilemmák, de én is azt gondolom, hogy

78:17

ezt a végtelenség nem lehet fenntartani,

78:20

hogy hogy ilyen szintű

78:22

előnye van egy

78:25

egy gyártónak is ilyen ilyen nagy mar

78:27

piaci kapitalizációt érá talán egy jó

78:29

példa van, az az Intel. Tehát az azért

78:31

látszik, hogy hogy amikor az Intel,

78:34

amikor a processzor számított, nem a az

78:36

ilyen

78:37

>> hát de ők is pivotáltak azért a RAMról a

78:39

processzorra, tehát ott is volt egy

78:41

olyan egy olyan pivot, hogyha nem a

78:44

világ valaha volt kábé legjobb

78:45

vállalatigazgatója lett volna az Intel

78:47

CEO, akkor lehet, hogy az Intelnek a

78:49

nevét se tudnánk most per pillanat.

78:50

>> Igen, de h a hog hogy a amíg dominált a

78:53

processzor,

78:54

>> de hogy az 10 év volt a nem tudom

78:55

70-es80-as években, vagy mire gondolsz?

78:57

Nem, az viszonylag akkor gyors volt.

78:58

>> Hát a a pivot az az rohadt gyors volt.

79:00

És utána még dominálták a

79:02

mikroprocesszorpiacot, az meg hát most

79:04

nem tudom, évtizedek.

79:06

>> Igen, de hogy a egy nagyon sok 10 éven

79:08

keresztül az internek nem volt

79:10

alternatívája, oda odaárazott ahova

79:12

akart. hogy és a stabilitásban, a

79:14

brendben meg egyébként tényleg

79:16

teljesítményben, mikor voltak is

79:17

hasonlóak egyszerűen nem vették azt.

79:19

Tehát ez lehet, hogy az ezt nagyon nehéz

79:22

megmondani, hogy mikor érdemes kezdeni

79:24

besortolni az Nvidiát, mert lehet, hogy

79:25

még felmegy 10 10000 milliárdal is,

79:28

mielőtt elkezd hanyatlani.

79:30

>> Nem gondolom, hogy mostanában egyébként.

79:31

Tehát, hogy a azért azért most én

79:33

szerintem a legalábbis amennyire nekem

79:36

ugye a tájékozottságom enged, én azt

79:38

gondolom, hogy a elkövetkező mit tudom

79:39

én egy-két három évben ez még egy ilyen

79:41

nagyon GPU nehéz dolog lesz a

79:43

tréningezés. Tehát én most nem most a

79:45

követ, de hogy jöhet valami zseniális

79:47

papír akármikor, hogy most kijön egy

79:49

kínai kutatócsoport, hogy na akkor ezt

79:51

most megoldották és akkor majd csak

79:52

nézünk, de most még nem.

79:55

Jó, még egy kérdésem van a zárókérdés

79:57

előtt, hogy bármi olyan dolog, akár ti

80:01

nektek fontos az a szabályozással

80:03

kapcsolatban. Ö voltam a HVG szervezett

80:07

egy ilyen eseményt. A Karen Karen H nevű

80:10

hölgy

80:11

írt egy könyvet azt hiszem az AI

80:14

birodalma, de lényegében a tehát ugye a

80:15

Semaltman Open AI cégéről szólt és hát

80:19

neki is az egyik fontos üzenete az az

80:21

volt, hát sok fontos üzenete volt. egy

80:23

hosszú könyv, meg még nem is olvastam

80:24

el, de ott ott hallgattam beszélni, hogy

80:28

hát hogy ez a ez hogy tehát ezzel sokat

80:30

foglalkozott, hogy ugye hogy kéne ezt az

80:32

egész kérdést szavazni, és ennek ugye

80:33

van nagyon sok dimenziója, van a

80:35

környezeti dimenziója

80:37

van ugye a felhasználók, az

80:38

adatfelhasználás ugye, hogy

80:40

gyakorlatilag itt adatlopások történnek

80:43

tehát csomócsomó dimenziója van.

80:45

De hogy titeket izgat-e bármelyik ezzel

80:47

kapcsolatban, vagy láttok-e olyat, ami

80:50

ami ilyen szempontból fontos? Én mint

80:51

laikus azt látom nagyon egyszerűsítve,

80:54

hogy a sok dimenzió az mind fontos tud

80:57

lenni, de hogy mégis a mi annyira gyors

81:00

a változás, hogy egyszerűen a tehát a

81:04

ugye a végülis a politikából származó

81:07

állami irányítások, akik a szabályozók,

81:09

azoknak egyszer annyira nehéz dolguk van

81:11

egy ennyire forradalmi, ennyire gyorsan

81:12

változó

81:14

technológiai iparákban. Hát most még még

81:17

még még a Facebook sincs jól

81:19

szabályozva, pedig, hogy beszélünk

81:20

arról, hogy gyerekekre milyen hatása

81:22

van. És akkor nem tudom, itt vagyunk nem

81:25

tudom 2009 óta boomol a Facebook, itt

81:28

vagyunk nem tudom 16 évvel később. És

81:30

hát így nem nem azt érzem, hogy így a

81:32

szabályozók kielégítőn értenék, hogy

81:33

így, hogy hat a társadalomra ez, és hogy

81:35

mibe kéne belenyúlni, meg mibe nem. És

81:37

akkor itt van egy egy hároméves dolog,

81:39

mondjuk így, hogyha most a chat GPT vagy

81:42

open AI nyitáshoz mérjük,

81:45

és hát akkor csak még sokkal nehezebb

81:47

dolguk van. Van-e nektek erre bármi

81:49

shortcut választotók, ami ami ami

81:53

szerintetek érdekes ide?

81:54

>> Hát van, nem olyan rövid. Nem tudom,

81:56

hogy beleférünk-e még a műsoridőbe. Hát

81:58

>> hát itt a műsoridő az végtelen. Ne

82:00

viccelj.

82:01

>> Jó, jó. Hát hát ugye két

82:06

két egymásal eléggé ellentétes álláspont

82:08

van itt, amit látunk szerintem országok

82:10

között vagy ilyen államszövetségek

82:12

között. Az van az USA, aki ugye

82:16

általában

82:17

elég pragmatikus áldáspontot szokott

82:19

képviselni, és amíg valami rossz igazán

82:21

rossz nem történik, addig nem szabályoz.

82:23

És akkor itt van ez a szuper

82:25

technológia, ahol meg úgy érzi, hogy

82:28

nagyon nagy versenyben van Kínában, és

82:30

aki az AI-t fogja dominálni, és most

82:32

tényleg nem az ilyen konzumer

82:34

felhasználásokról, és nem is az üzleti

82:35

felhasználásokról, de most gondoljunk

82:37

bele a a ilyen hadászati

82:40

intelligence dolgokba, drónvezérlés,

82:42

fegyverkezés, biofegyverek satöbbi.

82:44

Tehát azért ezek nagyon komoly

82:46

komoly témák, és hogy azt azt a az USA

82:49

szeretne ütemesen haladni a az AI

82:51

fejlesztés és szeretne ő lenni a

82:53

domináns szereplőit. Emiatt ő nem lehet

82:56

azt, hogy nagyon nagyon szabályozza,

82:57

különben lassabban fog fejdni, mint

82:59

Kína, ahol meg az egy nagyon szigorú

83:01

kontroll, hogyha valamire rámutatnak,

83:03

hogy ebben kell győzni, akkor azért Kína

83:04

nem nagyon szokott nem győzni olyan

83:06

területeken. Szóval itt itt ez Kína meg

83:09

Amerika.

83:11

Amerikában annyira extrém volt egyébként

83:13

ez a ez a ez a

83:16

hadd fejlődjön az AI a saját maga útján,

83:19

hogy volt egy ilyen kezdeményezés nyár

83:21

nyáron, hogy meg akarta tiltani a

83:23

központi kormányzat, hogy a államok

83:26

saját szinten hozhassanak ilyen AI

83:29

szabályozó törvényt 10 éven keresztül,

83:31

tehát hogy hadd fejüdjön szépen az AI

83:33

maga útján, semmilyen szabályozást ne

83:35

próbálja azt megeltolni. Ezt végül nem

83:37

szavazták meg, és azóta lett

83:39

Kaliforniában is egy ilyen AI safety

83:42

törvény, de hogy itt nagyjából ez a a

83:45

szentiment. Amerikában, Európában meg

83:47

ugye hát kicsit a másik véglet van, hogy

83:49

még nem tudjuk, hogy mi ez, de hogy

83:51

nagyon gyorsan valahogy meg kell

83:53

gátolni, hogy bármi pici rossz is

83:56

történhessen. És itt igazából én két

83:58

sapkában ülök. Egyrészt EU-s

84:00

állampolgárként én örülök annak, hogy

84:03

hogy az az EU valahogy ilyen törődik

84:06

jobban a az állampolgáraival, és hogy

84:08

azért műsor elején elég sok olyan

84:10

tényezőt említettünk, ahol a az egész AI

84:13

az emberiséget

84:15

elviheti rossz irányból. És most tényleg

84:18

nem annyira extrém, hogy mesterséges

84:20

intelligencia meg rossz szándékú általos

84:23

mesterséges intelligencia meg rossz

84:24

szándékú humanid robotok. De hogy

84:26

megfát, hogy minden ami eddig történt

84:28

hagyomány vagy hagyományosabbnak mondó

84:30

technológiákkal és itt arra azt

84:32

gondolom, hogy nem éájal, tehát hogy

84:33

akár ilyen megfigyelés,

84:37

biometrikus adatokkal való visszaélés,

84:39

az ilyen social scoring dolgok, akkor

84:43

azt most szerintem minden országban itt

84:46

a politikai manipuláció eszköze tud

84:48

lenni az AI, dezinformációk, AI-al

84:51

hamisított videók, ezek eddig is voltak.

84:54

Ö csak ezt most ennek a költsége ez

84:56

nagyon drasztikusan lecsökkent.

84:59

És akkor nem beszélve a a nem is ilyen

85:02

kormányzati szinten történő dolgokról,

85:04

de hogy hogy az egyénre is veszélyes

85:06

lehet a az AI, tehát ilyeneket, tehát

85:09

lehet olyan híreket is olvasni, hogy

85:11

valaki öngyilkos lehet sajnálatos módon

85:14

azért, mert az AI azt mondta neki, hogy

85:17

vessen véget az életének, vagy olyan

85:19

egészségügyi tanácsot

85:21

kap, ami ami végül is balul sülel, és

85:23

hát illetve az, hogyha beépítjük az élt

85:26

különböző ilyen munkafolyamatokba, ami

85:28

kritikus Akkor a Ger mondta, hogy egyre

85:30

nehezebb áttekinteni, hogy mit csinál az

85:32

AI-od belül.

85:34

Kezd ilyen black box lenni, bedobsz egy

85:36

inputot, kidob egy outputot, bízunk abb

85:38

az AI nagyon okos, de mivel, hogyha nem,

85:40

és mivel, hogyha mondjuk központilag

85:42

valamilyen torcitást viszünk a

85:43

rendszerbe, ami diszkriminatív satöbbi.

85:45

Tehát tehát ezek ezek valós veszélyek,

85:47

és ezek nem olyan veszélyek, amik öt év

85:49

múlva lesznek valós beszélek, hanem ezt

85:50

már most is tudjátok. Ez azzel jó, hogy

85:52

kezdünk valamit, de hogy ilyen

85:55

informatikai vállalkozóként

85:57

meg azt látom, hogy hogy nagyon nehéz

86:01

helyzetben hozták azokat a cégeket, akik

86:03

szeretnénk viszont AI-t használni, tehát

86:06

hogy az a az a szabályázás, ez az a

86:10

mesterséges intelligencia törvény, AI,

86:14

amit tavaly kezdett el az EU hát

86:17

bevezetni, és ott is fú, rengeteg fajta

86:21

verzi verzió meg bizottsági

86:23

állásfoglalás, ami az eredetnek

86:24

ellentmond, meg mikor lesz bevezetve,

86:26

mikor lesz nem bevezetve, különféle

86:28

példák, meg ilyen kézikönyv,

86:30

szabálykönyv mikor lesz. Ez ez

86:32

nagyon-nagyon ködös, egymásnak

86:34

ellentmondó. Ami viszont nagyon tiszta

86:37

az, hogy brutális mértékű pénzbság várat

86:39

arra, amelyeket nyilván a médiában is

86:42

meg fogja kurcolni, aki aki valamiért

86:44

ennek nem ö tud megfelelni, és hogy ez

86:49

ez a ez én azt látom, hogy az úgy

86:50

csopódik, először az azopáshoz

86:52

kapcsolódik, vagy vagy mi az, ami?

86:54

>> Hát van két két ilyen fő kategória van.

86:55

Az a az a nagyon csúnya dolgot csinál

86:57

valaki. Az az akkor lehet ilyen 30 euró

86:59

vagy globális árbétel 7%-a a bírsak,

87:02

hogyha hogyha ha nem csinál olyan

87:04

gazemberséget, akkor tehát ez tényleg

87:06

nagyon ilyen tényleg ilyen social

87:07

scoreum meg ilyen nagyon kártékony

87:09

hatásokra kell itt gondolni, de van a

87:10

kisebb kategória, az is lehet a globális

87:13

pénzügyi év év árbételinek a 3%-a,

87:17

amiatt ami ami lehet, hogy bíel. És

87:19

akkor én azt azt látom, hogy szegény

87:22

cégek mit tudnak csinálni, nem akarják,

87:24

hogy megbízságolják őket, akkor á vagy

87:26

nem használnak AI-t, vagy azt mondják,

87:29

hogy jó, akkor mindenre próbálom a

87:30

szigorú szabályokat alkalmazni, nehogy

87:32

véletlenül én ennek ne feleljek meg. És

87:35

akkor annak az lesz az eredménye, hogy

87:37

akkor annak meg semmilyen szoftvergy

87:38

gyártó nem tud megfelelni, és akkor

87:40

végén, napvégén meg nem fognak

87:42

használni, meg nyilvánvaló versenyhátrán

87:44

lesz egy amerikai céghez képest, vagy

87:45

egy kínai céghez képest. És ezt bajnak

87:48

bajnak látom, ami és ami fog történni,

87:50

ami ami a felhő használatnál ugyanez

87:52

volt, hogy itt jönnek majd tehát a ami a

87:56

amerikai bigtechek, akinek meg több 1zer

87:59

ügyvédje van, meg ilyen compliance

88:00

szakember, és akkor majd ők mind úgy

88:03

lefejlesztik a rendszerüket is, meg a

88:05

meg meg írnak állásfoglalásokat, hogy

88:07

szerintük miért jó az ő gyakorlatuk, és

88:09

akkor majd mindenki a nap végén, ahogy

88:11

eddig mondjuk Európában van, Microsoft

88:13

Asure használ most majd majd Microsoft

88:16

Copilot ot fog használni, ami nagyon

88:18

fura, mert az is egyébként open AI

88:20

modelleket használ legtöbbször, de

88:22

valamiért az a szentiment a cégek nagyon

88:25

a az az jó. És szerintem mind a európai

88:29

gazdasági szempontból káros ez, ahogy

88:32

most ez zajlik, mind egy így

88:34

összgazdasági szempontból, illetve az a

88:36

törekvés is, hogy legyen Európának egy

88:39

komoly technológiai hábja, hogy a

88:42

silíicium völgyet, illetve az ott

88:43

létrejövő nagy cégeket valahogy tudjuk

88:45

kiegyensúlyóni. Ennek ennek meg aztán

88:47

tényleg nagyon

88:50

nag nagy nehézséget görget ide, mert

88:52

mert akkor gyakorlatilag arra kényszerí

88:54

hére vannak kényszerítve az európai

88:56

cégek is, hogy akkor menjek menjenek a

88:58

nagy homogén piac irányába, ami

89:00

elsősorban Amerika, ahol meg nincsenek

89:01

ezek a gátak ahhoz, hogy valaki

89:03

használja őket.

89:06

>> Világos. Utolsó kérdés jön. Záró kérdés.

89:10

Egyrészt

89:10

>> bocsánat még annyi, hogy itt itt itt itt

89:12

azért mi a Gergővel meg a Mikivel a

89:15

harmadik alapítótársunk azért itt van

89:18

összesen hát kimondó majdnem 60 év

89:21

tapasztalatunk ilyen nagy vállalati

89:25

értékesítésben nagy vállalattuk fiatal

89:27

>> én vagyok a fiatal de már

89:28

>> ebből 60 60bó a nagyjá mosztok közurinak

89:31

is van és a háborús jövők azok duplán

89:33

számítanak

89:34

>> Igen, igen, [nevetés] igen. És és azért

89:36

és azért mi mi ezt azt gondolom, hogy

89:39

elég jól értjük, hogy mik kell egy ilyen

89:40

nagyatnak. És itt is megint a saját

89:43

saját adat, saját modell

89:46

ez ez nagyon sokat lendít azon, hogy

89:48

hogy ezeknek a szabály szabályoknak

89:50

sokkal könnyebben és egy gyorsítópályán

89:52

meg lehessen felelni.

89:55

>> Na hát köszi ezeket a tanácsokat,

89:57

meglátásokat. Az utolsó kérdésem az

89:59

nagyon általános lesz, kicsit zár tehát

90:01

záró kérdés, hogy egyrészt a lelkesítés

90:06

elborzasztás skálán hol helyezkedtek el?

90:08

Tehát a AI lelkesít benneteket

90:10

egyszerre, de elborzaszt-e a kockázat,

90:12

amit amiről ugye sokan beszélnek,

90:15

illetve a tegyétek már sorba, légy

90:17

szíves, az atomháború klímakatasztrófa

90:21

és az AI potenciális katasztrófa

90:25

sorrendet a fejetekben, hogy ti melyiken

90:26

aggódnátok a leginkább és a legkevésbé,

90:29

ha muszáj lenne ezt a hármat sorba

90:30

tenni. Én jövök utoljára.

90:33

Fú, hát akkor én én egy kicsit azt

90:35

mondám, hogy most az első kérdésed, ami

90:37

az volt, hogy a lelkesedés meg borzalom,

90:40

az hogy néz ki az én fejembe, nem egy

90:42

homogén, tehát nincs egy ilyen

90:43

álláspontom, hanem inkább valami

90:45

haranggörbét képzeljétek el, hogy hogy

90:49

adok valamekkora valószínűséget arra, és

90:51

hogyha ezt a elolvassátok ezt a és a

90:54

hallgatóknak is mondom, hogy tényleg jó

90:55

ez az AI 2027, tehát nem nem egy vidám

90:58

olvasmány, tehát

91:00

>> lehet a végén pozitív scenárira

91:02

kattintani Igen, van a végén egy ilyen

91:04

kis van egy kis autó ebből az egészből,

91:07

de de azért alapvetően így a a ennek a

91:09

rend intézetnek a a

91:12

konklúzi is az, hogy azért nem nem jó a

91:14

helyzet. És hát pont amiatt egyébként,

91:17

tehát ezek a szabályozások azok most

91:19

ugye nyilván aki nem szabályoz, az

91:21

hátrányba, hozza a másikat, aki meg

91:24

szabályoz cserébe a nem szabályozottnál

91:26

könnyebben szabadul el a pokóval. Szóval

91:28

ez e ezt ezt így érdemes végiggondolni.

91:32

Kicsit ilyen Game of Chicken kábé, tehát

91:34

hogy itt azért meg kéne egyezni a

91:35

mondjuk a három nagy szereplőnek, ami

91:37

tényleg USA, Kína és kicsit magunkat is

91:40

szeretném ide gondolni. kiemelted

91:41

Európát. Igazából kettő nagy szereplő

91:43

van, de

91:44

>> Igen, igen, igen. Tehát, hogy most így

91:46

rossz azt mondani, hogy a kettő nagy. És

91:47

akkor mi a sz

91:48

>> mi nagyon dolgozunk azzal, hogy európai

91:49

ilyen nagy hatalon legyen.

91:50

>> Na szóval tehát hogyha vegyük azt, hogy

91:52

oké, valamekkora esélyt ennek kell adni,

91:54

hogy hogy lesz valami ilyen

91:58

kihalási esemény a AI miatt, sajnos

92:01

tényleg benne van. És egyébként az a az

92:02

a legmeghökkentőbb, hogy miért gondolja

92:04

ezt az az AI 2027. Tehát az valami egész

92:08

egész monti Pythonos a az a az a

92:11

kihallási esemény. Különben tég érdemes

92:13

emiatt is végigolvasom, legalábbis vagy

92:14

görgessetek a végére, az az jó pofa. De

92:18

nekem azért az optimista szenáriumnak a

92:21

az eloszlása, hogyha most így a ezt így

92:22

a görbét magunk elé képzeljük egy kicsit

92:24

vastagabb, tehát én azért azt gondolom,

92:25

hogy hogy több esély van arra, hogy hogy

92:28

itt ilyen jó dolgok fognak történni és a

92:31

közelközéptávon

92:33

meg feltétlenül. Tehát ez, és egyébként

92:36

ez is benne van ebből az Egy 2027

92:37

cikkben, hogy ez rövidtában egy hatalmas

92:39

nagy ilyen humanista felfutás lesz az

92:41

emberiség életében, csak ott kell nagyon

92:43

vigyázni, hogy hogy utána el ne rontsuk.

92:46

Hiszen pont azért, mert demokratizáljuk

92:48

a diagnosztikához való hozzáférést, ez

92:50

nyilván az életkilátásainkat megemeli.

92:52

Ha a termelékenység növekszik, akkor

92:54

elméletileg a szétosztható

92:56

vagyon is növekszik. Tehát az az akkor

92:58

megemeli az emberiségének az éleszéonát.

92:59

Szóval nekem van egy ilyen egy ilyen

93:01

inkább ez a pozitív része vastagabb a

93:05

Gausgörbének, és akkor van a közepe,

93:06

hogy ilyen hát ilyen szokásos, ahogy

93:08

ahogy mindig is, hogy lesz benne jó is,

93:10

rossz is. Ö és az nagyba függ azon, hogy

93:13

a szabályozók meg a a különböző

93:16

nemzetállamoknak a a vezetői, hogy hogy

93:18

sikerül, hogy hogy tudnak sakkozni

93:20

azzal, hogy hogy osztják szét az így

93:21

keletkezett extra jövedelmet, illetve

93:23

hogy tartjuk kordában a a modellt meg a

93:28

meg az AI-t, vagy AGI-t, majd hogyha lát

93:30

>> és a azért kérdeztem direkt, mert azért

93:31

tettem a másik kettőt, a sorrendet, hogy

93:34

jobban félsz ettől, mint azoktól

93:37

>> vagy ez azért egy hát egyesok közül, ami

93:39

>> Hát figyelj, én szerintem a

93:40

>> pusztíthat Én én most valamiért azt

93:42

tippelem, hogy ezt a a klímaelyzetet

93:46

azt hogyha akarná, akkor tudná kezelni

93:48

az emberiség. Tehát itt ezt a ö azt

93:52

szoktuk mondani a családunkban, hogy hát

93:53

ehhez csak akarat kell, tehát hogy ez

93:55

egy ilyen

93:55

>> Na jó, de pont ez a nehéz benne.

93:57

>> Hát lehet, hogy ez a nehéz benne, de

93:59

hogy ott tudjuk a megoldást. Ugye az

94:00

atomháború az egy elég elég impulzív

94:02

dolog, és eddig ez a a

94:06

hogy hogy egymást tartják sakba a

94:09

atomfegyverekkel rendelkező

94:11

nemzetállamok, az viszonylag jól

94:12

működött. Tehát én ott nincs okom

94:14

feltételezni, hogy ez ne maradjon így.

94:15

Tehát én azt tenném a legutolsó helyre,

94:17

hogy attól annyira nem tartok.

94:19

hiszen pont pont azért, mert egy ilyen

94:21

elrettentő eszköz az pont addig

94:22

elrettentő eszköz, amíg el nem

94:24

pukkantott. Tehát abban pondom, hogy

94:25

elpukkantottad, akkor elvesztetted azt a

94:27

azt az előnyöet, hogy hogy van egy

94:28

elrettentő eszközöd. Szerintem azt nem

94:30

fogja senki elpukkantani. És akkor hát

94:33

nyilván most a klíma vagy az AI a a

94:35

nagyobb vagy hát ez a Dooms Day száriója

94:38

az AI-nak, hogy lesz valami kihalási

94:39

esemény. Ö hát ezt nehéz nehéz

94:43

betippelni. Én én talán jobban tartok

94:47

egyébként fura módon az AI-tól, mert

94:48

szerintem a klímát azt tudjuk kezelni.

94:50

Tehát hogyha tegyük fel, hogy eléggé

94:51

elgurul már az emberiség, majd AI-jal

94:53

kezeljük.

94:54

>> Hát az egyrészt lehet, hogy AI-jal

94:55

kezeljük, de

94:56

>> azért lesz Doomsday,

94:57

>> de hogy de hogy én még nem nem volt még

94:58

olyan az emberiség történetében, hogy

95:00

valami ilyen fizikai

95:04

krízis helyzetet technológiával meg

95:06

szervezéssel nem tudtunk megoldani. Azt

95:08

megtudjuk. Ez ez lesz az első olyan

95:11

aktor, akivel még nem kerültünk szembe

95:13

az emberiség története során. Tehát az,

95:15

hogyha van egy egy valamiért ránk nem

95:18

tekintettel levő nálunk intelligensebb

95:21

létforma a bolygón, ilyen még nem volt.

95:24

Tehát ezt én én tehát rizikónak

95:26

nagyobbnak érzem, mint a klímát.

95:29

Most lehet, hogy ezzel megijesztettem a

95:30

hallgatókat, nem akartam, de hogy ez ez

95:33

az én sorrendem. Gyuri,

95:36

>> szerintem az elég egyértelmű a a Gergő a

95:39

pozíciónban, hogy egy AI startupon

95:41

dolgozunk nappal, hogy mit gondolunk az

95:44

AI-ról, hogy az hasznos, nem hasznos,

95:46

amennyire vagyunk lelkesek ezzel

95:48

kapcsolatban. Tehát a az AI legtöbb

95:50

alkalmazása az szerintem nagyon szuper

95:53

hatással lesz.

95:55

Az emberiségre meg az emberek

95:58

mindennapi életére, hogyha nem

95:59

hülyeségre fogjuk használni. Tehát

96:01

megmondom őszintén, hogy még egy darab

96:02

ilyen AI-os videót sem

96:04

generáltattam. Tehát pont az ilyen

96:06

konzumer alkalmazás az engem így kevésbé

96:10

hoz hoz lázba, inkább ami ami a

96:12

üzletekre meg a hatékonysága lesz

96:14

hatással. És én teljesen őszíne, én nem

96:18

tartok nagyon se atomháborútól,

96:21

mert tehát egyszerűen szerintem ez

96:23

nagyon nagy butaság lenne bárki is

96:26

robbantani ki ilyen ilyen szintű

96:30

eszkalációt, ahogy Gergő által elmondott

96:33

okok miatt. A klíma azt meg annyira

96:34

nehéz még elképzelni. Tehát ez azért

96:37

azzal biztos, hogy lesz probléma. Most

96:39

pont Bill Gates mondta ezt az elmúlt két

96:41

hétben, hogy hogy az azért nem nem egy

96:43

ilyen kritikus dolog lesz, ami miatt ki

96:45

az emberiség, azzal majd foglalkozni

96:46

kell, meg sok pénz fog kerülni, de az

96:48

nem ilyen egzisztenciális dolog lesz. És

96:51

az azért nagyon messze van. Azt mú nehéz

96:53

elképzelni az A-nak, hogy milyen hatásai

96:56

lesznek társadalomra. Nekem inkább ez

96:58

az, ami itt azért azt gondolom, hogy

97:01

hogy ezzel majd lehetnek problémák, de

97:03

hát majd meglátjuk. Én az pozitív

97:06

vagyok, mert az emberiség eddig mindent

97:08

megoldott a fennállása alatt, és én azt

97:11

gondolom, hogy kevés olyan pillanat is

97:13

volt az, tehát ez egy relatíve monoton

97:16

függvény, hogy mikor melyik időszakban

97:18

volt jó embernek lenni, és hogy kevés

97:21

olyan pillanat volt az emberiség

97:22

történetében, amikor azt mondta volna,

97:24

hogy inkább éltem volna 30 évvel

97:26

ezelőtt. Vannak ilyenek nyilván, de

97:28

azért ez ez szerintem így így így

97:30

pozitív irányba mutat. Tehát én egy

97:32

ilyen Igen. És egyébként a a doomsd se

97:35

egyértelmű. Tehát nem biztos, hogy az

97:36

van, hogy ne úgy képzeljük el

97:38

feltétlenül Terminator és akkor jönnek

97:40

ilyen t-esek, aztán izé szaladni kell,

97:42

hanem hanem az is lehet egy dooms day,

97:44

hogy ilyen sokkal hatékonyabb TikTok

97:46

van, és mindenki totál zombi lesz. Tehát

97:48

hogy a a az az szerintem az még rosszabb

97:50

kábé, mint a Sváci nem mint a sváci előn

97:53

menekülni vannak. Legalább van egy kis

97:55

sportértéked az, hogy most itt ki hogy

97:56

húzogat a metrón, az már az az szerintem

97:59

már most is borzalmas. És hogyha ezt még

98:01

hatékonyabban csináljuk, akkor az még

98:02

gyalázatosabb lehet.

98:05

>> Jó, figyeljetek, nagyon köszi. Én

98:07

hozzáteszem, én az atomháborútól amúgy

98:09

jobban félek, mint ti, úgy látom. Tehát

98:11

én attól félek, hogy ott azért mégis

98:12

csak összesség egyre többen lesznek a

98:14

szereplők, akik használhatják, és lesz

98:17

valaki valami hiba folytán, és akkor az

98:19

az tehát nekem az van először

98:21

>> és nekem előbb lehet, hogy az lesz,

98:23

úgyhogy nekem az atom van először, utána

98:24

van az AI és a legvégén a a körülbelül

98:27

egyetértettem veletek. Na hát szóval

98:29

lezárva a kérdést, köszi szépen, hogy

98:31

itt voltatok. Szerintem nagyon jól

98:32

beszélgettünk. Gyertek majd máskor is.

98:35

>> Fú, vás szabadon fogunk, eljövünk és

98:37

nagyon élveztem is. Köszönjük a meghívj

98:38

a meghívá.

98:39

>> Sziasztok.

98:40

>> Helló. Sziasztok.

98:45

>> [zene]

98:48

>> เ

Interactive Summary

Ask follow-up questions or revisit key timestamps.

A videóban a mesterséges intelligencia (MI) jelenlegi helyzetét, fejlődését és hatásait vitatják meg a vendégek. Kiemelik az MI térnyerését a mindennapi életben, a vállalati szférában és a technológiai innovációban. Szó esik a nagy nyelvi modellek (LLM) szerepéről, a befektetési lehetőségekről, az MI-vel kapcsolatos hype-ról, valamint a robotika és az általános mesterséges intelligencia (AGI) jövőbeli kilátásairól. A beszélgetés kitér az MI-vel kapcsolatos etikai és szabályozási kérdésekre is, különös tekintettel az Egyesült Államok és Európa eltérő megközelítéseire.

Suggested questions

3 ready-made prompts