HomeVideos

AI: a technológiai robbanás állva hagyta a munkaerőpiacot (kraftie #75)

Now Playing

AI: a technológiai robbanás állva hagyta a munkaerőpiacot (kraftie #75)

Transcript

2144 segments

0:06

Sziasztok! Ez itt a 75. Jubileumi

0:09

Crafty. Ezúttal négyen vagyunk. Ugye az

0:12

előző adásban megjegyeztem, hogy sokszor

0:15

voltunk zérva ketten, és akkor most

0:17

hívunk vendégeket. Úgyhogy a két

0:19

vendégünket gyorsan be is mutatnám, bár

0:20

szerintem elég sokan ismeritek őket.

0:23

Megyesi Péter, Alias Megyó, ez a Sági

0:25

Kazár Márk. Egy kis hátteret is adnék a

0:28

srácokhoz.

0:29

Megy mind a ketten a Cloud Native

0:31

környezetben dolgoznak. Megyó alapvetően

0:34

üzemeltetői háttérről

0:36

rendelkezik, abból az irányból érkezett,

0:39

Mark szoftverfejlesztő irányból

0:40

érkezett. És ami még a a két vendégünket

0:43

összeköti, az hogy

0:45

nagyon lelkesen használják a legújabb AI

0:47

eszközöket. És ebből talán ki lehet

0:49

találni azt, hogy hogy ebben az adásban

0:51

ismét az AI-jal fogunk foglalkozni. Itt

0:53

hozzáteszem, hogy volt egy pont még

0:55

valamikor ősszel, amikor arról

0:56

beszéltünk Zról, hogy nem kéne többi AI

0:58

adást tolni, mert hogy annyira

0:59

túltoltuk, hogy úgy éreztük, hogy

1:01

túltoltuk, hogy hogy már mint minden

1:04

második adásban benne volt az AI

1:06

szócska, úgyhogy most tartottunk egy

1:07

elég nagy szünetet, mert szerintem most

1:09

így az utóbbi időben nem foglalkoztunk

1:10

vele. Viszont most már nem lehetett

1:12

megkerülni a témát, merthogy

1:13

tulajdonképpen

1:16

november 24-én volt egy dátum, hogy úgy

1:19

Megyó fogalmazott, elértük az

1:21

eseményhorizontot, és erre majd kitünk,

1:23

hogy pontosan mit értünk alatta, de

1:25

előtte azért elmondanám a szokásos kört,

1:27

hogy

1:29

kövessetek be minket. És nagyon érdekes

1:30

egyébként, hogy legutóbbi adásban

1:32

elfelejtettem bemondani és ezért sokkal

1:34

kevesebben követtek be minket. Úgyhogy

1:36

most mindenképpen hangsúlyozom, hogy

1:38

kövessetek be minket.

1:40

És az lenne az adásnak a koncepciója,

1:42

vagy nagyjából azt az ívet fogjuk

1:43

végigkövetni itt, hogy kicsit

1:45

végignézzük, hogy milyen fejlődéssel

1:47

ment keresztül az AI az elmúlt szűk

1:50

három hónapban. Ez tulajdonképpen az

1:53

adásnak a lelkesítő szakasza lesz, tehát

1:55

itt lelkesedhetünk és aztán kicsit és

1:57

aztán olyan lesz, mint egy lejtő,

1:59

elérünk zéhoz, aki ennek a munkaerőpiaci

2:01

realitásaival fog

2:04

majd szembesíteni minket. És azért meg

2:06

azt fog azt azzal fogunk szembesülni

2:08

tulajdonképpen, hogy elég nagy kontraszt

2:09

van a technológia robbanás és a aközött,

2:12

hogy hogy ebből mennyi jelenik meg

2:15

egyáltalán a magyar munka

2:16

munkaerőpiacon.

2:17

És a legvégén pedig szépen lenyugszunk

2:19

és még a kiégésig is el fogunk jutni. És

2:22

akkor közelítsük onnan, hogy bemondtam

2:24

ezt a november 24-ét, az

2:25

eseményhorizontot.

2:28

Miért volt ez egy fontos dátum? Hát

2:30

azért érdekes ez a látum, mert akkor

2:32

jött ki ez az úgynevezett OPUS 4.5-ös

2:34

modell az Antropiktól, ami tényleg úgy

2:37

néz ki, hogy valami szintet átlépett,

2:39

mert sokkal könnyebben, gyorsabban és

2:42

sokkal automatikusabban lehet már

2:44

használni ezeket a coding agentöket,

2:46

ugye amik szintén vannak, meg majd erről

2:48

is fogunk beszélni, de még szerintem

2:50

előtte lévő modellek nem hozták ezt a

2:53

szintet.

2:55

Akkor tényleg nagyon sokat kellett kézi

2:58

vezérléssel működtetni őket sok

3:00

kontextust adni nekik, hogy így finoman

3:02

vezérelni, hogy hova jussanak. De erre

3:04

az Opus 4.5-re mintha eljutott volna ez

3:06

az egész oda, hogy tényleg csak adunk

3:10

neki egy jó promptot és megcsinálja

3:12

magától a feladatot. sokáig dolgozik

3:14

rajta, tehát tényleg így pörög, nem

3:16

nyilván nem azonnal meg így meg ilyen

3:18

hasonlók, de gyakorlatilag majdnem

3:20

minden feladatot meg tud oldani. Nyilván

3:22

nem 100%-os ez az egész, meg azért oda

3:23

még nem jutottunk, hogy mondok neki val

3:25

minden rögtön kész, de egy olyan

3:27

érezhető szintlépés van tényleg a

3:29

modellekben

3:31

ezután meg így kábé ezzel egy időben,

3:34

ami nagyon-nagyon megváltoztatott

3:35

mindent. És csak, hogy egy pár ilyen nem

3:38

is tudom, anekdota így a így az iparból.

3:41

Egyrész maga a cloud kódnak a kitalálója

3:43

meg a fejlesztője egy bizonyos Boris

3:45

Cherne, azt hiszem így hívják a srácot

3:47

ott az Antropicnál konkrétan mondta,

3:49

hogy mióta kin van az Opus 4.5. Ő egy

3:53

sor kódot nem ért kézzel, csak a cloud

3:57

kód ezzel a modellel írja neki ugye a

4:01

hát a hát a kódot.

4:04

És és hogy naponta nem tudom 15-20 PR-t

4:06

szállít, é az egész csapata nagyjából

4:09

így dolgozik. Meg amúgy az egész

4:10

Antropicra jellemző ez, hogy szinte más

4:13

senki nem ír kézzel kódot. Tudom, hogy

4:15

ezt így nehéz elhinni lehet most így

4:16

sokaknak, de gyakorlatilag ide fejlődött

4:19

az egész. Egy másik szintén híres dolog

4:21

a Andre Kárpáti, aki ugye egy hát ő egy

4:24

ilyen machine learning ilyen atya

4:27

úristenkint.

4:27

>> És már emlegettük egy pár fogadásban.

4:29

>> Igen. Rá nag nagyon kell hallgatni. Ő is

4:30

vol volt egy egy ilyen twitje azért nem

4:32

ment el 100%-ig. Mondjuk az ő doméje az

4:34

elég speciális, tehát ő azért nem

4:36

webokat fejleszt, hanem tényleg ilyen

4:38

tanuló algoritmusokat. De ő is azt

4:40

mondta, hogy még körülbelül egy éve

4:42

olyan 20%-át a kódjának írta az AI és

4:45

80%-ot ő maga kézzel. Ez így januárra,

4:48

miután kijöttek ezek a modellek, ez

4:50

teljesen átfordult, és most már azt

4:51

látja ő is, hogy nyugodtan szabadjára

4:53

tudja őket engedni, és most már 80%-ba

4:57

azért elírja az ő kódját, csak 20%-ba

4:59

kell saját magát, de még egyszer egy

5:00

nagyon speciális területem van. A

5:02

számtalan ilyen tör

5:03

>> egyébként én akkor kaptam fel a fejem

5:05

erre az egészre, hogy ugye nyilván

5:06

vannak ilyen

5:08

tweetek, amik nagyon nagyokat mennek, és

5:11

akkor mindenki olvassa, mindenki

5:12

megosztja, amikor egy Google-nél dolgozó

5:15

talán hölgy volt, aki megosztott egy

5:17

olyat, hogy hogy a Google-nél is

5:19

lehidaltak attól, hogy hogy mennyire jó

5:21

az OPUS 4. És ugye

5:24

az azért viszonylag ritka, hogy egy hát

5:26

mégis konkurenscégnél

5:29

ilyen pozitívan nyilatkoznak róla. Bár

5:30

tegyük hozzá, hogy a Google azért

5:32

annyira nem konkurens, mert a a modellek

5:34

tanítását az antropik azért a eléggé a

5:37

Googlehöz dörgölőz, vagy a vagy a az ő

5:40

okoszisztémájába futatja, de lehetett

5:43

látni, hogy még így a konkurensek is

5:44

ilyen nagyon elismerően nyilatkoztak

5:45

róla. Márket, te is úgy érzed, hogy ez

5:47

egyébként egy ilyen szintlépés volt?

5:50

Abszolút. Amit még egyébként hozzátennék

5:52

ahhoz, amit Megyó mondott, hogy nem csak

5:55

az, hogy sokkal komplexebb feladatot

5:58

lehet neki adni, hanem sokkal

6:00

nagyobb léptékű feladatot lehet neki

6:02

adni. Tehát, hogy most már nem csak

6:04

mondjuk egy-egy függvényt vagy egy-egy

6:05

kisebb mod tud egy egy O+ 5 modell

6:09

lefejleszteni, hanem egy egész projektet

6:11

adhatsz neki. Tehát ha írsz neki egy jó

6:13

promptot, egy jó specifikációt, azt adod

6:15

neki és pár hóra alatt. Egyébként azzal,

6:17

hogy gyorsabb, azzal nem teljesen értek

6:19

egyet. Szerintem sokkal lassabb, mint

6:20

korábban volt, de komplexitását tekintve

6:23

szerintem ez valahol érthető is. De

6:26

egész projekteket oda lehet neki adni,

6:27

és egész értelmes eredményt köpün. Ez

6:31

azt jelenti, hogyha valaki nem használta

6:32

mondjuk a az Oppus 45öt, sőt most már

6:35

46-nál tart, vagy a Codexnek az új

6:36

verzióját, ami 54 talált

6:39

>> 5.3, akkor akkor igazából meg fog

6:42

lepődni.

6:43

>> Ez ez szerintem egy nagyon-nagyon más

6:45

szint. Hadd mondjam el a saját példámat.

6:46

Pont ugye mondtam ezt, hogy hát november

6:48

végén jött hivatalosan ki, az nem

6:50

kellett egy pár hét, mire ez így az

6:51

emberekig eljutott, mert amúgy azt is

6:53

kell tudni, hogy az Opus az egy baromi

6:54

drága modell, tehát nagyon hamar pörgeti

6:57

a a tokeneket meg hát a a magát a

7:00

krediteket

7:02

és

7:03

ugye emiatt Ja, és ráadásul az előtte

7:06

lévő Opus 4.1 nem volt ez a szint, és

7:08

háromszor drágább volt, tehát szerintem

7:10

nem is nagyon használtak Opus így előtt

7:12

az emberek, mert valaki biztos, de nem

7:14

volt ennyire elterjedve. És akkor ott

7:16

ugye november december elején ez így ez

7:18

így átlépő a küszöbőd. Velem az volt,

7:20

hogy pont emlékszem, hogy karácsony

7:21

előtt dolgoztam pont egy hobbi projekten

7:24

ilyen frontendes dolgokban, és volt ez a

7:26

ez az AI-os demo day, ami voltunk, és

7:28

ezt vissza lehet nézni a videót itt,

7:30

hogy mondtam, hogy fú, hát én a meg a

7:32

frontendhez odaülök, ott valami

7:34

katasztrófa lesz. És ugyan ez volt, hogy

7:36

mindig azért próbálgattam

7:38

valamit és csináltam valami frontendet,

7:41

valami nagyon furcsa frameworkben, mert

7:42

próbáltam így így megtalálni valamit,

7:44

ami legalább működik. És ugyanúgy nem

7:46

ment, elindítom, tudod, hibát ír ki,

7:49

visszaadom a modellnek. Ez még nem az

7:50

nem nem az opusz volt előtte valami más.

7:53

És akkor ugyanez, hogy írja, hogy ó,

7:54

megvan a hiba, kijavítottam, indítsd el

7:56

újra és próbáld meg. Én újra kiírja a

7:59

hibát, tudod, és akkor ő még ötödjére

8:01

van ez, tudod, akkor van ez, hogy nem

8:03

tudom, az az őrület, amikor ugyanazt

8:04

csinálod, és más eredményt vársz. Bár

8:06

lehet, hogy ez a nálak máshogy működik,

8:08

de mondtam, hogy á a fenébe. Annyit

8:10

olvastam a Twitteren erről, hogy az

8:11

opusz milyen jó. kis körsörömbe

8:13

átbillentem a modellt, és ami olyan

8:15

történt, amitől egyszerűen teljesen így

8:18

meglepődtem, mert ő nem azt csinálta,

8:20

hogy oké, belejavított a kódba, és azt

8:22

mondta, hogy itt van, aztán csinálj vele

8:24

valamit. Belejavított a kódba,

8:27

elindította magának a kódot anélkül,

8:29

hogy megkértem volna. Igazából csak azt

8:31

a tradet folytattam.

8:34

Látta, hogy még mindig hibát ír ki,

8:36

akkor tovább javította. Anélkül, hogy

8:37

nekem hozzá kellett volna júlja. És ezt

8:39

így csinálta addig még el nem indult a

8:41

kód, majd megfogott egy böngészőt,

8:44

elindította. Ez amúgy már hónapokkal

8:46

azelőtt benne volt a körzben. Soha nem

8:47

láttam, hogy bármelyik hón elindította

8:49

volna. Fölment az oldalra, látszott,

8:51

hogy tök szét van esve az egész,

8:53

merthogy ki screenshotolta.

8:55

>> Aha.

8:56

>> És akkor visszament, kijavította a

8:57

dolgot, és visszaadta kábé egy 10 perc

8:59

múlva, hogy Nessaj, itt van, működik. És

9:02

tényleg működött. Tehát, hogy ennyivel

9:04

ilyen ilyen másabb jellegű a dolog, hogy

9:06

nem az van, hogy csinál valamit és akkor

9:07

azt mondja, hogy né fog meg, hanem

9:09

tényleg pörgeti ezeket a feladatokat,

9:12

önmagát is ellenőrzi amennyire tudja. És

9:15

ettől szerintem van szintén ez a ez a

9:17

szintlépés, hogy jóval autonómabban és

9:19

jóval alaposabban tudja ezeket a

9:21

promptokat megoldani.

9:23

>> De egyébként a mindennapi munka folyamán

9:24

az éles kódba is használjátok?

9:27

Mi a most már igen, tehát így december

9:30

vége, január óta mi a cégbe is

9:32

használjuk elég elég sokat. Elég sok

9:35

opuszt tokent el is pörgettünk januárba,

9:37

tehát két hét alatt sikerült olyan 700

9:38

dollárnyit elpörgetni. Most ezt nem

9:40

tudom, hogy igazából egy

9:42

székszempontjában nem annyira durván

9:43

sok, de ez soha nem haladtunk annyit,

9:45

mint ezelő ott a két hét alatt. Utána

9:47

persze rájöttünk, mert ez egy ilyen,

9:49

hogy hogy az api az baromi drága,

9:51

úgyhogy azt nem nagyon érdemes

9:52

használni, hanem ezeket az

9:53

előfizetéseket kell használni. Ez sokkal

9:55

több api hívást engedélyez. Úgyhogy

9:58

azóta a cégben mindenkivel ráálltunk

9:59

erre, hogy hogy mindenki ezt tolja.

10:01

Tehát abszolút szerintem production

10:03

kódot is. És szerintem ez a durva, hogy

10:05

régen nagyon meg kell gondolni, hogy

10:07

production kódhoz mennyire nyúl az ember

10:09

ilyenekkel, vagy nagyon óvatosan, vagy

10:11

nagyon így leszűkítve a scope-ot, hogy

10:12

jó figyelj, itt van ez meg ez meg csak

10:14

ehhez ér hozzá. De most nem elengedheted

10:17

a production kódra. Jó, érdemes átnézni,

10:19

meg nyilván reviewzni, de valakik már az

10:21

se csinálják.

10:24

Mark,

10:27

>> hát én amire nagyon-nagyon sokat

10:29

használom, azok ilyen pilot projektek,

10:32

vagy kipróbálni egy-egy ötletet. Erre

10:34

szerintem iszonyatosan jó, hogy van egy

10:36

ötletem, megírom a promptot és csinálja,

10:38

és két hón múlva ott van, és meg tudom

10:40

nézni, ki tudom próbálni, van egyáltalán

10:42

értelme ebbe szerintem iszonyatosan jó.

10:45

De én is

10:47

írattam már vele production kódot. Két

10:49

példa, amire használom. Az egyik az,

10:51

hogy én elég sok open source projektben

10:54

vagyok benne, és nagyon sok időm megy el

10:55

azzal, hogy ha valaki nyit egy showt,

10:57

akkor egyáltalán elolvassam, megértsem,

11:00

kipróbáljam, hogy amit leír, az tényleg

11:02

valide-e benne. Ebből például nagyon jól

11:04

tud segíteni az AI, mert tud olyan kódot

11:06

írni, ami reprodukálni tudja azt az

11:08

adott issút. Nem nekem kell megírni azt

11:10

a kódot, mert ugye természetesen aki

11:12

reportálja ezeket az issúkat, általában

11:14

nem ad ilyet. Ebbe például nagyon sokat

11:17

tud segíteni, és sokkal hatékonyabban

11:19

tudok így az open source projektekbe is

11:21

dolgozni. A másik példa

11:24

az pedig egy ilyen hát kicsit

11:26

kicsérletszerű volt. Ott két nap alatt

11:28

sikerült egy olyan projektet összerakni

11:30

nulláról, amit ki is raktam

11:32

gyakorlatilag, és hasznos is egy ilyen

11:35

előadóknak ilyen feedback túl, amit

11:36

használni tudnak az előadásuk végén. És

11:39

azt két nap alatt tényleg csak cló

11:43

kóddal, semmi kézzel beleírt kódolással

11:46

sikerült teljesen nulláról kirakni, és

11:49

kint van productionbe, és fut.

11:51

>> Engem engem még nagyon érdekel az a

11:53

költsége, mert itt olyan számok

11:55

hangzottak el, amit előtte azért nem

11:57

hallottunk. Itt általában az ment, hogy

11:59

hogy oké, van egy 10-20 dolláros

12:02

ilyen-olyan előfizetésem, de itt azért

12:04

röpködnek a a 100 dollárok nagyon

12:06

könnyedén. Tehát ez egy költséges buli.

12:09

>> Abszolút.

12:09

>> Így van.

12:10

>> És az antropic az különösen élen jár

12:12

ebben. Tehát maga a modell is drágább

12:15

egyébként, mint a GPT oldalon. Bár errő

12:17

is beszéltünk, hogy a GPT modellek is

12:19

nagyon-nagyon jól működnek, legalábbis

12:21

az újak. Ö, úgyhogy ez tény, hogy a 20

12:24

dolláros előfizetés szerintem nagyon

12:27

kevés dologra elég. Arra elég, hogy

12:29

kipróbálja az ember, de nekem az volt

12:32

most az egyik legnagyobb mondásom, és

12:33

ezt így próbálom terjeszteni ismerősi

12:35

körben, hogy aki most nem használja vagy

12:39

az Antropicnak, tehát a Cloudos, vagy a

12:41

az Open AI-os GP-t is 200 dolláros írt

12:45

konkrétan, annak fogalma sincs, hogy mi

12:47

történik ebben a világban. És ezt három

12:50

hónappal ezelőtt én se gondoltam volna.

12:52

Azt hittem, hogy ezt csak az ilyen

12:53

őrültek használják, és most ott tartok,

12:55

hogy

12:56

hogy én is, hogy amúgy csak azon

12:57

gondolkodom, hogy érdemes-e mind a

13:00

kettőre előfizetni 200 dollárba, vagy

13:02

elég az egy, és a másikra mondjuk elég a

13:04

20 dolláros, de nagyon-nagyon sok sokat

13:08

tehát egy tehát egy szintlépés az egész,

13:10

és tényleg, aki ezt használ szerintem

13:11

rögtön odajut, hogy

13:13

>> kell a 200. Hát van egy kedves

13:14

ismerősöm, és ő az azt mondta, hogy

13:16

amikor először kipróbálta, annyira

13:18

annyira rágyógyult, hogy mennyire durva,

13:20

hogy napi 100 dolláros limiteket

13:21

állított be magának. Azt mondta, hogy

13:23

neki annyit megér, hogy naponta

13:24

elpörgesz 100-at. De te is itt az adás

13:26

előtt mondtad, hogy a a kreditedet már

13:29

felérted ma.

13:30

>> Igen. Tehát, hogy a ugye az összes

13:32

előfizetésnél van egy limit, amit

13:34

naponta meg hetente elégetsz. Na most

13:37

már én lassan egy hete a napi limitet

13:39

azt mindig kiütöm. De most már ugye ott

13:42

tartunk, hogy hétfő, szombaton járna le

13:45

a heti limit, de már több mint az 50%-át

13:48

a heti limitnek elhasználtam a cló kódos

13:50

előfizetésből. És én a 200 dolláros

13:52

planen vagyok egyébként, de még ehhez

13:54

annyit akartam hozzátenni, hogy mondjuk

13:56

három hónappal ezelőtt nem biztos, hogy

13:59

az Opus használni akkora különbség lett

14:01

volna, és ugye a Sonet az Antropic másik

14:03

modellje az sokkal olcsóbb volt. Tehát

14:05

három hónappal ezelőtt még a 20 dolláros

14:07

modellen el lehetett élni, hogyha valaki

14:09

azt használta, mert nem lehetett akkora

14:11

nagy feladatokat rábízni. Ugye most már

14:13

nem. És az Opus ugye egy sokkal drágább

14:15

modell, amivel nyilván sokkal komolyabb

14:18

eredményeket érsz el, de ezér sokkal

14:19

drágább is. Tehát, hogy a 20 dolláros

14:21

modell az gyakorlatil vagy előfizetés az

14:23

gyakorlatilag már semmi nem jó. És ugye

14:26

csak, hogy itt egy kicsit perspektívába

14:28

is tegyük ezt, hogy mi mennyibe kerül.

14:30

Ugye a bemenő meg kimenő tokenek alapján

14:34

számolnak.

14:35

És ugye az Opus 4.6-nál kijött az is,

14:38

hogy ugye az alapvetően egy még lassabb

14:40

modell, mint a 4.5, de bekapcsolhatod a

14:43

gyors módot, ami hatszor annyiba kerül,

14:45

mintha nem gyors mód.

14:47

Úgyhogy ezt a 200 dolláros plant, ezt

14:50

elég gyorsan ki lehet maxolni. És ugye

14:52

az api, amit mondott a megyó is, az meg

14:54

nagyon drága. Tehát, hogy abból is én

14:57

körülbelül fél óra alatt sikerült 50

14:59

euró-t elégetnem. De ez a szerintem

15:01

mondjuk nekem dolgozok egy tetszőleges

15:03

cégnél és használok valamilyen idét és

15:06

ott átállítom a modellt, mert azt

15:09

megtehetem. Ugye a legtöbb ember nem

15:10

szokta átállítani és ha átállítod a 10

15:13

dolláros vagy 20 dolláros céges

15:14

előfizetésbe mondjuk a Zopus 4.5-re vagy

15:17

4.6-ra, akkor azzal szembesülsz, hogy

15:19

pillanatokat fel felzabálod

15:21

gyakorlatilag.

15:21

>> Így van. Így van. Így van. És ezt ugye

15:23

le lehet csinálni egy csomó ilyen idébe.

15:25

Ugye tényleg ez a curső meg copilot meg

15:27

ilyen hasonlókban, ez mind-mind működik.

15:29

Pont pontot is az volt, hogy annyira

15:31

rágyógyultam a cloud kódra így karácsony

15:33

után, meg egyébként egy másikra is, az

15:35

az open kódra, ami egy ilyen open source

15:37

kopija, és azzal meg a pont a GPT 52

15:40

codexet használtam nagyon-nagyon sokat.

15:43

És az is baromi jól működik.

15:46

Úgyhogy tényleg szintén így a a kettő az

15:48

nagyon-nagyon hát hasonlóan jó dolgokat

15:50

lehet veleérni, bár kicsit más stílusúok

15:52

a modellek, de a lényeg, hogy hogy

15:54

emiatt a a körser előfizetésemet szintén

15:56

semennyire nem használtam, és tudtam,

15:57

hogy mikor resetelődik a havi

15:59

előfizetés. Ez hoz egy nullát

16:00

használtam, és odaültem előtte való

16:03

este, hogy akkor jó, akkor csináljak

16:05

valamit, egy hobbi projektet,

16:07

átkattintott a mópuszra, három óra alatt

16:09

elégettem vele a 20 dolláros ugye havi

16:12

limitemet, mert ugye az rendesen

16:14

ugyanúgy a tehát a körző is ugyanannyit

16:16

fizet, mintogyha te közvetlen hívnád meg

16:18

az antropi kapiját. Tehát ilyen gyorsan

16:20

lehet ezeket igazából törni.

16:21

>> Viszont lenne itt még egy kérdésem, hogy

16:23

végig csak a a kodexet és az opuszt

16:27

emlegettük. Mi a helyzet a Googlel?

16:32

>> Gemini.

16:33

>> Hát igen, hogy

16:35

mert róluk valahogy nem beszél senki.

16:37

Mindenki csak a Kodexről beszél meg az

16:38

Opusról. És olyan mintogyha Google itt

16:40

itt most

16:42

>> legalábbis ebbe a szűk szegmensbe, hogy

16:44

programozás, mintha most egy kicsit

16:45

kiesett volna a versenyből.

16:47

>> Szerint véleményem szerint borzasztóan

16:48

le vannak maradva, ami azért érdekes,

16:50

egyrésztőzem egy pár napja jött ki a

16:52

Gemini 3.1 Pro.

16:54

>> Igen, igen.

16:54

>> Tehát az az megint új. És mintha az

16:56

történne, hogy jön egy csomó ilyen

16:59

statisztika, vagy hogy ezek a

17:00

benchmarkok és azokon iszonyatosan jól

17:02

szerepelnek, de amikor megpróbálod

17:04

belerakni ugyanebbe a környezetbe, tehát

17:07

jó most nyilván cloud kóddal nem lehet

17:09

meghívni, de az open kóddal meg lehet

17:11

hívni, a cursőrel meg lehet hívni, és

17:14

nagyon elmaradt tőle, tehát nagyon

17:15

furcsa dolgokat csinál. Ugye ami miatt

17:18

erősek ezek a a modellek, hogy nagyon

17:19

jól használják ezek az úgynevezett

17:20

túlokat, tehát tudják, hogy mit kell,

17:22

hogy besbe futtatni, hogyan kell

17:24

másrendszerekkel kommunikálni, satöbbi.

17:26

Ezt pokolan rosszul csinálja maga a maga

17:29

a gemini modell. Szóval kicsit úgy néz

17:31

ki, mintogyha magába a modellbe a tudás

17:34

önmagában nagy, ezért amúgy egy csomó

17:36

mindenre lehet használni. Tehát például

17:38

mi ilyen vision taskokra csak gemint

17:40

használunk, tehát amikor egy képről fel

17:42

kell ismerni, hogy mi van rajta,

17:44

>> vagy valami scennelt valamit, mondjuk

17:46

dokumentumból rá kell jönni, hogy hogy

17:47

van ez kitöltve, de ebbe az agentic

17:50

workflowba, ahol ez az ilyen odavissza

17:52

pattogás megy, hogy csinál valamit a

17:54

modell, önellenőriz, újra csinál

17:56

valamit, meghív dolgokat ide-oda amoda,

17:59

abba borzasztó rossz. Legalábbis nekem

18:02

ez a tapasztalatom, és ahogy másokat

18:03

olvasok.

18:04

>> Nekem is, de én engem ez nem lep meg

18:06

annyira, mert szerintem a Google az

18:08

valahogy sose volt jó ilyen fejlesztői

18:10

dolgoknak a megértésében, hogy

18:13

egyáltalán mi kell a fejlesztőknek, meg

18:15

hogyan használják ezeket az eszközöket.

18:17

Úgyhogy engem ez annyira nem lep meg

18:19

alapvetően.

18:20

>> Vicces, hogy amúgy nekik is van egy

18:21

CLük, tehát van Gemini CLI, ami a cloud

18:23

kódnak gyakorlatilag egy ilyen hát ilyen

18:26

konkurense lenne, de szerintem nem sokan

18:27

használják. És ja, meg ugye van az

18:31

antigravity nevű idéjük, tehát egyszer

18:34

több túljuk van, de szerintem a

18:36

cursörben is és az open codban is

18:38

hamarabb volt elérhető a Gemini 3.1-es

18:41

modell, mint a saját cuccaikba. Tehát,

18:42

hogy valami elképesztően bénán állnak

18:45

hozzá szerintem ehhez az egészhez.

18:49

Na és akkor ugorjunk a második lépcsőre,

18:50

hogy elkezdünk landolni így a lejövünk

18:53

egy kicsit a hyper-ól, hogy

18:56

itt a Mark te mondtál egy itt az adás

18:58

előtt, hogy na ez a hatalmas hype, ami

19:02

az egész körül zajlik most, és most

19:04

talán úgy érzem, hogy talán jogos is, de

19:06

ez egyébként nagyon sok rossz irányba

19:08

viszi el adott esetben a cégeket, mert

19:11

hogyha

19:13

ezt kipróbálod és ész nélkül ráugrasz,

19:16

akkor gyakorlatilag te pont a

19:17

Kuberneteshez hasonlítottat, hogy bele

19:19

lehet futni egy hatalmas nagy buktába az

19:21

egészet. Tehát akkora lelkesedés van

19:23

mögötte, meglátod, és hogy úristen,

19:24

úristen, úristen, de hogy ez így

19:27

bevezetés szinten nagyon rossz irányba

19:28

is el tud menni.

19:30

>> Abszolút. És ami miatt szerintem ez még

19:32

talán rosszabb, mint annates hype, két

19:35

dolog. Az egyik, hogy a zaj sokkal

19:37

nagyobb. Tehát, hogy a eszméletlen

19:40

mennyiségű

19:42

content, vélemény, tweet, új eszközök,

19:47

rengeteg content áramlik ugye bele az

19:50

egész közösségbe, és nagyon nehéz

19:53

megtalálni azt, hogy mi az, ami tényleg

19:55

érdekes, tényleg érdemes foglalkozni

19:57

vele. Tehát gyakorlatilag tényleg

19:59

szerintem vagy jóval mindketten full

20:01

time foglalkozunk ezzel, hogy próbáljuk

20:03

követni ezt a trendet. És szerintem van

20:05

egy csomó felesleges zaj ebbe az

20:08

egészbe. Ez az egyik, ami

20:09

megkülönbözteti a kubernetes

20:12

időszaktól. A másik

20:15

pedig szerintem az, hogy sokkal

20:17

gyorsabban fejlődik és sokkal gyorsabban

20:19

változik ez az egész AI-os környezet,

20:22

mint mondjuk a Andernetes ekosisztéma.

20:24

Ott ugye minden évben nagyjából megvolt,

20:26

hogy mi az adott évnek a hype-ja. minden

20:28

évben létrehoztak rá nem tudom 10-15

20:31

startupot, de nagyjából tudni lehetett,

20:33

hogy miről szól az az adott év. Itt

20:36

hónapok vagy heteken belül változnak

20:39

olyan szinten a dolgok, hogy hogy nagyon

20:42

nehéz követni. És szerintem az, aki ezt

20:44

kívülről látja,

20:46

lehet, hogy inkább legyintenek rá, és

20:48

nem is foglalkoznak van, amit teljesen

20:49

meg tudok érteni, mert mert tényleg

20:52

olyan nagyon sok információ, amiből nem

20:56

tudom, a fele lehet, hogy haszontalan

20:58

áramlik bele ide a világba, hogy hogy

21:01

nagyon nehéz ezt

21:02

>> hát én is azt látom, hogy olyan, mintogy

21:03

a hullámvasúton ül ülnék, tehát hogy

21:05

csinálunk-e ezzel kapcsolatos tartalmat,

21:07

mint ez is. És akkor beszél az ember,

21:10

beszélsz emberekkel, és akkor

21:12

gyakorlatilag magába visz a

21:14

lelkesedésük.

21:16

Meg olvasod a Discordon, és látod, hogy

21:18

mit csinálnak emberek. A másik oldalon

21:20

meg Zeró mindig megik egy ilyen fékként,

21:22

vagy inkább a a két lábójáró

21:24

realitásként, aki mindig azt mondja,

21:26

hogy hogy például azt mondta, amikor

21:28

mondtam, hogy ti fogtok jönni

21:29

vendégként, azt mondta, hogy jó, de arra

21:32

ügyeljünk, hogy ők speciális helyzetben

21:34

vannak, merthogy most nektek ez egy

21:36

szerelem, és ti most abban a helyzetben

21:38

vagytok, te saját céget grundolsz, te

21:40

most szabadúszó vagy, hogy ebbe annyi

21:42

időt fecsz bele, amennyit csak akarsz.

21:44

És ugye pont a másik oldal, amit meg te

21:46

mondtál talán két podcasttal ezelőtt,

21:48

hogy valamelyik cégnél a CEO összewev

21:50

kódolt egy appot és úgy fellelkesedett,

21:53

hogy kiadta a cégbe, hogy akkor innentől

21:55

kezdve ez megy. Tehát, hogy nagyon nehéz

21:58

megtalálni azt a balanszot, hogy ezt

21:59

hogy is kéne egyáltalán bevezetni, vagy

22:01

hogy is kéne erre az egészre

22:03

felülni erre a vonatra. És pont ez a

22:05

probléma szerintem tehát, hogy ugye

22:08

viszonylag elérhető technológia, és

22:10

ezért nyilván egy CEO is össze vi tud

22:13

vibe kódolni valamit, és ez alapján

22:15

döntéseket hozni szerintem hiba

22:16

egyébként, tehát hogy ráugrani erre a

22:19

hyp-era ez alapján, hogy ah én is tudom

22:21

kattintani, ez egy nagyon nagy hiba. És

22:23

ha megnézzük azt, hogy egyébként azok az

22:26

engineerek, akiknek mondjuk van valami

22:29

kredibilitása itt a a közösségen belül,

22:32

tehát egy Mitel Hashimoto, egy Jessie

22:35

Fraszle, ők mind elmondják, hogy ők

22:37

hónapokig ütötték az AI-t, hogy olyan

22:39

kódot írjon, meg olyan megoldásokat

22:41

szállítson, amire ő rá tudja nyomni a

22:43

pecsétjét.

22:45

>> Na és akkor itt jön a kövsz megmondani

22:47

valamit? Nem, hát ez szerint szerintem

22:49

is látszik, hogy hogy azért ugyan

22:52

szerintem ezt relatíve könnyen meg lehet

22:54

tanulni, de inkább ez egy ilyen

22:57

intuitív, ilyen menedzsment folyamat,

22:59

hogy aztán hogyan kezeled ezeket a

23:01

coding agentöket. Tehát ez nem

23:03

feltétlenül egy ilyen ilyen egy ilyen

23:05

ilyen tankönyvi dolog, hogy akkor így

23:07

megtanulod, hogy hogy kell jó promptot

23:09

írni meg ilyen hasonlók szerintem, hanem

23:11

sokkal jobban ilyen intuitívabb, meg

23:13

kicsit olyasmi, mint amikor a mint

23:15

menedzserként, ahogy leosztod a

23:17

feladatokat, és ugye ott is mint egy

23:19

ilyen

23:21

mint egy ilyen menedzser, el kell

23:22

valahol engedned azt, hogy úgy se fogod

23:24

reviewni az alattad lévő emberek

23:26

kódjait. Mondjuk ők persze egymásét

23:29

igen, de ettől függetlenül meg kell

23:32

valahogy érteni ezt, hogy így hogy

23:33

engeded ki ezt a kontrollt. És ez ezért

23:35

is mondják, hogy érdekes módon, hogy a

23:37

hogy a CEO-k ezért használják

23:38

könnyebben. Meg egyébként, ha jól értem,

23:40

az az is igaz, hogy minél magasabban

23:41

vagy így a céges ranglétrán, annál

23:43

jobban rá vagy gyógyulva erre a az egész

23:45

AI témára, mert látod benne ezt az

23:47

értéket. Másrész jobban ki tudod engedni

23:50

a kontrollt a kezedből, mint aki ott ül

23:52

az alján. És ugye ő ő meg csak azt

23:54

láthatja, hogy hát eddig ez volt a

23:57

feladatom, most meg valaki, aki

23:58

mellettem ül egy egy kódexszel ugyanazt

24:02

megcsinálja, nem tudom fél óra alatt,

24:04

mint én kettő nap alatt. Tehát nehéz ez

24:06

szerintem íy egyensúlyba tartani.

24:08

>> És akkor most eljuttunk eljutottunk oda,

24:10

hogy szerintetek mennyi idő most képben

24:14

lenni ezzel? Ezt mindig felteszem. Ugye

24:18

itt az adás előtt Zéróval elég sokat

24:20

beszélgettünk erről a témáról, és neki

24:22

volt egy olyan kijelentése,

24:24

hogy

24:26

hát mindjárt megszólaltatlak téged is,

24:27

mert lassan elmondom helyett, hogy mit

24:29

mondtál. De de azért mondom el, mert nem

24:31

emlékszel rá, hogy ezt mondtad.

24:32

>> Részben emlékszem, de teljesen

24:34

>> és azt mondta, hogy ha valaki az elmúlt

24:36

két évben

24:38

egy szatyorban volt, semmit nem érzékelt

24:40

az egészből, akkor is viszonylag gyorsan

24:42

fel tud ülni erre a vonatra. Tehát

24:43

tulajdonképpen nem maradtál semmiről.

24:47

Hol van ennek a realitása? Mennyi így

24:50

egyáltalán mondjuk azon a szinten, ahol

24:51

te vagy, azt szerinted mennyi idő

24:53

felvenni?

24:54

>> Szerintem ennek két két része van. Az

24:56

egyik az ilyen tankönyvi akkor, amit úgy

24:58

tényleg úgy szerintem érdemes megtanulni

25:01

minimálisan erről a témára, hogy egy

25:02

kicsit jobban tudja az ember, hogy mi a

25:04

fene történik itt. Tehát, hogy itt van

25:06

ez a cloud kód, de hogy meg van mögötte

25:09

egy modell, de azért, hogy ne egy ilyen

25:12

mágikus dolognak képzeljük, ahol csak

25:14

így hintesz egyet, és akkor így

25:16

megtörténik minden, hanem hogy szerintem

25:19

ez teljesen logikus, hogy mi történik a

25:21

háttérben, meg hogy ez hogyan épült fel,

25:22

hogyan jutottunk el ide akkor így a

25:24

két-három év alatt. Ezt egy kicsit

25:26

szerintem jobban megérte az ember, akkor

25:27

jobban tud hozzáadni. Ez a szerintem a

25:29

tanulható része, ami amúgy szerintem

25:31

tényleg nem olyan sok. Tehát szerem ez

25:34

egy hétnyi befektetéssel meg lehet

25:36

érteni, hogy mi az az egész ellenvilág,

25:37

hogyan épült föl, hogyan jutottunk el

25:39

onnan, hogy nem tudom, ugye ez a Next

25:42

Token Prediction, hogy tényleg csak

25:44

mondok egy szöveget és ő folytatja oda,

25:47

hogy magától ír kódot, mert amúgy ezt

25:49

így lépcsőben meg lehet tanulni. viszont

25:51

van egy másik része, ami meg ez a fajta

25:52

kísérletezés, hogy meg kell érteni egy

25:54

kicsit, hogy hogyan érdemes ezeket

25:55

használni. Ö mert azért ez nem annyira

25:58

nem automatikus, hogy csak leülsz elé,

26:00

írsz valamit és az rögtön működni fog,

26:02

hanem egy minimálisan így bele kell

26:04

látni így a modelleknek így a lelki

26:05

világába. És ez az, amit a szerintem a

26:07

Márk is mondott, hogy minél többet

26:10

használod, annál jobban szerintem így

26:12

kényelmesebb ez az egész, de az viszont

26:14

használni kell őket. Tehát ha valaki

26:16

szerzem arra vár, hogy odaül és akkor

26:17

onnantól fogva mindig működni fog, az

26:19

nem gondolom, hogy eljön. Tehát kell ez

26:21

a fajta szem egy rutin ebbe az egészbe,

26:23

hogy hogyan működsz ezekkel együtt.

26:25

Hogyan engeded el a

26:27

>> te összességében nincs magasan a

26:28

belépési pont?

26:30

>> Én azt látom, hogy nincs olyan magasan.

26:32

De szerintem a kuberneteszt megtanulni

26:34

jóval nehezebb, mint a cloud kódot

26:36

megtanulni. Én egy picit árnyalnám azt a

26:38

képet, és pont a Kuberneteshez nyúlnék

26:40

vissza, mint egy ilyen példa, hogy ugye

26:42

ma, ha valaki elkezdi megtanulni a

26:44

Kubernetes sokkal kevesebb dolgot kell

26:46

megtanulnia, mintha mondjuk 10 évvel

26:47

ezelőtt kezdte volna el megtanulni, mert

26:49

ugye annyit változott a technológia,

26:51

annyi minden kikerült belőle, és annyi

26:53

minden sokkal stabilabb lett, hogy egy

26:55

sokkal vékonyabb, sokkal kisebb

26:57

felületet kell tudni ahhoz, hogy ma ezt

26:59

felhasználó szinten használni tudja. De

27:02

könnyen el tudom képzelni, hogy sok

27:03

olyan helyzet van, ahol mondjuk ismerni

27:06

a hátterét, hogy hogy jutott el ide a

27:07

technológia, az segíthet abban, hogy

27:09

egyébként ezt jobban tudja használni a

27:11

felhasználó, vagy akár fejleszteni

27:13

tudja, vagy vagy épít építeni rá. És ez

27:16

szerintem az AI-ra is igaz lesz, hogy

27:18

ugye nagyon gyorsan változik, nagyon sok

27:21

eszköz kerül bele,

27:24

meg eszköz kerüli ki is belőle, mert

27:26

igazából most már azt mondják például,

27:28

hogy á ne használj MCP szervereket,

27:30

használj skilleket.

27:32

ami szerintem így nem állja meg a

27:33

helyét, de hogy például ezt ismerni,

27:35

hogy mikor került be ez az MCP szerver,

27:38

mi ez most úgy látszik, hogy kifelé

27:40

kerül ebből az ökoszisztémából.

27:42

Szerintem ez a fajta a tudásho az, ami

27:45

hát mindenképpen értékes, és aki

27:47

manapság bekerül ebbe, az nem biztos,

27:50

hogy ez a ezt a historikus kontext ezt

27:52

föl tudja venni. Ez az egyik dolog. A

27:54

másik pedig szerintem ami minden olyan

27:57

technológiára, ahol a belépési küszöb

28:00

alacsonyan van, szerintem mindegyikre

28:02

igaz, hogy van a a learning curveben egy

28:05

ilyen ugrás, hogy könnyű elkezdeni

28:07

használni, de eljön az a pont, ahol

28:11

bonyolódik annyira, hogy egy sokkal

28:12

nagyobb ugrást kell megtenni fölfelé

28:15

bonyolultságban meg hozzáértésben,

28:18

mint

28:19

mint az ember gondolná. És ugye aki

28:21

elkezdi használni, és ez könnyű, ezt én

28:23

tudom használni, és majd egyszer csak

28:25

belefut olyan problémákba, ahol már nem

28:27

lesz ennyire könnyű. De ugye ezt

28:29

elképzelni, hogy hú majd egyszer

28:31

bonyolultabb lesz, ez ugye nem jzbe az

28:33

embereknek, és ezért könnyen belefutnak

28:35

olyan zsákutcákba, ahonnan már nagyon

28:37

nehezen tudnak kijönni.

28:39

>> Van van van ez az elv, nem régről, hogy

28:41

easy to learn, heart to master. Nem, nem

28:43

tudom, hogy ennek van-e magyar

28:45

megfelelő. Ja, így.

28:46

>> És szerintem viszont ez ez szerintem

28:49

igaz a a azért erre, hogy könnyű vele

28:52

elkezdeni, de azért kell hozzá egy rutin

28:54

szerintem. Meg talán ezt a historikus

28:56

kontextust egy kicsit felépíteni, hogy

28:58

akkor most miért van plan mód, miért

29:00

vannak reasoning modellek, hogy kell

29:02

tolkol csinálni, miért jó volt az MCP,

29:05

mikor jó, mikor nem olyan jó. ezeket

29:08

lehet, hogy idő meg így megérteni, de

29:11

szerintem könnyű elkezdeni, és szerintem

29:14

egy egy jó szintre elérni biztos

29:16

nagyon-nagyon könnyű. És és e erre

29:18

próbálom sarkolni mindenkit tényleg, aki

29:21

hallgat, hogyha eddig nem tettétek meg,

29:23

tényleg próbáljatok ki, fizessetek elő.

29:25

Jó, nem kell rögtön a 200-asra menni,

29:28

elég a 20-as is, csak így kipróbálni. De

29:30

aki eddig ingyen használta a a chat

29:33

GPT-t, és amúgy nagyon sokáig én is

29:34

ingyen használtam

29:37

az próbálja ki, de ne a chat GPT miatt,

29:39

mert a chat GPT szerintem hát nem azt

29:41

hisem semmit nem változott, de alig

29:42

változott az elmúlt két évben, hanem

29:45

pont emiatt az agenty coding frameworkök

29:48

miatt, mint például a Codex és a cloud

29:50

code, mert egy teljesen más dimenzió. És

29:53

szerintem ebbe ebbe belemennél azért is

29:55

jó, mert én most azt látom, pont ma

29:58

beszéltem a Discordon az egyik sráccal,

30:00

de nem mondom meg, hogy kivel, vagy hát

30:02

eg Discord üzenet miatt privátba, aki

30:04

konkrétan ugyanúgy üzemeltetői háttere

30:06

van. Régóta ismerjük egymást a tudja,

30:09

hogy ki csak nem akarom belőni a most

30:11

így a busz alá őt,

30:13

>> de hogy konkrétan mondta, hogy felad egy

30:15

nagy projektet meg egy nagy ügyfelet,

30:18

és gyakorlatilag fejleszteni fog egy

30:20

másik nagy ügyferének úgy, hogy ő nem

30:23

fejlesztő, hanem üzemeltető. És állítom

30:26

neked, hogy nyomja a 200 dolláros ti,

30:30

gyorsabban és hatékonyabban fejleszt ő,

30:33

akinek nem fejlesztési háttere van a 200

30:36

dolláros teerrel. Jó, lehet, hogy ti

30:39

tudnátok mutatni nekem az országban öt

30:40

olyan embert, akinél nem, de a 99%-án az

30:44

embereknél biztosan megvenne, hogy

30:45

jobban fejleszt ő ezzel a cuccal.

30:48

>> Úgyhogy egyébként üzemeltetői háttéről

30:51

>> így van. Tehát úgy, hogy sosem

30:52

fejlesztett production szoftvert, mert

30:54

nem ez a háttere, csak nyilván érti azt,

30:56

hogy mi az IT. egyébként még itt annyi

30:58

magyarázat, hogy mindig itt a Kubernet

31:00

ezt emlegettük, hogy azért emlegetjük,

31:01

mert csak fogtunk egy olyan

31:03

technológiát, ami mit tudom én, nagyot

31:04

ment az elmúlt időben. Én azért

31:06

kérdeztem egyébként azt, hogy hogy

31:08

milyen a tanulási görbéje, hol van a

31:10

küszöb, mert emlékszem, amikor itt

31:12

voltál két évvel ezelőtt Márk, és akkor

31:14

csak alapvetően így a a Devo Mindsetről

31:16

beszélgettünk, és ugye akkor azt hiszem,

31:18

hogy arról beszéltünk, hogy hogy mi

31:21

mindig van egy komplex rendszer, ott

31:23

felmerül egy probléma, jön rá egy

31:25

megoldás, hívjuk új absztrakciónak, az

31:27

hten leegyszerűsít, de aztán kiderül,

31:29

hogy egy csomó dologra nem jó, azt

31:30

elkezdik tovább fejleszteni, elkezd

31:32

bonyolodni, és amire a tömeg eljut

31:34

odáig, hogy elkezdi használni, Már az is

31:36

egy nagyon bonyolult dolog. És a

31:37

Kubernetes is ilyen volt, meg az

31:38

összesen DevOps történet, hogy az AI-nál

31:40

is előállhat ez, hogy oké, én láttam,

31:43

hogy a munkaerőpiacon még nincsen nagy

31:44

pezsgés körülötte, és mindjárt jutunk

31:46

hozzád. Zero.

31:48

Nem kell nekem ezzel foglalkozni, majd

31:49

felülök akkor, amikor fel kell ülnöm.

31:53

Szerintem itt az az eddig elmondottak

31:56

alapján

31:57

én személy szerint

31:59

azt mondanám, hogy érdemes minél

32:01

hamarabb felülni, mert akkor lesz

32:02

valamilyen historikus kontextusod, ami

32:05

szerintem megkülönbözteti, vagy ami

32:07

különbség van a Kubernetes Cloud Native

32:09

és az AI között, hogy a cloud native az

32:11

alapvetően elmozdult egy ilyen

32:13

enterprise irányba, tehát hogy nem a

32:15

hétköznapi embereknek való a technológia

32:18

nagy része. felhasználós szinten igen,

32:19

de hogy de hogy ilyen üzemeltetési

32:21

szinten vagy hogy mire való, az nagyon

32:24

elment ebbe az enterprise irányba. Még

32:26

az AI nem. Tehát, hogy az AI ott ott

32:28

nincsen differenciálás nagyon abban,

32:31

hogy most enterprise irányból használod,

32:33

vagy vagy nem. illetve olyan szempontból

32:35

igen, hogy ugye nyilván ahol kontrollált

32:38

környezet van, ott ott saját magadnak

32:40

kell üzemeltetni a modellát satöbbi

32:42

satöbbira, hogy igazából olyan nagyon

32:44

sok különbség szerintem nincs emiatt.

32:47

Úgyhogy ez meg inkább abba az irányba

32:49

mutat, hogy hogy bármikor felülhetsz

32:51

erre, mert nem nem fog elmozdulni maga a

32:54

technológia olyan irányba, hogy hogy

32:56

ebből egy ilyen enterprise specifikus

32:59

dolog legyen.

33:00

>> Na és ak

33:00

>> úgyhogy mind a kettő mellett tudok érvet

33:02

mondani. Ki tudja. Ez még olyan gyorsan

33:05

változik egyébként ez az egész AI vonal,

33:07

hogy nem tehát hogy még nem tudjuk, hogy

33:09

hova fog kifutni. Még a kubernetesnél

33:11

elég jól meg lehetett saccolni, hogy

33:14

egyébként leuralta az egész container

33:17

requestation

33:19

világot, hogy ez most hosszú évig itt

33:22

fog maradni. Az AI-nál gyakorlatilag

33:24

minden nap van valami olyan változás,

33:26

hogy hogy nem tudjuk, hogy mi lesz.

33:28

>> És akkor így most kiszörföztem magam a

33:31

hype hype-on, amit itt okoztatok a

33:34

műsorban, és megérkeztem Zerohoz, hogy

33:37

mit mondasz erre, Zeró te?

33:40

Azt tudni kell, van egy kontextust így

33:42

hozzátennék, hogy amikor ezt feljött ez

33:44

a téma, és akkor Gyuri felhívott és

33:46

látszódott, hogy ő ezt imádja, hogy

33:47

most, hogy az AI-os topic lesz, meg hogy

33:49

mekkora változás, meg ő is követte ezt a

33:51

témát. És azért jó ez a topic, mert

33:55

most viszonylag sokat dolgozok

33:56

Enterprise környezetben,

34:00

és nagy aranyba Magyarországon, nem csak

34:01

Magyarországon, itt a környező

34:02

országokban is. És nagyon érdekes, hogy

34:05

ha megnézzük ezt a startup scaleup

34:07

dolgot, megnézzük a Twittert, megnézzük,

34:09

hogy azon keresztül mi folyik be az

34:10

Egyesült Államokból, és mondjuk

34:12

megnézzük, hogy mi ez a közép-európai

34:15

középkelet-európai valóság, azért a

34:17

kettő között egy jó nagy szakadék van.

34:19

Tehát ez konkrétan egy szakadék.

34:23

És pont ezen gondolkoztam, hogyha ugye

34:24

mondtam is azt, hogyha valaki

34:27

mondjuk az utóbbi két évben semennyit

34:29

nem foglalkozott ezzel, mert neki más

34:30

dolga volt, nem tudom, nem feltétlenül

34:32

ebbe akart ölni bármit, és valójában

34:34

miről maradt le, mert hogy egyébként

34:35

munkaerőpiaci aspektusból szerintem

34:37

nagyjából szinte semmiről.

34:40

Tehát ha te vagy egy jó computer

34:42

scientist,

34:44

az, hogy meg kell tanulnod ezt az

34:46

environmentet, hogy bele kell tanulnod

34:47

az Aiba, az nagyjából semmi. Ahhoz

34:49

képest, ami neked már valószínűleg át

34:50

kellett menned korábban, vagy mondjuk

34:52

meg kellett tanulni, nem tudom, C++ozni.

34:54

Tehát azért itt más dimenziókról

34:56

beszélgetünk.

34:57

És ha megnézem azt, hogy nagyon sok

34:59

ismerősöm, aki mondjuk nagyon műk

35:01

startup közegben van, aki a legelején

35:02

rajta volt, és tényleg oda van érte,

35:05

hogy ő mondjuk ebből mit profitált az

35:07

utóbbi két évben, és majd nyilván fogunk

35:09

itt beszélni a vámpíros contentről, meg

35:11

erről az anxiety részről is. Én nem

35:14

vagyok benne biztos, hogy ez akkora

35:17

akkora értéket generált az embereknek,

35:19

aki két éve ezzel kell fekszik, mint

35:21

azzal, aki semmit nem foglalkozott vele.

35:23

Mert biztos nyilván nagyon sok mindent

35:25

hozzáad egyébként a tudásodhoz, meg

35:27

nyilván megérted az él működését, de én

35:29

láttam azokat, akik egyébként jóval

35:32

később mentek ebbe bele, és nem nagyon

35:34

látom a különbséget, hogy aki két éve

35:36

ebben benne van, mondjuk a munkaerőpiaci

35:39

aspektusát elnézve, hogyha valaki két

35:41

éveben benne van, mondjuk egy hónapja

35:42

vagy két hónapban van benne, mi a

35:44

különbség? Mert én nem nagyon látom, ha

35:46

míg megnézzük, hogy hogyan interjúznak

35:48

valakit, hogy vesznek föl egy céghez, én

35:50

nem nagyon látom ezt az óriás benefitet.

35:52

Jerrybe meg viszont látom azt a részt,

35:54

hogy ebben nagyon sokan elfáradnak.

35:56

Tehát látom azt, hogy sokan így nagyon

35:58

sok nekik egy ponton. És akkor most már

36:00

vanak olyan ismerős aki mondta, hogy már

36:02

két hónap ez nem foglalkozik, mert hogy

36:03

túl sok volt és ezt már nem bírta

36:05

tovább, hogy mindig kijött egy új

36:06

verzió, mindig éjszakákat beleölt,

36:07

elfáradt és mondta, hogy ő ebbe így

36:09

kiégett, nem csinálta tovább. És

36:11

valójában a kézen fogható benefit az

36:13

szerintem sokkal nehezebb, hogy hogy ez

36:16

mit ad neked az életedhez hozzá, amit

36:18

mondjuk számszerűsíteni tudok. mondjuk

36:20

több pénzt keresek vele, vagy van valami

36:22

olyan érték, ami mondjuk a családomnak

36:24

például azon kívül, hogy most én

36:25

hajnalig fen vagyok és nagyon szeretem,

36:27

mert nagyon király használni,

36:28

>> mert hogy a a munkáltatók elvárásainál

36:31

ez még nem jelenik meg.

36:32

>> Nem igazán, tehát nagy scalben nem.

36:34

Nyilván vannak olyan cégek, ahol igen,

36:36

de mondjuk ez a piacnek egy nagyon kicsi

36:37

százaléka. Nagyon kicsi.

36:40

Nem is várod, hogy ez így be fog törni,

36:42

mert azért végségszerűen megérülünk itt,

36:44

mert szerintem tényleg volt egyak volt

36:46

egy ebben szempontból szerintem

36:48

valamilyen elszólása például Cloud

36:50

Nativera vonatkozóan, hogy az enterprise

36:52

adaption fogja ezt eldönteni, hogy ott

36:54

mikor törik át egy gát. Ugye ugyanaz

36:55

volt annó szerintem más technológiáknál,

36:57

meg a public clubnál is ugye ez volt,

36:58

hogy a hogy elmondtának emlékszem a nagy

37:00

healthc, hogy mi nálunk soha nem lesz

37:02

bankok, nálunk soha nem lesz ugye az nem

37:04

létezik, hogy mi oda beköltözzünk. És

37:07

ugye nyilván az ott átszakította a

37:08

gátot, amikor volt egy-kettő és akkor

37:10

utána már mindenki. És itt is azt látom,

37:12

hogy Enterprise-ban ez még mindig nagyon

37:14

óvatos. Pláne mondjuk engineering

37:16

környezetben, még mindig nagyon óvatosan

37:18

megy, hogy akkor pocolunk, kiscsapat

37:20

satöbbi, de az, hogy így ráereszteni egy

37:22

óriás organizationt, az nagyon ritka. Ez

37:24

nem igazán megy. És cserébe az, hogy

37:28

mondjuk egy hiring folyamatban mennyire

37:29

mennek neki, nem igazán.

37:33

Igen. Meg ugye az ugye talán az

37:35

évintóban foglalkoztunk is ezzel, hogy

37:39

az pont az Allerant kutatásból

37:41

idézgettem, tehát Shadow AI satöbbi

37:43

satöbbi és ott pont a Jaguszti Laci

37:46

mondta a kutatásgazda, hogy jól lehet

37:48

látni, hogy hogy például Európába meg a

37:51

legtöbb enterprise cégnél ennek nagyon

37:52

komoly szabályozási gátja van. Tehát

37:55

hogy olyan döbbenetes ütemű a fejlesz a

37:57

fejlődés.

38:00

De egész egyszerűen nem adoptálja

38:03

az ipar, mert mert lehet, hogy csak

38:04

egyszer szabályozási okai vannak,

38:06

satöbbi, satöbbi. Tehát de valahol ez a

38:08

ez a kettő egyszerűen találkozni fog, és

38:10

akkor berobban. Tehát, hogy gondolj

38:12

bele, hogy itt van ez a lemaradás, a

38:14

piac még vár, hogy meglegyen a

38:15

szabályzási környezet. Lehet, hogy ez

38:17

kell egy-két év, de csak abból kiindul,

38:20

hogy hol tart most az opusz 4.6, hol fog

38:22

tartani két év múlva. És egyszer csak

38:24

így a nyakukba szakad ez a sztori, tehát

38:28

hogy akkora különbségek lesznek addigra.

38:31

Lehet, hogy egy cég egy évvel előbb

38:32

elkezdi, nagyon komoly lépéssel önt

38:34

jelent kibocsátásba, produktivitásba

38:36

satöbbi. Tehát nagyon érdekes, hogy ezt

38:39

nehéz az egyénnek megítélni, és ezt mi

38:42

se tudjuk, hogy hol fog ez a kettő

38:43

találkozni, hogy a cégek elkezdik, hogy

38:45

na akkor erre ugorjunk rá, most meg kell

38:47

csinálni. És ezért ne ez jó tanácsot

38:49

adni, hogy hogy mert korábban bevallom,

38:52

nekem is volt talán itt a Craftb ilyen

38:53

kijelentésem, hogy ezzel nem kezdesz

38:55

most foglalkozni, ez ez mindent meg fog

38:57

változtatni. És ezt mindig tartom, csak

38:58

tényleg abban igaza van Zerónak, hogy

39:01

egyelőre nem látszik még, hogy mit

39:03

veszítesz azzal, ha még csak malmozol

39:05

egy évre.

39:05

>> És most ezt külön választanám. Tehát

39:06

hogy nagyon sokszor úgy érzem, hogy

39:07

össze van mosva az, hogy a fejlesztők

39:10

mit használnak. Meg ez az agentic h

39:13

szerintem a kettő az csak különböző.

39:14

Tehát az, hogy a cégek mindenféle agenc

39:16

solutiont behúznak, a marketingre

39:18

szélsz, az egy teljesen más topik. Tehát

39:20

ezt nem is akarom ide bekeverni, mert

39:21

úgy érzem, hogy sokszor ez így össze van

39:23

keverve a kettő, és nem is akarok ebbe

39:25

egyáltalán belemenni, hanem ez tényleg

39:27

konkrétan arról, hogy mondjuk egy

39:28

enterprise környezetben a mérnökök

39:31

használhatják-e a létözolokat, és nagy

39:33

arányban nem. Ennek szerintem sok oka

39:35

egyébként. Tehát én emlékszem annó,

39:37

amikor bejött először ez a

39:41

ez az AI coding, akkor ugye nagyon sok

39:43

jogi kérdés volt ezzel kapcsolatban,

39:46

aminek nagyon nagy része szerintem még

39:47

ma sem tisztázottam, de én tudom,

39:50

>> hogy most ami kódot ír az AI, az most ki

39:53

a copyright ownere? meg az, hogy odaadsz

39:57

az AI-nak valami mondjuk

40:01

valami IP intellectual property kódot,

40:03

akkor az most az most eljut az

40:06

antropichoz az a kód, vagy most akkor az

40:08

>> hát pont Laci pont ezt mondta, mutatott

40:09

nekem egy belső prezentációt, ahol

40:11

konkrét pontokat kiemelt a felhasználói

40:14

feltételekből a legkülönbözőbb helyen,

40:15

és így be ki voltak emelve, hogy mondta,

40:18

hogy ez egy bankba, vagy ez egy izé egy

40:21

egy jogi osztályon soha nem menne

40:23

keresztül, vagy tehát egy ilyen, hogy

40:25

akár akár ember is láthatja a kódot.

40:27

Tehát azt mondta, hogy erre azt mondja

40:28

egy csomó cég, hogy no way.

40:30

>> Illetve van még szerintem egy másik,

40:32

hogy ugye mások árán tanul az ember a

40:35

legkönnyebben, és még nem láttunk olyan

40:37

hatalmas bukást a AI-al kapcsolatosan,

40:41

amiből lehetne úgy tanulni, hogy mondjuk

40:43

azt tudja mondani egy cég, hogy na igen,

40:45

így ne, de akkor ebből tanulunk, és

40:47

akkor majd csináljuk máshogy. És

40:49

tipikusan szerintem akár ebbe a startup

40:51

vagy az ilyen közép méretű vállalatoknál

40:54

az, hogy esetleg bemennek egy olyan

40:57

zsákutcába, hogy mondjuk hat hónapig

40:58

fejlesztenek valamit AI-al,

41:01

ami a végén annyira bonyolultra és

41:04

nehézre és menedzselhetetlenre sikerül,

41:06

hogy abból a zsákutcából két év kijönni.

41:09

Na, ilyen bukásokról még nem hallottunk

41:11

túl sokat. És ö azért a Kubernatesnél

41:13

elég sokat láttunk olyat, hogy hogy

41:17

miből tanultak a cégek a saját meg

41:19

máskárán.

41:21

És nagyon nagyon óvatosan vezették be

41:23

azt is sok helyen. És ahogy mondta az Éó

41:25

is, hogy amikor már elég tudás felgyűlt

41:27

ezzel kapcsolatban, na akkor átszakadt a

41:29

gát és akkor már mindenki

41:30

>> De nem lehet egyébként olyan létre egy

41:32

ilyen kétsebességű IT? Ez úgy hangzik,

41:34

mint a kétsebességű unió. Gondolj bele,

41:36

hogy a startup viszont nem így

41:37

gondolkodik, használja 1000erre,

41:38

használja ezerre. És akkor amikor

41:40

elkezdik az enterpriseok belépni, akkor

41:42

gyakorlatilag

41:44

az hipersebességgel haladnak, tehát hogy

41:48

egy hatalmas kontrasztot is látok. És

41:49

itt most kapásból behoznék egy pár tök

41:51

érdekes számot. És ez nagyjából

41:54

egyébként pont átjutottunk az ötös

41:56

ponthoz, mert felírtam egyet, hogy a

41:57

világchnológiai szétszakadása,

42:00

hogy volt itt az adásban egy német

42:04

kutató, a Johannes már nem tudom, két

42:06

évvel ezelőtt és

42:08

ő így a technológia, matematika meg a

42:11

közgazdaságtan szentháromságában alkot.

42:13

És most kijött egy kutatása, ami a

42:16

science-ben jelent meg, és gondolkünk is

42:18

az éval, hogy foglalkozzunk vele. Csak

42:20

az volt a probléma, hogy a kutatás az a

42:21

2024-ig bezárólag foglalkozott ezzel,

42:24

miközben most 2026-ot írunk, tehát egy

42:27

éve lejárta a szavatosságát, és én

42:28

jeleztem is a Johannesnek, és mondta,

42:30

hogy hát sajnos az akadémiai világba így

42:32

megy. Viszont a kutatásban voltak

42:34

érdekes dolgok, nevezetesen az, hogy már

42:37

akkor lehetett látni, hogy ilyen

42:38

földrajzi szétszakadás van. Tehát, hogy

42:41

például mit tudom én, ez a 2024 évvégi

42:43

állapot, amit mondok a kutatás szerint,

42:45

hogy például míg az USA

42:47

az a GitHub fiókokban az é generált kód

42:51

mennyisége már 30% volt, addig

42:54

Nyugat-Európában csak 25, míg

42:56

Oroszországban, Kínába 12-15 most

42:58

szándékosan nyugatról keletre megyek.

43:01

A GitHub fiókok, amikben egyáltalán volt

43:03

AI kód, az Egyesült Államokban 65-70%

43:06

volt. Nyugat-Európában, ez a

43:08

Nyugat-Európában azt tudjuk, hogy mit

43:10

jelent. Ott mondjuk 50%

43:14

ől keletebbre már csak 30-40%. És ezek

43:17

ordító különbségek már a kód tömegét is,

43:19

mert nem elég, hogy kétszer annyian

43:21

használnak egy adott lokáción AI-t,

43:24

ráadásul még kétszer több kódot is

43:25

állítanak elő. Tehát, hogy ez már ez már

43:28

megjelent szerintem ez a ez a

43:29

szétszakadás.

43:31

>> Azért ez szerintem valahol csalóka, mert

43:34

érdemes lenne olyan bontásban megnézni

43:36

ezt, hogy mondjuk mekkora mértéke ennek

43:38

a kódnak az, amit startup állított elő,

43:41

és mekkora mértéke, ami nem. Mert a

43:43

startupok

43:44

számát tekint, hogy sokkal nagyobb,

43:47

tehát többségben vannak az USAban, mint

43:48

mondjuk Európában.

43:49

>> Nyilván csak publikus kódokat tudnak

43:51

elni.

43:51

>> Ez így van. Csak publikus kódokat.

43:52

Nyilván nem enterprise kódok vannak ott.

43:55

>> Ez amúgy szerintem régóta egy vidott

43:56

kérdés, mert már szerintem tavaly

43:57

ilyenkor elhangzottak olyan nagyon nagy

43:59

számok. A Google és is mondta, hogy nem

44:00

tudom mit tudom én, most csak mondok

44:02

valamit 40%-át már réírja a kóduknak meg

44:05

ilyenek. És akkor itt mindig mindig

44:06

eltér, hogy jó, ez mit jelent, hogy már

44:08

ugye a copilálotban már hány éve benne

44:10

van ez az autó complete feature, hogy

44:13

csak elkezded írni a függvényt és akkor

44:15

beírja. És amúgy az egész jól működött.

44:17

Szerintem már akkor tájed. És akkor

44:20

emiatt mondta mindenki azt, hogy ez a

44:21

tab tab completion ott befejezi a sort

44:24

meg ilyenek, hogy hogy már akkor ezek

44:26

ilyen furcsa számok voltak és senki nem

44:28

tudta hova tenni szerintem ezeket. De

44:31

még egyszer tény, hogy szerintem ezek

44:33

csak nőni fognak. És ez biztos, hogy

44:34

kint egyébként ott meg hát a Silicon

44:36

Valleybe az egy teljesen más dimenzió.

44:38

Tehát ott szerintem hallottam olyan

44:40

startupokról, ha azt mondták, hogy ha

44:42

van még egyszer naponta 1000 dollárnyi

44:43

kreditet, akkor kirúgnak, mert

44:45

egyszerűen nem végzed jól a munkádat.

44:48

>> Nem végzed túl gyorsan a munkádat.

44:49

>> Így van. Van szerintem egy olyan torzító

44:51

tényező is egyébként, hogy nagyon sok

44:53

ilyen projekt az igazából research

44:56

projekt. Tehát az egyik ilyen jó példa

44:58

szerintem, hogy a Microsoftnál volt az

45:00

assiszem egy álláshirdetés, hogy AI-al

45:03

újra inni a Windows-t vagy valami

45:06

ilyesmi, amiről kiderült, hogy ez

45:08

igazából research projekt, nem lesz a

45:10

Windows újraírva AI-al, és szerintem meg

45:13

voltak még még más ilyen projektek.

45:14

Pontosabban updateelte az úri ember a

45:16

LinkedIn posztját, de de önmagában az

45:18

irány az, hogy van ilyen kutatási

45:20

projekt. Nem azt lták, hogy Windows

45:22

újraírják, hanem az azt azt próbálták

45:24

meg, hogy hogy gyakorlatilag

45:27

nagy mennyiségű, hatalmas mennyiségű

45:28

kódbázisokat átrakni egy másik nyelvre.

45:31

>> Csomó ilyen van, hogy browsert írogatnak

45:34

nulláról A-al. Meg most ugye a pont az

45:36

Antropic kiadta, hogy egy C compilert

45:38

csináltak kábé 20000 dollárnyi token

45:40

költséggel, ami úgy döcög, de

45:42

valamennyire működik. Mondjuk ez egy

45:44

elég nagy kam projekt azt hozzátennőm.

45:47

>> Igen. Tehát nagyon nagyon nehéz

45:48

elválasztani. Ugye arról is beszéltünk,

45:49

hogy itt a a valamelyikotokök mondta,

45:52

hogy a Shopify Seo is azt mondta egy pár

45:54

nappal ezelőtt vagy hete, hogy hogy

45:57

Shopify volt Spotif Spotify.

46:00

Igen.

46:00

>> Tök mindegy. Behát

46:02

>> tök mindegy igazából, hogy melyik

46:04

mondta, hogy mit mondtad? Mi volt a

46:06

szám? Hát semmi. Azt mondta, hogy

46:08

gyakorlatilag karácsony óta a

46:10

legszeniorabb mérnökeik ugyanúgy

46:12

100%-ban AI írja a kódjukat. Most már

46:15

>> jó ott már lassott a zenét is generálja,

46:17

úgyhogy igazából megvannak

46:19

>> egyébként. Egyébként ennyi.

46:23

>> Nem egy megnyugtató helyzet.

46:24

>> De hát jönnek, de de azért szerintem

46:26

látni kell. És még egyszer amiatt ültünk

46:28

itt össze, hogy tényleg van egy

46:29

szintlépés, tehát itt tényleg valami

46:31

megváltozott, és nem egy ilyen

46:32

inkrementális dolog, hogy ó, egy kicsit

46:34

jobb, hanem valami durván átfordult

46:36

ezzel a Opus 4.5, Codex 5.2, és ugye már

46:40

kint van az 5.3 meg a 4.6. Tehát

46:43

látszik, hogy amúgy mintogyha ez az

46:44

egész így gyorsulna is. És pont azért,

46:46

mert amúgy mind a két labor leírta azt,

46:50

hogy ebbe az új modellbe már az előző

46:53

modell nagyon sokat segített nekik.

46:54

Tehát már a tanítás során is egy csomót

46:57

iteráltak a modellel, hogy önmagát

47:00

hogyan lehetne jobban még jobbra

47:01

tanítani a modellt. És emiatt jött

47:03

gyakorlatilag két hónap volt, nem a

47:04

november vége meg a

47:06

>> Igen. Tehát én én én csak a közösség

47:09

reakcióján próbálom leszűrni azt, hogy

47:11

mit gondolnak róla, de csak abból

47:13

indulok ki, hogy nálatok a Cloud Native

47:15

Discord csoporton, amit ez adás előtt is

47:17

beszéltünk róla, lassan nincs aktív téma

47:19

DevOpsba, csak az AI topic megy, és az

47:22

összes DevOps meg van őrülve. Tehát én

47:25

csak kívülről azt nézem, hogy úristen,

47:27

tehát hogy a lelkesedés konkrétan az

47:29

egekben van, és főleg és ezt azóta megy,

47:31

amióta kijött az opusz.

47:33

>> Hát igen. Hát mert tényleg ennyit

47:35

változott az egész. De szerintem amiatt

47:36

is, hogy ez az egész iparra, továbbra is

47:39

állítom, hogy óriási hatással van. Most

47:42

bármennyire szerettem a kuberateszt és a

47:44

nekem a kis szívem csücske

47:47

olyan nagy nem is tudom hatása nem volt

47:50

az emberek életére, mint mint szerintem

47:52

ez most ha csak így tovább fűtsem itt a

47:55

hangulatot, hogy hogy ugye volt nagyon

47:58

nag nagyon híres volt.

48:00

>> Igen.

48:00

>> Pakolj rá még egy kicsit,

48:01

>> hogy ugye nag nagyon híres volt az

48:03

Antropiknak a ceója, aki egy kicsit fura

48:05

alak.

48:06

De kábé egy éve pont ezt nyilatkozta le,

48:08

hogy szerinte egy év múlva már nem fog

48:11

ember kézzel írni kódot. Most nyilván

48:13

mindig lesznek olyan helyek, ahol kézzel

48:16

írnak kódot, meg hogy autót is raknak

48:17

össze kézzel meg minden.

48:18

>> Nagyon remélem, hogy a különböző

48:20

rakétavezérlő szoftvereket soseájal

48:22

fogják írni. Nyilván meg, hogy ez egy

48:24

túza volt, de akkoriban mindenki

48:25

kiröhögte, és mindenki ott állt pislogva

48:28

év elején, hogy mióta használják még

48:30

egyszer ezeket az új modelleket, hogy

48:33

baker, ha nem is 100%, de 90%, hogy

48:35

tényleg majdnem ott tartunk, amit

48:36

mondott. Tehát egyébként az a vicces,

48:39

hogy ez ami emlékszem talán vele

48:41

csináltuk a vibe coding adást meg a

48:42

Mikivel

48:43

>> és akkor azért a VIPe coding egy ilyen a

48:46

szakma nagy része egy ilyen nem akarom

48:48

behozni most ebbe az adásba a VIP

48:50

codingot, de az is egy ilyen volt, hogy

48:51

így megmosolyogta mindenki, hogy ha vibe

48:54

coding és hát azért lássuk be, hogy

48:56

azért elég messzire elment ez a topik.

48:58

És hát most a kolléganőm Anna megidézem

49:01

mondja, hogy csinálta az apukájának egy

49:03

weblapot. azt mondja már frontend kész,

49:04

most a backenden dolgozok, de az Annan

49:06

nálunk PM és marketinggel foglalkozik.

49:08

És megnéztem, hogy mit csinált, és az

49:10

volt, hogy vow. Tehát ezek a Pistikék,

49:13

akik kis cégeknek gyártanak weblapokat,

49:18

hát nem lesz melójuk. Hát hogy hát ez

49:20

egy ez egy érdekes kérdés. Itt két

49:22

dolgot hoznék be. Ugye van ez a sokat

49:24

beszélnek erről a Twitteren, főleg van

49:26

ez a Jvon hatás nevű dolog, amiről nem

49:28

tudom, hogy hallottatok-e. Ez a Jevon,

49:30

ez egy angol ilyen közgazdász volt, de

49:33

150 évvel ezelőtt, amikor a gőzgépek

49:35

jött lemar róla. Mesélj. Na és akkor ő

49:38

volt az, aki azt nézte meg, hogy hogy a

49:41

gőzgépek egyre hatékonyabban működnek,

49:43

sokkal több munkát végeznek, és hogy a

49:45

szénfogyasztást ezt mennyire

49:47

befolyásolja, és rájött, hogy minél

49:50

olcsóbb a cucc, annál több fog kelleni

49:52

az embereknek, és hogy

49:53

>> és hogy ez vajon ide is hatá lehet, hogy

49:55

olcsó a holla, de még több fog kelleni.

49:57

Lehet, hogy most annyira lemegy a

49:59

belépési küszöb abba, hogy milyen

50:01

szoftvereket fejlesztünk, hogy még

50:03

nagyobb igény

50:04

>> bármire lehet szoftvert érni gyakorlat.

50:06

Senki nem tudja. Minden mindenki amúgy

50:07

találgat. De amúgy a a saját példám is

50:10

mondom érdekes, hogy még egyszer

50:11

visszanézhetitek az AI-os coding izét

50:15

demo DS videót. Mondtam, hogy én nem

50:17

nyúlok frontenthez. Azóta teljesen

50:20

>> azóta igen, de bocs, akkor

50:22

>> ez három hónapja volt, tudod, egy nagyon

50:24

egy emberöltővel ezelőtt. Igen. És most

50:27

olyan olyan stacket használok, amire pár

50:29

hónappal ezelőtt egyrész soha nem

50:31

gondoltam volna, hogy én full stack

50:33

Typecript kódokat fogok írogatni. De hát

50:35

jó, nem is én írom, hanem a clód, de

50:37

mindegy. Úgyhogy úgy ez de de nagyon

50:40

durva, hogy hogy működnek. És még

50:42

egyszer olyan olyan dolgokat meg

50:43

projekteket használok, hogy nem is

50:45

tudtam, hogy ezek léteznek. Ja,

50:46

>> de azokat is én mutattam neked. Nem,

50:48

>> egy részét. Igen.

50:50

>> Egész.

50:50

>> Ja. Ja. Tehát, hogy ezek szerintem

50:52

jönnek be. És még egyszer

50:53

>> most elapetőem az lesz, hogy a vendégek

50:55

is befelik egymást, mi is elkezdjük

50:57

majd.

50:57

>> Sőt, hogyha sokszor jönnek, akkor lehet

50:59

előbb-utóbb mi is elkezdjük őket. Na

51:01

>> jó, kicsit vigyük el az egészet most

51:02

erről a technológiai síkról egy kicsit

51:04

kicsit más irányba. Én felírtam magamnak

51:07

egy pillanat, csak itt utolírom magam a

51:08

programba, egy olyat, hogy hogy azon

51:11

gondolkodtam,

51:12

hogy hogy korábban a a magyar piacnak

51:15

ezt többször megénekeltük itt az

51:16

adásban, hogy általában van egy ilyen

51:18

fix három, vagy korábban volt egy fix

51:20

három-öt éves technológiai lemaradása.

51:23

Általában mindenbe bejön egy új

51:24

technológia, az Magyarországon így egy

51:26

jó nagy késeltetetés se jelenik meg.

51:29

Játsszunk el, ha már Kubernetes volt a

51:31

példa Kubernetesszel, amíg a Kubernetes

51:33

három éves volt, akkor igazából a piac

51:37

80%-a azt se tudta, hogy mi az a

51:39

kubernetesz,

51:41

és nem is használta. Ergo, boldogok a

51:43

világtalanok,

51:45

>> de ez nem csak Magyarországra igaz?

51:46

>> Igen. Most viszont az van, hogy ugye nem

51:48

használhatod a munkahelyeden, viszont

51:51

végignézed a két szép szemeddel ezt a

51:52

technológiai robbanást. hogy ez

51:54

egyébként valamennyire ilyen tök érdekes

51:56

tudatállapot, hogy igazából most eddig

51:58

az volt, hogy nem nem látod, hogy miről

52:00

maradsz le.

52:03

Jó, nem üvöltök rám szóltak itt. Tehát

52:05

eddig nem láttad nem láttad sokáig, hogy

52:07

miről maradsz le. Most viszont van egy

52:09

olyan, hogy végignézed, miközben a

52:11

munkahelyeden nem használod. Ez érdekes

52:14

dolgokat visz végbe a fejekbe szerintem

52:16

egyébként. Tehát, hogy hogy amúgy is

52:17

ugye több adás voltam, am megénekeltük

52:19

azt, hogy ugye az IT általos mentális

52:21

állapota vagy mentális egészsége az most

52:23

nem éppen a legjobb talán, mert mindenki

52:26

szorong ezért vagy azért. Ugye most vége

52:28

lett ennek a nagy felívelésnek és ugye

52:30

ez is behozza azt, hogy hogy még a

52:32

munkaeden ez nem jelenik meg, mi is

52:34

arról beszélünk itt, hogy ti itt egész

52:37

nap ezt használjátok. Tehát, hogy ez egy

52:39

érdekes érdekes helyzet, szerintem

52:41

nagyon más, mint korábban volt.

52:43

>> Szerintem pont ezért van egyébként, hogy

52:44

ez akkora robbanás és annyi tartalom

52:47

áramlik mindenfelé, hogy aki ezt nem,

52:50

hát nem azt mondom, hogy full time, de

52:52

hogy aki erre nem szán hatalmas

52:55

mennyiségű időt, az nem is tud mindent

52:56

követni ezekből. Nyilván azt mindenki

52:58

érzékeli, hogy hatalmas robbanás van,

53:01

hogy mindenki erről beszél, csomóan

53:03

használják,

53:06

hatalmas előrelépések vannak az

53:08

egészben, de szerintem mindent

53:10

egyszerűen nem tudnak követni az

53:12

emberek.

53:14

>> De nem is biztos, hogy mindent kell

53:15

követni még egyszer. Most csak

53:16

>> ezt mondott te-e, aki egyszer azt mondta

53:18

talán egy hete, hogy napim egy órát

53:20

követed az ilyen híreket Twitteren,

53:22

tehát hogy

53:23

>> egy órát minden mutas tudjam, hogy

53:25

>> mutass még öt öt embert, aki ezt

53:27

csinálja, hogy mondom te is ez vagy

53:29

akkor akkor már kettő.

53:32

>> De én már dolgozom az AI eszközön, ami

53:34

ezeket összefoglalja nekem

53:35

automatikusan.

53:36

>> Össze viipe kódolod, de szerintem a

53:38

Cloud Native Discordon tudnám sorolni

53:40

még a neveket, akik nagyjából ilyen

53:42

szinten rá vannak gyógyulva, és elég

53:43

sokan. És ugye itt eljutottunk nagyjából

53:45

az adás vége felé, hogy bedobtál még

53:47

itt, amikor az adásstervet írtuk egy

53:48

cikket, az AI a vámpír vagy valami

53:51

ilyesmi volt a címe. Ezt majd szépen

53:52

betesszük az adás leírásba, mert jó pofa

53:54

cikk volt. Ami meg azzal foglalkozott,

53:56

hogy hogy azok a viszont, mint ti, akik

53:59

ilyen early adopterek, azok

54:01

gyakorlatilag porrá égnek ebbe, merthogy

54:04

ezt a lelkesedést meddig tudjátok

54:06

fenntartani?

54:07

>> Nem erről szólt a cikk. Pontosan

54:08

szerintem nem egész teljesen ez egy

54:10

része volt.

54:11

>> Tehát hogy nem mi égünk Porlán, hanem

54:12

mindenki vá mindenki is.

54:15

>> Igen. Úgy ugye ezt a cikket egy Steve

54:18

Jegy nevű amúgy elég híres mérnök írta

54:20

amúgy. Most még azért is híres lett,

54:22

mert mert

54:23

>> megér

54:24

>> ő írta a vibe coding című könyvet, tehát

54:26

erre már könyv szól.

54:28

>> Ja, ez a fickó írta a

54:29

>> Igen, igen, hát legalább ké kétszerzője

54:31

van, de ő az egyik. És de amúgy egy egy

54:33

nagyon early engineer volt az az

54:35

Amazonnál, aztán átment a Google-ba, ott

54:37

lett elég híres, meg ilyen szerintem

54:39

nagyon magasra ker. Szóval amúgy ebbe a

54:42

szikon veli körökben mindenki ismér.

54:43

Szóval tényleg egy egy elég veteránarc,

54:46

aki sok mindent átért, és ő az, akinek

54:49

mondta, hogy amúgy már el akart menni n

54:51

nyugdíjba, de mióta kijöttek ezek a AI

54:54

kódoló dolgok, rájött, hogy ő ezt nagyon

54:57

szereti csinálni, tehát hogy újra így

54:59

nem tudom, egy ilyen lendületet kapott

55:01

az egész karrierjébe. Pereket akkor már

55:03

60 fölött van, mert hogy annyira tetszik

55:05

neki, hogy tényleg az ötleteit így meg

55:07

így meg tudja valósítani. Van egy pár

55:08

nagyon őrült projektje. Az egyik ez a

55:10

Guess Town, ahol hát képzeld el azt,

55:12

hogy ha ha jól tudom ő, akkor három vagy

55:15

négy ilyen 200 dolláros clód előfizetést

55:17

pörget egyszerre, mert az annyira

55:19

beutomatizál mindent, hogy ott már

55:21

egymással beszélgetnek az agentök, hogy

55:22

így mit lehet még hozzáadni featureként

55:25

ez a szoftverhezhez anélkül, hogy ő túl

55:27

sok mindent hozzászólal. Szóval, hogy az

55:29

már egy kicsit sok, meg az igazi

55:30

mérnökök azt mondják, hogy ilyenre

55:31

nincsen senkire szüksége. De a lényeg,

55:33

hogy azt mondta, hogy hogy ő látja magán

55:36

is ezt, meg a ismerősein, meg szerintem

55:39

mi is látjuk, hogy elkezdett használni

55:41

ezeket a cuccokat, és így elkap ez a

55:42

dopamin fröccs, hogy így leírod,

55:45

így nézed, hogy így pörög, és meg is

55:47

történik és működik. Besírsz, működik az

55:50

egész. És ezt így nyomod, és én is néha

55:51

így azon kaptam magam, hogy a gyerek izé

55:55

szól, hogy apa, nem tudok elaludni. És

55:57

akkor odafekszem mellé az ágyba a

55:59

laptopommal az ölembe esti 10-kor és

56:01

akkor

56:02

>> nyomom a promptót. Jó, azért nem nem

56:04

nagyon nagyon sokszor. Tehát hogy van ez

56:05

a tényleg szó szerint ilyen függőség és

56:08

másrészről ez az egyik, hogy szerintem

56:09

egy ember ilyen érdekes, mint mint ilyen

56:11

slot machine így tényleg így így így

56:13

jön, hogy ú még egy még egy promptot be

56:15

kell írjak, hogy hogy izé gyorsan, mert

56:17

különben nem haladok. Másrész szerintem

56:19

tényleg igaz, hogyha ha meg visszatérve

56:21

az enterprise meg meg ez hol lesz

56:23

izélve, hogy ha meg másrésze fölülről

56:25

jön ez a nyomás, hogyha valaki rájön,

56:27

hogy ó, ezzel tísz annyi kódot ki tudsz

56:31

köpni naponta, mint eddig, akkor légy

56:33

szíves köpjél ki tízszer annyi kódot

56:35

naponta, mint eddig. Az egy borzasztó

56:38

nagy nyomás, hogy hol van ennek így a

56:39

határa, és akkor mit nyerünk ezzel az

56:42

egésszel, ha csak nem tudom, ugyanazt

56:45

csináljuk egész nap, és csak pörgünk

56:46

promtok föl. De hát az, hogy te is egész

56:49

nap ezen kattogsz, ez ez érdekes lesz

56:51

mondjuk egy év múlva, egy év múlva

56:52

elhívjuk őket, és itt lesznek porráve.

56:55

>> A maradékem is kihullottak

56:57

>> meg il táskás táskás szemelkel őszjal,

57:00

>> de tényleg ez van. És kicsit olyan,

57:02

mintha nem tudom, mint valami fremium

57:04

játék lenne, hogy hogy mindig kell egy

57:06

új dopaminföcs, egy új egy egy új

57:08

feature, amit ki kell próbálnod és

57:09

satöbbi, satöbbi, csak ezt meddig lehet

57:11

fenntartani? Tehát, hogy senki se látja.

57:14

Az a az a az igazság, hogy mindenki

57:16

szerintem kint is azért nagyon-nagyon

57:17

sokan beszélnek erről, hogy hogy annyira

57:20

az elején vagyunk ennek még most is,

57:22

annyira csak a jéghegy csúcsát látjuk,

57:24

hogy nem nem tudjuk, hogy mi fog

57:26

történni. emberek így tippelnek ugye

57:28

erre, hogy tényleg ez lesz év végéig.

57:30

Most már szerintem szinte mindenki azt

57:32

mondja, akit én hallgatok, hogy hogy már

57:34

most is ugye vannak ezek a szorok, hogy

57:36

nagyon sok ember már nem is ír kézzel

57:38

kódot és mondom, ezek híres mérnökök,

57:40

tehát hogy nem az, hogy ilyen hobbi

57:42

projekteken dolgoznak, hanem a

57:43

production cuccokon, hogy hogy évvégéig

57:46

tényleg mintogyha eljutnánk oda, hogy

57:48

nem kell kezd kódot írni senkinek se, ha

57:51

nem akar, mert itt vannak ezek a cuccok

57:53

és megírják helyettük. De akkor mégis ki

57:55

mit fog csinálni, mi lesz a feladat?

57:57

Szóval nagyon nehéz kérdések ezek.

57:59

>> Azért adtam a végére, mert nem tudom,

58:00

tehát hogy hogy nem tudom, hogy mi mit

58:02

lehet erre ennek az adásnak a végére

58:03

mondani, hogy egyrészt ott van, hogy

58:05

hogy így a munkaerőpiacot gyakorlatilag

58:08

állva hagyta a technológiai fejlődés.

58:11

Akik benne vannak, azok mint a mérgezett

58:13

egerek így meg vannak hűlve. Ö lehet,

58:16

hogy te vágyod azt, hogy te is

58:17

bekapcsolódhatsz ebbe a v ebbe a

58:19

vérkeringésbe, de ha ilyen elvárosok

58:22

jönnek majd a munkáltatók oldaláról,

58:23

azok meg fognak őrülni, akkor

58:25

gyakorlatilag az a mentális állapot,

58:27

amiben most van a szakma, gyakorlatilag

58:29

az IT szakma gyakorlatilag így szét fog

58:31

égni gyakorlatilag és a tortül fölöttünk

58:34

az AI.

58:36

Hát és ugye az a probléma, hogy sokszor

58:39

ez egy ilyen felülrőlvezérelt dolog,

58:40

tehát nem arról van szó, hogy mérnökök

58:43

hirtelen el akarnak kezdeni clótot

58:45

használni mindenre, hanem sokszor ez egy

58:47

felülről lefelé nyomott dolog, merthogy

58:49

arról van szó, hogy látják, hogy az

58:52

ilyen idióták mi vinta a megyóval

58:53

állandóan AI-ról beszélünk, meg AI-t

58:56

használunk és hogy mennyivel több

58:58

innentunk csinálni. Ezért van szokott

59:01

ugye lenni ez a mondás, hogy ha ha egy

59:03

nő kilenc hónap alatt szül meg egy

59:05

gyereket, akkor kilenc nő egy hónap

59:06

alatt ki tudja hozni ugyanezt. És ugye

59:08

most nagyjából megint ez az elvárás kezd

59:11

jönni. Ugye azt már azt már tudjuk, hogy

59:13

a azt már megtanulta az ipar

59:15

szerencsére, hogyha összetolunk egy

59:17

csomó engineert, az nem fogja sokkal

59:19

hamarabb leszállítani ugyanzt a

59:20

szoftvert, de most megint ez az elvárás

59:23

kezd kialakulni felülről, hogy hát akkor

59:25

írjál tísel annyi kódot, és akkor tök jó

59:27

lesz minden. És ugye ebbe égnek ki az

59:30

emberek, hogy hogy ez az elvárás, ezt

59:32

fenntartani szerintem lehetetlen.

59:35

És ugye ebbe az egész high-ba való

59:37

bekerülés, ez szerintem egy biznis

59:39

szempontból rossz döntés, mert hogy ez

59:41

nem biztos, hogy feltétlenül mindent a

59:44

jó irányba visz. Tehát, hogy ez az, amit

59:46

szerintem és szerintem így lehet

59:47

lelassítani ezt, hogy azt kell

59:49

végiggondolnia, hogy ez biznis oldalról,

59:51

hogy most akkor holnaptól mindenki cló

59:53

kóddal fejlesszen. Ez egy jó döntése. És

59:56

hogyha azt nézed meg, hogy mérnöki

59:59

oldalról megközelítve, hogy lehet valami

60:00

újat bevezetni, csinálsz egy pocot,

60:03

pilot projekt, kipróbálod

60:05

és úgy skálázod fölfelé, ahogy látod,

60:07

hogy működik. Szerintem ez a jó módszere

60:10

annak, hogy hogy bevezessd az AI-t egy

60:12

organizációba.

60:14

Nem a felülről letoljuk az emberek

60:17

torkán. Ezt pontosan tudjuk egyébként,

60:19

hogy ez soha nem működik jól.

60:21

>> A nehéz része az szerintem valahogy ez

60:22

általában viszont szerintem mindig így

60:24

működik. Tehát amit mondasz, az egy

60:26

ideális világban, ez biztos így nézne

60:27

ki. De hogy végignézem

60:29

az evolúciót, így a technológiát

60:32

törésekben, szintén mindig az történt,

60:33

hogy általában nem az alulról jövő

60:36

kezdeményezés oldotta ezt meg, hanem a

60:37

felülről. Tehát ez egy nehéz rész, de a

60:40

pénz az általában nem alulról jön, hanem

60:42

felülről. És hogyha a CEO kitalálja,

60:44

hogy hát figy ez nagyon király. Amúgy

60:46

kevesebben engő is meg lehet oldani,

60:47

akkor gyorsan meglesz az AI first,

60:49

gyorsan adaptálódunk, aztán majd jön egy

60:51

cutövetkező negyedében, és a számok

60:53

hirtelen sokkal jobban néznek ki. Nem

60:55

baj az szerintem, hogyha van fölülről is

60:58

igény. Tehát valahol össze kell érjen az

61:00

a két dolog, de az, hogy föntről

61:02

lenyomunk valamit mindenkinek a torkán

61:04

lefelé, és olyan elvárásokat fogalmazunk

61:06

meg, ami teljesen irreális egyébként.

61:08

Na, ott ott félre megy ez de ez a piac

61:11

most egyébként ilyen. Hát az előző

61:13

podcast, bocs, nem az előző, hanem a

61:15

következő, csak ugye két órája vettük

61:18

fel, abbről beszéltünk, hogy hogy

61:20

gyakorlatilag most bármit lenyom a

61:22

munkától torkodón. Hát most igen,

61:24

>> meg az alulról jövő kezdeményezések

61:25

szerintem ebben a helyzetben azért van

61:27

elég nagy kockázata, tehát hogy én

61:30

szeretnék valamit behozni az

61:32

organizationbe, amitől én sokkal

61:34

hatékonyabb leszek, és egy ponttól

61:36

lehet, hogy én nem leszek az, akire

61:38

szükség lesz, vagy a mellettem ülő.

61:40

Tehát azért ez egy másfajta játék, mint

61:41

amikor public clouddal szerettem volna

61:43

játszani, amit majd aztán nekem kell

61:45

üzemelteni. Tök jó. Úgyhogy tőlem sose

61:47

fogtok megszabadulni, mert én voltam az

61:48

első, aki meg amúgy is foglalkozok vele

61:50

munkán kívül. Az egy tök az egy más

61:52

játék volt, mint amikor egy olyan dolgot

61:54

hozol be, ami potenciálisan

61:55

veszélyeztetheti a head countot,

61:57

márpedig jelenleg nyilab folyamatosan a

61:58

head count a topik mindenhol ez a head

62:00

topik, mert ugye általában minden tech

62:02

cégnek meg minden technel kapcsolatos

62:04

témának a legnagyobb cosztja az mindig

62:06

az emberi erőforrás volt. Mindig ez volt

62:08

a legnagyobb probléma. És hogyha

62:10

hirtelen tök jó, akkor elkezditek alul,

62:12

ez tök szuper. Hát ennyi kódot tudtok

62:13

generálni ilyen gyorsan, akkor nem kell

62:15

nekem ekkora csapat, akkor egy kisebb

62:16

csapat is elég lesz. Nem,

62:18

>> ezzel majd az fog segíteni, amikor majd

62:20

elkezdenek a horror sztorik bejönni,

62:21

hogy valaki megcsinálta ezt, hogy

62:23

leskálázta az organizációt, minden

62:25

kóddal írt, és aztán bedőlt a biznis,

62:27

mert egyébként

62:28

>> az a baj ebbe az egészben, hogy nem

62:30

biztos, hogy erre a helyzetre a korábbi

62:31

történeteket rá lehet húzni. Ebben nem

62:33

vagyok biztos egyébként

62:35

>> a tanulási görbére meg minden másra.

62:37

Tehát akármilyen kijelentést szeretnék

62:39

tenni a korábbiak függvényében, az

62:41

mindig felmerül bennem, de lehet, hogy

62:43

ez alapjaiban más, tehát hogy nem

62:45

húzhatók rá a korábbi sémák. Tehát én

62:48

nem tudom, nem egyszerűen nem látom,

62:49

hogy hova fog kifutni ez az egész.

62:51

Tehát, hogy az az ijesztő benne senki

62:53

nem látja.

62:53

>> Ezért hívtuk azt, hogy november 24-én

62:55

elírtuk az eseményhorizontot. Hát igen,

62:57

az még szerintem az csak egy belépő. A a

63:00

jó, hát a kinti másik dimenzióban

63:02

mindenki azt mondja, hogy ugye, hogy

63:04

innentől fognak csak begyorsulni az

63:06

események, és hogy Ja, és ugye, hogy

63:08

most csak ne azért, hogy itt a

63:10

hallgatók, akik döntően informatikusok

63:12

nem nem tudom, rezeljenek be, de hogy

63:14

ugyanezt mondják minden más knowledge

63:16

workre, hogy most csak azért azért van a

63:18

coding elől, mert nyilván informatikusok

63:20

fejlesztik a modelleket meg a izéket,

63:21

nyilván a saját problémájukat tudták

63:23

először megoldani, de már lehet most is

63:25

olvasni, hogy most már külön benchmarkok

63:28

vannak, amiket kiadnak ilyen fá Binance

63:29

Workre meg ilyen egyéb dolgokra, hogy

63:32

bizzok jók a modellek ebbe és hogyha

63:34

ugyanúgy rájössz pont és és az

63:35

Antropicnál ugyanezt mondták, hogy hogy

63:37

a cloud kódot

63:39

elkezdték látni, hogy a salsesek

63:41

használják a a terminálba futó izét, a

63:44

pénzügyesek, a nem tudom kik, és akkor

63:46

azért csinálták egy másik terméket, most

63:48

nem reklámozza őket, de van egy másik

63:49

termékük, ami szó szerint az így 10 nap

63:52

alatt írták.

63:53

>> Cowork vagy mi volt a neve? Ez a neve

63:55

Cork, ami kábé ugyanaz, ugyanaz az agent

63:58

van mögötte, csak nem kódra van

64:00

promptolva, hanem bármilyen knowledge

64:02

work csinálja. Prezit, igen, minden izé.

64:05

És hogy szó szerint mondták a csákók

64:06

leültek az a csapat ott 10 nap alatt

64:09

írták meg

64:11

0% emberi kóddal csak a cloud kód írta a

64:15

cover kódját és most ott tart kin van és

64:17

most nem akarok ilyen izével de

64:19

gyakorlatilag 100 millió dolláros

64:21

biznisz már most az a cucc mert annyian

64:23

használják

64:24

>> most már a második alkalom hogy van

64:25

ahogy az antropikot pusholod hogy

64:28

valamit visszaosz neked az antropik vagy

64:29

hogy van ez

64:30

>> nem az előző adásban pontosan nem az

64:32

előző adásb amit legutóbb vettünk Ott

64:34

pedig az volt, hogy felmerült bennünk,

64:36

hogy a fegyverlobbit képviseljük,

64:39

>> de várom a hívásukat.

64:40

>> És ingyenes tokenek.

64:42

>> Igen.

64:42

>> Ja, de tulajdonképpen ez most a 10ere,

64:44

mert ugyan azt vettük fel előbb, de az

64:46

fog kimenni később. Így van. A következő

64:48

adásban ki fog derülni, hogy ezért róla

64:49

a fegyverlobbi szolgálatába álltunk.

64:51

>> Így van.

64:52

Csak a azzal azzal akartam itt lecsapni

64:55

a dolgot, hogy most biztos nincs időnk

64:57

ebbe a podcastba, de amúgy egy 10 percet

64:59

tudnék rentelni arról, hogy amúgy nem

65:02

egy túl jó most ilyen cég vagy fényében

65:06

állnak. Tehát nagyon rossz lett nagyon

65:09

hirtelen a hírnevők, és csak az a

65:10

mákjuk, hogy nagyon jók a modelljeik,

65:13

mert amúgy ha egyszer kiesnek a

65:14

Pixisből, akkor nagyon rosszul fognak

65:16

járni, mert most ott kint senki nem

65:18

kedveli őket bizonyos dolgok miatt.

65:20

És akkor itt felírtam egy ilyet hetedik

65:22

pontnak. Ez nem volt rajta az előzetes

65:23

adásterv, amit átküldtem nektek, hogy

65:26

hogy szerintetek a

65:26

>> ez a meglepetés. Igen, igen, mert meg ez

65:28

a meglepetés, ez a bónusz, hogy

65:30

szerintetek az a kijelentés,

65:33

hogy hogy oké, most azt mondtuk, hogy

65:35

esemény horizont, ez egy nagy szó volt,

65:37

de egyébként akár oké is lehet, mert

65:39

ugye onnan már nincs visszatérés, hogy

65:42

paradigmaváltás van a

65:43

szoftverfejlesztésben.

65:46

Ez szerintem már egy idője tart, tehát

65:47

hogy most ugye arról beszélünk, hogy

65:49

esemény horizont, de nem ez volt az első

65:51

nagy ilyen ugrás. Tehát, hogy ez, ami

65:53

szerintem ezt az AI-t picit ijesztővé is

65:55

teszi, hogy ez már a sokadik ilyen nagy

65:57

ugrás. Tehát, hogyha belegondolunk abba,

65:59

hogy amikor kijött a talán a copilot

66:01

volt az első ilyen, még az első ilyen

66:04

alfáját is sikerült kipróbálnom, az

66:06

ilyen kis nagyon cuki volt még, hogy így

66:08

ki tudott egészíteni kódokat, de hogy

66:10

meg tudott egy játékot írni, de hogy

66:12

amúgy nagyon buta volt, de már az is egy

66:14

hatalmas ugrásnak számított, hogy ki

66:16

tudott egészíteni dolgokat magától.

66:18

Aztán ugye jött a a kurzor vagy cursor,

66:22

ahogy te mondtad itt,

66:25

ami már ugye magától tudott kódot

66:28

szerkeszteni. Még az elején az is kis

66:29

ilyen ilyen kis cuki volt, hogy így

66:31

ugrált ide-oda, és akkor úgy

66:33

szerkesztgette a kódot. De hogy már az

66:34

is egy hatalmas ugrásnak számított

66:36

szerintem itt a szoftverfejlesztésben.

66:39

Aztán eljött az, hogy most már nem a

66:40

kurzor volt, hanem egy csomó más editor

66:42

is tudott ilyeneket. Bele volt építve

66:44

már ez az agent sidebár.

66:47

onnantól kezdve már gyakorlatilag

66:50

minden nap lehetett használni az AI

66:51

kódírásra is. Hát ez egy ez egy újabb

66:53

hatalmas ugrás, nyilván

66:56

még hatalmasabb, mint a korábbiak, de

66:58

nem de pont emiatt nem tudjuk, hogy mi

67:00

az, ami a következő lesz ebből.

67:03

ezeket az exponenciális hatásokat

67:05

szerintem emelik ki ott kint is, hogy

67:06

nagyon begyorsultak a dolgok. És most

67:08

visszautálnék a nem az idei, hanem a

67:11

tavalyi évnyitótokra szerintem, ahol

67:13

pont a Benedek elmondta, hogy ó most már

67:16

ő is megvette a CSER licen és használja,

67:19

és már egész hasznosnak érzi volt ez

67:22

>> 2024 és most egész mást mondott. Igen.

67:25

És most meg ugye ott tartunk, hogy és

67:27

még egyszer sajnos ezt kell mondjam én

67:29

is, el fogunk jutni oda. Én nem hittem

67:32

volna ezt pár hónappal ezelő se, de el

67:33

fogunk odajutni, hogy nem kell kézzel

67:36

kódot írnod. Most ezt már én is tisztán

67:40

látom. És ez sajnálatos, vagy nem

67:41

sajnálatos? Jó, bocs, biztos lesz olyan

67:44

NS, ahol valaki ott fog ülni még egyszer

67:46

a Ferrát és kézzel rank rakják szeretés.

67:49

Igen, elnézést. De de azért

67:50

nagyon-nagyon szűk piac ez a piacnak a

67:52

nagy része a 98%-án.

67:54

Nem kell olyan feladatot csinálnod, hogy

67:56

leülsz és kódot írsz be, és ez szerintem

67:58

is borzasztó ijesztő, de el fogunk jutni

68:01

és szerintem

68:03

nagyon gyorsan el fogunk jutni, ami azt

68:05

jelenti, hogy szerintem már ahogy a

68:07

példákon látszik, már most is meg lehet

68:08

csinálni. kicsit beletanulsz

68:10

valószínűleg egy év múlva ilyenkor már

68:12

teljesen triviális lesz kérdés, hogy

68:14

akkor majd visszatérünk akkor.

68:15

>> Hát szerintem itt itt egyébként az

68:16

Enterprise adaption, amiről beszéltünk,

68:18

szerintem az a kulcs, tehát azt fogja

68:19

átszakítani. Ha az ott átszakad, akkor

68:21

akkor nagyjából szerintem ott eldőlt.

68:23

Márpedig nehéz azt látni, hogy ez itt

68:25

megállna. Tehát ennyi

68:26

>> ennyi pénz

68:27

>> pénz nem folyt még semmibe. Tehát most

68:29

lehet beszélni public cloudról, bármi,

68:31

ami korábban történt, ez dimenziókkal

68:33

más, ami történik, ezért biztos, hogy

68:35

meg fog történni. A kérdés szerintem az,

68:36

hogy mikor? Nem az, hogy szerintem az

68:38

egy év alatt még nem. Én nem hiszem,

68:40

hogy az az ilyen nagyon merev

68:42

környezetekben ez megtörténne, de

68:44

valószínűleg egy pár éven belül biztos.

68:46

És akkor az a kérdés, hogy ott mi

68:47

történik? Tehát ha az oda bemegy, mi

68:49

lesz az emberekkel, mi lesz az ő

68:51

tudásukkal, azt hova benchmarkolják

68:53

majd? Hát azok azok a nagy kérdések.

68:55

Tehát az

68:56

>> hát ha a Skynet nem veszi át addig a

68:57

hatalmat, akkor egy év múlva ugyaníg ne

68:59

menjünk, ne ne próbáljuk Pogit

69:02

megugrani.

69:05

Zér legyen a szokás, hogy mi mi a mi a

69:08

tanácsad az egyénnek, hogy mit kezdjen

69:11

el az egésszel, felüljön ennek a sok

69:13

hülyeségnek, amit összehordott itt a

69:14

Megyó meg a Mark, vagy vagy mondja azt,

69:17

hogy á

69:18

>> nekem egyébként tetszik ez a fajta

69:19

óvatos szint. Benedek eben egy ilyen

69:20

middle ground volt egyébként, hogy ő a

69:23

legelején így viszonylag szkeptikus

69:24

volt, aztán lassan elkezdett vele

69:26

foglalkozni, majd ő is bekerült egy

69:27

olyan közegbe, ahol nagyon sokan

69:29

használták meg, tényleg full céget

69:30

szinten használják, és akkor az így

69:32

átbillentette.

69:34

Szerintem a jó dolog az, hogy én úgy

69:35

érzem, és ebben nem nagyon lett más a

69:38

véleményem, hogy szerintem sok mindenről

69:40

nem maradt le, aki csak nem tudom,

69:42

végezte a day to munkáját, és ebbe nem

69:43

folyt bele. Tehát a jó dolog az, hogy ha

69:46

most valaki ennek nekimegy, valószínűleg

69:48

sokkal jobb élménye lesz, mint a két

69:49

évvel ezelőtt, mert ott nagyon sokan

69:51

kifaroltak, én emlékszem rá, és nekem is

69:52

van ismerem, hogy két év megmarett ez

69:54

egy fos, ennek semmi értelme és ment

69:56

vissza és gyakorlatilag vágja a fát

69:58

ugyanúgy rég.

69:58

>> Így van. Ez teljesen érthető. Bocs.

70:00

Tehát ez ez is egy izé, hogy akinek ez

70:01

volt az élménye, az most üljön vissza és

70:03

próbálja ki.

70:03

>> Tehát, hogy a jó dolog az, hogy

70:04

szerintem az élmény mindig jobb lesz

70:06

minden egyes ponton. Ma ma valószínűleg

70:08

király holnap még királyabb lesz, két év

70:09

múlva még jobb lesz. Ez egy tök jó

70:10

dolog.

70:11

>> Tehát akkor nem kell felülnöd, mert mi

70:13

tovább húzod, annál jobb lesz az egés.

70:15

>> Tehát a jó dolog az, hogyha most kezd

70:16

tényleg most vágsz bele, valószínűleg

70:18

sokkal jobb élmény lesz, mint valaha,

70:19

ami tök jó dolog. És mondjuk nem

70:21

nyomasztottad magad két éven belül. Van

70:22

elég dolog szintem, ami az embereket

70:24

nyomasztja. Nem kell még plusz dolgot

70:25

feltétlenül behúzni az életedbe.

70:27

Szerintem ez tök jó, hogy nagy arányban,

70:30

ha te egyébként a területeden belül

70:33

kompetens voltál, szerintem olyan sok

70:34

dologról nem feltétlenül maradtál le. Ha

70:36

csak nem nem tudom fél nem tudom

70:39

agenteket akarsz építeni, mert az egy

70:40

tök más téma, akkor nyilván az egy

70:42

nehezebb topik, de ha most nekimész,

70:44

szerintem ez egy tök jó élmény lesz, ami

70:46

szerintem nagyon király. És hogyha

70:47

tényleg te ezzel nem foglalkoztál két

70:49

évét, hogy annó volt egy rossz élményed.

70:51

Tök jó. Hát akkor most valóznűleg egy

70:53

sokkal jobb élményed lesz, mint mint

70:54

hogy két éve volt, de szerintem ez egy

70:56

tök szuper helyzet.

70:56

>> Javasoljuk mindenkinek, hogy egy 200

70:58

dollár ne bocs, ez

71:00

>> dobjon fel egy 200.

71:02

>> Én nem tudom pakoljak tehát tényleg

71:04

minek kuponja is akartam mondani, hogy

71:08

lehetni

71:10

>> nem van érzésem, hogy emelni akarja a

71:12

tétet.

71:12

>> Nem, nem azt azt akartam tényleg én is

71:14

mondani. Én most nem a nem a 200

71:15

dollárról tényleg, hanem hogy szó szó

71:17

szerint én mindenki csak bátorítani

71:19

tudok erre. Még egyszer, szerintem a

71:20

chat GPT semmit nem változott két éve.

71:22

Az ugyanaz, ha abból indulunk ki, akkor

71:25

semmit nem, hanem tényleg aki megteheti

71:27

szabad idejébe, mert azt megértem, hogy

71:29

a saját munkájában nem tudja mindenki

71:32

használni, meg ez máshogy működik, nem

71:33

lehet ezt pusholni, és egy banknál

71:35

dolgozom. Tehát ezt nyilván teljesen más

71:37

a kritikalitási szintje annak, ami

71:40

amiken én dolgozom, mint mint egy ilyen

71:43

egy ilyen enterprisean. De akkor aki

71:46

megteheti ezt, az tényleg csak egy

71:48

hónapra próbálja ki 20 dollárért bár

71:51

bármelyiket, de még csak nem is

71:52

reklámozok senkit. töc vagy a kodexet

71:55

vagy a cloud kódot és fejlesszem valamit

71:58

magának hobbiból vagy a feleségének vagy

72:01

a férjének vagy az unokatesójának vagy a

72:03

legjobb haverjának és meg fog döbbenni

72:06

szerintem hogy mennyire gyorsan megy. Én

72:09

ehhez annyit tennék hozzá, hogy biztos

72:11

mindenkinek van olyan problémája, vagy

72:14

olyan valami, amit szeretett volna

72:16

megoldani, de soha nem fogod hozzá,

72:18

merthogy áll ez túl sok idő. Tehát akár

72:20

egy bár bár egy egyszerű weboldalt

72:22

összerakni is, aki soha nem

72:24

frontendezett, annak hát most ebbe

72:26

tanuljak bele, most szélre szánjam rá az

72:27

időt, inkább nem. De hogyha valaki

72:30

elkezd egy ilyen eszközzel, csak egy pár

72:33

órát rászán, már most sokkal nagyobb

72:36

eredményt tud elérni, mintogyha magától

72:38

elkezdené ezeket megtanulni. És ez

72:40

szerintem

72:42

az is idő, mire eljut az ember ide, hogy

72:44

egyébként tényleg mennyi mindent rájön

72:46

az ember, hogy mennyi mindent meg lehet

72:48

oldani ezzel az eszközzel. Tehát hogyha

72:51

tehát ez szerintem egy jó belépési

72:53

szint, hogyha van egy olyan probléma,

72:55

amit szerettél volna, akár csak magadnak

72:57

megoldani, próbáld ki a és és

73:00

visszatartott eddig az, hogy nem értesz

73:02

hozzá túl sok idő. Ehhez tökéletes próba

73:06

lehet egy coding agent.

73:09

Legyen az árszó.

73:12

Találkozunk két hét múlva. Kicsit már

73:15

összekeveredtem, hogy melyik adással,

73:16

mert összevissza most felvettünk többet

73:18

is. Hogy van?

73:20

Lehet, hogy a következő inkább nem is

73:22

mondom,

73:22

>> most már fixeb, most már megbeszéltük,

73:24

hogy fix nem lehet.

73:25

>> Ja, igen,

73:25

>> mert hogy megvan az

73:26

>> az előző képzeljétek felvettük azt is,

73:28

hogy elmondtam, hogy ez a 76. Craft és

73:30

elvettük úgy is, hogy a 77. Craft, hogy

73:32

még nem tudjuk, hogy mi lesz a sorrend,

73:34

de az biztos, hogy március 27-én a

73:36

NResssel fogunk jönni még a választás

73:38

előtt.

73:38

>> Miért nem éjel csináljátok ezt

73:40

egyébként, hogy átmondjátok a számot?

73:44

Na

73:45

>> figyelj, ez egy kézműves content.

73:48

Mi még vágjuk a fát. Na,

73:49

>> így van. Így van. Így van.

73:52

>> Minket Igen. Péter is ragaszkodik a

73:55

melójához. Kövessetek be minket azon a

73:58

platformon, ahol éppen hallgattok

73:59

minket. És köszönjük szépen, hogy velünk

74:01

voltatok. Illetve nektek is köszi

74:02

srácok, hogy eljöttetek és itt a

74:03

lelkesedéseteket

74:05

átragasztottátok mindenkire. Aztán

74:07

lehet, hogy nem lelkesedést

74:08

ragasztottatok át, hanem

74:09

szétnyomasztottatok mindenki mást. És

74:11

lehet, hogy azzal tennék jót a világnak,

74:13

hogyha adásba se kerülnén ez.

74:15

Itt várnak kint paradicsommal a izénet.

74:17

>> Ne ne két hét múlva.

74:19

>> Két hét múl. Ajjaj.

74:21

>> Oké. Legyen ez a vége. Sziasztok.

74:22

Köszönjük.

74:23

>> Sziasztok.

Interactive Summary

Ez a 75. Crafty adás az AI technológia elmúlt három hónapos robbanásszerű fejlődésével foglalkozik, különös tekintettel a szoftverfejlesztésre. Kiemeli az Anthropic OPUS 4.5 modelljének megjelenését, mint fordulópontot, amely jelentősen autonómabbá és hatékonyabbá tette a kódgenerálást, lehetővé téve akár egész projektek fejlesztését is. Vendégek, Megyesi Péter és Sági Kazár Márk, saját tapasztalataikat osztják meg az AI használatáról éles környezetben, beleértve a magas költségeket és a Google Gemini modellek lemaradását. Az adás kitér az AI körüli hype kihívásaira, a kiégés veszélyére, a munkaerőpiaci valóságra és a technológiai adaptációt gátló szabályozási, jogi és kulturális különbségekre, különösen az enterprise szektorban. Tanácsként felmerül, hogy érdemes kipróbálni a fizetős AI kódgeneráló eszközöket hobbi projektekhez, még ha a munkaerőpiacon még nem is alapvető elvárás az AI ismerete.

Suggested questions

7 ready-made prompts