263. Studie från Anthropic: AI-assisterad kodning ger ingen tydlig produktivitetsvinst

Sofia (00:00)
Trots att de skrev all kod och därmed också rockade ut för massor av fel såklart, som de fick lösa på egen hand, vilket tar tid, så var de var de snabbare, de var snabbare än de allra flesta. Så i själva verket var det här arbetssättet som var snabbast när du använder AI.

Du lyssnar på Developers, podden där du får följa med oss, Sofia och Madde, på allt inom mjukvaruutveckling.

Madde (00:36)
Vi träffar spännande gäster, testar nya teknologier, söker inspiration och tar upp aktuella ämnen.

Sofia (00:44)
Jag berätta om att Trump Mobile skulle släppa en sån Trump-phone.

Madde (00:50)
Ja, den här guldiga historien.

Sofia (00:52)
Det såg ut som en guldtacka typ. Det var ju mycket... Det var ju typ utlovat när den skulle komma och sen försvann datumet från hemsidan igen. Och sen var det typ oklart vad det var för typ av mobil. var mycket så här spekulationer att så här, men det måste ju vara någon så här Android-lur, men vilken kommer det vara? Du kan ju typ köpa någon billig Android-lur från Kina och sen kan du sätta på egen...

Alltså just den här guldskalet. men typ, då är det lite svårt att identifiera vilken Andrew & Lure det var från början. Men den verkar ändå komma nu. Okej. Jag har inte så mycket mer att säga om det för att det finns fortfarande ingen telefon. Men det är roligt att gå in på hemsidan. Jag tänker att jag ska länka den. De kallar ju den här telefonen för så här, proudly American. Just det, var det som också var kul.

Madde (01:46)
så är det en Kina-telefon liksom.

Sofia (01:48)
Exakt.

Så de sätter väl bara ihop sista delarna i USA. Men det är ju bara Kina-grejer.

Madde (01:54)
Ja, typ allt jag gjorde.

Sofia (01:57)
Bara hela den här Trump Mobile hemsidan, alltså det ser på ut som en sån här scamsida. Du kan surfa in på den snabbt. Men det känns... Sök bara på typ Trump Mobile så kommer man in på deras... För det är en mobilapparatör också. Just det.

Madde (02:06)
Vad är adressen?

www.Trumpmobile.com

Sofia (02:18)
Det ser exklusivt ut. kändes stort tillförlit.

Madde (02:24)
Det första man ser är en bild på en man, typ en dressman-man. Men är så himla dålig bildkvalitet. Den är utklippt som att man har gjort det skitdåligt och skuggor. Det ju inte en bra bild. det ser ju väldigt ut som en skämsid.

Sofia (02:43)
Absolut. Har du scrollat ner också och kollat på den här mannen som står bredvid en bil som är helt så... Hur relaterar det? det mer ut som bilreklam eller... Och så är det bara glada män också överallt. Designed with American values in mind. Vad är det? Ja, okej.

Madde (03:08)
Shopping-suget i stort.

Sofia (03:10)
Vi tackar vår Patreon så att vi kan komma till något viktigare idag. Det är ganska kul ämne tycker jag.

Madde (03:17)
Stort tack till våra älskade stjärnsupporter som är Alicia, Anders Nylund, Björn Jonsson, brother, Dag Rönnell, Fyra Tre Johan Larsson, EZ, Kajetan Kazimierczak, Lars Nyström, Martin Haagen, Molly Haglund, Oskari, Per Nåtby, Robbin Modigh, Selim Hjorthall, Snel Hest och Tomas Nilsson

Sofia (03:36)
Ja,

och tack till er andra som faktiskt stöttar oss på Patreon. Ni är ju flera av dessa skönsreporters. Så idag så vill vi prata om en studie som släpptes från Anthropic. Och jag har ju sagt så här, du får inte läsa den. Det är roligare om jag berättar den. Den heter How AI impacts skill formation. Alltså hur AI påverkar färdighetsutveckling eller liksom skills.

Och det är lite kul att prata om förra veckan så pratade vi om OpenClaw. Som är verkligen så du behöver inte programmera alls längre. Så det här är lite så kontrast till det. Att du kanske... Jag vet inte vad jag ska tycka om allting. Men jag tänker att vi går igenom studien så får vi se vad vi känner efteråt. Men i alla fall liksom lite sammanfattningsvis. För att dra er in i det här resultaten. Alltså det här är folk från...

En tropic som jobbar med AI, som har gjort forskningen och resultaten pekar på att AI... Jag kommer kalla det för AI-assisterad kodning. Du fattar vad jag menar då.

Madde (04:48)
Ja, men agenter liknande och sånt.

Sofia (04:50)
Alltså att AI-assisterad kodning kanske inte ger den här produktivitetsboosten som... Jag vet inte, som vi hoppats på eller kanske alla de AI-företagen hållit på och säger liksom, du blir sju gånger snabbare. Och att AI-assisterad kodning kan ha ett pris i form av sämre inlärning. Det är inte jätteförvånande. Alltså vi har ju pratat om det här, men det här kommer faktiskt forskning på det. Så, idag tycker jag att vi...

dyker ner i studien och kollar vad de faktiskt gjorde och hittade. Och jag ska börja med ett stolt säga att jag har läst studien. Alltså jag har inte sammanfattat den med köttkripte. Jag har läst den. För det var någonting som var lite intressant för jag försökte, jag tog PDFen och så matade jag in den i köttkripte och så försökte jag liksom fråga om den och förstå den.

Jag märker ju redan där att du vet när du gör på det sättet så tar inte du in och kan inte reflektera på samma sätt som om man faktiskt läser någonting själv.

Madde (05:56)
Jag menar, är det ju.

Sofia (05:58)
Så det kändes som ännu ett bevis på något sätt.

Madde (06:04)
Men en fråga bara innan du kör igång. Du sa att de har studerat och hur man... Just när det gäller AI, assisterad kodning. Var det enda fokuset i studien eller kunde man... Hade man forskat även på hur det är till exempel med att kunna författa texter eller allmänt tänkande själv?

Sofia (06:25)
Nej, utan det här är verkligen bara hur det påverkar när du lär dig nykodfärdighet. Jag kan förklara, själva studien gick till. Om man vill läsa den själv så finns det länkad. Om du har gått på universitet så är du van vid. Det är en vanlig rapport med diskussionsdel och abstrakt och vad jag där är. Och den är inte så lång, så därför går det att sig igenom den verkligen. Så hur gick den till?

Då var det Judy Hanwin Chen och Alex Tamkin, förlåt för jag uttalar era namn, på Antropics som satt ihop ett experiment för att mäta hur AI-assisterad, eller AI-assistans påverkar hur vi lär oss nya kodfärdigheter. De rekryterade ungefär 50 utvecklare, så inte en jättestor grupp, men det här är en kvalitativ undersökning, tänker jag. 50 personer med varierande erfarenheter.

Alla hade åtminstone testat AI-verktyg någon gång tidigare, så det var inte helt nytt för dem. Och alla fick samma uppgift att lösa. Att lära sig ett nytt Python-bibliotek för asynkronprogrammering. Det här biblioteket heter Trio. Jag har ingen aning om vad det är för någonting. Du kanske kände igen det?

Madde (07:43)
Nej, det gör jag faktiskt inte.

Sofia (07:45)
Jag tänker väl att de tog någonting som kanske inte alla som kan Python känner till. Poängen här är att lära sig någonting nytt. Så de skulle använda Trio och de skulle lösa ett par uppgifter med det. Tricket här var att halva gänget fick använda en chatbaserad kodassistent. I det här fallet baserad på GPT4. Integrerad i en editor. Alltså typ så här du har VS Code och så har du...

och den kunde ha kontext om deras kod och andra halvan fick klara sig helt utan AI. Alla deltagare fick lite instruktioner och de fick dokumentation om det här triobiblioteket. Så ganska såhär, det man brukade ha innan AI eller hur. Du du gick in på hemsidan och så var det såhär, här är dokumentationen för det här, kör hårt.

Madde (08:45)
God dag!

Sofia (08:46)
Ja, kanske. De skulle sen försöka läsa två stycken kodproblem. AI-gruppen kunde fråga sin chatbot om hjälp, alltså typ hur man gör saker, be om kodexempel, få förklaringar, hur de vill. är ju fritt. Och kontrollgruppen som inte har AI fick enbart förlita sig på sina egna färdigheter och dokumentationer som de hade. Så, första uppgiften var en slags uppvärmning och andra uppgiften var hela...

huvuduppgiften. Och de hade en tidsgräns på 35 minuter för huvuduppgiften. Och efter att de har gjort uppgifterna så fick alla göra ett kunskaps quiz på typ 27 frågor, tror jag det var, som testar hur väl de har lärt sig det här triobiblioteket. De frågade dem om koncept, alltså förstår de hur saker faktiskt fungerar, debugging, kan de typ berätta

som visar de kodexempel kan de rätta den här koden. Och kan de läsa och förstå kod i det här nya biblioteket. Och quizresultatet användes som deras mått på inlärningen. Vilken kompetens har du efter det här. Samtidigt så mätter de också hur snabbt de löste quizsuppgifterna. Om du använder AI så kanske du är mycket snabbare i quizset och svarar rätt.

Madde (10:12)
Men jag antar att de inte fick använda AI för att svara på kvisset.

Sofia (10:15)
Nej, det tror jag inte. Nej, det var det. Det var det fusk. Ja, precis. De ville testa inlärningen. Hur mycket förstår du nu? Så jag tycker det går att översätta till typ hur mycket kan jag om den här studien efter att jag läst den? Så, de viktigaste resultaten, det finns mer att läsa, läs hela om ni vill. Men för det första då, att använda AI-assistenten...

Madde (10:19)
ska sluta av hela grejen.

Sofia (10:44)
gjorde inte att folk blev snabbare. Åtminstone inte på ett signifikant sätt. Det är lite oväntat skulle jag ändå säga med tanke på en siffra när vi har sett att du blir snabbare och det här är folk med erfarenhet.

Madde (10:58)
Det beror på att det var nåt nytt som de inte använt tidigare och liknande. För i vissa fall kan man göra en tagning och snabbare. Det beror väldigt på vad det är behöver implementera.

Sofia (11:11)
Ja, ja men, här, båda grupperna tog ungefär lika lång tid på sig i snitt att lösa uppgifterna. Det hade inte jag ändå tänkt. Så några detaljer som jag har plockat ut. Bland de mest orfärna, då såg man en liten tendens att AI kanske kunde snabba upp dem en aning. Men underlag, de var bara 50 personer och jag vet inte hur många här som var orfärna. Underlaget är inte så stort, men ändå...

Och i kontrollgruppen, alltså de här som var utan AI, så var det fyra personer som inte hade klart inom tidsgränsen. Medan i AI-gruppen så hann alla lösa uppgiften inom tiden. Så AI-en hjälpte liksom alla att komma i mål. Men trots det så var genomsnittstiden för de som hade AI ungefär samma för de som var utan, alltså som hann i tid.

Med andra ord, man ser ju inte ett signifikant produktivitetslyft, trots att AI-assistenten faktiskt kunde generera hela lösningen om man bad om det. Det är du. Så varför tjänar de ingen tid på det? För att vissa av de här personerna var ju så skriv hela skiten åt mig. Det visar sig att själva interaktionen med AI slukade massa tid. Alltså att de satt och skrev...

De skulle ge kontext. vet själv, man ska berätta så himla mycket grejer. Sen ska du läsa igenom, en svar, kanske fixa en liten misstag. Allt det här tar tid. Ibland nästan lika mycket tid som att bara sätta sig och skriva koden själv. Forskare såg till exempel att några deltagare, det var en person som la sex minuter på att formulera en enda fråga. Det är ganska mycket tid ändå.

För andra då, som var intressant här. De som använde AI lärde sig markant verkligen mindre av den här nya tekniken, det här biblioteket. När man mätte quizresultatet sen såg man verkligen en signifikant skillnad i hur AI-gruppen presterade. Ungefär 17 procent lägre poäng i genomsnitt. Det låter lite, men det är ganska stort.

när det är genomsnittet. Så det tyder på att de som har fått hjälp av AI har inte suget in lika mycket kunskap. De klarar uppgiften, men förstår sedan när ytan saknas. Och sedan när man bryter ner quizet i olika delar så ser man också att det som tog störst stryk, det var just debugging-färdigheterna. Alltså att förmågan att kunna sedan felsöka och förstå buggar, den var klart sämre hos AI-gruppen.

Och jag tänker att, jag skiter i att du inte skrev koden själv. Men sen när den går sönder så kommer du inte att fatta vad. Och det känns ändå som en ganska viktig grej.

Madde (14:17)
Ja, det är lite skrämande faktiskt. Jag kan inte säga jag är förvånad. Det vet jag själv när man har använt AI. Det klart att man inte förstår det på samma sätt som om du själv hade hittat lösningen i dokumentationen. För då har du själv dragit en slutsats. Men intressant att det är just debuggningsförmågan eller felsökningsförmågan som tar stryk. För let's face it, är ganska stor del av arbetet att kunna felsöka.

Sofia (14:45)
Ja, det är det som verkligen spelar roll ofta. Att kunna hitta ett fel och liksom rädda en affär från att... Ja, du fattar. De skrev också när de analyserade det här att varför var de så dåliga på att hitta och fixa fel. Och det är troligen för att de utan AI, de var ju tvungna att köra huvudet in i väggen några gånger. Att möta felmeddelarna och fundera ut lösningar själva.

De fick redan öva sin feldsökningsmuskel i det här biblioteket. Och AI-gänget de fick ofta hjälp från AI direkt när de satt på fel. AI kanske bara gav dem rätt kod, pekade ut lösningen. De behövde inte själva analysera problemet. Så den här konceptuella förståelsen, hur väl de begrep biblioteket och kodläsning blir sämre då, eller var sämre för dem.

Det jag också plockar med mig var intressant för det är inte bara så men du använde AI därför kommer din inlärning vara sämre och du som inte använde AI din är bättre. Det är inte så. Så de liksom hittade en nyans i det här och de märkte att deltagarna såklart använde AI på massa olika sätt. Det var inte några regler kring hur man gjorde det så de kunde identifiera sexyliga typ så här användarpersonas.

De tycker att vi kan gå igenom så kommer man att känna igen sig hur man använder det. Eller typ känna att jag ska börja göra lite mer så här. Okej, så vi har först de som använder AI. Då är det tre stycken här. Eller förlåt, det är inte de som... Det är de mer negativa sättena att använda AI. Och vi har nummer ett som är AI-delegering.

Den här gruppen var fyra personer. De lät AI göra i princip allt. De skrev ingen kod alls. De beskrev problemet för AI och så kopierade de in AI's lösning rakt av. Det känns väldigt mycket så. Kla.ai. Eller vad är det Nej, det var ju inte Kla.ai. Det var ju du som sa fel i förra avsnittet. Kla.ai. Open Kla. Open Kla.

Madde (17:09)
Open Klock.

Sofia (17:13)
Den här gruppen som bara liksom copypastar, de var snabbast av alla på att bli klara. Det inte jättekonstigt. De stötte på väldigt få fel under vägen. Det låter bra också. Airen gav ofta rätt svar direkt. Men deras quizresultat var i botten. Inte så chokerande om man bara copypastar. Nej, lösningen. Då fastnar inte jättemycket upp i hjärnkontoret kanske. Nummer två då.

Vi har progressivt AI-beroende, kallar de det. Lite kul. Även här, fyra personer. De börjar med att försöka lösa det lite själva, de försöker ställa enstaka frågor, men gradvis så gled de över in i att AI fick göra mer och mer. Kanske så skrev de början av koden själva, men sen blev det jobbigt och då lät de AI ta över helt. Resultaten blev att de klarade uppgiften, men på quizet så presterade de dåligt.

Speciellt på frågor som var i den senare delen av uppgiften. För det var den senare delen av uppgiften där de slutade förstå saker överhuvudtaget. de hoppade av sitt egna lärande halvverk, kan man säga. Det känner jag igen mig också när bara felsöker. Sen blir man så himla trött för det är bara... Just det, nej det buggar tror jag mest. slut orkar jag inte läsa felmeddelanden här längre.

Sen har vi nummer tre, iterativ AI debugging. Också fyra personer. De skrev en hel del kod själva, men så fort de fick fel eller buck så vände de sig till AI för att försöka fixa felet. Precis där kände jag igen mig kanske. Varje gång något blir fel, då kopierar du felmeddelandet in i chatten och säger hjälp mig. Och AI ger dig en lösning, de implementerar den, det kanske blir fel igen, tillbaka till AI igen.

De här deltagarna ställde många frågor, men de använde AI mer som en krycka än att tillförlita sig helt på den. Så det är lite skillnad. De fick ganska låga quizpoäng och intressant nog så gick det inte fort för dem heller, även fast de ändå använde AI för att lösa felen.

Det är för att alla de här turen fram och tillbaka till AI-in tog nog tid. de var bland de långsammare. Och en liten ironisk grej. De använde AI-in jättemycket och är inte effektiva. Så det kan man ta med sig. När du använder AI-in jättemycket till debugging.

och tror att du är duktig för att du skriver under koden själv så blir det inte mer effektivt. Så det kanske är snabbare att bara tänka lite själv ibland. Det tänker inte jag på i alla fall när jag blir trött i huvudet.

Madde (20:14)
Eller hur? Hittills är det nog den jag känner igen mig mest i. Den sista.

Sofia (20:19)
Ja, så tror man ser en så här, man ser ett tema här. Så om det har tung AI-användning så blir det snabbt klart, men det är USL-inlärning. Eller om du använder AI för varje liten grej så blir det ju varken snabb eller lär dig någonting. Så de här tre första personas kallade forskarna för lågpoängsmönster, de handlade i snitt mindre än 40 procent rätt i quizet.

Så här är de absolut sämsta. Så här börjar de mer positiva strategierna. Nummer fyra, generering följt av förståelse. Här är det bara två personer, så väldigt liten grupp. De använde AI på så sätt att de bad först AI generera en kodsnutt eller en lösning och sedan stannade de upp och försökte förstå själva koden. De kunde till och be AI om förklaringar efterhand, typ så här, okej du går av med den här koden, kan du förklara varför du gjorde så här?

De här deltagarna kopierade och klistrade in i koden, men de gjorde inte det helt blind. De följde upp med att kolla hur den här koden fungerade. Det här innebär att det tog längre tid för dem än för dem som bara kopierade rakt av. De skulle såklart pausa och läsa, men de presterade bra på quizet. De hängde med i koncepten. Det roliga är att...

Det här mönstret ser i princip ut som den här AI-delegeringsgruppen om man tittar på koden. För det är ju samma kod som den här nummer ett som bara skifflade, alltså bara copy-paster. Men skillnaden är att de förstår ju vad som händer. Så om du tittar på någon som bara sitter och gör så, så kanske man inte ska vara snabb att döma då på någon som använder AI väldigt mycket.

Sedan har vi nummer fem då. Det är hybrid kodförklaring. Det tre personer. Och här tog de en liknande approach fast de... De var liksom redan i sina prompts. Så bad de A i en om kod och sen sa de liksom, och jag vill ha en förklaring typ. Kan du skriva funktionen X åt mig? Samtidigt förklara hur lösningen fungerar. Så du får kod och en liten lektion.

Jag tycker det här är väldigt samma sak, men de satt och läste igenom förklaringen noggrant och implementerade koden. Det här tog också extra tid, för det var väldigt mycket att läsa. Men lärandemässigt så klarar de sig också fint. Sedan har vi den sista då, det är konceptuell frågeställning. Sju personer, den största subgruppen. Den här tycker jag är intressant. De här deltagarna använder överhuvudtaget inte AI för att

få färdig kod.

Istället ställde de bara konceptuella frågor till AI-en. Till exempel, kan du förklara hur man vanligtvis hanterar concurrency i trio? Eller typ, jag får det här felmeddelandet, vad betyder det? Så de fick förklaringar, fick hints från AI om koncepten, sen skrev de all kod själva. Det är ändå intressant, för tycker att under AI spottar ofta ut koder, om man inte har bett om det. Men det funkar i det här fallet.

Så kort sagt, de använder AI som en lärare typ. Eller typ som Stack Overflow, där är det verkligen inget som är bara inpastat. Och inte som en kodgenerator. Och vad blev resultatet här då? De här personerna lärde sig såklart allra mest. Deras quizresultat var i toppen. Det inte så konstigt, de gjorde jobbet själva.

medhandledning, så det här var nog säkert det bästa sättet att lära sig. Och den här häpnadsveckande delen i det här. Trots att de skrev all kod och därmed också rockade ut för massor av fel såklart, som de fick lösa på egen hand, vilket tar tid, så var de de de var de snabbare, de var snabbare än de allra flesta. Så i själva verket var det här arbetssättet som var

snabbast när du använder AI.

Madde (24:51)
Uke Winsanten då?

Sofia (24:53)
Och jag ska ändå säga att de som använde AI totalt, bara delegerat allt, de var snabbast och det här var det näst snabbaste. Men du ville kanske inte vara den som bara copy-pastade för du fattar ingenting. Så ja, använd AI men kämpa själv. Så kommer du att komma ut med kunskap och snabbhet. Jag tycker det är ganska imponerande i alla fall.

Madde (25:19)
Ja, väldigt intressant styr det faktiskt. Jag gillar verkligen de här olika AI-användningspersonas. Någonting som gjorde mig lite glad är för att jag var ganska länge motståndare till att använda AI. Sen var jag i Mammaledi och allt sånt också så blev jag aldrig av riktigt att testa det. Men hela det här med så här, agentic-coding och sånt har ju varit sjukt sen på vold med. Och det är typ först bara de senaste...

tre månaderna kanske som jag har börjat testa på det för det har pushats ganska mycket på jobbet att vi ska prova på och så. Och jag liksom känt på att, jag vet inte, det känns inte helt hundra. Jag har ju mycket mer, från den perioden att jag slutade vara dinosaurier och faktiskt började testa att använda AI till att jag började testa agent decoding så har jag nog mest varit den sista personen, alltså den här använda AI som bollplank. Och det tycker jag ändå har funkat bra, men har känt lite så här typ, oj, är dålig som inte använder liksom...

agentic coding och liknande. Men nu känns det ändå lite bra att, okej, då kanske jag ska göra det ändå. Då är jag snabbast och jag lär mig mest.

Sofia (26:28)
Ja, ja men jag... jättebra tycker jag. Jag tycker att det är själv bästa sättet. Jag känner igen mig i alla de här. Alltså det beror på hur trött jag är och hur lite jag förstår. Eller hur? Jag tror att alla har gjort allting här. Men absolut att man känner sig när man bara ställer frågor så är man ju mest säker. Men jag undrar lite om inte det är så att de som gjorde det på det här sista sättet var inte också...

De som kanske är bäst på att koda, kanske är mest seniora, som är mest bekväma med att plugga upp nya språk. Jag vet inte. Men det känns lite som det. Jag har faktiskt även sett väldigt seniora personer, bara generera väldigt mycket kod. Ja, det är väldigt oerhört.

Madde (27:18)
Det

är lite kul för vi fick en lyssnarfråga eller ett lyssnar- mail på detta ämnet igår. Jag vet inte om du ens hunnit se det men jag tänkte jag kan bara dra det lite snabbt också för att det är väldigt relaterat. En av våra lyssnare som heter Daniel som skrev typ så här, det vore kul att höra lite om era erfarenheter och tankar kring AI-agent och verktyg som Cloud Code, Codex, CLI och liknande. Har ni kommit i stadighet att AI skriver majoriteten av era kod?

Och så berättar han att deras team började med Claude Code för sex månader sen och har kommit till stadiet nu att Claude skriver typ mer än 95 % av koden. Och det ett häftigt skifte. Vissa av hans kollegor tycker det är tråkigt. Och själv tycker han det är ganska skönt att slippa läsa API-dokumentation och rätta syntaxfel och sånt. Så han var lite såhär, vad tycker ni om detta? Skulle ni sakna att skriva koden för hand? Men jag har flera kollegor också som har utforskat Claude Code.

Sofia (27:54)
Oj,

Madde (28:14)
och har blivit väldigt effektiva. Men det vore ju intressant att testa dem hur mycket de verkligen kan då. Alltså, quizsa dem lite. Förstår ni vad ni har implementerat?

Sofia (28:26)
Jag tror absolut att det funkar om du är bekväm med språket. Du kan väldigt snabbt se om du vet vad du vill ha. Det funkar ju. Jag är bara intresserad av hur hela tiden har kommit upp till 95 %. Om det fanns folk som tyckte det var tråkigt. Du blir ju inte snabbare av det, bevisligen, om du ändå kan korda. Du måste ju inte använda AI då, om du är snabb nog.

Men det kanske är så att de har någon som pushar dem att göra det.

Madde (29:01)
kan vara. Nåt incitament finns det ju säkert. ja, någonstans tycker jag det är lite kul med hantverket att skriva kod också. Sen ibland, beroende på hur trött man är såklart kan det vara skönt att ha någon som gör det åt den också. jag vet inte, jag ska inte säga att jag är helt anti det. Men jag är inte helt före och bara outsorrar sig totalt heller.

Sofia (29:24)
Jag skulle säga att jag tycker det är fullständigt onödigt att sitta och skriva nån sån, jag vet inte, ett interface eller bara liksom, du vet, skelettet till saker. Eller enklare implementationer. Eller liksom när jag säger vad jag vill göra och jag ser att det blir rätt direkt. varför... Nej. Det är ganska få delar i koden som faktiskt kräver att jag är där. Och ibland så kanske...

Jag behöver ge skelettet. Så att A1 ser vad jag är ute efter eller liksom om sidokod. Så jag tycker det bra med mer någon slags mix. Jag tror inte det är hela fel att sitta och koda för hand och fortsätta göra det om man är... Om man är tillräckligt snabb. Alltså det finns ett värde i att ha den här grundkunskapen även om... Jag tror i fall även om fem år att vi inte skriver kod alls. Så...

Du är ändå värdefull som ingenjör om du förstår hur det fungerar under the hood, alltid.

Madde (30:27)
Såklart, för alltid. Exakt.

Sofia (30:30)
Ja, också att du förstår, kanske om det uppstår ett performanceproblem, att du kan förstå vart i koden det är. Visst, du kanske har hjälp att vara i. Det är svårt att förutsäga hur det kommer att funka, men det finns ingenting dåligt med det alls. Snarare kanske bara bra. Men det är lite svårt att, alltså när man läser en sådan här studie och blir såhaha, man lär sig inget ändå.

Jag tycker det är svårt i kontrast till det här som visar att du behöver inte förstå kod. Det räcker med att AIN skriver den. Varför skulle du... Om du inte kan prestera på ett quiz om hur ett bibliotek fungerar, spelar ingen roll om tre-fem år. Det lite det tycker är svårt. Måste alla verkligen kunna förstå hur det fungerar under ytan? Eller kan det vara de som bara är...

ledande ingenjörer och sånt. Räcker inte...

Madde (31:33)
Nej, nej visst.

intressant.

Sofia (31:38)
Ja, jag kommer länka till Reddit-råden där jag också hittar den här posten. Det är alltid roligt att läsa folk så här... Det är blandat av skadeglädje till skepsis till exensis... Ja fan, exen... Exen, alltid. Alltså sådana funderingar.

Madde (31:57)
Existential.

Sofia (32:01)
Jag tänkte upp några guldkorn, men det är mycket roligare att läsa sånt själv. Det finns mer i studien som är intressanta. var typ att de som inte fick använda AI försökte göra det ändå. Flera gånger om. Läs dig själva.

Madde (32:21)
Ja, nej det ska jag göra. Nu när jag får.

Sofia (32:24)
Ja, bra. Vi hörs nästa vecka.

Madde (32:31)
Vi har vi, tjena då!

Skapare och gäster

Madeleine Schönemann
Värd
Madeleine Schönemann
Madde är en riktig allrounder! Hon har haft många roliga och lärorika roller inom branschen, som utvecklare, scrum master, product manager, konferensarrangör och föreläsare på flera olika evenemang. Programmering ligger henne varmt om hjärtat och hennes stora glädje är att tillsammans med sitt team leverera produkter som gör verklig skillnad för användarna.
Sofia Larsson
Värd
Sofia Larsson
Sofia är en erfaren utvecklare som tycker om att vara en del av produktupptäcktsfasen och skapa effektiva lösningar med användaren i fokus. Hon har ett starkt engagemang för digital hållbarhet och i sin roll som Digital Sustanability Competence Lead jobbar hon för att öka det digitala mijömedvetandet. LinkedIn
image of podcast supporter image of podcast supporter image of podcast supporter image of podcast supporter image of podcast supporter
Bli en av 38 supportrar