266. Meta ser allt. Nu vill Pentagon det också.
Madde (00:00)
Det allt från personer som gått på toa till de ser folk som har sex. De ser liksom folks kortuppgifter, folk som tittar på porr. Det är så sjukt intima saker som de ser. De berättar att det ska finnas en algoritm som typ blurrar ansikten. Det funkar liksom inte så bra som man har trott.
Sofia (00:26)
Du lyssnar på Developers, podden där du får följa med oss, Sia och Madde på allt inom mjukföroutveckling.
Madde (00:33)
Vi träffar spännande gäster, testar nya teknologier, söker inspiration och tar upp aktuella ämnen.
Jag har ett litet tips om ett git-kommando som inte jag i alla fall har använt innan. Jag vet inte. Kanske jag som är jättescen på bollen eller någonting. Jag är nyfiken på om du har kört det någon gång. Det 2020 lärdes det till i en git-version.
Sofia (00:57)
Det brukar jag redan säga till Januari. Jag
använder bara saker från 2016. Men okej, kör. Kanske.
Madde (01:07)
Det är alla fall att göra fix-up-commits. De frågade mig det när jag började på mitt jobb. Eller de sa att vi brukar jobba med fix-ups. Så tänkte jag, ja okej, när man gör en interaktiv rebase så kan du ju vilja fix-up. Ja, men lite som det, fast det är ju i efterhand att du kan byta ordning och göra fix-ups. Så jag bara, ja ja, men det gör jag. Men sen visar att det finns något annat. det är typ så att du har gjort en PR och gjort massa grejer.
Sofia (01:21)
Det var mänd.
Madde (01:36)
Och sen så är det någon som kodgranskar den. Och så säger de, ja men du borde fixa, byta namn på den här metoden till exempel. Så gör du det. Och i vanliga fall, det jag hade gjort då är ju att jag hade typ så här, ja men jag hade typ rebasat och sen hade jag behövt force pusha detta för att det skulle liksom, snyggt i historiken och allting. Men det som är så himla smart med att göra fix-up-commits är att då kopierar du bara idet på den kommitten som du vill lägga till det på.
Istället för att göra ett nytt commit med den så skriver du bara git commit dash dash fixup och idet. Då läggs den som en ny commit fast det står typ fixup for och commit idet. Sen pushar du det helt vanligt. När personen ska reviewa igen så ser ju de det som en egen commit så det mycket lättare än att behöva kolla tillbaka. Har de verkligen fixat det? måste leta upp det git och allting och sånt. Så det ligger som en egen commit och sedan kör man på och reviewar och när man är klar
Då gör man bara git-re-bass-auto-scorch. Då scorchas allting ihop och blir fint och snyggt man ville ha det från första början. är faktiskt sjukt nimt.
Sofia (02:51)
Ja, kolla här. Den får en sån här fix-up-flagga typ. Men är det bara om man skriver typ så gitlogicelit så man ser det då? För det är ingenting man ser typ i GitHub, tror jag.
Madde (03:03)
Men innan du merger branschen så gör du autosquash. Då kommer allting squashas ihop. Då blir det samma princip som när du gör en interaktivare base och väljer fix up. kommer den att trycka ihop dessa två kommitsen och du kommer bara se original kommitten.
Sofia (03:18)
Mm, mm, tror jag fattar det. Det vore kul att testa.
Madde (03:22)
Mm, jag kan verkligen rekommendera det. Slipper man det här med att på och pusha på en bransch som är remote och allting. Det ska man egentligen inte göra men...
Sofia (03:29)
Nej
men det är snyggt ändå när det är... Jag tycker ändå det är värt att att man jobbar på någon feature länge och någon säger så men fixa det här, fixa det här, fixa det här. Då tycker jag fortfarande att man kan hålla historiken clean för att sen kommer... Alltså, sen får man slutreview och då är det ändå skönt att det är tydligt vad som har hänt än. Du vet så här, folk som lägger till tusen fix-ups, man kan typ inte reviewa det till slut.
Madde (03:59)
Så det ett nice tips att kolla in i alla fall. Jag tycker det funkar smidigt.
Sofia (04:02)
Ja, kul tips. Och innan vi tackar Patrons ursäkta att jag låter såhär. Nu har ju du låtit så tusen gånger, men nu har jag blivit småbarnsförälder, så nu... För fan. Nu är det som ska låta såhär i tre år.
Madde (04:19)
Jag var faktiskt förkyld i veckan också men det var superkort varigt. Det var bara typ två, tre dagar så det var skönt.
Sofia (04:25)
Du är väl autoimmun nu? Nej, så heter det autoimmun. Jag fattar att Ja, du är immun mot allt.
Madde (04:36)
Men det är det okej. Du får snurbla lite.
Sofia (04:38)
Ja, men jag tänker att du får tacka Skönsreporterna så slipper de ha en sån nasalavtackning.
Madde (04:45)
Okej.
Först och främst så har vi en ny stjärnsupporter. Woho!
Sofia (04:51)
Just det, Anders. Det skrev han till och med om på Linkedink.
Madde (04:56)
Ja, jättefint inlägg. Anders Åbjörn ska vi säga. Han har faktiskt varit stjärnsreporter i... Jag röta bli tredje vecka nu. Men vi har förinspelat några avsnitt för att du var i vägspanningen och lite sånt göttigt.
Sofia (05:11)
Ja, vi ska tipsa om att han har en egen podd så att jag kan länka till något Spotify-avsnitt i avsnittsbeskrivningen. Så kan ni in och lyssna.
Madde (05:20)
Gör det. Så stort tack till dig Anders och tack till våra andra stjärnsupportrar förstås som är Alicia, Anders Nylund
Sofia (05:27)
Åh, vad gud! Jag ser namnen. Okej, läs.
Madde (05:30)
Bajskorv. Äntligen fick Sofia sin bajskorv. Som du har längtat.
Sofia (05:38)
Men det är bara så himla Sofia-specifikt också. Sånt där tycker jag är kul.
Madde (05:44)
Björn Jonsson, Brother, Dag Rönnell, Fyra Tre Johan Larsson, EZ, Kajetan Kazimierczak, Lars Nyström, Martin Haagen, Molly Haglund, Oskari, Per Nåtby, Robbin Modigh, Selim Hjorthall, och Tomas Nilsson
Sofia (05:56)
Okej, måste vi markera det här som explicit på innehåll nu?
Madde (06:03)
Jag tror att bajskorven är okej faktiskt.
Sofia (06:06)
Ja.
Madde (06:08)
Okej, vad ska vi prata om idag? Nu blir det så här från skratt och flamps till det lite mörkare.
Sofia (06:15)
Alla samma.
Det är en massa saker som händer i världen såklart, men i AI-världen specifikt, som absolut går ihop med alla hemskheter som händer i världen samtidigt. Alltså krig och AI tillsammans. Det känns som att vi behöver prata om det för att det är en typ viktig, historisk händelse.
hur den tekniken kommer in och påverkar om världen på ett helt annat sätt.
Madde (06:46)
Ja men eller hur? Det har ju varit mycket nyheter. Det första jag vill prata lite om faktiskt, det har ju för sig inte med Keg att göra, men det fortfarande ganska mörkt tycker jag.
Sofia (06:58)
Aj och privacy liksom varför så många av de här företagen har pratat om typ... För jag tror inte det alla som har insett såhär, varför håller de på att prata om AI safety och sånt där. Överdriver de inte lite och typ som Trump skrev på X. Nu var det här om det är antropik och pentagon-dramat men han skrev typ såhär att antropik är så himla woke liksom och överdriver allting. Det här är precis det de pratar om på början på det.
Madde (07:28)
Ja.
Sofia (07:28)
Ja,
men kör. Det här är intressant.
Madde (07:30)
Ja, jag tror det var förra veckan, eller kanske till och med denna veckan var det nog, så publicerade Svenska Dagbladet tillsammans med Göteborgsposten ett ganska stort reportage som de hade gjort om de här Metaglases. Alltså de här Metaglases gjort glasögon tillsammans med Ray-Ban som är intelligenta och har AI och du kan filma med dem och dit är nåt att den. Och på något sätt så blev jag inte jätteschockad när jag läste artikeln så.
Samtidigt som det ändå är skrämmande. Men jag tänker att vi ska gå igenom lite vad de faktiskt kom fram till. Journalisterna på Svenska Dagbladet och GP har tillsammans med en journalist i Kenya gjort detta stora reportaget. Just för att detta är mycket centrerat kring Nairobi i Kenya. är nämligen så att folk där sitter uppradade i en stor fabrik och tränar
AI-system. De kallas för data annotators. det är liksom... Jag tror att många glömmer det här att bakom alla stora TIC-företag och bakom alla AI-satsningar så är det så mycket manuellt arbete. Och ofta liksom så här i låginkomstländer. Det är liksom lågavlönat. är ganska mörkt.
Machine learning är liksom inte så intelligent som man tror, utan det är faktiskt någon som också sitter och tränar modellerna och säger, det här är en lampa, det här är en skog.
Sofia (09:07)
Tack. Ja, är
mycket typ studenter också som bara sitter och betar av allt som ser ut som bransleckor och sånt där.
Madde (09:17)
Ja, men visst. Och det kommer jag ihåg när på min gamla kunn så jobbade vi med värmeväxlare. Och då hade vi ju byggt en AI-modell. Inte jag, men ett annat team. Och då fick ju de liksom sitta och rita in så här, vad är en värmeväxlare? Vad är en koh typ? Men ja. Nej, så det är ju så här att Meta har en underleverantör i Kenya som heter Sama. Och då har man intervjuat mer än 30 stycken som arbetar där.
Och de har ju varit anonyma förstås, om det hade kommit fram att de hade berättat det här så hade ju de blivit av med jobbet direkt. Och jag vet inte, säkert värre saker också. Man vet aldrig. Och de är liksom så här, det är sjukt obekvämt att genomföra vårt jobb. Vi sitter och tittar på videos, det är omöjligt att folk vet om att detta spelas in. De har liksom berättat att det allt från personer som gått på toa till att...
De ser folk som har sex. De ser liksom folks kortuppgifter. Folk som sitter och tittar på porr. Alltså det är så sjukt intima saker som de ser.
Sofia (10:25)
Nu pratar vi om att Metaglasögonen spelar in video och så sitter Meta och typ bearbetar den för att förbättra sin AI för igenkänning. Det är de som får sitta och glo på det.
Madde (10:38)
Exakt. Och förvisso så ska det ju finnas någon form av... De berättar att det ska finnas en algoritm som typ så här blurrar ansikten så att inte man ska kunna se vem det är och liknande men den funkar inte alltid. Alltså som alltid så är det svårt då. Är det dåligt ljus kanske så dyker det plötsligt upp ett ansikt och liknande. Så det funkar liksom inte så bra som man har trott.
Sofia (11:02)
Så att det...
Madde (11:03)
De är liksom så här, det här är sjukt konstigt. Så rapporterna har ju gått till återförsäljare i Sverige. Här är det mest typ Synsam och Synoptik som säljer dem. Och så några få, vad säger man, oberoende optiker. Men de satsar ju då på Synsam och Synoptik. Så de besökte tio stycken handlar i Göteborg och Stockholm. Och frågade just så här, hur hanteras datan i glasögonen?
De fick väldigt olika svar beroende på vem de frågade. Antagligen för att de inte riktigt vet. Någon säljare sa att det inte någonting som delas med meta. Någon annan sa att det inte är något meta. Någon tredje sa att det sparas bara lokalt i appen. är ingenting som skickas vidare och så vidare. Vilket då inte stämmer. De köpte ett par glasvagon, testade och började installera dem. Försöker verkligen opta ut från allting som har med...
Sofia (11:52)
Mm.
Madde (12:04)
AI och dela data och göra. Men de testade, det var så kul artikeln, de bara, vi fick hjälp av en systemutvecklare från Svenska Dagbladet som analyserade nätverkstrafiken och såg ju att det skickas mycket data till olika metaserver.
Sofia (12:23)
Mm.
Madde (12:24)
När de försökte ha glasögonen igång utan att ha anslut till wifi så promptade de hela tiden att ha tillgång till wifi. Tydligt att det var nånting konstigt där. De analyserade privacy-polisin. Där står att dataprocessning kan ske. Man ska vara försiktig med att dela data som man inte vill att nån annan ska se.
Men det är nog få ändå som förstår att det handlar om att det är riktiga människor som sitter och tittar på det. Och de har ju pratat lite med förut anställda på Meta. Som också har varit väldigt försiktiga med att uttala sig för att de är rädda för att de ska få konsekvenser av det. Men de menar ju på att ingen känslig data ska användas för att träna och de nämner just det här med att ansikterna ska blurras men som inte funkar så bra som de ska. Och då tänker jag typ så här, hur kan det hända att folk filmar sånt här ändå liksom?
Ett exempelartikel var att någon hade ställt sina glasögon på sängbordet och sedan hade personens fru kommit ut och duschade naken. Det är ju uppenbart inte meningen typ. Men ja, man kan välja att filma med dem, absolut. Men det som inte riktigt har framgått är att när du använder AI-funktionerna, så har de ju så här, säger hej, Meta, som säger allting, för att fråga AI. Då automatiskt startas en inspelning som då skickas.
för analys. Och det är nog det här som de flesta har missat.
Sofia (13:52)
Det är ju så lätt tror jag för den att typ höra fel eller råka vara på lite för länge. Alltså hur vet man när den slutar lyssna?
Madde (14:00)
Jaja, verkligen. Det är svårt att tänka mig att någon, eller man vet ju aldrig, någon som bara hej Meta, mitt i akten liksom. Men jag vet ju själv, min son har ju lyckats starta att i flera gånger när han säger någonting och sånt. Så det är verkligen inte omöjligt.
Sofia (14:16)
Min katt heter Siri, det är ett komplicerat liv här hemma.
Madde (14:18)
Hejs!
Ja, det förstår jag. Siri, nu ska vi äta. Okej, jag har övrigt lager.
Sofia (14:23)
Ja
Det blir ett problem på en helt annan nivå. Jag ibland tänkt så här, om min mobil spelar in mig hela tiden så sitter jag på toaletten typ. bara, men hur intressant är det för dem att se golvet medan jag sitter på tå och surfar eller något sånt. Men glasögon är ju någonting du är beroende av att ha i ditt ansikte. Och det är väldigt svårt, för du köper ju dem för att ersätta dina vanliga glasögon. Det därför de är så populära, för det är ett fantastiskt verktyg.
Jag tror att vi har pratat om innan hur mycket det har hjälpt folk som är till exempel synskadade eller helt blinda så är det väldigt smidigt verktyg att ha i fejan. Och då kan ju inte du bara ta av dig dem i en privat situation. Om du tittar på pornografi, vet inte hur många som gör det på en storbildstv fem meter bort nu för tiden. Det känns som något folk gör på telefonen eller en skärm.
Men om du gör det så behöver du ha glasögon för att se.
Jag vet inte om du får tala om det här, du och jag har inte hunnit prata om det men det känns ju väldigt relaterat att Meta, jag ska säga fel, den 13 februari så kom det en rapport från New York Times om att Meta hade skickat ett internt, jag vet inte om det var ett dokument eller så, en mail som kom ut från Metas Reality Labs division. Det är alltså samma som jobbar med det här.
tror i alla fall, det borde det vara. alla fall. Citatet som skakade alla var att de skrev att vi kommer lansera en ny feature. Nu när det är en så de kallar det During a dynamic political environment, where many civil society groups that we would expect to attack us would have their resources focused on other concerns.
Alltså 13 februari när vi har pågångande krig och oroligheter i världen. Just då de tänker att smart vi passar på att lansera en ny feature. Och vilken feature är det? Det är kul när vi snackar om ansiktsigenkänning här. Featuren är att de planerade att lansera ansiktsigenkänning. För de sitter ju på en enorm databas av liksom okej ditt ansikte hör ihop med profilen Mandelén Tjörneman och all data om dig.
Ja. Så de kallar den här funktionen för nametag. Alltså skitbra. Vem vill inte ha den egentligen? Men det är bara tyvärr så är det.
Madde (17:09)
Vad innebär
Sofia (17:12)
Tänk att du är på... Fest kanske inte är lika viktigt men de jag hört prata om det, så tänker folk som rör sig i typ politiska sammanhang, träffar väldigt mycket folk, så är det väldigt viktigt att komma ihåg ansikten och namn och vem det är.
Madde (17:28)
Okej, så jag sa, du
har känt igen, han börjar känna igen. Du ska hälsa på honom.
Sofia (17:34)
Precis, ofta har ju sådana viktiga personer med sig, typ en assistent som kanske viskar deras öraren, Mandelena, tycker om det här och ni sågs förra året på en golf-turnering. Alltså typ så. Det är väldigt viktigt för vissa personer att ha det här. Eller om, till exempel som i det här fallet så ville de typ lansera det som ett tillgänglighetshjälpmedel för
Jag tror att det var en konferens för synskadade. Så igen, assbra accessibility feature, eller hur? Men ja... Som allt annat.
Madde (18:14)
kan ju missbrukas. Hela
formuleringen var väldigt...
Sofia (18:20)
Det här är en databas över liksom, människors ansikten så att du bara kan känna igen den. Det är bara så himla kontroversiellt att det är sjukt. De lanserade det aldrig. Men det illustrerar liksom hur...
Alltså att det kan se så fint och snällt ut för de tänkte gå ut med det på den här konferensen. Men internt så pratar man till och med så här ganska öppet att nu är det bra att lansera det för de här grupperna kommer inte orka fokusera på oss eller det kommer drunkna i nyhetsfrödet.
Madde (18:53)
Ja, det
är lite sjukt. Alltså, jag har alltid varit ganska chill med min egen data på något sätt. Hur ska jag förklara? När folk har pratat om att det är jättedömt att man kan bli avlyssnad och det inte något att än så vara så Jag har ingenting att dölja, vad spelar det för roll? Men jag har verkligen blivit mer och mer antiretta på senare tid.
Kanske just för AI och träning och allt sånt här och all riktad reklama som man inte ens fattar är riktad. Jag har verkligen börjat inse hur skrämmande är, hur mycket data företagen äger om mig. Jag har faktiskt bytt till Proton nu förresten. Jag håller på att försöka migrera över alla. är ett jättejobb. Och uppdatera e-mailen överallt. Så det har börjat med.
Sofia (19:47)
Men säger ni någonting om det? tror att det är för er som är intresserade att byta från amerikanska stora bolag.
Madde (19:53)
Ja, men jag kände det. har varit så himla mycket... Jag vill inte lägga alla mina ägg i USA-korgen. För att man vet inte vad som händer. Jag pratade om det för några avsnitt sen. var ju det här spiken i kistan blev. Att de hade stängt av location. Och jag blev så lackfattad. Min data som jag faktiskt ville ha försvann. Så då började jag titta på... Okej. Byta till Proton. Proton, man inte känner till det, det ett schweiziskt bolag som har byggt... Ja, men först var det mail.
Men de har ju kalender, de har en drive, så du kan ladda upp filer och foton. De har en sån här... vad heter det? Alltså Key Vault, heter det så. Lösenordshanterar, det väl det svenska ordet. Så det har jag också migrerat till istället för använda One Password. De har en authenticator, allt man behöver typ. Så det är faktiskt väldigt nice. Och inte särskilt dyrt heller, kostar typ 50 spänn i månaden eller något.
Det inte så jättemycket utrymme i driven då. Vill man ha mer så får man tala mer. Men det är ju vad det kostar liksom för de allra flesta sådana tjänster också. Så det tycker jag sjukt värt det. De har ju jättestrikta lagar, de sparar ingenting och så vidare. man är väldigt skyddad. Krypterade mail och allt. att, kan rekommendera.
Sofia (21:16)
Jättebra tips, jag ska faktiskt också kolla på det. Jag tycker folk ska verkligen tänka till en extra gång om det här. För precis som du säger, vad har jag och dölja när jag sitter på toaletten? Eller vad har jag dölja när jag rör mig på stan? Jag ska bara gå och köpa en tröja. Men det är liksom din rättighet att röra dig i samhället utan att bli inspelad. Tänk om du går på en demonstration för någonting du tycker är viktigt. Och sen byter du politiskt...
väldigt stort skifte i politiken och du som gick på en sån här, jag vet, när du kanske protesterar någonting, Palestina, Israel, på någon av de sidorna ens, så kanske du inte kan få jobb sedan i framtiden för att det är lätt att slå upp var du var. Jag har tänkt mer på det nu när jag har barn. Jag tycker det jättesvårt för folk laddar upp bilder på sina barn och det finns folk som tycker att man inte ska ladda upp när de är jättesmå.
och vänta tills de är större eller tvärtom vilket jag har så svårt att ta ställning till. Jag förstår inte någon av de här argumenten för att det ska vara mer okej när de är typ 14 och samtidigt har jag tänkt att när de är bebisar så spelar väl ingen roll alls. är liksom inte ens en människa.
Madde (22:32)
Det är
väldigt olika ut när de är bebisar och när de blir lite större.
Sofia (22:35)
Ja, är liksom vem bryr sig om att man satt i en blöja på någon bild eller det spelar liksom ingen roll. Det finns väldigt få som tror jag också tittar på pornografi med liksom ettåriga barn. Det oftast inte det som är.
Madde (22:51)
Nej men på riktigt, det finns sjuka människor.
Sofia (22:53)
Det
finns sjuka människor. liksom... Ja. Men det ändå så här... Som jag förstår det... Så kommer ändå plattformarna att träna på de bilderna nu på ett helt annat sätt. Och sen kan du typ aldrig äga den i data själv. Allt ägs av... Alltså, ligger på Metaservera då. Om du lägger upp en bild på Instagram. Det är omöjligt att få bort. Och vi vet inte var... Var är vi om 15 år? Har vi typ... Visst, så här... Skadan har ni ju...
som har vi gjort redan själva med våra uppgifter. Men vad betyder det för våra barn? Ja, folk som lägger upp barn som kanske har en annan sexuell läggning eller någon sjukdom. Många skriver ju typ om ett barn som har svårigheter, autism eller diabetes. Alltså vad som helst. Det där kommer ju att vara kvar och kanske användas. Försäkring, alltså ja, precis. Vad som helst.
Madde (23:50)
Ja, nej det är inte läskigt. Jag känner också mer och att jag inte vill lägga upp någonting om mitt barn. Just för... Alltså man kan ju generera helt sjuka grejer med AI. Jag vill inte att någon ska göra något sånt. Alltså... Nej.
Sofia (24:05)
Ja,
och allt är geotaggat. Det är väldigt lätt att pussela ihop en bild av var barnet går på dagis. Men ingen parent shaming heller. Jag har lagt upp två för att det är så himla svårt.
Madde (24:11)
Ja, ja, nej.
Nej, nej,
bilder på mitt barn också.
Man vill ju skryta om sin gullunge.
Sofia (24:31)
Ja men eller liksom jag har typ 150 följare och jag känner alla. Det är kul om folk som inte umgås med dagligen vet att jag har fått ett barn liksom. Men då kan man istället faktiskt skicka tipset typ så använd signal, använd i-message för att de sparar inte ner de här bilderna.
Madde (24:52)
Eller telegram. Jag vill också kryptera och allting.
Sofia (24:56)
Ja, och undvik bilder till exempel där det syns tydligt, alltså ansiktet på barnet. För det kan man göra. Det försökte jag typ, du ser att barnet där men det kanske inte är här rakt framifrån.
Madde (25:09)
Nej, det är svårt. Det är hemskt att man ska behöva tänka på det, men så är det ju.
Sofia (25:13)
Ja. Men ska vi gå över till det andra som jag pågått typ 2-3 veckor?
Madde (25:21)
Du touchade ju lite på det. är dramat mellan Pentagon och Anthropic.
Sofia (25:30)
och open eye-en jag. Som blandas in i sista sekundet.
Madde (25:34)
Ja
exakt. Om man har missat det. Det hela började ju med att Anthropic gick ut med att man har... De har ju skrivit en pressrelease kring detta. Eller det var ju till och med Dario, vdn, som skrev här är vårt statement. De har gjort samarbeten med amerikanska försvarsmyndigheterna. De var ändå stolta och ville trycka på att de har varit till mötesgående och hjälpsamma. Men att det är i...
Febrari, marsdag 2026 uppstod en konflikt mellan Anthropic och krigsdepartementet, alltså Pentagon. I grunden så handlar ju den här konflikten om hur man vill använda AI i militära sammanhang. Då har ju Anthropic varit striktat att vi kommer inte tillåta att vår AI används dels för att finnas i helt autonoma vapen.
Vapen som kan attackera mål utan att det är en människa bakom som kontrollerar. De har också sagt att de kommer inte tillåta deras AI att finnas i massövervakning av den egna befolkningen. I synnerhet då amerikanska medborgare. Anthropik menar att detta är etiskt problematiskt och tekniskt riskabelt. Man vet ju, kan en AI verkligen skilja på en skola med barn?
Någonting annat. Alltså så här.
Sofia (27:05)
Det går alltid att lura den liksom.
Madde (27:08)
Pentagon och andra sidan tyckte att leverantörer ska inte begränsa den dagliga användning av teknik i militären. Och Trump är ju Trump som vanligt. Hans, hans liksom...
Sofia (27:25)
Men vänta, ska vi bara stanna där vid laglig användning? För jag tycker det är typ det som är tjänan i hela debatten. Det har ju, för de som inte har koll, jag vet inte om det här är självklart, men USA har inte några, liksom moderna privacy, vad heter det, privacy-lagar. Privatlagar, är det inte så. Men ja, du fattar.
Madde (27:52)
En
GDPR och liknande, menar du?
Sofia (27:54)
Ja, de här lagarna är jättegamla. Så det är stora hål i dem och det det som till exempel gör, det har nog de flesta hört för det, rapporterats på nyheterna. Nu sa vi till exempel att kontrollera sociala medieprofiler på alla som försöker sätta oss in i landet. Som du står över gränsen och de ser att du skriver massa hat om USA och alltså, ja. Så kan de gå in och göra det. Och nu krävs det...
Manuella handlpåläggning för att göra det. Nu påverkar det inte amerikanska medborgare. Men det finns massa hål så att du faktiskt kan övervaka dem också på det sättet. Det finns massa hål i det och nu behöver en person sitta och göra det. Kanske med hjälp av någon datorteknik. Men här kan du göra det liksom blicksnappt. Vad ska man säga? Automatiskt bara.
på alla det som ansiktet på. Precis det vi pratade om med Meta också. har ansiktsigenkänning kopplat ihop med deras profil. Du vet allt om personen. Det det de inte vill stå för. att om de redan har sett det hålet där och vi ser ju hur långt den här. Men även, andra amerikanska regeringar på andra sidan har gått. Alltså de har ju alltid utnyttjat alla såna här kryphål och gjort sådana här typ av övervakning. Så är inte bara Trump. Men han går ju kanske lite längre.
Så är det det man är rädd för ska hända.
Madde (29:27)
Ja, men bra förtydligande. Det jag tycker är så ironiskt i allt det här är ju typ så här... USA vill bara ha TikTok för att TikTok ägs av Kina... eller TikTok ägs av ByteDance och de behöver ju typ så här... Kina har rätt att plocka ut data om de vill ha det liksom. Vad är egentligen skillnaden här? Alltså det är ju typ samma sak egentligen. vill göra det. De vill kunna hämta ut data om erbårigare. Så är ju väldigt liksom... Hippokratiskt.
Sofia (29:57)
Ja, det är inget heller som... Ja, och de säger så här... De säger, men vi erbjuder Anthropic ett kontrakt där vi visst säger att vi inte ska använda deras modeller till massa övervakning. Vi följer lagen. Men staten följer samma lag som alla andra bolag som kan köpa stora sätt med data om folk. Alltså precis som Meta kan köpa all info om dig och sen rikta kampanjer mot dig.
så kan den amerikanska staten också göra det och du kan göra så mycket med de här modellerna då. Det har nog diskuterats typ så här, men man kan då sätta in restriktioner i modellen. Jag tror att det det Open AI har sagt, att vi bygger in restriktioner i modellen som gör det inte kommer gå. Men det är ju omöjligt för modellen ändå att veta var datan kommer ifrån. Är den här olagligt inhämtad eller är det här helt okej data? Hur ska du veta?
Madde (30:30)
Nu är vi ständigt.
Nej, nej allihör. Och hur många gånger har vi ännu inte sett folk lyckas ta sig runt diverse begränsningar i modeller? Men nej, vi måste ju också nämna Trump och hans reaktion på det. det är helt sjukt. Han har ju skrivit en post på X, den som du refererar till. Han kallade Antropic for woke. Han inleder det här, han skriver liksom i capslock. Skriver han såhär, The United States of America will never allow a radical lift.
Sofia (31:01)
Ja,
Madde (31:25)
Wow company to dictate how our great military fights and wins wars. Och sen bara fortsätter det liksom. Cracker ur sig. Det är liksom the left wing nut jobs at Anthropic. liksom. Alltså det är så sjuka formuleringar. bara tappar hakan över att en offentlig person får skriva på det här sättet. Alltså det är så. Nu kommer vi bli bammade. Vi kommer aldrig få åka till USA. Vi har pratat om det här.
Sofia (31:52)
Precis som vår ansikten överallt.
Ja, men det är sjukt och de sa att det var i hans ex-post som han kallade Anthropic för en supply chain risk.
Madde (32:11)
Eller
om det var nåt statement mer officiellt, tror jag.
Sofia (32:14)
Ja,
jag tror att det var först typ att han bara sa det och så visste ingen... ...är det här seriöst eller ett skämt för det här påverkar antropik väldigt mycket för att... Det som hände tidigare, alltså redan i somras så skrev de på ett kontrakt med Pentagon. Och de har kontrakt med massa andra amerikanska departement om att de får använda deras modeller. Men om de ses som en supply chain risk så betyder det att de får inte ha kontrakt med några...
Myndigheter alls. Ja, myndigheter. Och det är också, det är verkligen ett sätt att döda bolaget. Så det var väldigt så här, det kom aldrig något officiellt men jag tror att sen så gick väl försvarsministern Pete Hegsett ut och var lite mer... Alltså... Ja men... Jag vet faktiskt inte. Det är fortfarande att man väntar på att förstå om det är en supply chain risk eller inte. Så det var obehagligt. Men ja.
Madde (32:51)
Verkligen.
Sofia (33:13)
Samma dag då som Pentagon eller någon där gick ut och sa att det här blir ingen deal. hände då?
Madde (33:20)
Ja, har ju OpenAI gått med på en deal med Pentagon. Där de skriver ett jättefint pressmeddelande att de samarbetar med Pentagon och ja, som du sa, de arbetar runt det här och så vidare och så vidare. Men någonstans, alltså vem som ens som kan tänka tänker typ så här, om Antropic inte fick lov att liksom vara kvar som leverantör för att de vägrar att använda det i autonoma vapen eller för massa övervakning.
tycker Rosh Open AI att det är okej. Alltså det är den slutsatsen man drar.
Sofia (33:54)
Ja, den här dagen på morgonen så går Sam Altman ut och säger officiellt att OpenAI delar Anthropics red lines. Det här överskrider vi inte och några timmar senare så är affären klar och det det som är så sjukt.
Madde (34:16)
Ja, det har ju startat världens våg nu av folk som ragekvittar, tjat KBT och allting och liksom... Jag vet inte, det jättemånga som har skrivit om det på LinkedIn att man ska boykotta oss vidare. Hur ställer du dig till det?
Sofia (34:32)
Ja men, som du säger, det väldigt många. Alltså på alla sociala medier tycker jag folk som jag minst tänker på som tekniska personer har gått ut och klistrat in vad Trump skrivit på X och vad de tycker om hela det här. Så det är så intressant att det har nått gemene man. I alla fall de som har lite koll och använder modellerna.
Klad klättrade upp som nummer ett på alla fall amerikanska appstore, inte här, Chetki BT såg typ så här nästan 300 procent... Hur säger man? 300 procent ökning i avinstallationer. Det är inte jättemycket ändå, alltså de flesta kommer behålla det. Men det säger ändå någonting, det här var nog deras värsta dag.
Någonsin. De har gjort massa kontroversiella saker som går emot i de sagt från början. De har fått ägna hela veckan åt att... Hur ska säga det? Damage control. Ja, damage control. Det viktiga för dem är att behålla de ledande, de researchers, de som är kvar där. De som startade företaget. För utan dem så kommer de inte kunna bygga de här nya...
Modellerna som konkurrerar med Claude. Men ja, och vad gjorde jag då? Jag har tänkt på att... För jag har haft en Chetky-BT-prenumeration. Jag har tänkt så att jag måste avsluta den ganska länge. Men så har jag bara inte orkat för att... Jag vet inte du har sett så gränssnittet så... Det är alltid svårt att hitta vart man syrar ut den. Men sen frågade... Men i samband med det så frågade jag Chetky-BT själv hur mannen...
kanclar sin subscription, så var det bara liksom en pil man behövde fälla ner. Helt oklart. Och så betalade jag för klar nu istället.
Madde (36:36)
Ja okej. Valde du klar för att du tror att den är bästa motsvarigheten eller för att du vill stötta dem.
Sofia (36:45)
Ja men, även innan det här när Cloud Code blev så stort så blev vi mer insatt i hur de hört en poddar med folk som jobbar där och de har pratat så himla mycket om deras värderingar på ett helt annat sätt än vad OpenEye gör. Så produkterna har känts mer intressant och människorna bakom har känts genuina.
även innan sett folk som har bytt i OpenAI och sen bytt tillbaka för att de har saknat det eller de har bytt till typ så här, han som är head of cloud code bytte till, vad heter det, Men bytte också tillbaka för säga nej men det var inte det här jag stod för, jag vill liksom tillbaka till värderingarna.
Madde (37:36)
Vi skapar också en tropik av folk som hoppar från OpenAI.
Sofia (37:41)
Mm. Precis. Darie och hans syster som också heter någonting på det. Daniela tror jag. Jo, men liksom det känns så himla... Vad heter det? Refreshing? Nu när typ så här, varenda amerikansk vd slickar Trumps arsel och liksom ger honom presenter och ja, det helt absurd att se det. Att faktiskt någon står upp mot honom och man ser ju hur arg han blir.
Det du läste på X, man ser hur arg de blir och det finns inget företag i amerikansk historia innan som har blivit, nu är inte officiellt att de är klassade som, men ändå kanske då, som en supply chain risk. är det första gången. Det är helt sjukt. Det fick mig absolut att ta, nu måste jag lösa det här, kan inte sitta här med den här subscriptionen.
Madde (38:36)
Nej, och betala för det känns ju hemskt.
Sofia (38:38)
Ja men du själv då?
Madde (38:41)
Ja, jag betalar fortfarande för att Gpt. känner mig hemsk. Nej men jag också tänkt såhär...
Sofia (38:47)
Hur
kan du? How dare you?
Madde (38:50)
Jag borde verkligen byta och jag vill byta. Men någonstans, och det här är så sjukt och skämmigt, känner jag så här... Men den vet ju så mycket om mig. När jag frågar frågor om barnuppfostran eller nånting, den klappar mig med hår och allt sånt och säger det jag vill höra. känns skönt och tryggt. Vilket jag fattar är helt stört.
Sofia (39:15)
Jag
gör inte det. Jag inte kompis med dem.
Madde (39:18)
Det är om något, en anledning att faktiskt byta. Så ja, jag ska göra det. Jag kanske ska göra det nu direkt efter vi lägger på. Så jag är så här, för Proton också har faktiskt en AI-modell också som heter Lumo. Som jag bara har testat jättelite. Så jag har inte riktigt bildat min uppfattning om den är bra eller inte. Men jag tänkte kanske i första hand börja testa den. För det är också samma där med privacy och liknande.
Sofia (39:45)
Om det räcker för ens behov bara för att ställa sådana frågor så tycker jag att det hade funnits en europeisk chatbot och så har också hjälpt en med kod. För fan vad bra.
Madde (39:57)
Ja, där är ju Mistral, jag vet inte. Luchet. Jag vet inte hur bra den är på kod och sånt, men... Men samtidigt som du sa, man vill ju på något sätt stötta Anthropic också när de faktiskt står upp mot mobbarna, liksom. Ja. Nu har ju precis fått Claude-code på jobbet, så det är nice, så jag kör ju det där i alla fall. Kul.
Sofia (40:16)
Mm. Ja,
att ni gör dem. Det är nog väldigt många som är fast med att openera och kan inte göra så mycket.
Madde (40:24)
Ja, typ CoPilot och sånt. Där kan man välja lite olika. Men nu har vi riktiga Cloud Codes. Så kan vi prata om en annan gång när jag har blivit frälst av agenterna.
Sofia (40:37)
Ja, jag förstår dig och folk som har så mycket data, alltså sparat om dem där. Samtidigt, vet inte, jag har absolut det är bekvämt ibland i vissa specifika fall att den kan komma ihåg till exempel att om du frågar någonting, nu är jag, alltså jag vill verkligen inte ha den som en terapeut men om det är någonting barnspecifikt att den vet att jag är typ mamma så hjälper det. Eller att jag ammar.
Men samtidigt så avskyr jag att när jag frågar någonting, i och att den vet att jag är utvecklare, så ger den alltid exempel på... Den är så här... Kanske att vi pratar om frukt och den bara så här, tänk på det som ett engineeringprojekt och så ska den aldrig ge de här fula jävla exemplen. Och den ska alltid förklara det för mig som ett engineeringproblem.
Madde (41:32)
Du kan bara tänka dig kontextet.
Sofia (41:35)
Jag
avskir det. Jag tror att andra folk som man nu typ mäklar då gör samma sak igen hela tiden.
Madde (41:41)
Tänkte jag att du skulle sälja till den prospekt.
Sofia (41:45)
Nej, jag tycker att man kan vara lite försiktig med sådana privata saker också för att igen, det är ett företag som är i USA. Jag vet inte hur långt vi ska gå in på det men Entropic har ju deras vd då. De gav ju alla bok, vad fan heter den?
En bok som handlar om hur forskare byggde atombomben, alltså The Manhattan Project. En väldigt historisk bok över exakt hur det här projektet gick till. För att han ser AI som en sån sak som kommer att bli lika viktigt och kan användas för krigföring, allt möjligt, som atombomben. Därför gav han den till alla som började på en tropik, i fall i början.
Och han ser nog liksom hur det här börjar anfolda. Att regeringen kommer in och säger, vi måste ha era modeller. Vi måste få göra lite vad vi vill. Tack forskare, ni är jättekloka, men nu tar vi det. Och använder det som vapen.
Madde (43:02)
Ja.
Sofia (43:09)
Jag får fylla i enskomman med det. Det här är bara så... Jag tycker det här är läskigt ska jag ändå säga. Vart man är på väg i USA. Och hur beroende hela världen av dem. Och att de är som en stor mobbare som är såhär cool. Vi ser ju alltid upp till dem. För de är så himla coola. De har ju allting. Men det ändå en mobbare.
Madde (43:32)
Men det känns mer om jag som att folk börjar bli mindre. Alltså det ser man ju på till exempel hur turismen har minskat. Det har ju varit extrema dippar liksom från typ Europa till exempel. Jag har absolut tyckt det var kul att åka till USA men jag skulle inte göra det nu. Alltså jag känner mig inte trygg. Jag har sett det var någon public speaker. Någon inom techbranschen som bara, jag tar mig inte an uppdrag i USA. Inte en chans. Det finns liksom inga pengar som kan ge mig det.
Sofia (43:42)
Jo.
Det är skitdrogigt, om man bara vill ha en karriär inom väldigt intressanta företag så är allt köpt av USA. Var ska du gå?
Madde (44:13)
Vissa saker är jättesvåra. Hur ska du ha en telefon som inte är antingen amerikansk eller asiatisk? Vi har inte Nokia längre. Vi har inga europeiska telefonleverantörer. Man ska nog vara rädd om sin data och allting. Man börjar bara låta sig som att nej, jag är oviktig.
Sofia (44:30)
Ja, det
Nej, och jag tror att vi har någon slags röst ändå. När man blir så gammal som vi är så börjar man ju typ så här, man är inte lika politiskt aktiv och engagerad och orkar inte offra sin tid för att kämpa mot sånt här men här är ganska enkelt tror att bara byta över sin subscription. Det tycker jag det tycker jag får gissa att man ska göra.
Madde (45:02)
Nu Sofia kommit med ett officiellt uttalande. Jag ska använda LUMO lite och så ska jag utvärdera det i ett poddavsnitt och se om jag tycker den är bra eller inte.
Sofia (45:11)
Gör det.
Madde (45:14)
Men vi ses nästa vecka. Kanske med ett lite mindre tungt ämne. får se. Eller så ser den världen ut nu bara. Kanske har det gått ännu vare.
Sofia (45:24)
Ja. Vi hörs nästa vecka då.
Madde (45:27)
Ta hand om
Sofia (45:29)
Hejdå.
Skapare och gäster