Det är torsdagen den 23 mars.
Jag heter Andreas Ericson och du lyssnar på Ledarredaktionen.
En pod från Svenska Dagbladet.
Idag ska vi diskutera ett nytt förslag från EU-kommissionen som har blivit ganska omdiskuterat redan.
Det kallas "chat control" i media, ni har kanske hört talas om det.
I mer officiella sammanhang heter det Europaparlamentets och Rådets förordning om fastställande av regler för att förebygga och bekämpa sexuella övergrepp mot barn.
Bakom den något omständliga titeln döljer sig ett förslag som ska, som det heter, upprätta en tydlig och harmoniserad rättslig ram för att förebygga och bekämpa sexuella övergrepp mot barn på nätet.
Förslaget handlar om att införa en skyldighet för leverantörer att spåra, rapportera, blockera och avlägsna material med sexuella övergrepp mot barn.
Och med leverantörer menas då de som erbjuder interpersonella elektroniska kommunikationstjänster.
Men i debatten har allt det här komplicerade reducerats till "chat control".
Förslaget har fått kritik.
På vår egen sida har Henrik Alexandersson skrivit att det handlar om en "uppenbar inskränkning av våra grundläggande fri- och rättigheter".
"Ett så grovt intrång gör man bara diktaturer" skrev debattören Emanuel Karlsten i GP-veckan.
Och i DN skrev Linus Larsson att "klart är att EU klampar ut på ostadig mark".
Bakom förslaget står alltså EU-kommissionen, närmare bestämt EU-kommissionären för inrikesfrågor, Ylva Johansson.
Vad ska man då tycka om detta.
Har kritikerna rätt.
Eller är förslaget en nödvändig del i kampen mot att barn utsätts för sexuell övergrepp.
Hur är det tänkt att fungera i praktiken och kommer det fungera som det är tänkt.
Det ska vi diskutera idag och med mig för att göra det har jag två gäster.
Just Ylva Johansson, EU-kommissionär för inrikesfrågor.
Välkommen hit Ylva.
Tack.
Och Karl Emil Nikka som är expert på IT-säkerhet och föreläsare.
Välkommen du också Karl Emil.
Tack så mycket.
Jag ska börja med dig Ylva.
Kan du så kort och enkelt det går berätta vad det här förslaget handlar om.
Vad är det kommissionen vill.
Sexuell övergrepp på barn är tyvärr ett vanligt förekommande brott.
Det är otroligt grovt.
För att komma åt förövarna är det många saker man bör göra för att rädda barnen.
Det här förslaget handlar bara om online-komponenten.
Det finns många andra förslag som handlar om att skydda barnen och komma åt förövarna.
Internetföretagen, när förövare delar bilder och videos på sexuella övergrepp, sexuellt våld mot barn, så gör man nästan aldrig det publikt.
Det vanligaste är att man gör det i personlig kommunikation, direkt till andra.
Man gör det också ibland i chattar eller i vissa forum.
Men det är sällan publikt, eftersom det är kriminellt material.
Då har nästan alla stora internetföretag– –detekterat och scannat den här kommunikationen i tio års tid.
Då genererar det, när de hittar material.
Det kan vara groomingförsök, eller videor och bilder– –så kallat nyproducerat material, pågående övergrepp– –eller äldre material, redan känt och klassat.
Då rapporterar de det till en organisation i USA som heter NECMEC.
Det beror på att USA har en tydligare lagstiftning än EU.
De är skyldiga att skicka rapporterna.
Därifrån får vi rapporterna till oss i EU.
Förra året fick vi 1,5 miljon rapporter innehållande 5,2 miljoner video, bilder och groomingförsök.
De här rapporterna går sen till polisen i de olika medlemsländerna och är den viktigaste källan till att polisen startar en utredning.
Som sen leder till att man kommer åt förövare eller barn kan räddas ur situationen.
Så fungerar det nu.
Hur vill ni att det ska fungera i framtiden.
Men EU har tagit en ny lagstiftning som började gälla 2020– –där man uppgraderade det så kallade e-privacy-direktivet.
Enligt det direktivet får man inte scanna privat kommunikation– –om man inte scannar för att leta efter virus.
Man får skanna all privat kommunikation från bolagens sida.
Men om man ska skanna för nåt annat än virus– –måste det finnas en särskild lagstiftning på plats.
Nu har vi en tillfällig lagstiftning som tillåter att man fortsätter skanna.
Den kan inte vara varaktig.
Mitt förslag handlar om– Nästa sommar blir all scanning av barnsexbrott som pågår just nu förbjuden inom EU.
Om man inte har en särskild lagstiftning som tillåter det.
Det är den särskilda lagstiftningen som jag la fram förra året för att göra det möjligt att fortsätta med den scanning som redan pågår.
Men jag gör begränsningar i vad man kan och får scanna som går längre än vad som idag kan de scanna nästan allting hur som helst om man letar efter barnsäktsmaterial.
Med mitt förslag så blir det bara efter beslut av en domstol som man kan få tillåtelse att scanna och fortsätta scanna för barnsexmaterial så att vi ska fortsätta få de rapporterna som gör att vi kommer åt förövarna och att vi kan skydda och rädda barnen.
Det här handlar bara om en rätt för leverantörerna att scanna.
Du vill inte att det ska bli en plikt att man ska scanna allt.
Nej, det är det som är det nya här.
Dels tillåter jag under vissa förutsättningar att man scannar.
Men om man bedömer i en domstol att läget är så pass allvarligt– Risken är så stor att här delas kriminellt material på småbarn som utsätts för våld.
Får man scannas så ska man också vara tvungen att göra det.
Det är en ny komponent som jag har.
Jag vill inte vara beroende av företagens välvilja.
Idag är det många som scannar.
Jag vet också att de utsätts för olika påtryckningar.
Att de inte ska scanna kommunikationen.
Jag vill säkerställa att bedömer en domstol– –att det är så allvarligt att man bör scanna kommunikationen.
Det handlar om att sniffa.
Det är inte så att man läser kommunikationen– –utan det är som en polishund som luktar om det finns nåt.
Då ska det också vara obligatoriskt.
Vi återkommer till hur sniffningen ska gå till.
Ska man släppa in Carl-Emil.
Jag vet att du är skeptisk.
Över den stämmer din bild av förslaget med det Ylva just gav.
Eller vill du komplettera med nånting.
Det stämmer i väldigt stor utsträckning.
Men Ylva, vill du bara förtydliga det här.
Du sa "domstol" tre gånger.
Det är egentligen inte krav på att det är domstol som beslutade.
Vill du utveckla det snabbt.
Det har två nivåer.
Först är det "competent authority" som gör en första bedömning.
–som sen kan föreslå till en annan oberoende instans– –i det medlemslandet där företaget är baserat.
Vi säger inte att det måste vara en domstol.
Det kommer i de flesta fall att vara det.
Men vi har följt samma arkitektur på det här förslaget– –som vi har i det som kallas Digital Service Act– –där vi också har.
Inte exakt samma, men där den här typen av institutioner eller enheter inom medlemsländerna också nämns.
Det står inte explicit domstol, men det kommer att se ut i de allra flesta länder, för det är där de allra flesta länder tar den här typen av beslut.
Jättebra att vi fick det förtydligat.
Som jag sa tidigare, Carl-Emil, du är kritisk mot det här förslaget.
Var det något mer du ville lägga till.
Det är två saker till.
För det första, vi kan ju förlänga chatcontrol 1.
0 som vi redan har idag, där det är frivilligt för de här organisationerna att scanna, precis som vi kan instifta chatcontrol 2.0.
Och sen när det gäller att sniffa den här kommunikationen, problemet där är ju att det går enbart att göra ifall organisationen som ska följa en sån här spåningsorder, där de ska sniffa på materialet, har tillgång till det i okrypterat skick.
Och det är just nu när vi går in på att faktiskt även kräva att det som kallas totalsträckskrypterat material ska scannas.
Men jag tror vi kommer in på det lite senare.
Ja, precis.
För nu tänkte jag be dig om att, I den mån vi ska hinna med alla nackdelar du ser vid det här.
Men om vi börjar med din huvudsakliga kritik, vad är det största problemet med det här förslaget, tycker du, Karl Emil.
De två största problemen, om jag får ta två stycken, det är för det första att det här görs i barnens namn utan att tänka på barnen.
Det här stjäl fokus från åtgärder som faktiskt fungerar och tar bort barnens barnkonversionsskyddade rättigheter.
Så vi gör någonting i barnens namn där vi samtidigt utsätter barnen för en större risk.
Varför gör vi det.
För att även barn har enligt barnkonventionen och UNICEF-riktlinjer för barnens digitala rättigheter en rättighet att kunna kommunicera säkert.
Låt oss ta till exempel att ett barn vill berätta för sin vårdnadshavare om någonting som har hänt.
Då ska barnet kunna göra det utan att riskera att utomstående organisationer så som sociala mediejättar och liknande kan avläsa den informationen.
Okej, det var första punkten.
Den andra punkten är att det här öppnar, precis som du sa i inledningen, dörren till massövervakning som vi aldrig har skådat i den fria världen.
Det här tar bort möjligheten för säker kommunikation för laglydiga människor.
De som inte är laglydiga påverkas inte för de använder ändå inte de här tjänsterna som nu kommer få de här kraven på sig.
Men vi laglydiga, vi förlorar den rätt som vi har enligt Europakonventionen, enligt FNs deklaration om mänskliga rättigheter, att kommunicera på ett sätt där inte vi kan bli övervakade.
Och ta till exempel Signal som exempel.
Ni på Svenska Dagbladet, ni uppmanar ju era källor att kommunicera med er via Signal just för att det är skyddat mot avlyssning.
Det är ingen utomstående som kan avlyssna det.
Men ifall det här träder i kraft, då kan ni inte längre hänvisa till Signal för att ni ska kunna kommunicera säkert med era källor utan att det läcker till någon annan.
Och riskerna som uppstår om det läcker, det ser vi väldigt tydliga exempel på runt omkring i världen.
Vi kan till och med stanna i EU.
Det pratas ju om att vi ska skydda barnen med hjälp av det här chatt-control och det är för att skydda de barn som blir utsatta för sexuella övergrepp eller vars bilder sprids via olika typer av delningsmedier.
Men om vi tar HBTQIA-communityn, de kommer troligtvis också påverkas väldigt mycket av det här för bara i EU så har vi de som anser att till exempel dragqueens har täta kopplingar till child abuse material eller CSAM material som jag nu förkortade.
Så vad ska vi säga där.
Ska vi gå på de länderna som tycker att HBTQIA-communityn är farlig för barn eller ska vi bortse från dem.
Okej, det var mycket på en gång.
Jag ska bara skapa in Ylva så hon får bemöta lite det här.
Ylva, det här hjälper inte barn utan det självklart kränker barns rättigheter.
De som är kriminella kommer inte att använda de här tjänsterna.
Det här hotar exempelvis den kontakt som vi som tidning har med våra källor.
Hur bemöter du allt det här som Carl-Emil invänder.
Allt det här är faktiskt fel.
För det första är det så att den här scannningen har pågått i ungefär tio års tid.
Det är otroligt få fall där någon har felaktigt blivit rapporterad när man har tagit kontakt med sin vårdnadshavare eller med någon annan.
Det naturligtvis sker en kontroll.
Jag för in en extra kontrollåtgärd ifall någon skulle dela barnsexmaterial som är väldigt skarp definierat.
Det är inte nakenbilder vi pratar om, vi pratar om sexuella övergrepp på barn.
Det sker i princip inte i dag, en sån fel rapportering– –i alla fall till väldigt liten omfattning.
Det är inget nytt i det jag föreslår.
Jag föreslår att det ska fortsätta.
Ett av de företag som får flest rapporter från– –är Messenger, från Facebook.
Där är det många som hela tiden använder den tjänsten.
Det är inte så att man rapporterar nåt annat– –än det faktiskt är sexuella övergrepp på barn.
Ett företag som Roblox, som vänder sig mycket till barn– –lovar sina användare att de skannar– –så att det inte sker grooming i deras chattar.
Det kan de inte lova sina användare om.
Vi förbjuder all form av avskanning när det gäller den här typen av övergrepp.
Ett av de första förslagen jag la fram när jag tillträdde som kommissionär var en strategi mot sexuella övergrepp på barn.
Den håller på att implementeras.
Jag kommer senare i år med en uppdatering av direktivet som styr arbetet mot sexuella övergrepp på barn.
Så det här förslaget vi nu debatterar är inte det enda jag gör.
Men det som sker online är faktiskt en väldigt viktig del.
Sexuella övergrepp på barn är klart definierat i vår EU-lagstiftning.
Det är inte så att man kan göra någon egen tolkning av vad som är sexuellt material för sexuell övergrepp på barn.
Det är klart definierat och det går inte att använda för att söka efter någonting annat som man ogillar.
Den definitionen är helt klar.
Det här är på inget sätt någon massövervakning.
Det här är att tillåta, om gör det möjligt, att den detektering som finns kan fortsätta och att vi inte gör oss själva blinda.
De här rapporterna som vi fick förra året, 1,5 miljon rapporter, de är jätteviktiga för att komma åt de här förövarna och för att kunna rädda barnen.
Det här med övergreppen pågår ofta med någon barnet känner eller litar på eller litade på.
Absolut, jag tror alla är överens om att sexuell övergrepp på barn är något dåligt.
Nu sa du ju för sig att det här inte var precis som förut utan man skulle kunna göra det här tvinga helt enkelt.
Nu var det ju frivilligt fram till nu men nu är det ju så att leverantörer måste så det är en viss skillnad.
Jag har en liten fråga här.
Vi har ju haft felaktiga träffar.
Jag har läst om en pappa som hade tagit bilder på utslag på sin son runt könsområdet som han hade sparat för att visa en doktor.
När han laddade upp detta på molnet slog Googles sniftningshund till och bedömde att detta var övergreppsmaterial.
Ylva, den sniftning du har kommer den vara smartare än Google så den inte kommer bedöma medicinska bilder på barn så att en pappa blir utpekad som pedofil.
Hur säkerställer du det.
Den risken finns.
Den är mycket liten, men den finns.
Därför har jag lagt in en särskild säkerhetsåtgärd– –så att inga rapporter går direkt till polisen.
De går först till det center som vi ska skapa mot sexuella övergrepp på barn.
Det är för att lägga in ett filter för att säkerställa– –att material som inte är ett övergrepp, som det exempel du tar– –som är ovanligt att det fastnar, men om det gör det– Och så har jag lagt in en sån filter så att det inte går till polisen.
Bra, då fick jag svara på det.
Karl Emil, då får du ordet igen.
Jag måste få bemöta de här påståendena som du säger är fel, Ylva.
För det första säger du att det här redan har pågått under tio års tid.
Det har inte pågått under tio års tid för än så länge så tar vi inte och dekrypterar totalsträckskrypterade konversationer.
Det är nytt i det här förslaget.
Dessutom säger du att vi skulle vara helt blinda.
Jag har inte sagt att vi ska sluta med det som vi gör redan idag och det skulle vi kunna förlänga istället för att införa chatkontroll 2.0.
Det som du baserar väldigt mycket av den här statistiken på är dessutom det vi kallar bildhashar som beskriver bilder som redan är kända.
Nu vill ni utöka det här till att använda artificiell intelligens för att kunna analysera den typ av material som är nytt som inte redan är känt.
och då vet vi att redan från början så är det mycket fel rapporteringar i det här materialet som tas fram av NECMEC som du hänvisade till tidigare.
Schweiziska polisen har delat deras siffror på hur många av de rapporter som de får från NECMEC som faktiskt är någon typ av CSAM-material.
Jag tror att de lyckades slå rekord i hur noga de var nu 2021.
Då var det hela 19 procent som var korrekt.
Det här är ju ett massövervakningsförslag i och med att vi nu övervakar alla, nu blir alla skyldiga tills motsatsen har bevisats istället för att vi gör riktade, ingriper riktade försök att få de som faktiskt begår de här fruktansvärda brotten att åka fast.
Sist men inte minst, groomingdelen är den delen som vi lyckligtvis har en teknisk lösning på.
Många av de här sakerna som Ylva lyfter är sådant som inte går att lösa på teknisk väg.
Men groomingdelen, där finns det faktiskt redan en lösning som går att arbeta vidare med för att skydda våra barn.
Det är den del som är kvar från Apples förslag från 2001.
Då hade de ju ett liknande förslag som inte alls var lika långtgående.
Det skulle till exempel bara beröra redan känt material som hade klassats som känt material i två stycken domstolar istället för att det ska vara en artificiell intelligens.
Men de har också en lösning som gör att barn som är kopplade till en vårdnadshavare via iCloud-kontot som får material som på den lokala enheten misstänks vara ett groomingförsök får möjlighet att rapportera det till sin vårdnadshavare och det gör att vi kan få fast den här typen av förövare utan att ta bort barnens digitala rättigheter och barnkonventionskyddade rättigheter.
Okej, då släpper vi tillbaka in Ylva, det var mycket här på en gång.
Jag ska bemöta alla här uppe.
Först, mitt förslag handlar inte om kryptering.
Vi har ingenting.
Mitt förslag är teknikneutralt.
Det här är inte ett förslag som handlar om att bryta eller försvaga kryptering.
Det här är ett förslag som handlar om att detektera sexuella övergrepp på barn.
Däremot är mitt lagförslag teknikneutralt, och det tror jag är absolut nödvändigt.
Tekniken utvecklas så pass fort.
Att ha en lagstiftning där man låser sig för vissa tekniska lösningar och säger nej till vissa andra tekniska lösningar kommer bli ifrånsprungen oerhört snabbt.
Så därför är det viktigare att titta på processerna än att specificera en specifik teknik.
Och det är det vi gör.
Sidan 29.
Sidan 29.
Nej, vänta.
Låt Ylva prata färdigt nu.
Mitt förslag är teknikneutralt.
Det är det viktiga.
Vi specificerar ingen speciell teknik.
Vi undantar inte heller någon speciell teknik när det gäller förslaget.
Artificiella intelligensverktyg används redan idag till stor utsträckning, både när det gäller grooming och när det gäller nyproducerat material.
Jag skulle säga att framförallt när det gäller nyproducerat material har de en hög relevans idag.
Det utvecklas ganska fort, den här tekniken.
Men vi har lagt in i mitt förslag särskilda säkerhetsgarantier– –att bolagen bara får använda sån teknik som är godkänd av centret– –så att vi inte öppnar för att man kan använda vilken teknik som helst.
Men vi definierar inte tekniken i själva lagförslaget.
Det är inte sant att alla blir skyldiga att detektera.
Det alla bolag blir skyldiga att göra är att göra en riskbedömning– Om det finns en risk att deras tjänster kommer att användas för att sprida sexuella övergrepp på barn.
Om det finns en sådan risk och den bedöms ganska stor, då måste företaget vita olika åtgärder för att minska den risken.
Om den nationella myndigheten som har fått det här uppdraget ändå inte tycker att det räcker, Då kan den myndigheten, efter att ha konsulterat datasäkerhetsmyndigheter– –och bolaget i fråga, kunna föreslå för en domstol– –att det här bolaget får och måste detektera under en specifik tidsperiod– –och specifika delar av sin tjänst där risken bedöms som särskilt stor.
I förhållande till det som gäller idag när det gäller detektering och scanning efter barnsexmaterial- -så kommer det att bli mer begränsat.
Det blir mindre omfattning om mitt lagförslag går igenom- -jämfört med det som sker idag.
Det tycker jag är rätt.
I dag har bolagen en väldigt långtgående möjlighet att detektera- -även om man inte vet att risken är stor eller om den teknik de använder är särskilt effektiv.
Så jag tycker att det är rätt att det ska regleras.
Får jag bara fråga dig en sak, Ylva.
Om det är så, kommer du och jag kunna ha kontakt i framtiden.
Om du exempelvis känner att du vill vara visselblåsare på EU-kommissionen och höra av dig till Svenska Dagbladet under källskydd, kommer du och jag kunna ha krypterad kontakt som myndigheterna inte kommer läsa i framtiden.
Även med det här förslaget.
Ja, det är självklart.
Men om det är så, kommer inte då alla pedofiler använda samma krypterade kontakt.
Vad är i så fall vunnet.
Nej men grejen är att det enda som.
Sexuella övergrepp på barn, bilder på det, är alltid kriminellt.
Ja men de kommer väl ändå kunna…
Om du och jag kommer kunna kryptera vår kommunikation, då kommer väl pedofiler också kunna krypteras sin.
Om man delar det materialet så kan det vara så att det detekteras det materialet.
Men det är ju inte så att man kan läsa någons kommunikation.
Och det finns tekniker att detektera utan att bryta krypteringen.
Jag tror det är väldigt viktigt att vi försvarar möjligheten och rätten till krypterad kommunikation.
Men det betyder inte att man ska säga att så länge du använder krypterad kommunikation -gör vi inga åtgärder för att komma åt sexuella övergrepp på barn.
Jag är en teknisk idiot.
Om du skickar bilder på dokument till mig krypterat- -lär myndigheterna inte kunna läsa.
Om pedofiler skickar övergrepp till varandra- -lär myndigheterna kunna läsa, för det här löser sig tekniskt.
-Så förstod jag det rätt.
-Nej, det gjorde du inte.
Om du kan göra en jämförelse.
Krypterad kommunikation idag skannas av bolagen.
De scannar all kommunikation för att de letar efter virus.
Om du på Signal vill skicka mig en länk till en intressant Svenska Dagbladet-artikel När du börjar skriva adressen till artikeln så kommer det upp en bild på artikeln.
Därför att dom scannar den.
För att ta reda på att du inte skickar virus till mig.
- Oh, kära nån, men Ylva.
Men det betyder inte att kommunikationen inte är krypterad.
OK. Man kan se bilden, men det är inte krypterad. Karl Emil, vill du komma in här?
Det är ju inte så Signal fungerar.
Signal fungerar på så sätt att om du får en förhandsbild är det för att din Signal-klient från din enhet tar en bild av webbplatsen och lägger med den i det här meddelandet som skickas.
Signal har ingen åtkomst till den här informationen.
-Det är ju inte det jag säger, heller.
-Nu var det faktiskt min tur.
Du sa att Signal fungerade på det sättet vilket det inte gör.
Dessutom på sidan 29 i förslaget står det "Detta inbegriper användningen av totalsträckskryptering som ett viktigt verktyg för att garantera säkerheten och konfidentialiteten i fråga om användarnas kommunikation.
" Du säger också att det kommer att vara säkerhetsgarantier för att den här informationen inte missbrukas.
Men om informationen dekrypteras då kan den missbrukas och vi lever i ett globalt samhälle där om vi öppnar dörren och låter faktiskt de här organisationerna som tidigare har varit så duktiga på att faktiskt skydda vår information för att de vet att information kan läcka om de har tillgång till den.
Om vi kräver att de gör det, då kommer det sen också att användas för andra sammanhang.
Och just det här med att det inte är krav på alla sådana här meddelandetjänster att göra det.
De måste ha den tekniska möjligheten att kunna dekryptera om de ska kunna följa en spåningsorder.
Så om det här går igenom då kommer det finnas krav på de aktörer som vill vara kvar i EU överhuvudtaget att faktiskt ha en möjlighet att dekryptera konversationer.
Och det går inte att detektera CSAM-material utan att ha tillgång till den dekrypterade versionen av materialet.
Det kan antingen göras på serversidan eller på klientsidan, men någonstans måste det finnas tillgång till det.
Det går inte att detektera CSAM-material i krypterat skick.
- Okej, jag anar att vi skiljer oss åt lite här, både åsikter och verklighetsmässigt.
Då brukar jag göra så i podden att var och en får avsluta med en kort sammanfattning av sin ståndpunkt.
För att vi måste sluta och starta.
Så jag tänkte be dig Ylva, du kan få börja sammanfatta vad du vill att lystarna ska ta med sig från den här diskussionen.
Jag vill också bemöta det senaste.
Det finns tekniker för att scanna innan det krypteras, till exempel på klienten.
Det du läser upp i mitt förslag handlar om att krypterad kommunikation inte är utesluten i mitt förslag.
Men vi har ingenting särskilt, det här är inte ett förslag som handlar om att bryta kryptering.
Det viktigaste jag vill säga är att den scanning som har pågått i många års tid och som betyder otroligt mycket för att kunna rädda barn.
Om företagen inte har möjlighet att fortsätta scanna, också i privat kommunikation, så kommer vi att bli blinda.
Därför är det viktigt med en lagstiftning som tillåter att den detekteringsscanning som pågår idag och som är ett otroligt viktigt verktyg för polisen i utredningar kan fortsätta.
Och Karl Emil, på motsvarande sätt får du sammanfatta det du tycker att lystarna ska ta med sig från den här diskussionen.
Det viktiga är att vi lyssnar på till exempel FNs råd om mänskliga rättigheter som i augusti 2022 varnade för konsekvenserna som uppstår av klientsideskannning och att vi inte låter sådana här förslag ta fokus från det som faktiskt behöver göras för att skydda våra barn i den digitala vardagen.
Jag sträckte ut en hand till Svenska ECPAT som jobbar jättebra med att försöka skydda barn och sa åt dem att om ni vill så hjälper jag er kostnadsfritt att ta fram underlag för tekniska lösningar som inte bara fungerar utan fungerar utan att ta bort mänskliga rättigheter och barnkonversionsskyddade rättigheter.
Jag har lagt två stycken heldagar hittills på att prata med dom och jag sträcker också ut min hand till dig Ylva.
Jag tar jättegärna och diskuterar fler förslag för hur vi kan komma till bukt med den här problematiken utan att äventyra barnens trygghet och säkerhet i den digitala vardagen.
Okej, då avslutar vi med en utsträckt hand.
Stort tack Ylva Johansson, EU-kommissionär, - och Karl Emil Nikka, IT-säkerhetsexpert och föreläsare - för att ni kom och pratade med mig idag.
Och stort tack också till er som har lyssnat på Ledar-redaktionen, - en podd från Svenska Dagbladet.
Ni är varmt välkomna att höra av er till redaktionen - med tankar och synpunkter på det vi precis har diskuterat.
Eller om det är så att ni har idéer och förslag på det vi ska ta upp i framtiden.
Då är det bara att mejla till ledarsidan@svd.se.
Dagens producent heter som vanligt Jesper Sandström.
Jag heter som vanligt Andreas Ericson.
Och jag hoppas som vanligt att vi hörs snart igen.