Idag blev jag speciellt glad när jag fick följande FRApportering i min RSS-läsare.

Emina på Nätverket Svart Måndag har grävt i SOU 2003:34 och lanserar det, mig veterligen, starkaste och mest klarsynta argumentet mot FRA-förespråkarnas försvar om "Vi kan inte lagra allt, det går inte". Nej, man kan nog inte lagra allt på nätet... men varför skulle man vilja lagra trettiotusen identiska kopior av senaste Batmanfilmen? Problemet är istället meta-data, eller det som vi inom filosofin brukar kalla universell modulering. Citat från Eminas post:

Översatt till svenska: FRA lagrar informationen. När utrymmet är slut åker någon gammal eller ointressant information ut, och ersätts av ny, färsk och potentiellt intressant information. Det mesta av datan lagras kort tid, men vissa delar blir kvar mycket länge. Databasen innehåller personuppgifter och sökord som kan användas går att hänföra till en person. Detta gäller idag och i fortsättningen, eftersom personuppgifter är en förutsättning för att FRA ska kunna bedriva sin verksamhet, och FRA:s PUL medger också denna typ av sökning.

Detaljerna kan ni läsa i den offentliga utredningen länkad ovan. Att lagra meta-data är inga problem och kräver inga superdatorresurser. Dessutom borde FRA vara ganska duktiga på det eftersom denna teknik utveckladesredan under andra världskriget, men då för att spana i etern. På den tiden så blev snart radiotrafiken oöverskådlig. Man kunde inte ha en person som lyssnade på varenda frekvens. Istället byggde man radarfarmer för trafikanalys som kunde skilja ryssen från P3 osv. Nu är det dock digital information som gäller, och då gäller det att hinna i kapp USA.

Metadata används för att finna vad som är relevant innan man kollar i innehållet överhuvutaget. En stor mängd personuppgifter kommer alltså vara lagrade hos FRA. Hur länge vet man inte, det kommer nog bero på hur viktigt man anser uppgifterna vara. Att sortera efter relevans är grunden i meta-data, och används dagligen av google exempelvis. Det finns åtminstone fem saker som är jobbiga med metadataregister (fyll på i kommentarerna om ni känner till fler):

  1. Lagringskapacitet är inget problem. Alltså är det bättre med för mycket än för lite. För "säkerhets" skull.
  2. Risken för "skenmönster" är stor om man har tunnelseende efter ex. terrorister. Bara för att jag har fem muslimska vänner på Facebook innebär det inte att jag är terrorist, även om ett sådant mönster kan avgöra om mina uppgifter ska lagras lite till, kanske hamna i ett hemligstämplat arkiv. I USA har man redan listor för eko-terrorister. Meta-data gör ofta sökandet överdeterminerat, det vill säga att mönster framträder mycket lättare än vad teorierna hänger med. Detta är ett epistemologiskt problem som jag ofta har diskuterat med Karl när vi har haft panspektriska seminarier, men som kan observeras ganska enkelt när man youtubear och får upp "related videos". Det är alltid frestande att se dessa samband, men de duger varken vetenskapligt eller juridiskt om man inte går igenom deras tillblivelseprocess ordentligt först (öppnar alla svarta lådor). Föregripande signalspaning bryr sig inte så mycket om detta eftersom de varken behöver bry sig om vetenskaplighet eller juridisk prövning. Kriget mot terrorismen och bytet av information mellan länder står ovan Lagen och ovan Filosofen.
  3. Det blir tekniskt möjligt att avskaffa meddelarskyddet (läs detta journalister!). Vi börjar med att föra in landets samtliga redaktioners domäner i första filtret (ex. svd.se, aftonbladet.se). Därefter väljer vi att kolla på all trafik som går som e-post. Även om det rör sig om hundratals redaktioner och tusentals mail är det inga problem rent tekniskt. Sen har man en stor databas med meta-data. Lite sökningar och vips har vi IP-numret till källan som whistleblowade. Detta IP-nummer blir sedan noden i nästa sökomgång, och från endast en källa kan vi kolla på ALLT.
  4. Metadata har en tendens att klibba sig fast. Att få bort något från Internet är ganska svårt. Exempelvis Google sparar en massa saker i sitt cache, även sidor som har tagits ned. Hur kommer man veta att det där som bara skulle kollas och sedan slängas inte finns kvar?
  5. Hastigheten räknas i millisekunder. Att söka i meta-data går extremt snabbt. Tänk på när ni sitter och googlar på något meningslöst på fikarasten. Den associativa kedja som uppstår när man söker runt lite går snabbare i datan än vad den gör i huvudet på människor.
Skriven av admin den 01 augusti 2008