Apples iCloud Drive använder inställningen optimerad lagring, som gör att oanvända filer under Desktop och Documents raderas lokalt och bara finns kvar som filnamn och pekare till molntjänsten iCloud Drive. Normalt fungerar detta, men min iCloud Drive har hängt sig och blivit korrumperad och för att återställa funktionen måste den blåsas. Utan alternativa backuper skulle 15 års egenföretagande gått förlorat, inklusive juridiskt viktiga filer som avtal, bokföringsverifikat och oersättliga filer som gamla bokmanus, samt 15 års research och data för blogg och böcker. Apples Support har varit mycket professionella, men kan inte göra något annat än att blåsa ut allt som lagrats i molnet.
Eftersom allt sådant här resulterar i en massa mansplaining så börjar jag med att reda ut mina backuprutiner. Jag bjuder på mina misstag för att andra ska ta till sig och lära sig, så kan ni själva slå er för bröstet över hur bra och ofelbara era egna rutiner är.
Backuper
Jag brukar säga att min hårdvara inte är värd någonting – det som är värdefullt är mina dokument. Jag har därför fyra backupvarianter. Jag har testat att det går att återställa filer, även om testerna sker sporadiskt.
För det första har jag lokal backup av allt till tre externa SSD-hårddiskar via Apple TimeMachine. Dessa roteras enligt aktiv->datamediabrandskåp->bankfack->aktiv. Det finns alltså en hela tiden aktiv backupdisk, som tar backuper en gång i timmen. Denna roteras till ett brandsäkert skåp klassat för datamedia och elektronik, och roteras sedan mindre frekvent helt ut från fastigheten till bankfack. Datamediabrandskåpet bör för övrigt även vara EMP-säkrat även om man nog behöver kraftiga verktyg när skåpets digitala lås är bränt – det är ett okynne att alla säkerhetsskåp numera bara har digitala lås …
TimeMachine fungerar utmärkt och är primär backup för snabbt återställande av filer. Hela datorn backas här och kan återställas eller ominstalleras. De externa diskarna är 1 TB eller 2 TB stora SSD från Samsung, medan min MacBook Pro bara har 512 GB, så det finns gott om utrymme för versionshantering.
En nackdel med TimeMachine är att det också sparas lokala snapnshots via hårda länkar (ni som kan data vet vad det innebär). Dessa lokala backuper på hårddisken är det som kommer användas om du ska återställa en fil du raderade senaste 24h. Även om de även finns på din externa lagringsmedia, så är det snabbare att återskapa dem direkt från datorn själv.
Dessa äter upp hårddisken och gör att filer du tror du raderar finns kvar och tar upp utrymme i 24 h på din Mac, om du undrar varför du raderar och raderar men aldrig får mer hårddiskutrymme. Dessa får man gå in och radera manuellt med tmutil på UNIX-kommandoraden om man behöver frigöra hårddiskutrymme nu, istället för om 24 h.
För det andra använder jag klientsidekrypterade Arq, för backup av kritiska filer (Documents och Desktop) till valfri molntjänst. Just nu går det till Microsoft Onedrive, då det ingår 1 TB molnlagring i Officepaketet. Då filerna är klientsidekrypteradeså kan inte molntjänstens systemansvariga läsa filerna.
Som plattformsoberoende kan man med några enkla klick byta Arq-backupen till en annan tjänst. Jag har kört Amazone S3 och Glacier tidigare, sedan Google Drive, men kör alltså nu Microsoft Onedrive.
För det tredje används Apple iCloud Drive också för Desktop och Documents, som inte egentligen är en backuplösning, utan en synkroniseringstjänst. Man får samma filer på paddan, iPhonen och datorn, samt tillgång till filerna via ett webgränssnitt. Allt synkas på några sekunder. Blir datorn stulen så finns alltså filerna kvar så länge de inte raderas, då de även kommer synkas bort från iCloud Drive. Dock sparar iCloud Drive raderade filer i 30 dagar, så det är en viss form av enkel backup. Stora fördelen är dock att t ex kunna skanna ett kvitto till företagets bokföring med telefonen och direkt få det till datorn.
En annan styrka är att filer backas till molnet inom några sekunder, dvs inte en gång i timmen.
iCloud Photos används också för att spara min bildbank på över 50 000 foton, men det är inte Drive utan en separat tjänst. Även där finns optimerad lagring, som gör att bara bilder med lägre upplösning finns på datorn innan du förstorar dem.
På iPad och iPhone körs alltid optimerad lagring (tror jag), både av iCloud Drive och av Photos.
För det fjärde använder jag klientsidekrypterade Proton Drive (än så länge bara webtjänst från datorn)) för särskilt känsliga filer, t ex daglig manuell uppladdning av aktuellt bokmanus som extra säkerhetskopia. Proton Drive ingår i mitt Protonabonnemang som även används för bloggens mail – ProtonMail kan inte läsas av systemoperatörerna och ger därmed skydd från insyn, medan i princip alla andra mailtjänster kan läsas av de som på systemsidan har rätt behörigheter.
500 GB ingår i Protonabonnemanget. Att väen flytta Arq dit blir lite overkill med dubbel kryptering, men när det kommer en MacOS-klient framöver kommer jag köra andra automatiska backuper dit.
Samtliga backuprutiner har testats och fungerar. Normalt.
Problemet
iCloud Drive använder något som kallas optimerad lagring, och raderar lokalt därmed gamla filer som inte lästs på länge och de finns bara kvar i molnet medan filen på datorn bara är 176 bytes och en pekar till iCloud.
Dit kan t ex de där gamla avtalen (de flesta avtal signeras sedan många år tillbaka digital i förlagsbranschen) räknas, liksom verifikat för bolagets bokföring. De senare är lagkrav att spara i sju år, men de sparas ju också (inklusive på papper) av min bokföringsfirma. Det är dock bra att själv ha direkt digital tillgång till dessa vid revision från Skatteverket utan omvägar och ibland kan man t ex vilja kolla vad man tog i arvode för en föreläsning från samma upprdagsgivare för tre år sedan.
Även en hel del research jag ackumulerat under femton år som författare och bloggare läses sällan. Det inkluderar alla Excelfiler och data som någonsin använts för att producera grafer till bloggen.
Jag tror att Apple som standard har iCloud Drive optimerad lagring aktiverad, tyvärr, och har inte tänkt så mycket på det.
Men det innebär att oanvända filer förvandlas till 176 bytes stora filer som bara är pekare till iCloud. Se nedan.
Över tiden innebär detta att legitima backuper ersätts av 176 bytes stora pekare till iCloud och blir värdelösa. Att man också bytt dator några gånger gör att de äldsta filerna riskerar att aldrig backats korrekt.
Detta är ju i sig inget problem då filerna finns på iCloud Drive.
Eller?
Kraschen
Min iCloud Drive började uppföra sig nyckfullt och slutade synka. Till slut kunde jag inte ens komma åt den via webgränssnittet. Se första skärmdumpen i denna artikel. Som ni ser där är de nyaste filerna från 21:a april, vilket var sista tidpunkten något alls synkroniserades upp till iCloud Drive, därefter dog det helt.
Efter att förstås installerat senaste versionerna av MacOS, iPad OS och iOS, googlat och testat allt så ringde jag för första gången i mitt liv Apple Support.
Första steget var mycket professionell och hade inom fem minuter identifierat att detta var över vederbörandes lönenivå och kompetens, helt utan bullshit och “har du startat om datorn?”. Den seniora supporten lade mycket tid på det hela men återkom sedan med att vederbörande behövde eskalera till högsta nivån “the engineers”.
Det visade sig sedan enligt ingenjörerna att min iCloud Drive var körd. Den är korrumperad, låst och måste blåsas rent och nollställas för att tekniskt fungera.
Och alla filer från 15 års egenföretagande går förlorade, utom typ senaste året.
Naturligtvis tar inte Apple något ansvar för filerna i molntjänsten om man läser det finstilta. Det är det ingen som gör om man inte betalar stora summor pengar, men för 79:- SEK per månad för 2 TB så ingår inget ansvar.
Jag har nu återställt dels från de filer på iCloud Drive som jag faktiskt kunde ladda ner, och dels från andra backuper. Allt utom några oviktiga förlorade filer ligger nu lokalt på datorn och har backats med både TimeMachine och Arq.
I slutändan förlorades ironiskt nog bara Scriveners automatiska backuper.
Men lita inte på att dina filer kommer finnas på iCloud Drive – din enhet på iCloud Drive kan korrumperas och permanent låsas, så aktivera aldrig optimerad lagring för iCloud Drive. Tjänsten är i övrigt bra för att dela filer mellan padda, iPhone och Mac, men du kan aldrig lita på den som backup.
Det kan du aldrig heller med något där du betalar konsumentpriser – inklusive OneDrive eller Proton Drive – så därför ska du ha minst tre olika backuper och minst en utanför bostaden eller arbetsplatsen. Allra viktigast är din lokala backup, den som tas en gång i timmen eller oftare.
Så efter visst stresspåslag under gårdagskvällen är allt i sin ordning nu. Lite visare och med kvittens på att backuper fungerar. Samt nu utan iCloud Drive Optimize.
Nu återstår för Apples ingenjörer att blåsa min iCloud Drive, så den börjar fungera igen. T ex är ett antal programvaror på mobilen beroende av iCloud Drive, som dock alltså inte fungerar på mobilen just nu.
Ingen skugga ska falla på Apple Support, som var mycket professionella och Apples supportsystem med arbetsflöden, skärmdelning, användarverifiering mm fungerar utmärkt. Däremot gick alltså något fel i min molnlagring och går inte att återställa.
Förr eller senare händer det oss alla. De flesta av oss kanske inte har några viktiga filer, men som egenföretagare har jag det.
Jag har sysslat med datorer sedan 1981 och installerade min första webserver 1993 och har en del erfarenhet av datorer och Internet, men ibland gör man ändå misstag som att inte stänga av optimerad iCloud-lagring i den naiva tron att tjänsten inte kan gå sönder. För de flesta kommer nog snarare problemet vara att de förr eller senare missar att betala – om inte annat när betalkortet avaktiveras efter dödsfall – och molntjänsterna raderar alla filer permanent, inklusive kanske ett helt liv av fotografier. Kan vara trist för anhöriga i en tid där vi inte längre har fotoalbum på papper.
72 kommentarer
Känner med dig! Skönt att det löste sig. Nånstans undrar man om ryssarna har ett finger med i spelet.
Som egenföretagare sedan många år har jag aldrig litat på “molntjänster” eftersom de inte är något annat än datorer någon annanstans. Även beroende på att jag och mina kunder har NDA beträffande mycket av vad jag gör. Saker som inte får lagras i någon av techjättarnas servrar oavsett allt mumbo-jumo om “sekretess” (blablabla).
Har trippelredundans med batteriuppbackad hemmaserver och återkommande specialbackup på media som lagras på annat ställe. Hårdvarorna består av professionella servrar, någon generation gammla vars priser rasat tillräckligt för att det inte skall svarta för ögonen i plånboken.
Har inte tappat en nibble sedan den “IT-Strategin” införts.
Det har alltid varit ett tjatande mellan Micro$oft- och Apple- entusiaster. Jag gillar inte någon av dessas attityd inte minst beträffande telemetri men när det gäller Apple i synnerhet för deras strävande att låsa in kunderna i deras infrastruktur. Oavsett vilket är nog både NSA, CIA, BND och FRA nöjda med de som ohämmat använder techjättarnas
molntjänster. För de som använder sociala medier som FB, TikTok mfl är nog även dessa företag ganska nöjda med allt som kan grävas ut.
Rekommenderar investering i en egen hemmaserver, batteribackup och separata lagringsmedia som tape, DVD’er etc. förvarade på ett mörkt, torrt och säkert ställe
Han krypterar så spelar ingen roll vilken molntjänst han använder. Däremot så är väll Arq closed-source, så kan finnas många bakdörrar som införts medvetet eller omedvetet.
Kryptering är bara säkert så länge det inte går att bryta. När GSM introducerades sades det att det var avlyssningssäkert då det var krypterat.
LW och andra bör fundera över det lämpliga att ha access utifrån till hemmanätverket. Det bekväma är också en säkerhetsrisk.
Har jag?
Har du det inte så gör du rätt, enligt mig.
Det är bra att det inte är på men kan man komma ut kan någon komma in. Separata datorer utan nätåtkomst med Linux/FreeBSD sedan eventuella uppdateringar och data ut/in på hårddisk höjer svårighetsnivån ordentligt. Naturligtvis skall datorerna med känslig information fysiskt sakna wifi/blåtand, det räcker inte att stänga av i BIOS. Kryptering är bra eftersom det ger en fördröjning i informationsaccessen men ger dock inte något långsiktigt skydd. Data på tillgängliga tjänster med krypteringstjänst samlas in och dekrypteras, nu eller i snar framtid. Det är en prioriterad syssla eftersom andelen intressant information normalt sett är högre i den datamängden.
Väldigt bra artikel för övrigt, skall själv se över min exponering på iCloud för det som inte är känsligt men skulle vara jobbigt att förlora.
Det stämmer att Arq är stängt, men återläsningsprogramvaran är öppen – https://github.com/arqbackup/arq_restore. Det finns ju andra alterantiv, t.ex. Restic, som är helt öppna och erbjuder motsvarande funktionalitet.
Citat: “Har inte tappat en nibble sedan den “IT-Strategin” införts.”
Grupper om 6 eller 8 bitar kallas för en bite, vilket på engelska betyder ’bett, tugga’. Man bytte sedan ut i mot y och det fick heta byte.
En halv byte fick heta nibble, som på engelska betyder ’nafs’ eller ’liten tugga’.
Det var decennier sedan jag hörde ordet nibble. Blev så sentimental så jag funderade ett kort ögonblick på att adoptera dig Zeke.
För övrigt tycker jag att bloggaren har en väldigt sund backup strategi, men vill trycka på att utan REGELBUNDEN test av backup media så är ingen backup värd sitt namn.
Kan tillägga att jag själv nyligen fick nöjet att återställa min Hackintosh från en TM backup på min NAS. Detta gjorde jag inte av tvång utan just för att testa inför den gång det är allvar. Molntjänster i all ära men lokala backuper är det enda jag vågar lita på i skarpt läge
Jag saknar lösningar för att säkerhetskopiera det man har i molnet, inte så mycket för egen del, utan för de i min omgivning som ”behöver inte backup, allt finns ju i molnet”. Då kan de få hållas med sin synkronisering men ändå ha en riktig säkerhetskopia.
Det kallas “bli bränd en gång och tappa massa data”
Sen lär de sig.
Något annat brukar inte fungera.
Se till att börja med till att filerna verkligen finns på den lokala hårddisken.
Sedan så är det ju busenkelt att göra någon sorts backup av den katalogen eller de viktiga filerna och kataloger där.
Något slags backup är bättre än ingen backup alls.
3-2-1 är väl den minsta acceptabla lösningen men det finns andra modernare varianter som utvecklat denna strategi. 3 kopior (originalfilen + två kopior) på 2 olika media (lokal hårddisk, annat) varav 1 off-site (band, extern hårddisk, moln o.s.v. på annan plats). Annan plats är viktigt, och inte bara en hårddisk som man kopplar bort, då det skyddar även mot brand, stöld, myndigheter o.s.v.
Vet inte om det är riktigt det här du menar men tex synology har funktioner för backup till moln (och, antar jag, från moln)
Det här är kritisk även för er MS slavar som kör OneDrive
högerklicka er OneDrive mapp och välj “always keep on this device”
Annars raderar MS dina lokala filer
Vet att vår stora “nationella” tillverkare av telekomutrustning nu börjat skära ner på backupper och lagringsutrymme.
Det är tydligen viktigare för dem att personalen lägger ett par timmar varje månad för att hålla sina teams aktiva och spara ner filer lokalt…
Gå in i inställningarna för OneDrive och slå av “Files On-Demand”. Motsvarande brukar finnas för övriga molnlagringsstjänster.
Fy f-n, vidrig känsla du måste fått i magen. Andra molntjänster kanske, typ dropbox som extra backup?
Här är ju som sagt grundproblemet att Apple tar de lokala filerna och ersätter med “skit”
Så om du har backupper som sker från de lokala kommer de bli skit med till slut
För att säkerhetskopiera dina bokmanus så kan du testa att skriva ut det på papper införts exemplar och sprida geografiskt. Eller vänta nu….
Skönt att det löste sig!
Jag kör allt själv (dator -> NAS med speglade diskar -> externa HDD som roteras ut från bostaden) och använder molnlagring endast för specifika filer som jag vill ha tillgång till överallt och inte är så rädd om.
Påminner om min lösning. Har faktiskt fått testa den en gång då NASet (alltså hårdvaran, inte diskarna) krashade, men i förlängningen var inte diskarna läsbara heller utan behövdes omformatteras i nya NASet. Återläsning från backup fungerade dock utmärkt.
Var på en kurs och det jag fick med mig är “Utgå från att en eldsprutande drake utraderar hela ett land totalt från jordens yta och designa din redundans med det”.
Bra början när man tänker att saker i huset är kvar, eller ett datacenter på Irland är osåbart.
Men om den där draken utraderar sverige från jordens yta så ingår jag normalt däri, därmed är det inte något problem för mig att backupen stryker med också.
Någonstans måste man ju ta hänsyn till hur pass allvarlig en dataförlust är också. Man kan ju inte ta och ha hängslen, livräm, silvertejp och popnitar alltid.
Man får vara ödmjuk och konstatera att “skit händer” förr eller senare…
Ang molntjänster och avsaknaden av ansvar pga konsumentpriser… Detsamma gäller även företagstjänster i praktiken. Många 9’or av tillgänglighet och varaktighet utlovas… Men kom ihåg att ett SLAer är juridiska dokument snarare än något som bygger på fysikenslagar. Skit händer även hos molntjänsterna…
Ersättning för förlorad data och tjänster? Nja, det blir inte så mycket i verkligheten.
Fint att det ordnade sig. Jag kommer ihåg från universitetstiden när jag skrev uppsatser att jag (överdrivet) sparade allt material dubbelt på en 3-4 st USB. En mardröm om materialet försvunnit …
Tack Lars för att du delar med av dig av dina erfarenheter.
Sitter själv med en utdaterad NAS vars TimeMachine inte längre känns helt pålitlig. Jag har funderat på att sätta upp en ny NAS dock utan TM, men som exponerar s.k. sparsebundles. Har dock ännu inte riktigt fått kläm på själva annonseringen för att slippa mounta destinationen inför varje backup eller vid reboot.
Du kan väl mounta din NAS delade disk permanent i Macos/Finder och sedan ska TM sköta det på egen hand utan manuell handpåläggning. Så funkar iaf min QNAP NAS.
Själv kör jag med M-Discs. Det enda pålitliga lagringsmediet just. Sägs hålla i 1000 år vid lämplig förvaring. Men håller de bara datan i 50 år så är det ok för mig. Sen behövs ju lämplig app för att kunna läsa dem i framtiden men det är en annan historia… Så jag kör en disk hemma med en kopia någon annanstans.
En backupdisk behöver inte hålla särskilt länge. När den går sönder ersätter man den med en ny. För att minska sårbarheten medan man byter ut en backupdisk har man backupredundans.
Ett arkivmedium bör däremot helst vara beständigt i många år, men lämpligen kopierar man arkivet till nya media med jämna mellanrum så att man inte behöver få reda på hur länge mediat håller.
Vi kommer vara en blank generation för framtiden. Då våra abonnemang om inte tidigare kommer att upphöra när vi dör och att efterlevande inte kommer få kopior.
När det gäller musik och film så är det ju inget vi köper längre utan bara hyr, så det kommer försvinna. Inte ens eventuella spellistor kommer finnas kvar/vara intressanta då ändå mer än 50 % är automatgenererade av Spotify
Det där tänkte jag på när en släkting dog för några år sedan. Nu finns alla bilder på molntjänst, så vad händer med gamla resebilder etc
Om man använder Googles lagringstjänster kan man ge Google kontaktvägar till en eller ett par personer som får all ens Googlelagrade data om/när Google inte har sett någon aktivitet sen en viss tid tillbaka.
På samma sätt som JCGBG mfl litar jag inte på molnet. Det känns tryggare att ha allt på hårddisk i handen och då slipper jag kryptera. Jag använder två HD som jag roterar. Dessutom slutar moln-BU att fungera om det blir avbrott i nätet av ekonomiska, tekniska, lösenordskrångel, krig eller andra skäl.
Du glömde problemet med back-up på dig själv. Om eller snarare när (du vet inte när) du inte längre fungerar vem tar över då och hur skall det gå till?
Jag har två Macmini, den ena som back up. Men dessutom en rejäl HD som BU med Apples standardprogramvara. Det som ger volym är alla foton och filmer, tusentals timmars scannande hemma hos folk, museer, fotografer mm.
http://www.tjust.com
Min första dator SARA mötte jag 1958 när jag gick på teknis och var på studiebesök på SAAB i Linköping. Någon som slår det? Några år senare jobbade jag där på Datasaab.
Mötte Compis på 80-talet om någon minns den 😆
Jodå, jag sålde ljudkort LAPC-1, nu är vi nog nere på 100-talet av igenkännande..
Compis, ännu en flopp i historien. Slapp göra bekantskap med denna, lekte istället med Luxor ABC 80/800/806 och Sinclair Spectrum när det begav sig.
@LARSANDERS
Svårslaget. Själv jag har programmerat IBM S/360 med hålkort.
Sveriges Radio gjorde ju en liknande miss för en massa år sedan och sparade allt digitalt arkivmaterial som 32kbps ljudfiler.
Jag skaffade mig en Synology-burk där jag lägger mina backuper på ett par 2TB-diskar. Har fungerat utomordentligt bra och är lätt att utöka med fler diskar.
Dessutom kan man ha andra program av typen belysningstimers etc liggande på den.
Har inte provat, men följande script borde möjliggöra för automatiserad Proton Drive “backup”
#!/bin/bash
# ProtonDrive
# req: read, rclone, curl, jq, grep, awk, tr
#logs in and fetch the auth-token, adds a drive to rclone, backup is made and then the drive i deleted
read -p “Enter your ProtonMail email: ” $email
read -s -p “Enter your ProtonMail password: ” $password
rclone config create proton drive config_is_local false
rclone config set proton type drive
rclone config set proton scope drive
rclone config set proton token “{“access_token”:”$(curl -s -X POST -d “username=$email&password=$password” “https://api.protonmail.ch/v1/login” | jq -r ‘.AccessToken’)”}”
rclone config set proton root_folder_id “$(curl -s -H “Authorization: Bearer $(rclone config show proton | grep token | awk ‘{print $3}’ | tr -d ‘”‘)” https://drive.proton.me/api/v1/account | jq -r ‘.DriveID’)”
rclone sync /home proton:backup –delete-after
rclone config delete proton
Mycket intressant hack för Proton Drive. Kan nog behöva lite puts på grund av WordPress-formatering, men…
Fråga till LW: Har Apple kunnat ge en förklaring till vad som hänt, eller går det att göra en kvalificerad gissning? Har någon hällt en burk läsk i server någonstans i inre mongoliet, brand, hackerattack, oväntat effekt av systemuppdatering, har någon somnat på ett tangentbord någonstans?
Tycker det skulle vara väldigt intressant att veta vad konkret som har inträffat…
Ingen aning förstås men om de inte kan återskapa så låter de som man förlorat en hel disklåda eller så. De lär väl knappast ha en egen backup för den skulle väl då vara enormt stor utan litar på raid eller dylikt och chanser på att enskilda diskar kan ryka men inte hela settet.
Jag kör med enkel respektive dubbel redundans (SSD respektive roterande diskar) på datorn med timvis snapshots för goda möjligheter till upptid och snabb återställning om jag klantar mig, plus nattlig backup till extern hårddisk (krypterad) av vilka jag har två varav minst en alltid är off-site i fysiskt väl skyddat och larmat utrymme (med regelbunden växling vilken som är på vilken plats), plus (krypterad) backup till Amazon S3 med policy för automatisk migrering till Glacier för att få ner kostnaden, plus (krypterad) backup till rsync.net som i sin tur har dygnsvis snapshots. På externa hårddiskarna sparas också äldre backuper deduplicerat med gradvis gallring när det börjar bli fullt. Hos Amazon och rsync.net har jag fått välja vad som ska lagras, annars springer kostnaden iväg till långt mycket mer än vad jag kan motivera, men det viktigaste finns alltså på fyra olika ställen utöver lokalt på datorn, oläsligt för respektive tjänsteleverantör eller någon som stjäl hårddisken eftersom det klientsidekrypteras innan det lagras respektive laddas upp, med olika policies för hur länge äldre kopior sparas. Flera är dessutom byggda tekniskt så att även om en fil skulle bli korrupt efter lagring på ett sätt som inte går att reparera så kan jag åtminstone få reda på vilken fil som har blivit korrupt.
På mobiltelefonen har jag ingenting viktigt (och heller inget speciellt känsligt). Vore lite trist att behöva lägga in telefonboken igen men det är väl i stort sett det värsta som skulle hända om den brann upp medan jag skriver detta.
Jag har lite mer än så också men det väljer jag att inte gå in på här.
Har svårt att se något scenario som skulle leda till att alla kopior blir otillgängliga samtidigt. Mer sannolikt är att jag i ett riktigt värstascenario tappar några dagars uppdaterad data, och har jag gjort något särskilt viktigt så kan jag göra ett extra byte mellan externa backuphårddiskarna.
“Molnet” är jättebra för det det är bra på men man bör vara medveten om vad för- respektive nackdelarna är.
Går det att gissa att jag råkat ut för några hårddiskkrascher genom åren? 🙂
Låter genomtänkt. Ett scenario är om man köper all hårdvara vid samma tillfälle eftersom server-diskars livslängd = garantitiden men det löser förstås molnbackupen.
Jag sprider ut diskköpen när de ska bytas ut över ungefär ett halvår delvis just för att minska risken för den typen av common mode failure. Samt planerar för byte ungefär när garantitiden går ut för respektive disk.
Peppar, peppar…
Band har oftast arkivtid på 30 år. LTO Ultrium är bra, du kan köpa en begagnad läsare/skrivare för en äldre LTO-nivå för någon eller några tusenlappar på eBay om budgeten är låg. Vi har den senaste LTO-9 på jobbet men skriver på LTO-8 eftersom det är billigast per TB men det finns mängder med både nytt och begagnat LTO-6 osv. som kommer att finnas kvar mycket länge både i termer av läs/skrivenheter och nytillverkad media.
Kör basalt men maximalt framtidssäkert med “tar” i Linux. Använd alltså ingen kommersiell programvara som kan försvinna. Sprid naturligtvis bandkopiorna geografiskt.
Bra att tänka på om man vill gardera sig mot en ransom-attack att se till att ha riktiga backuper eftersom de krypterade filerna replikeras in på alla anslutna tjänster (inser att många här har stor kunskap men kanske inte alla)
Ja, inkrementella backuper som automatiskt gör nya generationer av backuperna är A & O i backupvärlden. Då kan man backa tillbaka till senaste hela backup om det vill sig illa.
Tack Lars!
Sådana här erfarenheter är dyrbara och otroligt värdefulla för de flesta att ta del av.
Det folk kanske råkar ut för mest är att de INTE säkerhetskopierar (jodå, hänt mig också någon trots bättre vetande, någon IDEdisk som korrumperades).
Dock använder jag aldrig molnet, blir diskar. Hmm, kom på att annat tagit min tid senaste året så jag borde öka takten med datan 😎
En viktig sak som många missar med sina backuper, är att verifiera att datan faktiskt är intakt.
“Ohmenvadå jag backar ju upp till fem externa hårddiskar som jag roterar”, det hjälper inte om filen någon gång blir korrupt och du ovetandes fortsätter att backa upp från den korrupta filen. Sedan när du väl vill komma åt filen så nä, då går den inte att öppna och backupen av den filen är värdelös.
Sedan kan man förstås ändå många gånger komma åt större delen av datan, det blir bara ett hack i videon eller ljudfilen eller att man får öppna text/wordfilen i någon texteditor för att få ut den inte korrupta datan. Men det finns även gånger där det inte går och ja, filen är korrupt.
“Bitröta” är tyvärr vanligare än man tror. Jag har själv råkat ut för att speciellt jpeg foton från första halvan av 2000-talet har “ruttnat” och därmed skapat artefakter i bilderna.
Kan bero på att de har komprimerats om, Google fotos gratistjänst för lagring gör detta men inte betalvarianten.
Med generationsbackuper kan man backa tillbaka till senaste icke-trasiga version av en fil.
Man ska alltså aldrig skriva över en fil på ett backupmedia. Write-once gäller.
Men givetvis ska man testa sin backup regelbundet ändå.
Man lär sig av egna eller andras misstag. Tack för tipset om iCloud.
Jag räknar kallt med att jag behöver ha en lokal kopia av Sharepoint 365 / Teams av samma skäl.
Gällande avtal som inbegriper copyright så har jag dessa på papper, då det är 70 år efter sista upphovsmannens död.
För långtidslagring av media är LTO (band) det idag det enda vettiga, men dyra alternativet.
Vad är det för fel på M-Disc om 25 GB styck? En blueray-brännare kostar under två lax och m-skivorna håller över 100 år, kanske 1000 år beroende på lagringsförållandena (tips: lägg dom inte i starkt solsken).
När jag pratar media så tänker jag TB, så optiska diskar räcker inte långt.
Okay, jag har mest bilder och textdokument, då räcker några 100 GB ganska långt. Filmar man mycket eller är ripper/hoarder är det såklart annorlunda.
Mina foton tar 350 GB
Finns det nåt smidigt sätt att läsa ut från iCloud temporärt för backup? Jag kan inte inaktivera optimerad lagring, för då får grejerna inte plats. Det är en himla massa data, så man skulle ha typ Time Machine kopplat till iCloud, så alla enheter skickar upp dit, och så tar man en backup på lokalt NAS med time machine från iCloud som enda källa. Kan man få till det?
Apple har denna websida:
Privacy.apple.com
Långsam lösning men ändå.
Tack Lars
bra och viktig artikel även för folk med erfarenhet vilket syns i kommentarerna.
några kommentarer och frågor till de erfarna
1) Lagringstid för band 30 år. Mina äldsta data lagrades på band för mer än 30 år sedan. Relevanta data har bytt medium flera gånger. Tror jag bör vara med i en god lagringsfilosofi tillsammans med återläsningsbarheten.
2) Korrupta backupper. Bättre förslag än dubbla hash checkar från äldsta kopia regelbundet? Ganska OK att automatisera.
3) M-disc. Hade mycket data på CD och DVD (engångs skrivbara) förr. Precis som för bandare och band går hårdvaran ur tiden. Måste förmodligen också byta medium innan lagringstiden går ut.
Aldrig molnet för mig. Finns tom företag som vill äga mina medicinska data utan att ge dom till mig …
Men finns det någon teknik att läsa in 30 år gamla band? Själv rullar jag över DVD->HDD->SDD som backup med 5-10 års mellanrum.
Precis så man behöver uppdatera medium med lämpliga mellanrum. Mortal skrev om band (LTO) som hen hävdade kommer att leva länge. I min ungdom skrev jag backuprutiner bland annat för sjukhus. Då kändes det inte som att media och hårdvara skulle gå ur tiden inom kravtiden. Idag skulle det vara svårt att hitta hårdvara och media ens på museer.
Kanske beror det på den egna åldern men nog känns det också som att tekniken får allt kortare livscykel.
Det är ju inte ovanligt att kredit/betalkortet tar slut, och man glömmer att uppdatera överallt. Det hände mig, och Apple raderade alla filer i molnet. Men jag hade inte optimerad lagring, så efter att jag betalat tankade den upp filerna i molnet igen. Däremot, google tog inte bort filerna medsamma när kortet slutade fungera.
Tack Lars för en riktigt bra artikel !
Jag använder själv Mac och har använt flera Timemachine-diskar i kombination med Spideroak vilket fungerat bra.
Din artikel inspirerade mig till att tänka i termer av att ha en backuplösning som gör det möjligt att byta molntjänst och samtidigt hålla backup krypterad.
Arq7 skulle kunna fungera men jag är ute efter en lösning som fungerar på både Mac/Linux/Windows eftersom jag vill ha möjligheten att gå över från Mac till Linux/Ubunt.
Jag hittade dessa alternativ:
https://www.duplicati.com/
https://rclone.org/ , nämndes ovan , kommandoradsverktyg.
Någon som har erfarenhet av dessa, eller ytterligare tips ?
Använder inte Arq7 sitt eget format, dvs kan man återställa backup utan att ha tillgång till Arq7 ?
Tack på förhand !
Finns separat programvara för att återställa Arq, som Jakob skriver om ovan.
Fann https://www.hetzner.com/storage/storage-box som ser ut att vara en flexibel lösning som stödjer en mängd olika protokoll.
https://www.borgbackup.org ser också ut att vara användbart för Mac och Linux – krypterar backup.
Surt att ha gjort (nästan) allt rätt när det gäller backup och ändå råka illa ut. Bra att det ändå ordnade sig till det bästa (i stort sett).
Regler för god nattsömn:
1. Lita inte på någon annans lagring för backup och arkivering. Åtminstone inte som primär lagring.
2. Automatisera backupen. Manuell hantering leder till misär så småningom.
3. Verifiera backuperna med jämna mellanrum. De är inte värda något om de inte är korrekta.
4. Skilj på backup och arkiv. Det är olika saker.
5. Använd en backupmetod som sparar generationer av filerna som backupas. Skriv aldrig över en fil på backupmediat!
6. Använd en backupmetod som inte kräver specialverktyg för att läsa ut data ur backupen. Det ska vara möjlig att läsa ut filer med standardprogrammen för filhantering som finns på det datorsystem man använder.
7. Gå alltid igenom alla konfigurationsparametrar, och förstå dem ordentligt, om du envisas med att använda en lagringstjänst du inte själv har full kontroll över.