Jeg sidder i øjeblikket med en tabel med 850.000.000 rækker og 4 kolonner. Jeg må indrømme at den er blevet lidt tung at danse med. Findes der nogle regler for hvor meget en tabel egentligt kan indeholde før den "springer i luften"?
Er der desuden et lineært forhold mellem søgetid og tabel størrelse? Jeg synes nemlig det er kommet ret pludseligt at process tiden er steget enormt..
Manuelle og semi-automatiske strategier for identitetsstyring virker - lige indtil nogen beder om dokumentation. For at undgå denne fare har DKTV taget kontrol over sin identitets- og adgangsstrategi.
Hvis du ikke gør noget, så er søgetiden lineær. Du kan sætte indexer på de felter du søger (mest) på, og så vil en ...WHERE fornavn='Kurt' alt andet lige gå hurtigere. Men ikke ...WHERE fornavn LIKE '%Kurt%'.
ok: teoretisk lineær. MySql vil forsøge at holde dele af din tabel i RAM, og når den ikke kan det mere skal den bruge harrdisken - derfor kan der ske et pludseligt skift i hastighed.
Der er nogen indstillinger i MySql du måske bør pille i. Det har noget at gøre med lagerallokering: max_etellerandet hedder de. Men der er jeg nu ikke ekspert :) Overvejelse om at gøre din tabel mindre, kunne måske også overvejes. En dag / uge / måned af gangen ... ganske afhængigt af hvad du skal bruge data til.
Jeg har ledt efter nogle konkrete specs. for MySQL men synes ikke at kunne finde noget om netop dette...
Jeg skal til at skære de ældste data væk - men jeg ville gerne vide hvad der er optimalt for mig at have liggende, og stadig have en fornuftig processtid, da jeg gerne vil beholde så mange data i databasen som muligt..
Husk iøvrigt at med så mange rowss er data typerne pludseligt meget relevante. Så de skal overvejes nøje.
Synes godt om
Ny brugerNybegynder
Din løsning...
Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.