Avatar billede accredo Nybegynder
13. marts 2002 - 20:15 Der er 13 kommentarer og
1 løsning

Opnå 99,99% oppetid vha. to navneservere og lav TTL?

Hej, vi overvejer hvordan vi kan få en 99,99% oppetid på vores website og har fået foreslået at have to separete hosts hvor der så står en dns-server sammen med hver system. Ideen er så at sætte vores domænes primary dns til system 1 og secondary til system 2.
Alt traffik skulle så gå til system 1 og i tilfældet af at dette failer (inkl. dns serveren der) så vil dns server 2 + system 2 overtage trafikken.
For at dette virker skal dns records time-out kunne sættes til f.eks. 5 minutter og ikke de 24 timer der åbenbart er ret normal cache tid for dns-servere.

Jeg har så følgende spørgsmål:
1)  Respekterer alle dns-servere der cacher vores dns information en lav-timeout (ttl) eller kan de finde på trods alt at cache dns oplysninger længere end vores time-to-live.
2) Kan vi risikere at System 2 modtager (nævneværdigt) traffik selvom system 1 er oppe.

enhver kostruktiv kommentarer er yderst velkommen,
mvh Jakob Bak
Avatar billede czar Nybegynder
13. marts 2002 - 21:34 #1
1)
Det kan du ikke regne med... (ej heller modsat ved høj ttl)
2)
Nej/udover en del dnstrafik pga. den lave ttl...

For mig at se, så er den perfekte løsning ET sted (især mht. databaser osv, hvordan ville du holde en 400mb database asour 300km væk fra hinanden, når den ene maskine er nede?)..

dvs. EN fysisk lokation med flere leverandøre af internetforbindelser. en "router" med alle disse forbindelser som deler ud til den/de maskiner bag en nat som kører den egentlig webside/ftp osv.

Derudover kører denne router en dns på alle internetforbindelserne dvs. 2xleverandøre 2xdns ... 4xleverandøre, 4xdnser... alt dette på "routeren", som sikkert skal kører en *BSD eller linux ting..

Det var "fusker" versionen... den er nok ikke sikker mod gravemaskinen som kapper ledningen, men sikkert god nok mod "udfald" på centraler osv..

ene mere reel løsning er jo en fiber erhvervsløsning med tilkaldevagt osv....!? (men det er jo en anden pris..)..
Avatar billede accredo Nybegynder
13. marts 2002 - 21:56 #2
Tak for det hurtige svar, czar.
Mht. den perfekte løsning du beskriver så har vi allerede systemet placeret ved DIX'en i Lyngby! Derved behøver vi stort set "kun" at sikre mod router, load balancer og UPS nedbrud. Men dette er nødvendigt da vi har finansielt garanteret 99.99% oppetid på vores system og gerne vil kunne undgå vagter i weekenden:)
1)Er det reglen eller undtagelsen? Hvis alle cacher i 24 timer så er løsningen jo ubrugelig.
2)Har jeg forstået dig rigtig at vores secondary DNS vil modtage traffik selvom primary maskinen kører eller mener du kun opdateringstraffik fra primary?
mvh Jakob
Avatar billede czar Nybegynder
13. marts 2002 - 22:14 #3
1) Undtagelsen er reglen... :D

2) ja, 50% dns trafik...
Avatar billede mr_white Nybegynder
14. marts 2002 - 18:42 #4
1) mine personlige erfaringer er at fx. teledanske og cybercity's dns servere er slemme til at holde på dns informationer i pænt lang tid (24 timer) Det giver også meget god mening da de selfølgeligt ikke kan tillade så meget ekstrat trafik på deres dns servere. Skulle fx. Teledanskes dns gå ned ville en ret betydelig del af befolkningen jo pludsligt stå uden net ;)


Bortset fra det så er løsningen (om end meget opfindsom :) ikke lige det man normalt går efter i forbindelse med at sikre sig oppe tid. Jow det lugter da lidt af redundans .. bare ikke på den fede måde. Der er for mange ting der kan gå galt.

Skridt nr 1 vil fordet meste være at finde et sikkert sted at hoste. Det lydder det til i har (hvafaen... hvis DIX'en er nede så er i formenligt rimligt ligeglade med om i selv køre)
Når vi er kommet over det step. Så begynder vi at snakke redundans. Det kan så gøres på flere planer.

I microsoft verdnen ville man nok begynde at kigge på enten hardware clustering (simpelt failover cluster) det er dyrt og nemt at sætte op ;) Går en maskine ned fejler systemet blot over på den anden node og køre viddere i løbet af 5 - 30 sek.
Ellers kunne Network loadbalancing være sjovt at kigge på. Hvor man i praksis sætter imellem 2 og 32 maskiner op så de svare på samme ip adresse. Maskinerne har så en alguritme der allerede inden pakken når TCP/IP stacken fortæller om pakken skal udføres af denne maskine eller en af de andre. Hvis det er en af de andre bliver den bare ignoreret. Ellers udføre den requestet og svare.

Den sidste løsning er "billig" da man bare kan bruge en flok standard maskiner. Når en maskine går ned så rekonfigurere webclustret og distribuere requests til de resterende maskiner. Men hvis man ikke snakker statiske web applikationer så kræver denne læsning oftest en del reprogrammering. Da man skal have alle data replikeret ud på samplige maskiner.

Anyway du kan finde tons af info på m$.com
http://www.microsoft.com/windows2000/technologies/clustering/default.asp


Jeg vil lade være med at skrible mere, da jeg ikke aner noget om systemet vi snakker om. Og der jo er en stor sansynlighed for at det ikke er M$ produkter vi snakker om ;)


Jeg går dog ud fra at der inden for unix/linux verdnen findes lignende løsninger.

Men den med at lade 2 dns servere står og sprede forskellig informationer om samme domain er formenligt en ret dårlig ide ;)

Der findes forresten også hardware løsninger (ikke noget jeg keder mere til). Det minder meget om network loadbalancing. Nemlig at man på router niv. fordeler requests til forskellige servere.


Hygge
Hvid
Avatar billede goulduck Nybegynder
17. marts 2002 - 17:42 #5
"Der findes forresten også hardware løsninger (ikke noget jeg keder mere til). Det minder meget om network loadbalancing. Nemlig at man på router niv. fordeler requests til forskellige servere."

Her har jeg hørt at man skal til at bruge en layer 7 switch. Ikke noget jeg har forstand på, men det er vist vejen frem.
Avatar billede goulduck Nybegynder
17. marts 2002 - 17:47 #6
99,99 % - det svare til at i kan være nede 4½ minut om måneden. Det giver sku ikke så meget tid til noget som helst.. :-)
Avatar billede accredo Nybegynder
18. marts 2002 - 12:19 #7
Vi kører allerede load balancing over en del servere. Den biligste og bedste løsning har for os været at køre TurboLinux Cluster server 6.0 eller Steeleye's load balance løsning. Det hjælper bare ikke hvis f.eks. strøm eller routeren inden load balanceren går ned. Derfor vil vi gerne sætte nameserver løsningen op hvis det er muligt, men har endnu ikke fundet ud af hvor stort et problem 1) og 2) vil være?
mvh Accredo
Avatar billede characterx Nybegynder
20. marts 2002 - 19:57 #8
Nu vil jeg ikke gøre mig klog på noget som jeg ikke har forstand på, men er det ikke bare at sætte router og server på en UPS ??

-TNN
Avatar billede mr_white Nybegynder
20. marts 2002 - 22:12 #9
hehehe :)

Hvis bare livet var så nemt ...
Avatar billede characterx Nybegynder
20. marts 2002 - 22:19 #10
Ok da, :D -- man kan da heller ikke vide alt vel?

-TNN
Avatar billede accredo Nybegynder
21. marts 2002 - 09:51 #11
characterx: Vi har allerede Router samt server på samme UPS - jeg refererede til at enten UPS'en går i stykker eller at routeren går i stykker (især inkl. menneskelig fejlhåndtering... )
Accredo
Avatar billede tkd Nybegynder
25. marts 2002 - 01:32 #12
Der er flere muligheder på hvordan man garanterer en høj oppetid på sitet, der er rigtig gode beskrivelser på:

www.compaq.com/disa

DISA: Dynamic Internet Solution Architechture - her er beskrevet både hardware og software loadbalancering, m.m.

Hvis det er et Microsoft miljø, kan jeg anbefale dig at kigge nærmere på Microsoft's beskrivelse af "IDC: Internet Data Center Architechture" - ligger et eller andet sted under "Enterprise Architechtures"

Husk at det ikke kun er serveren, men derimod:

- Internet forbindelse
- Alle netværks komponenter (switche, firewalls, loadbalancering, m.m.)
- Alle servere - ikke kun web, men også database, applikations servere, m.m.

Jeg har en hel del mere info om emnet (mit arbejde er design og implementering af sikre internet arkitekturer) - dump en mail, hvis du mangler mere info.

mvh

Brian
Avatar billede beaviz Nybegynder
27. maj 2002 - 02:14 #13
Bare lige for at slå en ting fast, primary og secondary dns dækker ikke over et failsafe system, det dækker over et loadbalancing system...
- i øvrigt 99.99% giver jo næsten en time om året, det burde i da snildt kunne overholde.
Avatar billede Soren L. Hansen Nybegynder
09. juni 2002 - 21:18 #14
Hvis jeg skulle ha' 100% oppetid på en webserver, så ville jeg nok ha' to servere, der stod med hver sin primære IP. Den til enhver tid aktive webserver vil så have et virtuelt interface, der har den adresse, som www.whatever.dk peger på. Hvert 5. sekund checker den sekundære maskine om den virtuelle adresse svarer. Hvis ikke, så overtager den adressen. Desuden udveksler de to maskiner selvfølgelig hyppigt deres databaser og sådan..

Så skal man bare være forsigtig med at den, der tidligere være primær, ikke bare snupper ip-adressen, når den kommer op igen, for så ville der jo være to maskiner på samme subnet med samme ip-adresse..

Jeg ved godt, det ikke har en dyt med DNS at gøre, men det er en ret effektiv metode. Ellers kan man jo også bare sætte en loadbalancer foran. Der er MANGE muligheder.
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
IT-kurser om Microsoft 365, sikkerhed, personlig vækst, udvikling, digital markedsføring, grafisk design, SAP og forretningsanalyse.

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester