22. marts 2004 - 23:19Der er
4 kommentarer og 1 løsning
Hvor alment er linux / Unix
Der er et hav af forskellige linux / unix distores derude og det fik mig til at tænke lidt på, hvor meget er specifikt for en distro? Altså hvor meget af den viden man f.eks. tilegner sig i mandrake kan man tage med videre til andre? Og hvis vi tager unix med ind i billedet, er tankegangene med systemets opbygning, komandoer mm det samme?
I dette særtema om aspekter af AI ser vi på skiftet fra sprogmodeller til AI-agenter, og hvordan virksomheder kan navigere i spændet mellem teknologisk hastighed og behovet for menneskelig kontrol.
Programmerne er jo stort set de samme. Distributioner adskiller sig på 3 hovedpunkter:
1) Installationsfasen. Nogle gui baserede, andre text baserede. Nogle partitionerer hdd automatisk for dig, andre gør ikke. Nogle vil også til dels konfigurere systemet for dig, som feks mandrake der konfigurerer xfree 2) Pakke manager. Administration af pakker er forskelligt fra distribution til distribution. Debian bruger .deb filer som er tarballs inde i arkiver lavet med ar. Disse administreres så med pkgtool. Mandrake bruger URPMI og rpmdrake som du sikkert er bekendt med. Gentoo bruger Portage. Slackware bruger .tgz filer osv osv. 3) Startup scripts. Debians startup scripts adskiller sig meget fra Gentoos og Mandrakes. Disse har en vis betydning for administration af maskinen idet at når man vil have en ny service til at starte under hvert boot skal man være bekendt med startup scripts.
Hvis du er ude efter intimt kendskab til et linux systems opbygning så anbefaler jeg at droppe Mandrake og gå efter Slackware eller Gentoo, fordi disse tvinger dig til at lave en masse ting manuelt og du vil komme i kontakt med det bare system som er fælles for alle distributioner.
UNIX er en helt anden kernel. Eller dvs flere andre. Nogle af tankegangene er de samme. UNIX kernel i feks AIX og Solaris er dags dato noget bedre end Linux kernel, men det tvivler jeg så på at de bliver ved med at være. Noget som en Solaris kernel kan er feks at overleve hardware nedbrud og servicering af maskiner/udskiftning af hardware uden at behøve genstart eller nedlukning. Samtidig har UNIX mange flere "enterprise applications" tilgængelige. Nogle af de store ting som er kritiske for nogle firmaer, men som hjemmebrugere aldrig kommer i kontakt med. UNIX kernel har ligeledes support for nogle vigtige clustering og load balanced filsystemer som ikke har fundet vej til Linux kernel endnu, men jeg ved at de store som feks IBM og SGI og HP står bag Linux og vil lave implementeringer af disse ting med tiden. Lighederne mellem UNIX og Linux er trods det store. Hierarkisk er filsystemerne meget identisk bygget op. Hjertet af Linux blev skrevet af Linux Thorvalds mens han havde en bog om UNIX kernel i hånden. Begge er bygget på POSIX standarden og man kan i teorien porte source kode over og få programmer til at compile med små ændringer. Derfor er nogle af programmerne også de samme. Jeg mener feks at AIX bruger Apache som webserver. Din bedste chance for at se hvad en UNIX kernel og framework kan præstere er at bruge en af BSD'erne (FreeBSD, OpenBSD, NetBSD) som er lavet udfra Berkley UNIX source koden da den blev frigivet.
Lige en sidste hurtig ting. Den nye Red hat eller hvad man nu skal kalde den fedora. Kan man der godt genbruge de gamle cder når der kommer en ny og så updata via nettet?
Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.