Netatalk und Samba sind die zwei grossen Brocken. Dachte ich zuerst. Aber mit ein paar guten Anleitungen war es eigentlich kein grosses Problem. Ich habe darum hier auch nur das nötigste dokumentiert.

netatalk

Zuerst habe ich netatalk installiert, eine Apple File Share Implementation.

sudo aptitude install netatalk

Danach die /etc/netatalk/afpd.conf anpassen und die letzte Zeile wieder aktivieren.

- -tcp -noddp -uamlist uams_dhx.so,uams_dhx2_passwd.so -nosavepassword

Dann die Shares erstellen: Dazu die /etc/netatalk/AppleVolumes.default editieren. Unterhalb der Zeile DEFAULT können die Shares mit dem Pfad und einer Bezeichnung erstellt werden.

/Daten "Daten"

Dann den netatalk Service neu starten. Damit die AFP Shares beim Mac automatisch bekannt gemacht werden, noch avahi installieren (Zeroconf Implementation):

service netatalk restart
aptitude install avahi-daemon libnss-mdns

Danach die /etc/nsswitch.conf editieren und am Ende der Hosts Zeile noch den Eintrag „mdns“ eintragen.
Das müsste dann wie folgt aussehen:

hosts: files mdns4_minimal [NOTFOUND=return] dns mdns4 mdns

Jetzt zuerst für den Samba Service eine eigene Konfiguration bereitstellen:

sudo gedit /etc/avahi/services/afpd.service

und mit folgendem Code befüllen:

<?xml version="1.0" standalone='no'?><!--*-nxml-*-->
<!DOCTYPE service-group SYSTEM "avahi-service.dtd">
<service-group>
<name replace-wildcards="yes">Afp on %h</name>
<service>
<type>_afpovertcp._tcp</type>
<port>548</port>
</service>
<service>
<type>_device-info._tcp</type>
<port>0</port>
<txt-record>model=Xserve</txt-record>
</service>
</service-group>

In dieser Service Datei wird der Port, Name des Service und mit welchem Icon sich der AFP Service per Bonjour den Macs im Netzwerk gegenüber vorstellt, vorgegeben.

Samba

Samba wird mit einigen Tools die für den Betrieb des Samba Servers sinnvoll sind, installiert:

sudo aptitude install samba-common samba tdb-tools

Danach in der /etc/samba/smb.conf noch die Shares definieren:

[data]
comment = data auf%
path = /mk-2000-raid
browseable = yes
guest ok = no
read only = no

Und wieder eine eigene Service-Beschreibung für avahi erstellen:

sudo gedit /etc/avahi/services/samba.service

und mit folgendem Code befüllen:

<?xml version="1.0" standalone='no'?>
<!DOCTYPE service-group SYSTEM "avahi-service.dtd">
<service-group>
   <name replace-wildcards="yes">Samba on %h</name>
   <service>
       <type>_smb._tcp</type>
       <port>445</port>
   </service>
   <service>
       <type>_device-info._tcp</type>
       <port>0</port>
       <txt-record>model=Xserve</txt-record>
   </service>
</service-group>

Hier noch einige nützliche samba Befehle:

sudo smbpasswd -a # Fügt den Benutzer der Samba Datenbank hinzu und aktiviert diesen
sudo smbpasswd -x # Entfernt den Benutzer aus der Samba Datenbank
sudo smbpasswd -d # Deaktiviert den Benutzer in der Datenbank
sudo smbpasswd -e # Aktiviert den vorher deaktivierten Benutzer in der Datenbank wieder

Links und woher die Infos stammen:

http://billxinli.com/2012/01/23/emulate-ubuntu-as-osx-with-avahi/

http://www.kremalicious.com/2008/06/ubuntu-as-mac-file-server-and-time-machine-volume/

http://en.gentoo-wiki.com/wiki/Avahi

Damit der Plex Media Server seine Dienste per Zeroconf (Bonjour für die Apple User) an die iOS Devices und Macs preisgibt, muss zuerst avahi installiert werden. Das ist die Zeroconf Umsetzung für Linux. Weiter Infos bei Wikipedia. Diese Abhängigkeiten werden bei der Installation von Plex automatisch mit installiert.

Die Source-Datei für Plex erstellen und aptitude aktualisieren:

sudo echo 'deb http://www.plexapp.com/repo lucid main' >> /etc/apt/sources.list.d/plexapp.list
sudo aptitude update
sudo aptitude install plexmediaserver

Danach ist der Plex Media Server unter folgender URL erreichbar:

http://localhost:32400/manage/index.html

Weitere Infos zum Plex Media Server und zur Bedienung findet man direkt auf der Homepage. Wie man eine bestehende Library umzieht (In meinem Fall weg vom alten Server), steht hier.

Moving a Database from one Server to another

Moving the Plex Media Server database from one Server to another is fairly simple. There is a trick to set the new path to the media, and restoring Plug-in bundles. The idea is to copy the entire contents of the database to the new location, reset the Section source and then ’show‘ the new Plex Media Server the media.

Step 1 – Copy the Source database to the Destination

On both Source and Destination computer, make sure PMS is not running. On a PC, enable Show Hidden Files and Folders to see the AppData folder.

  • From a Mac, copy the contents of ~/Library/Application Support/Plex Media Server EXCEPT the Plug-ins folder
  • From a PC, copy the contents of ~AppDataLocalPlex Media Server EXCEPT the Plug-ins folder
  • To a Mac, copy the files to ~/Library/Application Support/Plex Media Server
  • To a PC, copy the files to ~AppDataLocalPlex Media Server

~‘ is your Home directory. For large libraries, this will take quite some time.

Step 2 – Start the new Plex Media Server

  • Start the Plex Media Server on the new computer
  • Watch the empty Plug-ins and notice that new Plug-in bundles are created

Step 3 – Check the new Library

  • Launch the Media Manager. If the Plex Media Server is still busy re-creating things it may take a little longer than usual to launch
  • Once launched, you should see your previous library however all the paths will be broken

Step 4 – Add the new path to the Section

  • Choose the Section you want to update
  • Click Edit Section – a sheet will slide down
  • Click the + button and add the new media path
  • Select the old path then click the button to remove the old media path
  • Click Update Section

Note – if you can’t click Update Section, make sure you didn’t copy the Plug-ins folder from source computer. If you did, quit Plex Media Server, delete the ‚Plug-ins‘ folder and re-start PMS again.

Step 5 – Deep-scan the Section

  • Launch the Media Manager, Option-click the Refresh button at the bottom right of the window
  • Using the Web UI, Option/Alt-click the Refresh button at the bottom right of the window
  • Let the refresh complete

Damit der Server seine Systemzeit regelmässig aktuell hält habe ich einen täglichen Job zur Synchronisation der Zeit eingerichtet. Dazu habe ich unter /etc/cron.daily eine neue Datei mit dem Namen ntpdate angelegt und dort die Zeile ntpdate 0.ch.pool.ntp.org eingetragen. Danach die Datei ausführbar markiert und fertig 🙂

sudo echo 'ntpdate 0.ch.pool.ntp.org' > /etc/cron.daily/ntpdate
sudo chmod 755 /etc/cron.daily/ntpdate

Um über Einbruchsversuche, Fehler, Warnungen usw. auf dem laufenden zu sein, gibt es eine tolle Möglichkeit. Mit dem Tool logcheck werden die Logfiles die Anfallen automatisch durchsucht. Filter lassen uninteressante Beiträge automatisch weg, so das nur das was spannend ist angezeigt wird. Sobald ungewöhnliche Dinge passieren wird eine Mail versendet. Zusätzlich kommt noch syslog-summary dazu, wird von logcheck benötigt.

sudo aptitude install logcheck syslog-summary -y

Und die Konfiguration sieht bei mir so aus:

REPORTLEVEL="server"
INTRO=1
SENDMAILTO="foo@bar.ch"
MAILASATTACH=0
FQDN=1
SYSLOGSUMMARY=1
ADDTAG="no"

Zusätzlich habe ich das rsnapshot.log in /etc/logcheck/logcheck.logfiles eingetragen.

echo '/var/vlog/rsnapshot.log' >> /etc/logcheck/logcheck.logfiles

rsnapshot ist eine Kombination aus rsync und Snapshot Technologie.Wie rSnapshot genau funktioniert steht hier.

Einfach installiert:

sudo aptitude install rsnapshot

Danach muss die Konfiguration unter /etc/rsnapshot.conf angepasst werden. Ich verwende dazu nano. Folgende Änderungen habe ich vorgenommen:

snapshot_root   /backup/
retain          hourly  48
retain          daily   7
retain          weekly  4
retain          monthly 60
verbose         2
loglevel        2
logfile         /var/log/rsnapshot.log
lockfile        /var/run/rsnapshot.pid
rsync_long_args --stats --delete --numeric-ids --relative --delete-excluded
backup  /configs/                               localhost
backup /data/                                   localhost
backup  /etc/                                   localhost
backup  /usr/local/                             localhost
backup_script  /backup/utils/backup_dpkg.sh     localhost/dpkg

Jetzt ein Verzeichnis für die Backups anlegen und aus den Dokus die rsnapshot utils hierher kopieren. Damit können zusätzlich noch z.B. die Aptitude Packetliste, Datenbanken usw. gesichert werden oder z.B. schöne Reports per Mail versendet werden.

mkdir /backup
sudo cp -r /usr/share/doc/rsnapshot/examples/utils/ /backup/utils
gunzip /backup/utils/rsnapreport.pl.gz
chmod +x /backup/utils/rsnapreport.pl

Danach noch die /etc/cron.d/rsnapshot Datei editieren um per rsnapreport per Mail über den Backup Verlauf informiert zu werden:

0 * * * * root /usr/bin/rsnapshot hourly 2>&1 | /backup/utils/rsnapreport.pl | mail -s "mk-ubuntu1 hourly" foo@bar.ch
15 1 * * * root /usr/bin/rsnapshot daily  2>&1 | /backup/utils/rsnapreport.pl | mail -s "mk-ubuntu1 daily" foo@bar.ch
30 1 * * 0 root /usr/bin/rsnapshot weekly  2>&1 | /backup/utils/rsnapreport.pl | mail -s "mk-ubuntu1 weekly" foo@bar.ch
45 1 1 * * root /usr/bin/rsnapshot monthly  2>&1 | /backup/utils/rsnapreport.pl | mail -s "mk-ubuntu1 monthly" foo@bar.ch

Oder wenn man den rsnapreport nicht per Mail möchte:

0 * * * * root /usr/bin/rsnapshot hourly
15 1 * * * root /usr/bin/rsnapshot daily
30 1 * * 0 root /usr/bin/rsnapshot weekly
45 1 1 * * root /usr/bin/rsnapshot monthly

Jetzt werden 48 Stunden lang stündliche Snapshots gemacht, dann 7 Tage, 4 Wochen und 60 Monate (5 Jahre) Und es werden nur die wirklichen Änderungen geschrieben. Ich bin gespannt wie sich die Datenmenge entwickelt.

 

RAID

Ich habe das RAID bereits bei der Installation konfiguriert. Trotzdem zur Sicherheit nochmals die Konfig und Überwachung! checken:

sudo dpkg-reconfigure mdadm

Damit wird die RAID Konfiguration nochmals richtig eingestellt, EMail Warnungen, RAID check usw. Ausserdem ist zur sicherheit nochmals die Abfrage, ob das RAID wenn /boot auch auf dem RAID ist, beim Ausfall einer Disk trotzdem starten soll. Soll es!

Alle wichtigen Befehle zu diesem Thema sind hier zusammengefasst.

Check der einzelnen RAID Partitionen md0 und md1

sudo mdadm -D /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time :
     Raid Level : raid1
     Array Size : 18873272 (18.00 GiB 19.33 GB)
  Used Dev Size : 18873272 (18.00 GiB 19.33 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time :
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : mk-ubuntu1:0  (local to host mk-ubuntu1)
           UUID : 88959ce1:eb736b62:c8168e38:ed67f357
         Events : 19

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
sudo mdadm -D /dev/md1
/dev/md1:
        Version : 1.2
  Creation Time :
     Raid Level : raid1
     Array Size : 2093044 (2044.33 MiB 2143.28 MB)
  Used Dev Size : 2093044 (2044.33 MiB 2143.28 MB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time :
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : mk-ubuntu1:1  (local to host mk-ubuntu1)
           UUID : d3244def:741c0367:ddbad87b:25dfb139
         Events : 19

    Number   Major   Minor   RaidDevice State
       0       8        5        0      active sync   /dev/sda5
       1       8       21        1      active sync   /dev/sdb5

Postfix

Damit der Server Mails auch an externe Adressen senden kann und so über Störungen informiert, installiere ich postfix und lasse postfix die Nachrichten über meinen SMTP des Hosters Mails an meine Mailadresse weiterleiten. Ausserdem installiere ich die mailutils, damit aus der Kommandozeile Mails gesendet werden können.

 sudo aptitude install postfix mailutils

Danach Postfix wie in dieser Anleitung beschrieben für das verschlüsselte Senden über den externen SMTP konfigurieren. Dann kann nochmals zur Sicherheit mit folgendem Befehl getestet werden, ob mdadm wirklich auch Mails versendet:

sudo mdadm --monitor --scan --test --oneshot

Webmin

Webmin ist ein Webinterface das für viele gängie Linux Distributionen existiert. Es erlaubt viele Einstellungen und Konfigurationen direkt in einer Weboberfläche zu machen. Sicher ab und zu hilfreich und eine Erleichterung.

Ich installiere Webmin mit einer eigenen List für die Sources (Aptitude).

Danach ist unter der URL https://servername:10000 die Webmin Oberfläche erreichbar.

Hier noch die wichtigsten Befehle:

echo 'deb http://download.webmin.com/download/repository sarge contrib' >/tmp/webmin.list
echo 'deb http://webmin.mirror.somersettechsolutions.co.uk/repository sarge contrib' >>/tmp/webmin.list
sudo cp /tmp/webmin.list /etc/apt/sources.list.d/
rm /tmp/webmin.list

cd /tmp
sudo wget http://www.webmin.com/jcameron-key.asc
sudo apt-key add jcameron-key.asc

sudo aptitude update
sudo aptitude install webmin

Somit wird automatisch Webmin installiert.

Was jetzt noch offen ist

Folgende Punkte bleiben damit vorerst noch offen:

  • Samba Sharing (CIFS)
  • Backup mit rsnapshot
  • rsync Off-Site Backup
  • Plex-Media-Server (PMS)
  • AFP (Apple File & Print) Sharing
  • CalDav, CardDav und WebDave Filezugriff mit OwnCloud
  • jDownloader ohne GUI
  • WOL und Nachtabschaltung (Stromsparen)
  • Bonjour (Avahi)
  • Samba Papierkorb
  • AFP Papierkorb

Um unter Ubuntu 11.10 die langweiligen Standard-Login-Anzeigen (motd = message of the day) durch Aussagekräftige und „coole“ Daten zu ersetzen, gibt es einige sehr einfache Tipps und Tricks 🙂

Unter /etc/update-motd/ sind Scripte die in der Reihenfolge Ihres Namens nacheinander beim Login und per Cron Job alle 10 Minuten gestartet werden. Zusammen ergibt sich eine Ausgabe von verschiedenen Informationen und „Standard-Text“.

Ich habe die Datei 00-header wie folgt angepasst:

[ -r /etc/lsb-release ] && . /etc/lsb-release

if [ -z "$DISTRIB_DESCRIPTION" ] && [ -x /usr/bin/lsb_release ]; then
        # Fall back to using the very slow lsb_release utility
        DISTRIB_DESCRIPTION=$(lsb_release -s -d)
fi

hostname -f | figlet -c

printf "Welcome to %s (%s %s %s)n" "$DISTRIB_DESCRIPTION" "$(uname -o)" "$(uname -r)" "$(uname -m)"

Neu von mir ist der Aufruf von hostname -f (Full-Qualified) und übergabe per Pipe an figlet. Figlet kann direkt coole ASCI ART erstellen. Mit -c wird die Ausgabe dann zentriert angezeigt. Das sieht dann so aus:

                      _               _                 _         _
            _ __ ___ | | __     _   _| |__  _   _ _ __ | |_ _   _/ |
           | '_ ` _ | |/ /____| | | | '_ | | | | '_ | __| | | | |
           | | | | | |   <_____| |_| | |_) | |_| | | | | |_| |_| | |
           |_| |_| |_|_|_     __,_|_.__/ __,_|_| |_|__|__,_|_|

Welcome to Ubuntu 11.10 (GNU/Linux 3.0.0-16-server x86_64)

Figlet ist nicht Standardmässig installiert. Dies wird aber einfach über ein

sudo aptitude install figlet

gelöst. Weiter Infos was figlet noch alles kann findet man bei google oder mit „man figlet“. Um die Werbung für Landscape zu unterbinden einfach im 50-landscape-sysinfo folgende Zeile ergänzen:

/usr/bin/landscape-sysinfo --exclude-sysinfo-plugins=LandscapeLink

anstatt original

/usr/bin/landscape-sysinfo

Schon sieht die ganze Sache etwas flotter aus 🙂

Ich verwende die 11.10 Version 64 Bit und werde englisch installieren, da es mir so leichter fällt, etwaige Fehler bei Google zu finden. Das ISO kann natürlich auf eine CD/DVD gebrannt werden. Ich verwende stattdessen mein iOdd Virtual Rom. Warum ich hier schon die Installation dokumentieren kann? Ich teste alle Pakete und Konfigurationen zuerst in meiner virtuellen Maschine, bevor ich mein Produktiv-System verunstalten will. Wenn es dann klappt baue ich sogar ein fertiges Script für die Grundinstallation. Da bin ich mir aber noch nicht so sicher… 🙂

Ubuntu Server Download

Installation Ubuntu

Ich habe bemerkt, es gibt zwei Varianten. Entweder wie unten beschrieben gleich von Anfang an beide Disks als RAID 1 konfigurieren und dabei erlauben, auch wenn das RAID durch einen Ausfall zerbricht,trotzdem von nur einer der Disks zu starten. Oder die Alternative, Ubuntu auf einem 8 GB USB Stick installieren und davon booten. Dann können die zwei Festplatten als „nur“ Daten-Laufwerke hinhalten. Allerdings muss dann das System (USB Stick) zusätzlich gesichert werden. Eventuell ist auch die Performance nicht gleich gut. Ich wähle also vorerst die Variante RAID 1 gleich beim Setup einrichten. Weitere Infos dazu habe ich hier gefunden.

Hier noch die wichtigsten Punkte während der Installation:

  • Sprache: Englisch
  • Country: Europe – Switzerland
  • Local settings: Zuerst United States, Installer merkt dann, dass dies nicht die passende Sprache zum Land ist und schlägt eine Tastenerkennung vor, die dann das korrekte Layout (CHDE) vorschlägt
  • Hostname: mk-ubuntu1
  • Timezone: Europe/Zurich
  • Partition disks:
    • manual
    • Erste Disk wählen, empty table erstellen
    • Platz auswählen und „Automatically partition“ wählen
    • ZweiteDisk wählen, gleiches Prozedere
    • Configure Software RAID
    • Write changes – YES
    • Create MD device
    • RAID 1
    • 2 Disks
    • 0 Spare
    • /dev/sda1 und /dev/sdb1
    • Write changes – YES
    • Configure Software RAID
    • Create MD device
    • RAID 1
    • 2 Disks
    • 0 Spare
    • /dev/sda5 und /dev/sdb5
    • Write changes – YES
    • finish
    • RAID Device 0 erste Partition wählen und bearbeiten
    • Use as ext4, Mountpoint /
    • RAID Deive 1 erste Partition wählen und bearbeiten
    • Use as swap
    • Finish partitioning and write changes to disk
  • Username & Password: ******** & ***********
  • HTTP Proxy: <leer>
  • Tasksel: Install security updates automatically
  • Software selection: OpenSSH server – <Continue>
  • Install GRUB: Yes
  • Danach reboot! 🙂

Weitere Tools & erste Einstellungen

Nach dem Neustart verbinde ich per SSH auf den Rechner (IP Adresse nach dem anmelden auf dem Server per „ifconfig“ auslesen). Jetzt als erstes das System auf den aktuellsten Stand bringen:

  • Mit aptitude update und upgrade werden alle Software Pakete gleich mal auf den neusten Stand gebracht
  • nano – einfacher Editor wie edit.com unter DOS – bei Ubuntu eigentlich schon drauf
  • wget – Downloads auf der Kommandozeile – bei Ubuntu eigentlich auch schon drauf
  • mc – Midnight Commander – Norton Commander Klon
sudo aptitude update
sudo aptitude upgrade -y
sudo aptitude install nano wget mc -y

Somit wäre die Grundinstallation von Ubuntu abgeschlossen. Weiter gehts dann in den nächsten Beiträgen zum Thema RAID, Config Files und so weiter. Mal schauen ob ich so ausführlich bleibe! Am Ende einmal mehr die Frage: Liest das überhaupt jemand? 🙂

OS

Zuerst stellte sich mir die Frage, ob ich ein fertiges NAS-OS verwenden soll. Der Vorteil, es kann mit Plug-Ins weitere Funktionalitäten nachgerüstet werden. Zu dieser Kategorie gehören

  • FreeNAS – Fork der Monowall Firewall, basierend auf FreeBSD. Leider funktioniert der Plex Mediaserver auf BSD nicht daher aktuell keine Lösung. Existiert aktuell in einer Version 7 und 8, wobei die 8. Version anscheinend noch nicht sehr reif ist, dafür ein „kompletter“ Neubau.
  • Openfiler
  • OpenMediaVault – Basiert auf Debian und wird aktuell regelmässig weiterentwickelt, ist aber noch in einem frühen Anfangsstadium.
  • unRAID – Spezielles „RAID“ das mit unterschiedlichen Festplattengrössen auskommt. Ab einer gewissen Funktionalität oder Festplattenanzahl aber kostenpflichtig. Dafür gibt es aber den Plex Mediaserver als Plugin.

Die Alternative ist, direkt ein Betriebssystem installieren und alle Services selber konfigurieren. Dabei habe ich die grösste Freiheit, alles so zu machen, wie ich möchte. Für mich kommt als Debian Fan eigentlich nur Ubuntu Server oder Debian in Frage. Hier kenne ich mich auch einigermassen aus und fühle mich „wohl“.

Da für Ubuntu vom Plex Mediaserver bereits ein fertiges Paket existiert, entscheide ich mich wohl für Ubuntu Server. Da Ubuntu auf Debian basiert, für mich weder eine Einschränkung noch ein Problem. 🙂

Software

Ich werde hier nicht eine Schritt für Schritt Anleitung starten. Zu den einzelnen Punkten schreibe ich eventuell Tipps, Links oder meine Anmerkungen. Das soll mehr eine Gedankenstütze werden. Zu jedem dieser Themen gibt es bei google GENUG Material! Wer lesen kann, bildet sich weiter 😉

Wenns dann trotzdem ausführlich wird…. naja … was solls…Werde in den nächsten Einträgen wohl einfach die Konfig der einzelnen Tools beschreiben. Wer weiss, vielleicht bin ich noch froh darüber *g*

Grundfunktionen die für mich absolut Vorrang haben

  • RAID
  • Samba Sharing (CIFS)
  • Backup mit rsnapshot
  • rsync Off-Site Backup
  • Plex-Media-Server (PMS)
  • AFP (Apple File & Print) Sharing
  • CalDav, CardDav und WebDave Filezugriff mit OwnCloud
  • jDownloader ohne GUI
  • WOL und Nachtabschaltung (Stromsparen)
  • Bonjour (Avahi)
  • Webmin
  • Samba Papierkorb
  • AFP Papierkorb
  • Postfix oder sendmail konfigurieren für ausgehende Mails

Funktionen die Später noch dazukommen könnten

  • Anti-Virus
  • Remote Zugriff
  • Proxy
  • Gui
  • Mailserver
  • Zarafa
  • Sparkelshare mit git
  • Snapshot
  • Dedup
  • Timemachine
  • iTtunes und iPhoto
  • Webserver
  • Mysql
  • Dhcp
  • Dns
  • Printer sharing

Tools

  • nano
  • wget
  • mc
  • nload
  • netperf
  • screens

Die Hardware ist bestellt! TADA! 🙂

Leider musste ich wegen unerklärlichen Lieferengpässen des Mainboards auf ein günstiges „schon mal ausgepackt“ Modell bei Brack zurückgreifen. Aber besser als 6 Wochen warten und erst noch Geld gespart. Garantie gibt es trotzdem 3 Jahre.

Jetzt warte ich gespannt aufs Eintreffen der Hardware. Das Cougar A300 hat etwas Lieferfrist. Ich kann mir aber die Zwischenzeit mit einem „Standard“-ATX Netzteil überbrücken.

Ich habe noch zwei SATA 6GB Kabel bestellt. Ob die wirklich 6GB spezifiziert sein müssen weiss ich aktuell nicht…und wenn ich den On-Board RAID nutzen würde, könnte ich eh nur 3GB nutzen. Aber das Kabel war unwesentlich teurer wie ein 3GB und genug lang. 😀

In den nächsten Einträgen geht es um den Zusammenbau und wie die einzelnen Anforderungen meiner Wunschliste mit Software umgesetzt werden.

Die Suche nach der passenden Hardware war echt nicht einfach. Früher kannte ich das Hardware-Universum, jetzt musste ich fast wieder bei Null anfangen. Aber es hat sich gelohnt! 🙂 Ich habe zu den einzelnen Komponenten meinen Kommentar geschrieben, warum und wieso, Links die sich bei meinen Recherchen als wichtig herausgestellt haben, Handbücher, Link zu meinem favorisierten Online-Shop. Wie schon gesagt, falls es für andere hilfreich ist, warum auch nicht! 🙂

CPU

Das war wohl echt am schwersten. Zuerst dachte ich an den Intel Atom, da dieser auch in fertigen NAS Boxen, wenn kein ARM installiert ist, oft zu finden ist. Diesen gibt’s auch als Dual-Core mit 1.6 GHz. Für Media-Re-Encoding aber etwas zu schwach. Dann bin ich auf den Sockel 1155, Intels aktueller Sockel für die Sandy Bridge Architektur gestossen. Hier kann alles von Celeron über i3, i5 bis i7 installiert werden. Die Sandy Bridge Architektur ist relativ sparsam, die i Serie der Intel CPUs haben sehr tiefe IDLE Werte im Stromverbrauch.

Der i3 hat sich für mich mit seiner integrierten Grafik und seinen niedrigen Stromverbrauch echt als kleines Wunder herausgestellt. Zuerst wollte ich einen i3 2100T. Der T hat einen TPD von max. 35 Watt und einen sehr guten Idle. Dafür „nur“ 2.5 GHz mal zwei Kerne. Dann bin ich über folgenden Link „gestossen“ worden. Ein Vergleich des i3 2100T und des i3 2100 „normal (und des i5 welcher für mich zu teuer bleibt). Die Werte erstaunen echt, im Idle sind die beiden CPUs fast gleich sparsam, der normale 2100 hat aber 600 MHz mehr Leistung und ist erst noch günstiger. Dafür einen „theoretischen “ TPD von 65 Watt der im dümmsten Fall durch den Lüfter „entsorgt“ werden muss. Der i3 unterstützt auch Intel Quick Sync. Damit kann kurz gesagt gerade bei unterstützter Software im Re-Encoding fast keiner mithalten… 🙂 Naja, beim Link findet man alles dazu. Muss mir hier ja nicht den Mund fusslig schreiben.

Vergleich des i3 2100, i3 2100T und i3 2120T – http://ark.intel.com/compare/53422,53423,53427

Infos zum i3 2100T – http://ark.intel.com/products/53423/Intel-Core-i3-2100T-Processor-%283M-Cache-2_50-GHz%29

Quick Sync und encoding mit ffdshow (Plex?) – http://www.hardwareluxx.de/community/f89/ffdshow-mit-quicksync-fuer-intel-sandybridge-856735.html?langid=1

Test zum i3 2100T – http://www.greencomputingportal.de/green-it-news/core-i3-2100t-test-auf-missingremote-nur-14-watt-idle/#more-6250

Test zum i3 2100T –http://www.computerbase.de/artikel/prozessoren/2011/test-intel-core-i3-2100t/13/

Warum ich aber am Ende den i3 2100 nehme – http://www.au-ja.de/review-intel-core-i3-2100-vs-core-i3-2100t-11.phtml und zusätzlich noch folgender Artikel: Link

Sieger ist der Intel i3 2100!

Hie die Links zu den Produkten im Shop von PCP.ch

Mainboard

Hier war’s etwas einfacher. Ein Mini ITX (17cm * 17cm) musste es sein mit Sockel 1155. Da sind aktuell von Intel der H16 und der H67 eine gute Wahl, wobei die H67 Boards meistens etwas besser ausgestattet sind (USB 3.0, mehr SATA Ports) Habe mich für das Asus P8H67-I entschieden, günstig, H67 und 6 SATA Ports, USB 2 und 3. 🙂

Sieger ist das Asus P8H67-I!

RAM

RAM ist aktuell sehr günstig. Das Board nimmt DDR3 RAM, kann bei zwei RAM Slots Dual-Channel bestückt werden. Daher tendiere ich zu 8 GB RAM (2x 4 GB).

Sieger bleibt Kingston! 😀

Festplatte

Hier ein Vergleich der WD Green, Seagate Green und Samsung Green SATA III Disks. Daher entscheide ich mich für die Seagate Barracuda Green 2TB.

Sieger ist die Seagate Green!

Case

Phu, ein Mini ITX Case zu finden das kleiner als ein Midi Tower ist, trotzdem 4 -6 3,5″ HDD’s verträgt ist echt schwer. Dazu sollte es einigermassen günstig und gleichzeitig etwas Qualität haben.

Zuerst hatte ich ein Chenbro ES34169 im Auge mit integriertem Low-Power 120 W Netzteil. Leider hab ich nicht allzu viel gutes über das Case gelesen.

Dann ist mir das Lian Li PC-Q08 aufgefallen. Kleiner als ein Midi Tower, 6 x 3,5″ Disks, 1x 5,25″ Laufwerk, 1x 2,5″ und Standard ATX Netzteil. In der Schweiz habe ich es bei Digitec im Shop gesehen.

Vorläufiger Sieger, Lian Li PC-Q08!

Netzteil

Da für das NAS extra stromsparende Komponenten gewählt werden und ein IDLE von ca. 20-30 Watt das Ziel ist, wird das NEtzteil die meiste Zeit nicht mehr liefern müssen, ausser bei Belastung oder beim Start. Daher nützt ein 500 Watt Netzteil wenig, da es bei 20-30 W in einem völlig ungünstigen Belastungslevel läuft und dort sicher nicht optimal ist.Es gibt sogenannte DC-DC Pico Netzteile, kleine Spannungswandler, hocheffizient im Bereich bis max. 120 Watt. Diese nutzen externe Netzteile wie bei Notebooks. Sicher das Optimum was im Moment heraus geholt werden kann. Bei Hardwareluxx wurden die von mir angeschauten CPUs verglichen, und dabei auch noch mit zwei unterschiedlichen Netzteilen. Einmal ein Pico und einmal ein Cougar A300. (80+ Bronze bei 300 Watt) Die Zahlen sprechen für sich. Das Cougar ist nur minimal höher im Verbrauch als das Pico und viel günstiger.

Sieger ist Cougar A300 😀

Lüfter

Das Lian Li Case und die CPU bringen beide entsprechende Lüfter mit. Ich möchte mir diese zuerst anhören. Ansonsten noch ein paar Links zu Alternativen.

  • als Ersatz für original Gehäuselüfter?
    • http://www.caseking.de/shop/catalog/Luefter/Noiseblocker/Noiseblocker-BlackSilent-Fan-XL1-120mm::12826.html
    • http://www.caseking.de/shop/catalog/Luefter/Noiseblocker/Noiseblocker-BlackSilent-Fan-XK1-140mm::13321.html
  • CPU Lüfter?
    • http://www.scythe-eu.com/produkte/cpu-kuehler/shuriken-rev-b.html
    • http://www.thermaltakeusa.com/Product.aspx?C=1417&ID=1966

Alternative zum Eigenbau

Hier noch eine Alternative zum Selbstbau. Scheint mir echt geniale Preis/Leistung zu haben. Aber zu wenig Leistung für mein Media-Center 🙂

Der HP ProLiant Micro Serve. Gehäuse für 4 Festplatten und AMD CPU. Im Auge behalten!