• 1 Post
  • 140 Comments
Joined 1 year ago
cake
Cake day: April 5th, 2024

help-circle









  • Mit 10Mrd. kommt man nicht weit. Das ist wahr. Wichtig wäre auch, mit welchem Ziel im Blick, man das Geld ausgibt.

    Es sollte eine Alternative für die Beschaffung von, nennen wir sie Brot und Butter-Chips - für Processing und Storage, geben. Dass man die leistungsfähigsten GPUs selbst herstellen kann, damit ich in meinem Wohnzimmer God of War oder so zocken kann, ist nicht so wichtig.

    Wenn wir aber abhängig von einer Technologie sind, die nur von Staaten und Firmen in Asien beherrscht wird, stehen wir auf tönernen Füßen. Hat man gesehen, als Epidemien (Corona) und Naturkatastrophen (Feuer, Erdbeben und Überschwemmungen), die Chips in unserer Versorgungskette verknappt haben.

    Politisch kann dasselbe geschehen (Zölle, politische Entscheidungen, Kriege), was dann den selben Effekt auf Europa hätte.

    Es geht bei den Rohstoffen (von seltenen Erden bis Halbprodukten wie irgendwelcher Isolierfolie) los, geht weiter mit der Fertigungstechnologie zur Chipfertigung (EUV ist komplett bei ASML), dem Knowhow zur Entwicklung von ICs (man kann bei ARM lizensieren, bei anderen Herstellern bestimmt auch, aber es muss halt erstmal passieren) und oben drauf dann die Technologie für Infrastruktur (5G gibt’s bei HUAWEI). Es ist alles viel komplexer, aber selbst in diesem Ausschnitt stehen wir als Europa nicht gut da.

    Und dann braucht man hinreichend finanzierte Organisationen/ Firmen und genügend ausgebildete Ingenieure.

    Intel ein paar Milliarden geben, wäre erstmal nicht schädlich diesbezüglich. Doch das Geld wäre in Forschung und Entwicklung ebenfalls gut, vielleicht sogar effizienter, aufgehoben. Gern auch in Förderung für universitäre Ausgründungen oder in Förderprogrammen für Studierende und DoktorandInnen damit sie dort studieren und arbeiten können, wo das Wissen vorhanden ist. Und dann evtl. ein Teil von ihnen zurückkehrt. Oder anders herum fähige Ingenieure und Firmen anlocken. China macht es seit Dekaden erfolgreich vor.

    Die Geschichte der blauen LED wäre nicht möglich gewesen, wenn Shuji Nakamura nicht so leidensfähig gewesen wäre und sich an der University of Florida durchgebissen hätte. Kein blaues Licht am Weihnachtsbaum ;), keine Blurays…







  • Moot point. I do not really need the distributed storage part for my scenario. Not right now.

    Maybe I start with NFS and explore gluster as soon as storage distribution is needed. Looks like it could be a drop-in eplacement for NFSv3. Since it doesn’t access the block devices directly, I still could use the respective fs’ tool set (I.e. ext4 or btrfs) for maintenance tasks.




  • Thanks. I will take a closer look into GlusterFS and Ceph.

    The use case would be a file storage for anything (text, documents, images, audio and video files). I’d like to share this data among multiple instances and don’t want to store that data multiple times - it is bad for my bank account and I don’t want to keep track of the various redundant file sets. So data and service decoupling.

    Service scaling isn’t a requirement. It’s more about different services (some as containers, some as VMs) which should work on the same files, sometimes concurrently.

    That jellyfin/arr approach works well and is easy to set up, if all containers access the same docker volume. But it doesn’t when VMs (KVM) or other containers (lxc) come into play. So I can’t use it in this context.

    Failover is nice to have. But there is more to it than just the data replication between hosts. It’s not a priority to me right now.

    Database replication isn’t required.