mastodontech.de ist einer von vielen unabhängigen Mastodon-Servern, mit dem du dich im Fediverse beteiligen kannst.
Offen für alle (über 16) und bereitgestellt von Markus'Blog

Serverstatistik:

1,5 Tsd.
aktive Profile

#ceph

1 Beitrag1 Beteiligte*r0 Beiträge heute
OpenStack<p>Are you running <a href="https://social.openinfra.dev/tags/OpenStack" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>OpenStack</span></a> and <a href="https://social.openinfra.dev/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a>? Share your story at <a href="https://social.openinfra.dev/tags/Cephalocon" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Cephalocon</span></a> In Vancouver on October 28! The CFP is currently open and closes this Sunday, July 13 at 11:59pm PT.</p><p><a href="https://ceph.io/en/community/events/2025/cephalocon-2025/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">ceph.io/en/community/events/20</span><span class="invisible">25/cephalocon-2025/</span></a></p>
Rachel<p><span>Huh, can I manually point two persistent volumes at the same CephFS filesystem?<br><br>I just realized that a huge part of my plan depends on this<br></span><a href="https://transitory.social/tags/Kubernetes" rel="nofollow noopener" target="_blank">#Kubernetes</a> <a href="https://transitory.social/tags/Ceph" rel="nofollow noopener" target="_blank">#Ceph</a></p>
Marianne Spiller<p>Friendly reminder, dass <a href="https://konfigurationsmanufaktur.de/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a> Reef (18.x) ab August EOL ist. Das Sommerloch wäre doch ein guter Moment, das Upgrade auf Squid (19.x) in Angriff zu nehmen... 😎</p>
Benoit<p>🚨 <a href="https://mastodon.benoit.jp.net/tags/Hiring" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Hiring</span></a> — Platform Engineer @ Rakuten Japan 🇯🇵<br>Join my team! I’m leading this Platform Engineering group focused on <a href="https://mastodon.benoit.jp.net/tags/Kubernetes" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Kubernetes</span></a> &amp; Linux systems.</p><p>💼 Stack: <a href="https://mastodon.benoit.jp.net/tags/Chef" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Chef</span></a> <a href="https://mastodon.benoit.jp.net/tags/Terraform" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Terraform</span></a> <a href="https://mastodon.benoit.jp.net/tags/GCP" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>GCP</span></a> <a href="https://mastodon.benoit.jp.net/tags/OnPrem" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>OnPrem</span></a> <a href="https://mastodon.benoit.jp.net/tags/RockyLinux" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>RockyLinux</span></a> <a href="https://mastodon.benoit.jp.net/tags/Rook" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Rook</span></a> <a href="https://mastodon.benoit.jp.net/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a></p><p>📍 Tokyo | 4 days/week in-office (only one day of WFH!)</p><p>If we know each other (Fediverse or IRL), I can refer you!<br><a href="https://mastodon.benoit.jp.net/tags/GetFediHired" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>GetFediHired</span></a> <a href="https://mastodon.benoit.jp.net/tags/FediTechJobs" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>FediTechJobs</span></a></p><p>🔗 <a href="https://rakuten.wd1.myworkdayjobs.com/RakutenInc/job/Tokyo-Japan/Platform-Engineer---Merchandising-and-Advertisement-Department--MAD-_1026705" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="ellipsis">rakuten.wd1.myworkdayjobs.com/</span><span class="invisible">RakutenInc/job/Tokyo-Japan/Platform-Engineer---Merchandising-and-Advertisement-Department--MAD-_1026705</span></a></p>
dc8wan Marco<p>Ich habe mir ein kleinen ceph-Cluster aus 5x Raspberry pu5 gebaut. Was gibt es coole Spielvorschläge um Erfahrungen mit ceph zusammeln?</p><p><a href="https://chaos.social/tags/ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ceph</span></a></p>
Marianne Spiller<p>Mal wieder was ins <a href="https://konfigurationsmanufaktur.de/tags/Blog" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Blog</span></a> gepackt: zu <a href="https://konfigurationsmanufaktur.de/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a> und den BLUESTORE_SLOW_OP_ERRORs, die da seit einem der letzten Updates herumschwirren. Spoiler: es ist weniger dramatisch, als ursprünglich angenommen, und man kann damit umgehen 🙂</p><p><a href="https://www.unixe.de/ceph-bluestore-slow-op-error/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://www.</span><span class="ellipsis">unixe.de/ceph-bluestore-slow-o</span><span class="invisible">p-error/</span></a></p>
Heinlein Support<p>Jetzt zum Nachlesen: SLAC-Vortragsfolien sind online!</p><p>Du warst auf der SLAC 2025 und möchtest nochmal in einen Vortrag eintauchen? Oder du konntest dieses Jahr leider nicht auf unserer Linux-Konferenz dabei sein? Die Folien zu den Vorträgen &amp; Workshops sind ab sofort online und für Dich in den jeweiligen Programmslots zum Download hinterlegt. </p><p>Schau vorbei und wirf einen Blick in Vorträge zu <a href="https://social.heinlein-support.de/tags/Proxmox" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Proxmox</span></a>, <a href="https://social.heinlein-support.de/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a>, <a href="https://social.heinlein-support.de/tags/OpenVox" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>OpenVox</span></a> &amp; Co. </p><p>👉 <a href="https://www.heinlein-support.de/slac/programm-2025" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://www.</span><span class="ellipsis">heinlein-support.de/slac/progr</span><span class="invisible">amm-2025</span></a> </p><p><a href="https://social.heinlein-support.de/tags/slac2025" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>slac2025</span></a> <a href="https://social.heinlein-support.de/tags/LinuxVortr%C3%A4ge" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>LinuxVorträge</span></a> <a href="https://social.heinlein-support.de/tags/LinuxWorkshops" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>LinuxWorkshops</span></a></p>
Ronald<p>Wie man so den Feiertag verbringt:<br>Neben dem Stress mit dem Handy habe ich einen <a href="https://brettspiel.space/tags/Cluster" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Cluster</span></a> aus drei Nodes im <a href="https://brettspiel.space/tags/Homelab" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Homelab</span></a> gebaut. <a href="https://brettspiel.space/tags/Proxmox" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Proxmox</span></a> kannte ich schon, verclustert habe ich noch nicht draus gebastelt. Und <a href="https://brettspiel.space/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a> ist für mich noch Neuland. Es gibt noch viel zu entdecken... 🤓</p>
Rachel<p><span>Ok probably another week to go until I get these drives running<br><br>I should probably use that to figure out backups for this current pool.....<br><br>if the bulk storage poll in ceph works well enough I'll ship the current file server off to the parent's but for now I'll be able to use the LAN to do initial syncs<br><br>S3-compatible backup via Velero is one option, with MinIO, or </span><a href="https://garagehq.deuxfleurs.fr/" rel="nofollow noopener" target="_blank">Garage</a> running in a container backed by ZFS (I am not building a remote ceph cluster 😅<span>)<br><br>Anyone have thoughts/suggestions on backup strategy here? Probably backing up 2-3TB of data total (lots of photos) <br><br>I'll end up with local snapshots, and remote backups, huge bonus if they can be recovered without needing a ceph cluster to restore to in the case of something catastrophic. </span><a href="https://transitory.social/tags/HomeLab" rel="nofollow noopener" target="_blank">#HomeLab</a> <a href="https://transitory.social/tags/Ceph" rel="nofollow noopener" target="_blank">#Ceph</a></p>
OpenInfra Foundation<p>⏳ Final days to submit! ⏳</p><p>The CFP for the <a href="https://social.openinfra.dev/tags/OpenInfraSummit" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>OpenInfraSummit</span></a> Europe closes this Friday! If you’re building with <a href="https://social.openinfra.dev/tags/OpenStack" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>OpenStack</span></a>, <a href="https://social.openinfra.dev/tags/Kubernetes" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Kubernetes</span></a>, <a href="https://social.openinfra.dev/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a>, <a href="https://social.openinfra.dev/tags/KataContainers" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>KataContainers</span></a>, or other <a href="https://social.openinfra.dev/tags/OpenSource" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>OpenSource</span></a> infrastructure, this is your moment to shine on stage in Paris! <a href="https://summit2025.openinfra.org/cfp/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://</span><span class="">summit2025.openinfra.org/cfp/</span><span class="invisible"></span></a></p><p>📅 Deadline: Friday, June 13<br> 📍 17–19 October 2025, Paris-Saclay, France!</p>
Florian Haas<p>Welche der folgenden kreativen Aussprachevarianten für <a href="https://ceph.io" rel="nofollow noopener" target="_blank">Ceph</a> habt ihr schon in freier Wildbahn gehört?</p><p><a href="https://fedifreu.de/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a></p>
Thoralf Will 🇺🇦🇮🇱🇹🇼<p>Test von <a href="https://soc.umrath.net/tags/ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ceph</span></a> auf meinem <a href="https://soc.umrath.net/tags/Proxmox" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Proxmox</span></a>-Cluster abgeschlossenen.</p><p>Es hat funktioniert, aber der Performance-Overhead ist gewaltig und steht in keinem sinnvollen Verhältnis zum Nutzen, der definitiv vorhanden wäre.</p><p>Also alles wieder auf zfs zurückgebaut.<br>Evtl. behalte ich einen kleinen Cluster für Backups, etc.</p>
Thoralf Will 🇺🇦🇮🇱🇹🇼<p>Eine Idee für das "Wie?" in meinem Kopf wäre:</p><p>1. Auf jedem Node eine Disk aus dem <a href="https://soc.umrath.net/tags/zfs" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>zfs</span></a>-Mirror heraustrennen.<br>2. <a href="https://soc.umrath.net/tags/ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ceph</span></a> mit den 3 Disks aufbauen.<br>3. Volumes von zfs auf ceph migrieren.<br>4. Alles prüfen.<br>5. zfs zerlegen<br>6. Die weiteren Platten ceph zur Verfügung stellen.</p><p>Ginge das?</p><p>Alternativ hätte ich auch noch 3 Platten rumliegen (1, 2 und 4 TB), mit denen ich eine initiale ceph-Umgebung aufbauen könnte, einen Node komplett umziehen könnte und mich dann Stück für Stück durcharbeite ...</p>
Thoralf Will 🇺🇦🇮🇱🇹🇼<p>Ich betreibe derzeit einen <a href="https://soc.umrath.net/tags/Proxmox" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Proxmox</span></a>-Cluster mit 3 Nodes.<br>Jeder Node hat ein <a href="https://soc.umrath.net/tags/zfs" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>zfs</span></a>-Volume mit 2 Disks (gespiegelt) mit jeweils 10, 12 bzw. 4 TB Platz.</p><p>Kann ich das live irgendwie auf <a href="https://soc.umrath.net/tags/ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ceph</span></a> migrieren?</p><p>Falls ja:<br>1. Was gewinne oder verliere ich dabei?</p><p>Ich frage, weil der zeitversetze Replikation durchaus IO-bottlenecks erzeugt und ich die Hoffnung habe, dass eine permanente Replikation das entzerren könnte und ich gleichzeitig eine höhere Stabilität bekomme.</p><p>2. Wie mache ich das am besten?</p>
Michael<p>The Ceph project really knows how to do consent correctly. I've just upgraded from v18.2.4 to v19.2.2, and they added some things to their opt-in telemetry. And instead of just adding the additional information, they disable telemetry sending and require you to opt-in again.</p><p><a href="https://social.mei-home.net/tags/HomeLab" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>HomeLab</span></a> <a href="https://social.mei-home.net/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a> <a href="https://social.mei-home.net/tags/GoodThings" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>GoodThings</span></a></p>
Robert Sander<p><a href="https://mastodon.gurubert.de/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a> MeetUp in <a href="https://mastodon.gurubert.de/tags/Berlin" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Berlin</span></a> on May 26:</p><p><a href="https://www.meetup.com/ceph-berlin/events/307298269/" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://www.</span><span class="ellipsis">meetup.com/ceph-berlin/events/</span><span class="invisible">307298269/</span></a></p>
Heinlein Support<p>Mit <a href="https://social.heinlein-support.de/tags/Proxmox" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Proxmox</span></a> lassen sich Workloads auf unterschiedlichen Plattformen virtualisieren. Unser Consultant Robert Sander zeigt in seinem <a href="https://social.heinlein-support.de/tags/SLAC" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>SLAC</span></a>-Vortrag den aktuellen Funktionsumfang mit Schwerpunkt auf den Automatisierungsmöglichkeiten via API und CLI. </p><p>Robert ist als echter <a href="https://social.heinlein-support.de/tags/Ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>Ceph</span></a>-Profi mit einem weiteren Vortrag zum Thema „Der Ceph Orchestrator - Container für Storage“ Teil unserer Linux-Konferenz und zeigt darin u.a. die grundlegende Funktionsweise des Orchestrators. </p><p>🎟️ <a href="https://www.slac-2025.de" rel="nofollow noopener" translate="no" target="_blank"><span class="invisible">https://www.</span><span class="">slac-2025.de</span><span class="invisible"></span></a></p>
Scott Williams 🐧<p>Pleasantly surprised at how well hdd's perform in <a href="https://mastodon.online/tags/ceph" class="mention hashtag" rel="nofollow noopener" target="_blank">#<span>ceph</span></a> once you scale up dozens of nodes approach a petabyte for the pool. All the striping it does across osds really pays off nicely at scale.</p>