Kubernetes üzerinde Longhorn kullanmaktayım. Longhron 3 worker üzerindeki datalarım için ortak bir havuz sunuyor. Veriler podlar arasında worker farketmeksizin senkronize oluyor. Mevcut yapımda Longhorn harici diskler üzerine kurulu. Sorun bu nedenle kaynaklanıyor. Çoklu aygıt veya yol kullanınca aşağıdaki hata ile karşılaşabiliyorsunuz podlar içerisinde bazen.

Output: mount: /var/lib/kubelet/pods/cf0a0b5b-106e-4793-a74a-28bfae21be1a/volumes/kubernetes.io~csi/pvc-d061512e-870a-4ece-bd45-2f04672d5256/mount: /dev/longhorn/pvc-d061512e-870a-4ece-bd45-2f04672d5256 already mounted or mount point busy.

Hatanın çözümü için aşağıdaki adımları izlemeniz yeterli. Adımlar bize tüm aygıtlar üzerinde blacklist uygulaması yapıp hataya düşmesini engelleyecek.

Aşağıdaki komutla multipath.conf dosyamızı açıyoruz.

nano /etc/multipath.conf

Daha sonra aşağıdaki satırlar dosyanın en altına ekleyip kaydediyoruz.

blacklist {
    devnode "^sd[a-z0-9]+"
}

Daha sonra multipath servisimizi yeniden başlatıyoruz.

systemctl restart multipathd.service

Son olarak eklediğimiz konfigürasyonu doğruluyoruz.

multipath -t

Cheers!