# Me guió de
# https://www.hoswedaje.com/moodle/configurar-smtp-de-gmail-en-moodle/
# Primero habilitamos uso de aplicaciones menos seguras desde
# https://myaccount.google.com/u/0/lesssecureapps?pli=1&rapt=AEjHL4P7rJUzeAr66pcYtmfR3SERnCJtfXaNeNNSDsqrFnKzCBHU0A1b23bZcYTKTF8SEZMNgAeDiQYHGSN_VonPHZvY7zBQDA
# en server correo saliente
smtp.gmail.com
tls
login
mail@gmail.com
clave
Estoy teniendo problemas por que hago un resguardo de archivos dentro de unas carpetas. Al ejecutar otro script que elimina esos archivos lo estaba haciendo mal y directamente me eliminaba todo el path completo.
Resumiendo
Tenia la carpeta
A/B/C
Y yo quería eliminar solo lo que estaba arriba de C y el puto rebelde me eliminaba A/B/C.
Como lo arregle?
#!/bin/bash
set -o errexit
set -o nounset
set -o pipefail
readonly DIR=/A/B/C/
F=$(which find)
$F $DIR -mindepth 1 -delete
Tengo dos equipos.
A con ip 192.168.0.18
B con ip 192.168.0.12
Entre ambos root con sshkey para no pedir clave.
Y obviamente rsync en ambos.
Quiero hacer un incremental por día
vi incremental.sh
#!/bin/bash
set -o errexit
set -o nounset
set -o pipefail
readonly c=$(which rsync)
readonly d="$(date '+%y-%m-%d')"
readonly orig=/Archivos
readonly us=$(whoami)
readonly ip=192.168.0.12
readonly foldf=/Archivos/$d/
$c -arvz --mkpath $foldf -e 'ssh -p 22' $orig $us@ip:$foldf
Solo me faltaría pasarle permisos de ejecución y meterlo en un crontab.
sudo apt update
sudo apt install curl -y
sudo curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose
docker-compose --version
# Al correr el instalador de la versión servidor de ubuntu
# Me encontré que docker es una opción de instalación automática.
# Esto anterior esta de mas.
# Que salame
# Me guió desde esto
https://www.osradar.com/install-and-configure-glusterfs-debian-10/
# Primer Server
192.168.0.18
gluster1.elviro.local
/dev/sdb
# Segundo Server
192.168.0.13
gluster2.romina.local
/dev/sdb
# host1
sudo hostnamectl set-hostname gluster1.elviro.local
sudo vi /etc/hosts
# ponemos
127.0.1.1 gluster1.elviro.local gluster1
192.168.0.18 gluster1.elviro.local gluster1
192.168.0.13 gluster2.romina.local gluster2
# host2
sudo hostnamectl set-hostname gluster1.elviro.local
sudo vi /etc/hosts
# ponemos
127.0.1.1 gluster2.romina.local gluster2
192.168.0.18 gluster1.elviro.local gluster1
192.168.0.13 gluster2.romina.local gluster2
# En ambos nodos hago lo mismo
sudo apt install glusterfs-server -y
sudo systemctl start glusterd
sudo systemctl status glusterd
# Agregamos disco en ambos equipos
sudo fdisk /dev/sdb
n partición nueva
p primaria
1 1
enter
enter
p mostrar detalle
w escribir
# Ahora formateamos la partición en ambos equipos
sudo mkfs.ext4 /dev/sdb1
# Crear el punto de montaje
sudo mkdir -p /data/glusterfs
# Montar el dispositivo en el punto de montaje
sudo mount /dev/sdb1 /data/glusterfs
# Esto agrega a fstab la configuracion desde el arranque
echo "/dev/sdb1 /data/glusterfs ext4 defaults 0 0" | sudo tee --append /etc/fstab
# tenemos que probar ambos nodos. Desde uno al otro
# Desde el primer nodo hago al otro lo siguiente
sudo gluster peer probe gluster2.romina.local
# Desde el segundo contra el primero hago
sudo gluster peer probe gluster1.elviro.local
# y chequeo que este todo bien
sudo gluster peer status
sudo gluster pool list
# En ambos equipos hago
sudo mkdir -p /data/glusterfs/glustervolume
# En el nodo 1 hago
sudo gluster volume create glusterfsvolume replica 2 gluster1.elviro.local:/data/glusterfs/glustervolume gluster2.romina.local:/data/glusterfs/glustervolume
# Acá inicio el volumen
sudo gluster volume start glusterfsvolume
# En el cliente hago esto
sudo apt install glusterfs-client -y
# Creo el punto de montaje
sudo mkdir -p /mnt/glusterfsvolume
# Como no tengo dns hago host para que tome los hostname
sudo vi /etc/hosts
192.168.0.18 gluster1.elviro.local gluster1
192.168.0.13 gluster2.romina.local gluster2
# Acá montamos a mano el recurso
sudo mount -t glusterfs gluster1.elviro.local:/glusterfsvolume /mnt/glusterfsvolume
# Con esto agrego la entrada en fstab
echo "gluster1.elviro.local:/glusterfsvolume /mnt/glusterfsvolume/ glusterfs defaults,_netdev 0 0" |sudo tee --append /etc/fstab
# Para probar en el cliente creo archivos y carpetas. Y esta se tienen # que replicar en ambos nodos
# Instalar zfs en debian 11 nos guiamos de
https://www.unifix.org/2021/12/06/installing-openzfs-on-debian-11/
sudo apt-get install -y software-properties-common
sudo apt-add-repository contrib
sudo apt update
sudo apt -y upgrade
# reiniciamos para poder tomar esto
sudo reboot
sudo apt install -y linux-headers-$(uname -r) linux-image-amd64 spl kmod zfsutils-linux zfs-dkms zfs-zed
sudo modprobe zfs
# La parte practica vendria desde esta base
https://www.ubuntizando.com/primeros-pasos-con-el-sistema-de-archivos-zfs-en-ubuntu-19-10/
# Chequeamos los discos que tenemos
lsblk -fm
# Creo un pool con lo que tengo
sudo zpool create pool-prueba /dev/sdb /dev/sdc /dev/sdd /dev/sde /dev/sdf
# Chequear el estado del pool creado
sudo zpool status pool-prueba
# Ver los pool creados
sudo zfs list
# Agregar disco al pool creado
sudo zpool add pool-prueba /dev/sdg /dev/sdh
# Esta parte me guió de
https://www.linuxito.com/gnu-linux/nivel-alto/1237-crear-y-configurar-un-dataset-zfs-en-linux
# Cambiar el punto de montaje
sudo zfs set mountpoint=/Archivos pool-prueba
Comentarios recientes