NAS y VMs sobre un Proliant Dlxxx gen6 2x xeon e55xx

SteeLr

Grunge is not dead!
Se incorporó
27 Julio 2007
Mensajes
581
si, lo mas probable que venga una de esas controladoras, tipicas de equipos hp
con tarjetas LSI o compatibles en freenas se puede usar el comando "mfiutil" para gestionar la controladora, crear/eliminar/modificar volumenes raid , cache, monitoreo de bateria, etc
pero igual en freenas lo mejor seria usar los discos independientes (cada disco en un raid0 propio), para que la redundancia la maneje el mismo zfs, ya que si encuentra algun error en los datos, el mismo puede buscar datos en otro mirror para corregir el error
Si.. Algo asi leí, así que no me complicare con tarjeta

Enviado desde mi SM-G935F mediante Tapatalk
 

SteeLr

Grunge is not dead!
Se incorporó
27 Julio 2007
Mensajes
581
esa generación debe usar una p410 o p410i... freenas tiene mejor soporte de controladores con LSI. Sería bueno que consideres reemplazarla en caso que compres ese equipo para usarlo como NAS.
Es arquitectura Westmere así que podría soportar ESXi 6.5 sin problemas. 6.7 no estoy seguro porque el mismo instalador de 6.5 te indicaba que esa generación sería descontinuada dentro de las futuras versiones de ESXi
Yo cacho q me voy por freenas. Pero gracias por el dato... En caso de, siempre se agradece.

Enviado desde mi SM-G935F mediante Tapatalk
 

Cosme

Gold Member
Se incorporó
27 Febrero 2005
Mensajes
8.275
Igual en la actualidad es mejor tener una hba a una raid; incluso hay firmwares para algunas raid basadas en lsi para dejarla como hba pass through
 

SteeLr

Grunge is not dead!
Se incorporó
27 Julio 2007
Mensajes
581
Igual en la actualidad es mejor tener una hba a una raid; incluso hay firmwares para algunas raid basadas en lsi para dejarla como hba pass through
Por que? . si quiero aprovechar zfs?

Enviado desde mi SM-G935F mediante Tapatalk
 

Cosme

Gold Member
Se incorporó
27 Febrero 2005
Mensajes
8.275
Por que? . si quiero aprovechar zfs?

Enviado desde mi SM-G935F mediante Tapatalk
porque al usar raid, la capa del sistema no tiene acceso a armar los arreglos, no tiene acceso a la informacion smart de cada disco, el software no puede leer los seriales de cada disco, etc.
 

SteeLr

Grunge is not dead!
Se incorporó
27 Julio 2007
Mensajes
581
porque al usar raid, la capa del sistema no tiene acceso a armar los arreglos, no tiene acceso a la informacion smart de cada disco, el software no puede leer los seriales de cada disco, etc.
Pero en caso de freenas sobre esxi? U otro

Enviado desde mi SM-G935F mediante Tapatalk
 

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.271
Pero en caso de freenas sobre esxi? U otro

Enviado desde mi SM-G935F mediante Tapatalk
no
en el caso de FreeNas directo al hardware
ya que de esa forma puede discernir si un disco esta malo, cambiarlo por el reemplazo, y siendo zfs como es, es mejor que el OS vea los discos para que pueda reparar datos
en caso de 1 Raid grande, 1 disco, ZFS seria inseguro, ya que si te da un corte de energía, o varios, y el filesystem acumula errores, el modulo de reparación de errores de ZFS no tendrá bloques de "espejo" para recuperar y reescribir los datos dañados (me a pasado en pruebas y cachureos), entonces se vuelve inutil

en ese caso (1 raid grande, algunas particiones) lo mejor seria usar el FS nativo de Linux (XFS, Ext4, etc) , o de vmware, y quizas con alguna VM compartir algo de espacio por red (samba, nfs)

para el caso de usar FreeNas sobre VMware ESXi y teniendo los discos individuales (HBA o en raid0 por cada discos para dejarlos individuales), se debe usar la función DRM para asignar el disco completo a la vm, ya que de esa forma el OS de Freenas podra trabajar y aprovechar los discos directamente, sin tener que estar creando unidades virtuales sobre filesystem de vmware
 

SteeLr

Grunge is not dead!
Se incorporó
27 Julio 2007
Mensajes
581
no
en el caso de FreeNas directo al hardware
ya que de esa forma puede discernir si un disco esta malo, cambiarlo por el reemplazo, y siendo zfs como es, es mejor que el OS vea los discos para que pueda reparar datos
en caso de 1 Raid grande, 1 disco, ZFS seria inseguro, ya que si te da un corte de energía, o varios, y el filesystem acumula errores, el modulo de reparación de errores de ZFS no tendrá bloques de "espejo" para recuperar y reescribir los datos dañados (me a pasado en pruebas y cachureos), entonces se vuelve inutil

en ese caso (1 raid grande, algunas particiones) lo mejor seria usar el FS nativo de Linux (XFS, Ext4, etc) , o de vmware, y quizas con alguna VM compartir algo de espacio por red (samba, nfs)

para el caso de usar FreeNas sobre VMware ESXi y teniendo los discos individuales (HBA o en raid0 por cada discos para dejarlos individuales), se debe usar la función DRM para asignar el disco completo a la vm, ya que de esa forma el OS de Freenas podra trabajar y aprovechar los discos directamente, sin tener que estar creando unidades virtuales sobre filesystem de vmware
Me quedó claro el caso de usar Freenas sobre VMWare ESXi, pero no el otro. Como que me enredé... perdonáme, podrías explicarmelo nuevamente?

Gracias master!
 

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.271
Me quedó claro el caso de usar Freenas sobre VMWare ESXi, pero no el otro. Como que me enredé... perdonáme, podrías explicarmelo nuevamente?

Gracias master!

wtf

es basicamente que FreeNas también tiene funciones para levantar, por si mismo, maquinas virtuales y contenedores

https://www.ixsystems.com/documentation/freenas/11.2/virtualmachines.html

ahi esta todo explicado, desde "que es" una maquina virtual, hasta como hacerlo , subiendo la imagen iso, y bootearla para instalar lo que se necesite

saludos
 

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.271
como dato, ojo con usar la ultima version de freenas 11.2 sobre Vmware ESXi, ya que cambiaron el gestor de arranque (nativo de BSD) y puede dar problemas para el arranque
en la 11.1 hacia atras usaba Grub como gestor de arranque, el cual no tiene problemas
este problema me a pasado en esxi 5.5 y 6.5 (puede ser despues de instalar, o despues de un tiempo funcionando)

saludos
 

SteeLr

Grunge is not dead!
Se incorporó
27 Julio 2007
Mensajes
581
wtf

es basicamente que FreeNas también tiene funciones para levantar, por si mismo, maquinas virtuales y contenedores

https://www.ixsystems.com/documentation/freenas/11.2/virtualmachines.html

ahi esta todo explicado, desde "que es" una maquina virtual, hasta como hacerlo , subiendo la imagen iso, y bootearla para instalar lo que se necesite

saludos
Lo que no me queda claro específicamente en el caso 1 raid 1 disco con zfs, es como se volveria inseguro. ¿es porque zfs no es resiliente a cortes de luz?

Enviado desde mi SM-G935F mediante Tapatalk
 

Cosme

Gold Member
Se incorporó
27 Febrero 2005
Mensajes
8.275
Lo que no me queda claro específicamente en el caso 1 raid 1 disco con zfs, es como se volveria inseguro. ¿es porque zfs no es resiliente a cortes de luz?

Enviado desde mi SM-G935F mediante Tapatalk
en palabras simples... no
 

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.271
Lo que no me queda claro específicamente en el caso 1 raid 1 disco con zfs, es como se volveria inseguro. ¿es porque zfs no es resiliente a cortes de luz?

Enviado desde mi SM-G935F mediante Tapatalk
como dice @Cosme no se lleva muy bien con apagones o desconecciones, y si esta virtualizado, se agregan mas capas de acceso antes de que los datos queden en el hdd finalmente (cache-ram de freenas -> ZFS -> ram vmware -> vmfs5 -> cache raid -> disco fisico )

en cambio al usar el disco directo (incluso virtualizado puede tener acceso directo al disco sin raid, o usando un raid0 por disco) el camino es mucho mas corto:
cache-ram freenas -> ZFS -> cache raid -> disco fisico

sin una controladora raid, el paso se salta el "cache raid" y el almacenamiento es directo al disco

el tema es que cuando ZFS comienza a escribir cambios en un archivo, este comienza en un nuevo grupo de bloques, y al momento de terminar, termina moviendo los datos y borrando el grupo anterior (lo que logra mejorar el rendimiento ya que no busca sobreescribir datos existentes inmediatamente)
si no se desmonta correctamente, o se corta la energia, pueden quedar datos incompletos o archivos corruptos
lo bueno, es que ZFS te dice cuales archivos estan corruptos, cosa de que los elimines y restaures el backup puntual de uno o varios archivos puntuales en vez de restaurar todo a ciegas.
eso suele ocurrir si solo tienes ZFS sin redundancia, y con eso el bloque dañado no tiene un "espejo" disponible para reparar, lo cual lo realiza automáticamente cuando se usan mirrors (raid1 por ejemplo, o raid10)
 

Cosme

Gold Member
Se incorporó
27 Febrero 2005
Mensajes
8.275
como dice @Cosme no se lleva muy bien con apagones o desconecciones, y si esta virtualizado, se agregan mas capas de acceso antes de que los datos queden en el hdd finalmente (cache-ram de freenas -> ZFS -> ram vmware -> vmfs5 -> cache raid -> disco fisico )

en cambio al usar el disco directo (incluso virtualizado puede tener acceso directo al disco sin raid, o usando un raid0 por disco) el camino es mucho mas corto:
cache-ram freenas -> ZFS -> cache raid -> disco fisico

sin una controladora raid, el paso se salta el "cache raid" y el almacenamiento es directo al disco

el tema es que cuando ZFS comienza a escribir cambios en un archivo, este comienza en un nuevo grupo de bloques, y al momento de terminar, termina moviendo los datos y borrando el grupo anterior (lo que logra mejorar el rendimiento ya que no busca sobreescribir datos existentes inmediatamente)
si no se desmonta correctamente, o se corta la energia, pueden quedar datos incompletos o archivos corruptos
lo bueno, es que ZFS te dice cuales archivos estan corruptos, cosa de que los elimines y restaures el backup puntual de uno o varios archivos puntuales en vez de restaurar todo a ciegas.
eso suele ocurrir si solo tienes ZFS sin redundancia, y con eso el bloque dañado no tiene un "espejo" disponible para reparar, lo cual lo realiza automáticamente cuando se usan mirrors (raid1 por ejemplo, o raid10)

el problema del force-shutdown se vuelve mas grave cuando zfs tiene activo el dedup; de todas formas, si se activan tecnologias asi, no cuesta nada meterse la mano al bolsillo y comprar una ups de 30 lucas con puerto usb/serial
 

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.271
algo que encontre revisando la documentacion actualizada:

https://www.ixsystems.com/documentation/freenas/11.2/install.html

mirar al fondo de la pagina, tiene opciones adicionales para tener en cuenta en la creacion del disco virtual para instalar sobre vmware:

Fig. 2.6.17 Creating a Storage Disk

For ESX 5.0, Workstation 8.0, or Fusion 4.0 or higher, additional configuration is needed so that the virtual HPET setting does not prevent the virtual machine from booting.

If running ESX, while in Edit Settings, click Options ‣ Advanced ‣ General ‣ Configuration Parameters. Change hpet0.present from true to false, then click OK twice to save the setting.

For Workstation or Player, while in Edit Settings, click Options ‣ Advanced ‣ File Locations. Locate the path for the Configuration file named filename.vmx. Open that file in a text editor, change hpet0.present from true to false, and save the change.

bueno, como estaba preparando nuevos equipos, aproveche de hacer la prueba, y otra vez fallo la mierda cuando le active los discos en DRM (acceso directo al disco)
asi que procedo a reinstalar la vm de prueba, pero dejando esta con arranque via EFI, y en el instalador de Freenas le puse que arrancara via UEFI, y con todos los discos conectados, la mierda arranco de una :xd
antes se colgaba y quedaba un cursor fijo (de esos que parecen girar), pero ahora con EFI el bastardo parece acceder sin problemas

saludos
 
Última modificación:

JohnL

Capo
Se incorporó
27 Diciembre 2005
Mensajes
141
Ojo que FreeNAS no recomienda que se virtualice ya que necesita control total sobre los discos duros, aunque sea por RDM, no es buena opción utilizar una configuración así en producción. Para usarlo con VMware lo recomendable es tener una controladora por passthrough hacia la VM, así FreeNAS -o el sistema operativo que quieras- tendría acceso total a la controladora y los discos.

Si tienes un servidor con buenas características, para mi la mejor opción es montar ESXI ya que así podrás tener virtualizados los servicios que quieras.
 

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.271
si, el problema si está virtualizado y con discos rdm es que si falla uno, la vm podría quedar bloqueada por vmware al momento de que el disco deje de responder

la opción de la controladora es lo más recomendable para esos casos, y hay que ver bien donde se instala el sistema base y la base de freenas xD

Enviado desde mi moto g(7) plus mediante Tapatalk
 

JohnL

Capo
Se incorporó
27 Diciembre 2005
Mensajes
141
Si mal no recuerdo, otro problema del RDM es que la VM con el SO que sea, no es capaz de obtener los datos de SMART de los discos.
 

Miguelwill

I am online
Miembro del Equipo
MOD
Se incorporó
23 Febrero 2004
Mensajes
12.271
Si mal no recuerdo, otro problema del RDM es que la VM con el SO que sea, no es capaz de obtener los datos de SMART de los discos.
si, aunque con las que e probado, usando un dispositivo paralelo a los discos, si es factible el leer los datos del smart
aunque la gracia de vmware en Dell es que se puede instalar el servicio de gestión OSM para revisar el estado de hardware o discos, arreglos, o configuraciones más avanzadas, con poca o nula necesidad de reiniciar

Igual en HP se pueden revisar estados de hardware, pero despues de un tiempo los sensores dejan de sincronizar

Enviado desde mi moto g(7) plus mediante Tapatalk
 

JohnL

Capo
Se incorporó
27 Diciembre 2005
Mensajes
141
si, aunque con las que e probado, usando un dispositivo paralelo a los discos, si es factible el leer los datos del smart
aunque la gracia de vmware en Dell es que se puede instalar el servicio de gestión OSM para revisar el estado de hardware o discos, arreglos, o configuraciones más avanzadas, con poca o nula necesidad de reiniciar

Igual en HP se pueden revisar estados de hardware, pero despues de un tiempo los sensores dejan de sincronizar

Enviado desde mi moto g(7) plus mediante Tapatalk

Esa es la gracia de los servidores, poseen herramientas de ese nivel.

Yo tengo un homelab con una supermicro con esxi y le monte una VM con xpenology, llevo 2 años sin un puto reinicio con servicios publicados en la wan. Ningún problema con xpenology.
 
Subir