- Se incorporó
- 15 Enero 2004
- Mensajes
- 11.976
Acá nos pidieron probar el rendimiento de unos modelos de IA que pudiésemos desarrollar y/o adquirir y como no tenemos equipamiento especializado nos tiraron unas chauchas para adquirir algo.
Software que se va a ejecutar: es desarrollo propio pero para efectos de estimar arquitectura hagan cuenta que le vamos a meter un Ollama con distintos modelos LLM.
Presupuesto: $1.700.000 IVA incluido.
Periféricos: no es necesario, seguramente lo vamos instalar en la oficina y luego lo vamos a meter en el datacenter conectado a la red.
Sistema Operativo base: Tenemos licenciamiento Windows Server así que bien podríamos instalarle un hyper-v. En una de esas proxmox, no sé. La huea es que puede ser bare metal o un hypervisor que permita compartir el procesamiento nVidia en máquinas virtuales.
Software que se va a ejecutar: es desarrollo propio pero para efectos de estimar arquitectura hagan cuenta que le vamos a meter un Ollama con distintos modelos LLM.
Presupuesto: $1.700.000 IVA incluido.
Periféricos: no es necesario, seguramente lo vamos instalar en la oficina y luego lo vamos a meter en el datacenter conectado a la red.
Sistema Operativo base: Tenemos licenciamiento Windows Server así que bien podríamos instalarle un hyper-v. En una de esas proxmox, no sé. La huea es que puede ser bare metal o un hypervisor que permita compartir el procesamiento nVidia en máquinas virtuales.
Última modificación: