Cómo convertirse en Data Scientist?

mata.skt

Embrace Future, Embrace Bitcoin.
Se incorporó
16 Febrero 2020
Mensajes
1.482
El método simplex está fuera de moda por la sencilla razón de que los problemas de la realidad no son lineales. Es más el 99% de los problemas nisiquiera pueden ser modelados en el ámbito de la investigación de operaciones.
 

clusten

ADMIN
Miembro del Equipo
ADMIN
Se incorporó
1 Julio 2007
Mensajes
6.157
Pensar que en las Universidades aún enseñan el método simplex( hasta al @clusten le enseñaron esa cuestión hace mil años) ....y en el mundo laboral ya están usando Deep Learning...
No había cachado que me sacaste al baile gratuitamente.
Lo unico que recuerdo es que comentabas hace unos meses (o años) que el que aprenda SQL era el rey. SQL me lo enseñaron cuando era mechon, el 2006.

Sobre el metodo, es cosa de cada proyecto. Ponerse purista y descartar metodos por que no te han servido a ti en tus aplicaciones particulares, es ser miope.

Para optimización de planes mineros, usamos aun el algoritmo de Kenneth Lane (1964), pues da resultados rapidos, haciendo una politica de corte orientada al valor y para restricciones, usamos lp_solve (la librería gratuita, para que calentarse la cabeza).

Han aparecido jovenes entusiastas desafiando, lo cual esta perfecto, pero ninguno ha dado con algo que entregue mejores resultados en el mismo o menor tiempo. Visualización, comparación o presentación de resultados hay muchos avances con las nuevas herramientas, pero hasta ahí. Mejores resultados? si, pero en 10 veces el tiempo no sirve, ni siquiera si te demoras el triple es aceptado (igual para cualquier data scientist le puede parecer logico que se trabaje asi, la magia que podrían lograr está antes, en la etapa de estimación de recursos, donde tienes incertidumbre. En la planificación largo plazo ya estás con modelos de recursos que son estaticos)
 
Última modificación:

mata.skt

Embrace Future, Embrace Bitcoin.
Se incorporó
16 Febrero 2020
Mensajes
1.482
No había cachado que me sacaste al baile gratuitamente.
Lo unico que recuerdo es que comentabas hace unos meses (o años) que el que aprenda SQL era el rey. SQL me lo enseñaron cuando era mechon, el 2006.

Así es,y recuerdo que un Moderador un tal Zuilij o como sea decía que no era necesario,que era muy “técnico “ y al final el tiempo me dio la razón. 8 de cada 10 pegas donde pagan más de 1 millón te piden SQL para analisis de datos.


Sobre el metodo, es cosa de cada proyecto. Ponerse purista y descartar metodos por que no te han servido a ti en tus aplicaciones particulares, es ser miope.


Para optimización de planes mineros, usamos aun el algoritmo de Kenneth Lane (1964), pues da resultados rapidos, haciendo una politica de corte orientada al valor y para restricciones, usamos lp_solve (la librería gratuita, para que calentarse la cabeza).

Han aparecido jovenes entusiastas desafiando, lo cual esta perfecto, pero ninguno ha dado con algo que entregue mejores resultados en el mismo o menor tiempo. Visualización, comparación o presentación de resultados hay muchos avances con las nuevas herramientas, pero hasta ahí. Mejores resultados? si, pero en 10 veces el tiempo no sirve, ni siquiera si te demoras el triple es aceptado (igual para cualquier data scientist le puede parecer logico que se trabaje asi, la magia que podrían lograr está antes, en la etapa de estimación de recursos, donde tienes incertidumbre. En la planificación largo plazo ya estás con modelos de recursos que son estaticos)

Tiempo al tiempo. En chile todavía no hay mucho cientifico de datos. Las empresas recien están subiendo sus datos a la nube y creando la infraestructura. Eso les llevará unos 3 años más y luego 3 años más para que el mercado entrene a los data scientist.

Asi que tus algoritmos del año de la pera tienen fecha de vencimiento pronto.
 
Subir