Limitaciones de MySQL
2 seguidores
Pues querría saber si alguien sabe cual es el límite que puede soportar un gestor de base de datos de un servidor medio. 1,5Gh z, 2GB Ram, 100GB disco duro, por ejemplo.
Tengo una base de datos con una docena de tablas que ocupan un total de giga i medio de información y parece ser que el servidor no da más de si. Cae cada dos por tres y quisiera saber si creando otra base de datos (en el mismo servidor), solucionaré el problema o no?
Pienso que distribuyendo la información en otra base pueda aligerar la tarea de realizar consultas distribuidas. O seguirá colgado?
Gracias.
dagi3d
yo es que nunca he sido amigo de meter datos binarios directamente en la base de datos, así que no podría asegurar que fuese eso. lo de que las filas tengan tamaños distintos entre sí no creo que sea el problema ya que al sistema le debe dar exactamante ir a una celda de memoria o a otra para recuperar los datos.
aunque igual sí que supone una merma en el rendimiento que tengas campos blob y estés seleccionando todos los atributos cuando realmente no hace falta.
lo que sí podría ser un problema sería si las tablas tuviesen muchísimas columnas y tratases de hacer un join de varias tablas.
yo probaría a hacer pruebas de stress lanzando consultas y ver como se comporta el sistema para buscar el cuello de botella, ya que si se os cae la máquina también podría ser por fallos de hardware o vete tú a saber...
de todas maneras, podrías poner la estructura de las tablas y las consultas que estás lanzando?
dan
Dagi3d pues según comentas lo único que me puede fallar sea lo de la cantidad de columnas por tabla. Cada tabla tiene un campo que es BLOB (con info alrededor de los 50Kb) y variable.
Cada fila puede tener un tamaño ligeramente distinto y sea eso que no "encaje" debidamente y le cueste ir a buscar segun que fila.
Ya que operaciones concurrentes no hay. Es una tabla muy sencilla pero hay muchos datos de diferentes tamaños.
Podría ser eso? Y si es así como lo podria solucionar?
dagi3d
puede que me equivoque, pero me da que el problema no lo tienes en la cantidad de información ya que un giga de datos no debería suponer problema alguno. estás seguro de que es problema del servidor de mysql? de ser así habría que mirar varias cosas, empezando por las consultas que se ejecutan ya que habría que ver si están bien realizadas(yo cuando empecé con el sql y no tenía ni idea de lo que era un 'join' podía hacer 4 consultas que se podían resolver en una sola y me quedaba tan pancho :D). otra cosa a tener en cuenta es la estructura de las tablas, de si tiene campos indexados por ejemplo o la cantidad de columnas por tabla, y luego yo miraría la cantidad de consultas concurrentes que se hacen(y si se está liberando la memoria correctamente). de ser ese el problema, me da que aunque instalases otro servidor en la misma máquina no te solucionaría nada ya que el problema sería una limitación de hardware y no de software. de todas maneras, para consultas muy pesadas o que se repiten bastante, puedes utilizar algún sistema de cacheado como memcache o alguno que esté implementado en el propio lenguaje con el que estés trabajando.