Jaký server zvolit pro práci s velkými daty?
Když se mluví o velkých datech, tak mi vždycky naskakuje otázka, jaký server vlastně vybrat, aby to všechno fungovalo tak, jak má. Vím, že dneska je spousta různých možností – od cloudových řešení až po fyzické servery, ale jak se v tom vlastně vyznat? Třeba takový server s dobrým výkonem a škálovatelností, to zní skvěle, ale co si pod tím vůbec představit? Když mám na mysli objem dat v terabajtech nebo dokonce petabajtech, potřebuju něco pořádného. Jaké parametry by měl mít server, aby zvládl zpracovávat data rychle a efektivně? Je lepší jít do klasického rackového serveru nebo raději zvolit nějaké moderní řešení jako je cloud? Jak se to liší z pohledu nákladů a údržby? A co třeba otázka bezpečnosti a zálohování dat? To je taky důležité. Když už mám nějaký server, jak ho správně nastavit, aby fungoval optimálně pro analýzu velkých dat? Existují nějaké konkrétní softwarové nástroje nebo platformy, které byste doporučili pro práci s těmi obrovskými objemy informací? Samozřejmě bych chtěl vědět i o tom, jakou podporu lze očekávat od poskytovatelů serverů. Ach jo, tolik otázek a já nevím, kde začít. Takže pokud máte zkušenosti nebo tipy ohledně výběru serveru pro práci s velkými daty, budu moc rád za jakoukoli radu. Díky!