Sono sorpreso che quella CPU sia ancora viva... c'è un motivo se quei processori sono spediti con una dinanometrica per essere avvitati. Inoltre quella motherboard ha l'IPMI... non hai bisogno di una scheda grafica per fare la configurazione, basta usare la kvm integrata. Poi un paio di domande: perchè non usare un case per fare rackmount? Alla lunga torna utile e comodo. Inoltre, non hai considerato l'opzione di usare hardware enterpise usato? Molti modelli 2/4 u sono più silenziosi di quello che pensi ed il risparmio economico è considerabile.
concordo in toto , mi pare follia pura che una persona come lui non si sia informato nemmeno sulle specifiche della mainboard , stavo per piangere quando ho visto montare la CPU, per non parlare di come ha trattato le ram.
Verissimo... diciamo che si è stupito di un po' troppe cose durante il montaggio. Senza parlare delle "due vga". Anche il discorso del caricamento da chiavetta non mi convince moltissimo, tutto sto popò di macchina e poi lesini su un ssd.
Quelle che hai indicato non sono due VGA, cioè una si, l'altra è una COM (seriale) che forse potresti usare per configurare il bios senza dover montare per forza una VGA (sicuramenete più comodo con una VGA). Altrimenti, in una delle due LAN era riportato MGNT, dovrebbe essere la porta della BMC, non so se è a parte, ma se fosse integrato lo puoi usare per vedere se ci puoi configurare il BIOS.
Io non collegherei tutti i dischi con lo stesso cavo di alimentazione sata, un disco può assorbire 10 Watt, durante l'avvio da fermi possono anche assorbire più di 20 watt l'uno, con 7 dischi su un unico cavo c'è il rischio che all' avvio cali la tensione ai dischi, durante l'utilizzo con ZFS che usa tutti i dischi insieme si andrebbe ad assorbire troppo per un solo cavo, io metterei almeno 2 cavi e dividerei gli hard disk 3 su un cavo e quattro sull'altro. Comunque aspetto la terza parte.
c'è chi ha i denti e non ha il pane e chi ha il pane ma non ha i denti, poi perche andare a fare un server con HDD quando oggi tutti lavorano verso gli SSD e gli NVMe ?
@@MarinaTrio Hanno molto senso oggi gli Hdd, hanno più capacità a prezzo più basso, sono più durevoli, gli ssd hanno un limite di scrittura oltre il quale danno problemi, inoltre con zfs con 7 dischi come velocità si dovrebbe riuscire a saturare la 10 gbit
Ciao non so se ti può essere utile ma alcune motherboard per server hanno un simile vga integrata nella motherboard per gestire BIOS e terminale ed avere un output video , se quella sulla motherboard fosse una di quelle non avresti bisogno di una gpu , prova a vedere sul manuale della motherboard
sugli hard disk per nas vedo che si può scegliere anche con quale cache interna acquistarli (64Mb/128/256). Ma se poi come nel tuo caso ci mettiamo un NVMe da 256 GB serve a qualcosa prenderli anche con la cache interna più alta?
Diciamo che l'errore principale di usare un sfx non è nella bontà del componente, ma nel fatto che ha dei cavi lievemente più corti pensati per gli itx, io personalmente avrei preso magari un ATX e non lo avrei lasciato così penzolante 😅
Consiglio: io farei una etichetta col seriale del disco da attaccare frontalmente sul disco, così quando dovrai sostituirne uno guasto non dovrai smontarli tutti per capire quello che si è rotto qual'è. PS build bellissima
non vedo l'ora che arrivi la puntata sulla parte software e configurazione, sul mio server ho un problema con samba di trasferimento, trasferisco anche costantemente a 280Mb/s poi scende a picco fino a zero, sta fermo e riparte a 280Mb/s, questo fino alla fine del trasferimento o al suo timeout! I dischi sono 4 dischi WD Red da 4Tb SATA3 configurati in un pool ZFS in Raid 10 così che si possa fare il confronto tra le due catene Raid 1 per evitare la silent corruption, l'unica soluzione che ho trovato per evitare questo problema è abbassare da samba la velocità di trasferimento, ma così perderei l'utilità delle schede di rete da 2,5gbps, la ram è più che sufficiente rispetto ai dischi, 32Gb a 3200mhz con un i9 9900k come cpu
Raid 0 è una cosa che non andrebbe MAI usata, sono decenni che non si usa più a meno che vuoi avere il brivido di perdere i dati, neanche il raid 10. pool ZFS è un raid software che risente delle limitazioni dello scambia dati è indifferente quanto potente ram e CPU usi.
@@massimoolivieri6145 ciao e grazie della risposta, perché dici che un mirror di dischi non andrebbe usato? Sprechi il 50% dello spazio in funzione della sicurezza dei dati, il raid 10 permette di avere più spazio mirrorando due catene di raid 0, per perdere i dati non basta la rottura di un disco ma servono due o in certi casi tre dischi nel caso di un raid 10, uso il raid software di zfs e non l’hardware che ho a disposizione in quanto da poco ho subito una silent corruption Bella pesante, dove diversi dati poco per volta si sono corrotti fino a essere illeggibili, usando un mirror zfs e lo scrub, zfs verifica l’integrità del dato tra le due catene mirror e rimpiazza il corrotto, se c’è una soluzione migliore ben venga, sono qui proprio per un confronto
@@RedFoxy_Darrest il raid 0 non si è mai usato,chi lo ha usato alla prima perdita di dati lo ha dimenticato subbito, 10 è morto da tempo non ha senso usarlo . si usa il RAID 5 o il 6.
@@massimoolivieri6145 partendo così anche il raid 5 è pericoloso, negli anni, e non solo io, ho visto diversi server con raid 5 trovarsi morto alla rottura del primo disco, in quanto al cambio durante la ricostruzione trova fallato un secondo (o più) disco non riuscendo a completare l'operazione, senza contare la grossa difficoltà del raid 5 sui file di piccola dimensione
@@RedFoxy_Darrest evidentemente non ti è chiaro cosa sia un raid e come funzioni. Un raid0 metti in serie 2 o più dischi. E vai a dimezzare (o più) l'affidabilità dell'archiviazione. In un raid 10 metti 2 catene di raid0 (per almeno 4 dischi), quindi l'affidabilità rimane quella di rottura di un disco e però devi usare almeno 4 dischi e ne perdi 2. Contrariamente in un raid5 puoi usare solo 3 dischi e ne avrai 1 "perso". Che si traduce nella possibilità di rompere 1 disco e il sistema nemmeno se ne accorge. Molto spesso si usa il raid6 dove usi 6 dischi e ne perdi 2 avendo la possibilità di rottura fino a 2 dischi senza perdere nulla.
Quando mi ero montato il PC a non trovare la doppia linguetta per l' incastro della RAM, ci stavo rimanendo male visto che non era come nei video di spiegazione
Dici giusto, su queste schede è bene leggere le istruzioni perché le configurazioni non sono mai banali, ne so qualcosa, la mia Asus Z10PE D16WS è molto rigorosa su come si devono popolare gli slot ram
Ti apprezzo per i contenuti che pubblichi, perché sei simpatico e spieghi chiaramente le cose, ma un piccolo appunto te lo voglio fare. Ti lamenti perché hai acquistato la pasta termica in più, quando c'era già in dotazione con il cooler. (dopo aver speso uno sproposito per tutto l'ambaradan, ti lamenti per la coda dell'asino, dopo che lo hai mangiato tutto) ...e in seguito dici "che potresti utilizzare una scheda che già hai in tuo possesso, SE, non la vendi, ....tanto poi la ricompri" 😄😄😄 Ho un nas con mezzi di recupero, e uno come il tuo ME LO SOGNO... non mi lamenterei per 20 o 30 euro per la pasta termica, ne tanto meno, vendere una cosa che mi serve dopo essermi lamentato per 20 euro. Te lo dico in amicizia meglio, non lamentarsi.
ma quali 20/30 euro, la pasta termica ne costa 5. Ma oltre a ciò ci sono molti cooler che vengono con la pasta già pre applicata e se sei uno che anche sporadicamente maneggia i computer, una pasta termica ce l'hai già.
@@lorenzomecchi5756 Non è proprio così. Una pasta "seria" costa tranquillamente 10 o 15 euro (col trasporto). Ma il punto-chiave è che il "ventolone" è molto sottodimensionato. Con tutto quello spazio libero puoi creare dei vortici peggio di un tifone. Il problema nei server è quando lo spazio è risicatissimo e te lo giochi a millimetri. Spazio ampio = ci metti il ventolone più grande che riesci a trovare. Anzi, più di un ventolone. Senza se e senza ma.
Concludo con: con quello spazio ovviamente una seconda Noctua è d'obbligo, costa una trentina di euro ed è sempre cosa buona e giusta (ci sono anche nere). Poi ci sono le grigliette, che vende sempre Noctua volendo, anche in pacchi da 5. In un case molto ampio non sono fondamentali, ma alle dita ci tengo (lo impari quando una ventola ti fa saltar via la pelle da una nocca e stupidamente non avevi i guanti perchè volevi infilare chissà cosa con la macchina accesa). Mentre i dischi "ammucchiati" invece no, non hanno senso. Tra l'altro è un server, quindi il cable management è solo per bellezza, cioè inutile. Quello che si fa è raffreddamento (quindi i componenti che scaldano LONTANI tra di loro il più possibile) e facilità di manutenzione (cioè hai una bella pacca anteriore? stampi su carta la posizione dei singoli dischi e gliela attacchi con lo scotch. L'uomo veramente molto, ma molto, ma MOLTO saggio, DOPO aver installato TrueNAS, attacca i dischi uno alla volta (beh, diciamo 3 o 4 alla volta) per avere una corrispondenza perfetta tra il nome logico del disco, la porta SAS fisica, e il posizionamento del ferro. Traduzione. Il sistema operativo ti avvisa tuo disco adkp4s0sticazzi è in avaria. Sostituiscilo. Qual'è? Su certi sistemi ci sono proprio le lucette, sì, le lucette che puoi attivare una alla volta. Per build più semplici come questo un foglietto con scritto "il disco adkp4s0sticazzi è quello in basso a sinistra" può essere la differenza tra "la vita eterna" e l'inferno (le bestemmie in lingue straniere). Luke... ricorda... niente è peggio di avere tante unità tutte uguali e non saperle distinguerle... usa la carta... Luke...😆
@@Vichingo455 In realtà no. O meglio se hai il disco come normalmente infilato in un tray insieme a N altri non riesci a leggerne il numero di serie. Non è che puoi spegnere un server, smontarlo a metà per guardare con una pilina quali siano i seriali dei dischi. Certo puoi farlo, ma l'uomo saggio si pone nelle condizioni più favorevoli.
Sempre procedendo con schede così è normale usare NVMe montati con adattatorini PCI-e (come suppongo noto essenzialmente sono adattatori fisici o poco più, se non splittano le lane). TRADUZIONE. Le unità NVMe "appiccicate" alle schede madri sono dannatamente difficili da sostituire. Adesso quel caso è vuoto, non c'è problema. Nel mondo normale invece è pieno di schede controller, GPU, sticazzi, cavi e cavetti, rendendo praticamente impossibile svitare le vitine e toglierli dalla scheda madre (senza smontare tutta la "m..a" a bestemmie). Allora li metti su schede PCI-e che infili esattamente come le schede video (tra l'altro quando li vuoi cambiare li sfili in un secondo). Le macchine server hanno il grosso vantaggio (in genere) di avere TANTE linee PCI-e che significa poter mettere TANTI NVMe senza significative perdite di velocità (ricordiamo che TrueNAS consente di fare MIRROR NVMe, cosa praticamente impossibile con qualsiasi altra cosa). Traduzione. In una macchina del genere avrei messo 6 NVMe PCI-e (mirror a coppie), e ci avrei piazzato davanti una ventola per muovere l'aria (ricordare, questione termica ben prima di quella estetica) e un case grande 1/4, che consuma probabilmente molto meno di 1/4, e con prestazioni enormemente superiori (ovviamente spazio totale usabile 12TB su tre volumi da 4). Insomma, lo storage magnetico LOCALE ha senso per i backup (grande, lento, poco costoso). Mai e poi mai mi verrebbe in mente di usarlo per memorizzarci dati di lavoro. Cioè per editarci un video, tanto per essere chiari. Un portatile da 500 euro, per quanto possa apparire strano, ha comunque un'unità di massa più veloce di quello. Lo so che pare una critica "severa", ma l'elemento-chiave che vedo un pochino sottovalutato è "perchè" fare qualcosa, più che "come". Attenzione, ribadisco che sono (almeno spero si colgano) critiche costruttive da un ultra-vecchio professionista del ramo che fa proprio quelle "cose"
Tanto per dire...la vga le schede madri da server le hanno gia' integrate le vga non hanno nessuna accelerazione 3D proprio perche' servono solo per configurare il server. Bastava leggere le specifiche della scheda madre che hai scelto, quindi non ti serve nessuna scheda video. Per il cavo del case che non capivi cos'era, è un type-c che va collegato alla scheda madre, ma non credo quella scheda madre da server ce l'abbia. Per ultimo...faccio un'appunto personale sulla scelta di usare un dissipatore come questo su una cpu tanto calorosa assieme ad un case chiuso quasi a chiave....
Più che altro perchè non mettere una SECONDA ventola noctua, visto che le vendono tranquillamente con tanto di "ferretti" laterali per agganciarli. La vera domanda è : perchè quella CPU per fare un "controllerone RAID". zfs ha due attività "strane", una è la compressione (tipicamente LZ4 o lzo, quella che scegli), l'altra sono i checksum (tipicamente attivi, e tipicamente sha256, anche se non sempre). Mentre la compressione è parallelizzabile, i checksum no, non lo sono. Significa che ogni singolo core può fare un singolo calcolo sha256. TRADUZIONE. Se hai un server che... serve molti utenti contemporaneamente, molti file contemporanei, ad esempio perchè sono su memorie a stato solido, e il carico è ad esempio un server web con un centinaio di utenti che stanno facendo i loro ordini sul loro prestashop, ALLORA ha senso avere una CPU (sto parlando di zfs) con tanti core, perchè ogni core elaborerà gli sha256 singolarmente, ma in "parallelo" tra i vari core (spero si capisca). Se invece la macchina la userai da solo, leggendo e scrivendo un file alla volta (o poco più) ecco che anche se hai 100 core, zfs ne userà uno solo, perchè per calcolare l'hash non può usarne più di uno [vabbè ho fatto un cuttone, spero si comprenda almeno l'idea]. Se poi proprio proprio vogliamo approfondire, l'uomo saggio si preoccupa di verificare se esiste l'accelerazione SHA-256 per la CPU che intenderà usare. TRADUZIONE. SE si utilizza il calcolo SHA-256 dei checksum zfs, la velocità massima che la CPU può elaborare è nell'ordine di 500MB/s per CPU molto, ma molto, ma molto veloci. Le CPU da server sono in generale molto, ma molto più lente. Ciò significa che non riuscirai ad aggioranare l'hash DI UN BLOCCO (ricordiamo: non esistono gli hash "a file" in zfs, ma solo "a blocco" (a record)) a velocità estremamente elevata. Anzi, tipicamente, avrai un limite attorno ai 200/300MB/s. Dato, paradossalmente, dal CPU-bound, cioè da un limite della CPU. Alcune di queste (tipicamente AMD) hanno una accelerazione hardware per il calcolo SHA-256, che (mondo reale) lo triplica. Senza andare avanti col "superspiegone" (!) in sostanza bisogna avere una consapevolezza molto approfondita su come lavora zfs e quale sia l'utilizzo che si vuol fare, e quale sia il mix lettura-scrittura, e se ci saranno molti blocchi (record) da aggiornare. Chiaramente il checksum si può disattivare, o se ne può usare uno meno affidabile (fletcher4 usualmente). Però sparisce buona parte della "sicurezza" di zfs nell'individuare gli errori, e non è bene per la deduplicazione (ammesso che la si usi, tipicamente per i backup versionati). SHORT VERSION: è molto, ma moooolto più complicato di quello che sembra 😄
Sempre da "vecchio" professionista uso... ramdisk. E' per me normalissimo fare ramdisk da almeno 80GB ed usare quelli per fare i miei lavori. In certi casi anche più grandi, fino a 512GB (su una macchina da 768). Traduzione. Sprecare RAM come ARC non ha il minimo senso. Le prestazioni saranno identiche con 30GB o 100GB di ARC. Esistono i ramdisk anche su FreeBSD (io li uso sempre) e sono l'ideali su server tenuti sempre accesi con gruppo. Non sono certissimo sulla fruibilità con TrueNAS (c'è un /mnt/ "hardcodato" nel sorgente del middleware). Comunque: volete una svolta? Mettetevi un RAMdisk locale capiente, perfino su sistemi desktop. Capita mille volta di scaricare una ISO, piuttosto che un file ZIP da estrarre etc. Ovviamente anche metterci sopra una macchina virtuale durante la creazione ha un suo perchè. Lo ha pure dal punto di vista dei fanatici della sicurezza stile Snowden, ma è altro argomento
perchè ha fatto una cosa senza senso, ha speso di desta sua un montagna di soliti un un PC costoso in cose inutili. Quello non è ne un server ne una workstation, invece di fare di testa sua (pensando chi sà quanto risparmiava ) , dove spendere qualche soldo un buon negozio o una consulenza per una macchina sulle sue necessità.
bravo, ma ha un senso solo perchè se i un creator, sinceramente un giocattolo, professionalmente anche come piccola azienda io sarei andato, se avessi voluto spendere poco, su un huawei che oggi te lo tirano dietro con doppia testa/controller, funzionalità enterprise, e se ti si rompe un disco la mattina dopo ti trovi uno a casa con un disco nuovo. comunque video interessante :)
zfs essendo un software raid ha bisogno di tanti core per funzionare decentemente... inoltre magari in un futuro avrà voglia di mettere delle vm o container docker sul server
no, il contrario. infatti è un no-sense. Sever o NAS hanno CPU potenti per gestioni di dati aziendali, servizi , gestionali. Per Montaggio video al massimo si mette una scheda video potente, opposto di quello che ha fatto.
@@Lollozerotre perchè usare una CPU ?!? esistono le schede RAID apposta. Un pool software non sarà prestante come un raid hardware. VM/docker per fare il montaggio video... lo vedo un pò scomodo minimo si usano 2-3 monitor. Almeno che voglio lavorare o far lavorare da remoto.
@@massimoolivieri6145 il raid software (zfs o simili) può essere molto più prestante e flessibile di molte schede raid. Inoltre considerando che comunque è un “server” non è il computer che usa per montare.. magari vuole usare docker per hostare roba tipo nextcloud o simili.
@@Lollozerotre io sò rimasto alle schede raid., zfs da quello che leggo è più per gestione DB o al massimo archiviazione/Streaming, non mi sembra molto per il montaggio video. Chiamarlo quello server ci vuole, l 'intento suo invece era proprio quello di usarlo per fare montaggio usando la rete. Non mi sembra uno che condivida progetti o servizi, poi nascerebbe il problema di sicurezza nel aprire quel PC verso esterno con tutti i dati sopra.
E' l'unico vero motivo per montare un aggeggio del genere. Non ha senso un Epyc per questo sistema TrueNAS, a meno che no faccia hashing per la ridondanza di tanti file condivisi con tanti utenti.
Allora da "vecchio" professionista del ramo la cosa che salta immediatamente all'occhio è... l'assenza dei guanti. I guantini sono fondamentali durante questi lavori. Sia per non sporcarsi in generale, sia soprattutto per non tagliarsi con gli spigolini taglienti che sono ovunque dentro un PC. Idealmente pure una messa a terra da polso, però con questi tipi di componenti non è strettamente necessario. Manca all'appello una "pilona" (cioè una torcia elettrica bella potente) e, per i fanatici come me, un multimetro per saggiare la CRC2032. Talvolta ti trovi con server che costano decine di migliaia di euro, e una pila da 2 euro ormai andata. Per CPU così grandi la pasta si stende col bordo di una carta di credito, insomma stile "spatolina di plastica". Inoltre manca la base di tutto, cioè una ciotolina, diciamo un bicchiere di plastica tagliato a metà, dove porre man mano le minuterie metalliche (vitine etc) per impedire che finiscano sotto il tavolo (grandissimo classico). Sempre in tema un cacciavite telescopico magnetizzato di ottima qualità (tipo un Wurth) oppure una calamitina cinese allungabile. Prendere una vite che ti è sfuggita dentro il case può salvare una raffica di bestemmie terrificanti. Riguardo al montaggio dei dischi l'uomo saggio NON li metterebbe uno sopra l'altro, bensì più distanziati possibili. E, soprattutto, annoterebbe la posizione dei singoli numeri di serie dei dispositivi, così da rendere MOLTO più facile sostituirne uno in avaria. Sulle schede video. La questione è meno banale di quello che sembra. In alcune schede madri c'è una Matrox compatibile (!) tipicamente con uscita VGA. In altre non c'è nulla. In altre c'è la scheda video della CPU (ma sono rare). Ma c'è un ma, e si chiama UEFI. Con sistemi a boot UEFI (quasi) sempre si tagliano via le periferiche PCI-e. In sostanza il BIOS di queste (il loro firmware) non viene attivato, e non bootano. TRADUZIONE. Hai un controller PCI-e RAID per i dischi con tutto il suo "sistema operativo" interno. Lasci UEFI, il controller sparisce. Metti Legacy, e la macchina non fa il boot perchè la scheda video integrata nella CPU (ammesso che ci sia, dipende dai vari modelli ovviamente) richiede UEFI. Allora ci metti una scheda video PCI-e dimmerda di 10 anni fa, giusto per avviarlo. Però non parte, perchè è troppo vecchia e UEFI non la riconosce. Insomma, in generale, capita di dover buttar via una trentina di watt per una scheda vide che non viene mai usata con tanto di accelerazione 3D. C'è un meraviglioso sito dove, mano a mano, aggiornano la potenza richiesta per i vari modelli. Comunque in breve, ad oggi, GT 1030 è quella che ho trovato col minor consumo ma la maggior compatibilità (ripeto, watt buttati)
Per i numeri di serie io tempo fa ho avuto problemi con un disco, da TrueNAS ho letto il numero di serie e dal BIOS sono andato per esclusione per trovare a quale SATA era collegato (la mia mobo ha 8 SATA separate).
@@briccimn E secondo te come si dovrebbe fare ? Io sto giusto costruendo un server con ProxMox dentro al quale vorrei mettere TrueNas e 4 dischi in Raid ZFS. Mi dai un consiglio please ? Grazie
@@MrDenisJoshua Separa NAS e Server ProxMox. MAI avere un unico hardware cui affidare tutto. Un serverino proxMox lo implementi con davvero spese molto contenute, ma punta SEMPRE a prendere schede marìdri che possano permetterti connettività BMC (IPMI, KVM, chiamalo come vuoi, ma che sia connettività da remoto via rete e senza monitor. Per il NAS, rigorosamente TrueNAS o UNRAID (se vuoi robe senza troppe pretese, OpenMediaVault) ma NON dovrai più smanettarci a caso se non durante una prima fase di approccio per capirne il funzionamento e le potenzialità. Evita come la peste RAID hardware oggi come oggi, a meno che tu non debab implementare un server, non un NAS. Spenderesti tanto per non avere un reale miglioramento a livello di funzionalità, e aggiungendo solo dei failure point come la scheda RAID, la batteria della cache writethrough del RAID (senza di questa le prestazioni sono pessime), oppure il fatto che smanettare con schede RAID complesse può essere frustrante, e ogni errore nuclearizza i dati, molto più che con il RAID software, molto più elastico e adattabile. Dischi: dipende dallo spazio che ti serve. Lascia perdere Western Digital, a meno di RED PRO dagli 8 TB in su, che sono sicuramente costruiti meglio, e guarda a Seagate Exos, IronWolf e IronWolf Pro, che oltre che qualche euro in meno, non mi hanno mai dato assolutamente nessun problema. Se hai disponibilità economica, guarda dischi con atmosfera modificata a elio. Bada al raffreddamento, distanzia i dischi e rigorosamente solo hotswap, e che siano SAS o SATA poco importa, tanto ti cambia poco a meno che tu non debba avere NAS mission critical; ed evita l'errore fatale di Marco con quelle due ventole ortogonali: processore in orizzontale e retro del case in reticale, che creano correnti d'aria assolutamente inefficaci. I dischi, se superiori a 5, meglio in RAID 6, ma non eccedere oltre i 9, perché RAID 5 e 6 sono troppo anziani come protocolli, e ad oggi ZFS è enormemente più efficace, con almeno RAIDz2, e ricorda che il processore deve avere buone prestazioni IN SINGLE core, perché gli hash della ridondanza (CRC) dei dati sui dischi non sono parallelizabili, quindi un solo thread per ogni singolo dato trattato, con cnseguente inutilità di processori pini di core (errore palese con il setup di Marco, con un assurdo EPYC, perfetto invece per la virtualizzazione). Quello che conta di più è la RAM, e da prove specifiche fatte da esperti, conta poco se ECC o standard, purché di qualità, e soprattutto TANTA! nei nostri sistemi la dotazione minima è 32 giga er pool di 4-8 TB, almeno 48-64 per pool più grandi, e via salendo oltre i 64 giga a circa 1 GB ogni terabyte di pool aggiuntivo (la crescita non è lineare come con basse capacità, ma a crescita meno ripida, per cui a spanne 1 giga per tera è sufficiente per RAIDz1/z2.
non butti tutto ma semplicemente lo cambi. Ma non è quello il problema: in un server si mette un alimentatore doppio e anche quadruplo, in modo che se parte uno lo cambi e il server nemmeno se ne accorge. I server hanno concetti abbastanza diversi da quelli dei pc e delle workstation. Ma parliamo di un nas che usa dischi da pc.... byte sprecati.
@@lucaarbizzani3687 Dicevo se si brucia l'alimentatore è probabile che rompe anche altro hardware. Marco infatti adesso ha messo un alimentatore da 1KW, ma "purtroppo" Corsair, io ci avrei visto bene un EVGA
@@lucaarbizzani3687 Beh no, o meglio dipende. Gli alimentatori ridondanti sono specifici, cioè NON sono ATX standard. In questo caso si fa, tipicamente, un contratto di manutenzione hardware (si paga annualmente) per reperire i pezzi di ricambio. Se nel tuo superserver Dell sticazzi si rompe un alimentatore ridondante, non puoi andare nel negozio sotto casa per comprarne un altro. Ti serve esattamente quel modello specifico. Puoi provare usato su ebay etc. Insomma, un alimentatore ATX HA SENSO per un server casalingo. Si rompe, lo cambi in giornata con qualsiasi cosa. Una sezione di alimentazione ridondante HA SENSO per un serve non "da casa", dove paghi qualcun altro (HP, Dell etc) per fornirti rapidamente i ricambi. Ricordate: il problema NON E' quando "giri la chiave", ma quando si romperà poniamo fra 5 anni. PS analogamente le ventoline. Sembra una cavolate, ma i server (molto spesso) NON usano ventoline standard, quelle che uno è abituato sui PC. Ti si rompe la ventola da 10 euro, si surriscalda, si blocca tutto. E quella ventolina particolare non la trovi da nessuna parte
7 Exon e un EPYC dentro ad un volume del genere senza flusso d'aria calcolato, con ventola del dissipatore ortogonale alla ventola posteriore del case. Ci saranno 70 gradi come minimo solo tra un disco e l'altro, perché quegli affari diventano belli caldi. Vorrei vedere a che temperatura vanno in sincronizzazione dello ZFS... Abbiamo in un'industria importante del Nord Italia un server Asus davvero eccellente (non gli davo due lire e invece va meglio e senza un problema da tre anni, e con prestazioni fantastiche e un IPMI fenomenale) che ha l'unico punto debole nella temperatura degli Exos della stessa famiglia di questi nel video, che però hanno dati di targa sulle temperature abbastanza elevati.
questo coso non ha senso... ,ma sul serio. Uno spreco di soldi e basta. Ha metà del prezzo prendi un server usato DELL/HP ,con funzioni da server. Non basta comprare una schede madre "Server". Il RAID si hardware se hai bisogno di prestazioni , con una Adaptec o LSI , non il pool software hai prestazioni del piffero. Le bay si prendo hot-swap .ed hanno un senso. Come pure gli alimentatori. Un SSD per lo swap di video da decine GB non serve a nulla, si usano per file di piccole dimensioni. Soprattutto dove stà la schede video ?!? L' unica cosa fondamenta in una workstation/server per il montaggio video è proprio una scheda video è non c'è.... Che workflow di lavoro usi per fare il video è un vero mistero. In ultimo , quanto ti costa un UPS per un coso del genere?!? altre 1000€? 2000€? con un spool software se và via la corrente ti si corrompe il RAID e veri cazz.. . Stai col col ansia continua che ti perdi i dati? auguri. Rivendi o fai reso di tutto quello che hai preso. Fai un video in collaborazione col slimdogs , per farti fare un postazione di lavoro se intento era fare dei contenuti per il canale. Soprattutto cancella i video di Linus , quello fà i video per il mercato america che "fà figo spendere soldi".
Il fatto che avesse già un server con un alimentatore SFX e già con un RAID software la dice tutta. Non ha mai perso Tera di dati per uno stupido calo di tensione, il giorno che succederà (e con una configurazione così succederà) imparerà a chiedere a persone più serie prima di buttare soldi dalla finestra.🤔🤔
Il RAID software non è assolutamente da meno in prestazioni se hai un sistema decente(che con un epyc direi ha), ZFS è largamente utilizzato da aziende e non perchè riduce la complessità non dovendo avere schede hardware RAID che sono pezzi in più da dover mantenere e riparare quando si rompono
@@Theperfection2011 Beh iniziamo col dire che il calo di tensione non fa nulla a zfs (se non ai volumi deduplicati e se non usi cose inutili tipo ZIL). Esistono in realtà unità SSD (tipo DC500 e 600m) coi loro condensatorini, ma in generale è una non-preoccupazione per una macchina zfs configurata bene (cioè nel modo più semplice possibile). Semplicemente il "RAID" non si corrompe, non è una cosa "fragile" come sei abituato. Tuttavia l'uomo saggio NON fa un singolo volume, ma mette i dischi in coppia mirror, proprio per non avere, in ogni caso, tutte le uova nello stesso paniere. Se può evitarlo, intendo. La scheda video è inutile per un NAS, perchè quello alla fine è un NAS grande
@@francocorbelli3941 è però un NAS sprecato con parti hardware eccessive e il comparto alimentazione da far venire il magone. Con quello che ha speso per processoree scheda madre comprava una MoBo meno esagerata, un processore con prestazioni single core strepitose (un i9 avanzava) per l'hash di ZFS e metteva 256 GB di RAM da assegnare alla cache, puntando al write back più veloce possibile per evitare danni nei blackout. E nel filmato, in tutto quel bailamme di soldi e restituzioni ad Amazon di roba presa a caso, non un cenno all'UPS.
Sono sorpreso che quella CPU sia ancora viva... c'è un motivo se quei processori sono spediti con una dinanometrica per essere avvitati. Inoltre quella motherboard ha l'IPMI... non hai bisogno di una scheda grafica per fare la configurazione, basta usare la kvm integrata. Poi un paio di domande: perchè non usare un case per fare rackmount? Alla lunga torna utile e comodo. Inoltre, non hai considerato l'opzione di usare hardware enterpise usato? Molti modelli 2/4 u sono più silenziosi di quello che pensi ed il risparmio economico è considerabile.
concordo in toto , mi pare follia pura che una persona come lui non si sia informato nemmeno sulle specifiche della mainboard , stavo per piangere quando ho visto montare la CPU, per non parlare di come ha trattato le ram.
Verissimo... diciamo che si è stupito di un po' troppe cose durante il montaggio. Senza parlare delle "due vga". Anche il discorso del caricamento da chiavetta non mi convince moltissimo, tutto sto popò di macchina e poi lesini su un ssd.
@@ferraraweb la chiavetta serve per caricare l'OS la prima volta...
a me non convince nemmeno l'ordine delle RAM , secondo me non sta sfruttando il quad Channel
@@mattydag nel video dice di voler usare la chiavetta come boot drive... Può essere fatto, ma sinceramente lo sconsiglio
Ero in hype per la parte 2. Ora mi gusto il video!
Devi toccare la massa! (cit. MVVblog)😁
per non parlare della ocuLink!
no deve farsi consigliare come spendere i soldi da MVVnlog, questo coso non ha senso
@@massimoolivieri6145 Beh se vuoi te lo consiglio gratis io, come spendere i soldi 😄
Finalmente la parte 2, sto assemblando e configurando anch’io un server nas, i tuoi video sono stra utili e divertenti, continua così. 😀
Quelle che hai indicato non sono due VGA, cioè una si, l'altra è una COM (seriale) che forse potresti usare per configurare il bios senza dover montare per forza una VGA (sicuramenete più comodo con una VGA). Altrimenti, in una delle due LAN era riportato MGNT, dovrebbe essere la porta della BMC, non so se è a parte, ma se fosse integrato lo puoi usare per vedere se ci puoi configurare il BIOS.
Io non collegherei tutti i dischi con lo stesso cavo di alimentazione sata, un disco può assorbire 10 Watt, durante l'avvio da fermi possono anche assorbire più di 20 watt l'uno, con 7 dischi su un unico cavo c'è il rischio che all' avvio cali la tensione ai dischi, durante l'utilizzo con ZFS che usa tutti i dischi insieme si andrebbe ad assorbire troppo per un solo cavo, io metterei almeno 2 cavi e dividerei gli hard disk 3 su un cavo e quattro sull'altro. Comunque aspetto la terza parte.
c'è chi ha i denti e non ha il pane e chi ha il pane ma non ha i denti, poi perche andare a fare un server con HDD quando oggi tutti lavorano verso gli SSD e gli NVMe ?
@@MarinaTrio Hanno molto senso oggi gli Hdd, hanno più capacità a prezzo più basso, sono più durevoli, gli ssd hanno un limite di scrittura oltre il quale danno problemi, inoltre con zfs con 7 dischi come velocità si dovrebbe riuscire a saturare la 10 gbit
@@MarinaTrio 100TB di SSD DataCenter costano 4 reni, tre quarti di fegato, e qualche fetta di cul@... 😀
Ciao non so se ti può essere utile ma alcune motherboard per server hanno un simile vga integrata nella motherboard per gestire BIOS e terminale ed avere un output video , se quella sulla motherboard fosse una di quelle non avresti bisogno di una gpu , prova a vedere sul manuale della motherboard
dove hai preso il trapano elettrico ?
Bravissimo
Seguo con molto interesse in quanto ho il fractal design 7 in attesa dell'arrivo della MoBo per il mio server con proxmox.
Che cavi sata hai usato?
Se non sbaglio ha usato cavi SAS, non SATA
sugli hard disk per nas vedo che si può scegliere anche con quale cache interna acquistarli (64Mb/128/256).
Ma se poi come nel tuo caso ci mettiamo un NVMe da 256 GB serve a qualcosa prenderli anche con la cache interna più alta?
con video da svariate GB la cache non vien mai usata neanche nvme(come farebbe?!?), la cache serve per piccoli file di sistema o documenti/immagini.
Un alimentatore cosi per un Epyc ?
Diciamo che l'errore principale di usare un sfx non è nella bontà del componente, ma nel fatto che ha dei cavi lievemente più corti pensati per gli itx, io personalmente avrei preso magari un ATX e non lo avrei lasciato così penzolante 😅
guarda che la VGA funziona dalBMC Controller ASPEED AST2500 la sceda non è una consumer... errore da debuttante scusa se te lo dico
Quando la parte 3?
Consiglio: io farei una etichetta col seriale del disco da attaccare frontalmente sul disco, così quando dovrai sostituirne uno guasto non dovrai smontarli tutti per capire quello che si è rotto qual'è.
PS build bellissima
E il backup di 100 tera dove li fai? :D
Tutto a domicilio è stato spedito questo materiale senza danni?
non vedo l'ora che arrivi la puntata sulla parte software e configurazione, sul mio server ho un problema con samba di trasferimento, trasferisco anche costantemente a 280Mb/s poi scende a picco fino a zero, sta fermo e riparte a 280Mb/s, questo fino alla fine del trasferimento o al suo timeout! I dischi sono 4 dischi WD Red da 4Tb SATA3 configurati in un pool ZFS in Raid 10 così che si possa fare il confronto tra le due catene Raid 1 per evitare la silent corruption, l'unica soluzione che ho trovato per evitare questo problema è abbassare da samba la velocità di trasferimento, ma così perderei l'utilità delle schede di rete da 2,5gbps, la ram è più che sufficiente rispetto ai dischi, 32Gb a 3200mhz con un i9 9900k come cpu
Raid 0 è una cosa che non andrebbe MAI usata, sono decenni che non si usa più a meno che vuoi avere il brivido di perdere i dati, neanche il raid 10.
pool ZFS è un raid software che risente delle limitazioni dello scambia dati è indifferente quanto potente ram e CPU usi.
@@massimoolivieri6145 ciao e grazie della risposta, perché dici che un mirror di dischi non andrebbe usato? Sprechi il 50% dello spazio in funzione della sicurezza dei dati, il raid 10 permette di avere più spazio mirrorando due catene di raid 0, per perdere i dati non basta la rottura di un disco ma servono due o in certi casi tre dischi nel caso di un raid 10, uso il raid software di zfs e non l’hardware che ho a disposizione in quanto da poco ho subito una silent corruption Bella pesante, dove diversi dati poco per volta si sono corrotti fino a essere illeggibili, usando un mirror zfs e lo scrub, zfs verifica l’integrità del dato tra le due catene mirror e rimpiazza il corrotto, se c’è una soluzione migliore ben venga, sono qui proprio per un confronto
@@RedFoxy_Darrest il raid 0 non si è mai usato,chi lo ha usato alla prima perdita di dati lo ha dimenticato subbito, 10 è morto da tempo non ha senso usarlo . si usa il RAID 5 o il 6.
@@massimoolivieri6145 partendo così anche il raid 5 è pericoloso, negli anni, e non solo io, ho visto diversi server con raid 5 trovarsi morto alla rottura del primo disco, in quanto al cambio durante la ricostruzione trova fallato un secondo (o più) disco non riuscendo a completare l'operazione, senza contare la grossa difficoltà del raid 5 sui file di piccola dimensione
@@RedFoxy_Darrest evidentemente non ti è chiaro cosa sia un raid e come funzioni. Un raid0 metti in serie 2 o più dischi. E vai a dimezzare (o più) l'affidabilità dell'archiviazione. In un raid 10 metti 2 catene di raid0 (per almeno 4 dischi), quindi l'affidabilità rimane quella di rottura di un disco e però devi usare almeno 4 dischi e ne perdi 2.
Contrariamente in un raid5 puoi usare solo 3 dischi e ne avrai 1 "perso". Che si traduce nella possibilità di rompere 1 disco e il sistema nemmeno se ne accorge.
Molto spesso si usa il raid6 dove usi 6 dischi e ne perdi 2 avendo la possibilità di rottura fino a 2 dischi senza perdere nulla.
6:16 in realtà sulle Asus prime si trova lo stesso aggancio e sono schede madri di fascia medio-alta
Quando mi ero montato il PC a non trovare la doppia linguetta per l' incastro della RAM, ci stavo rimanendo male visto che non era come nei video di spiegazione
5:57 Linus vibes 😂
Scusa per il commento, video stra bello e super rilassante, ma gli slot delle RAM non dovevano essere alternate?
Dici giusto, su queste schede è bene leggere le istruzioni perché le configurazioni non sono mai banali, ne so qualcosa, la mia Asus Z10PE D16WS è molto rigorosa su come si devono popolare gli slot ram
Ti apprezzo per i contenuti che pubblichi, perché sei simpatico e spieghi chiaramente le cose, ma un piccolo appunto te lo voglio fare.
Ti lamenti perché hai acquistato la pasta termica in più, quando c'era già in dotazione con il cooler.
(dopo aver speso uno sproposito per tutto l'ambaradan, ti lamenti per la coda dell'asino, dopo che lo hai mangiato tutto)
...e in seguito dici "che potresti utilizzare una scheda che già hai in tuo possesso, SE, non la vendi, ....tanto poi la ricompri" 😄😄😄
Ho un nas con mezzi di recupero, e uno come il tuo ME LO SOGNO... non mi lamenterei per 20 o 30 euro per la pasta termica, ne tanto meno, vendere una cosa che mi serve dopo essermi lamentato per 20 euro.
Te lo dico in amicizia meglio, non lamentarsi.
ma quali 20/30 euro, la pasta termica ne costa 5. Ma oltre a ciò ci sono molti cooler che vengono con la pasta già pre applicata e se sei uno che anche sporadicamente maneggia i computer, una pasta termica ce l'hai già.
@@lorenzomecchi5756 Non è proprio così. Una pasta "seria" costa tranquillamente 10 o 15 euro (col trasporto). Ma il punto-chiave è che il "ventolone" è molto sottodimensionato. Con tutto quello spazio libero puoi creare dei vortici peggio di un tifone. Il problema nei server è quando lo spazio è risicatissimo e te lo giochi a millimetri. Spazio ampio = ci metti il ventolone più grande che riesci a trovare. Anzi, più di un ventolone. Senza se e senza ma.
Concludo con: con quello spazio ovviamente una seconda Noctua è d'obbligo, costa una trentina di euro ed è sempre cosa buona e giusta (ci sono anche nere). Poi ci sono le grigliette, che vende sempre Noctua volendo, anche in pacchi da 5. In un case molto ampio non sono fondamentali, ma alle dita ci tengo (lo impari quando una ventola ti fa saltar via la pelle da una nocca e stupidamente non avevi i guanti perchè volevi infilare chissà cosa con la macchina accesa). Mentre i dischi "ammucchiati" invece no, non hanno senso. Tra l'altro è un server, quindi il cable management è solo per bellezza, cioè inutile. Quello che si fa è raffreddamento (quindi i componenti che scaldano LONTANI tra di loro il più possibile) e facilità di manutenzione (cioè hai una bella pacca anteriore? stampi su carta la posizione dei singoli dischi e gliela attacchi con lo scotch. L'uomo veramente molto, ma molto, ma MOLTO saggio, DOPO aver installato TrueNAS, attacca i dischi uno alla volta (beh, diciamo 3 o 4 alla volta) per avere una corrispondenza perfetta tra il nome logico del disco, la porta SAS fisica, e il posizionamento del ferro. Traduzione. Il sistema operativo ti avvisa tuo disco adkp4s0sticazzi è in avaria. Sostituiscilo. Qual'è? Su certi sistemi ci sono proprio le lucette, sì, le lucette che puoi attivare una alla volta. Per build più semplici come questo un foglietto con scritto "il disco adkp4s0sticazzi è quello in basso a sinistra" può essere la differenza tra "la vita eterna" e l'inferno (le bestemmie in lingue straniere). Luke... ricorda... niente è peggio di avere tante unità tutte uguali e non saperle distinguerle... usa la carta... Luke...😆
Lo trovi col seriale (che TrueNAS legge) che puoi confrontare sul BIOS per vedere quale è il disco che ha problemi (a me è successo e ho fatto così).
@@Vichingo455 In realtà no. O meglio se hai il disco come normalmente infilato in un tray insieme a N altri non riesci a leggerne il numero di serie. Non è che puoi spegnere un server, smontarlo a metà per guardare con una pilina quali siano i seriali dei dischi. Certo puoi farlo, ma l'uomo saggio si pone nelle condizioni più favorevoli.
La ram è una memoria volatile che... non vola! 😆
Questo non è un commento Random... 😅😂
Ciao marco che bestia fi nas ma quanto hai pagato?
la scheda video e integrata sulla scheda madre da 512mb baswta che colleghi il monitor alla vga della MB
Sempre procedendo con schede così è normale usare NVMe montati con adattatorini PCI-e (come suppongo noto essenzialmente sono adattatori fisici o poco più, se non splittano le lane). TRADUZIONE. Le unità NVMe "appiccicate" alle schede madri sono dannatamente difficili da sostituire. Adesso quel caso è vuoto, non c'è problema. Nel mondo normale invece è pieno di schede controller, GPU, sticazzi, cavi e cavetti, rendendo praticamente impossibile svitare le vitine e toglierli dalla scheda madre (senza smontare tutta la "m..a" a bestemmie). Allora li metti su schede PCI-e che infili esattamente come le schede video (tra l'altro quando li vuoi cambiare li sfili in un secondo). Le macchine server hanno il grosso vantaggio (in genere) di avere TANTE linee PCI-e che significa poter mettere TANTI NVMe senza significative perdite di velocità (ricordiamo che TrueNAS consente di fare MIRROR NVMe, cosa praticamente impossibile con qualsiasi altra cosa). Traduzione. In una macchina del genere avrei messo 6 NVMe PCI-e (mirror a coppie), e ci avrei piazzato davanti una ventola per muovere l'aria (ricordare, questione termica ben prima di quella estetica) e un case grande 1/4, che consuma probabilmente molto meno di 1/4, e con prestazioni enormemente superiori (ovviamente spazio totale usabile 12TB su tre volumi da 4). Insomma, lo storage magnetico LOCALE ha senso per i backup (grande, lento, poco costoso). Mai e poi mai mi verrebbe in mente di usarlo per memorizzarci dati di lavoro. Cioè per editarci un video, tanto per essere chiari. Un portatile da 500 euro, per quanto possa apparire strano, ha comunque un'unità di massa più veloce di quello. Lo so che pare una critica "severa", ma l'elemento-chiave che vedo un pochino sottovalutato è "perchè" fare qualcosa, più che "come". Attenzione, ribadisco che sono (almeno spero si colgano) critiche costruttive da un ultra-vecchio professionista del ramo che fa proprio quelle "cose"
Anche il mio PC è in un case fractal praticamente uguale a quello
Tanto per dire...la vga le schede madri da server le hanno gia' integrate le vga non hanno nessuna accelerazione 3D proprio perche' servono solo per configurare il server. Bastava leggere le specifiche della scheda madre che hai scelto, quindi non ti serve nessuna scheda video. Per il cavo del case che non capivi cos'era, è un type-c che va collegato alla scheda madre, ma non credo quella scheda madre da server ce l'abbia. Per ultimo...faccio un'appunto personale sulla scelta di usare un dissipatore come questo su una cpu tanto calorosa assieme ad un case chiuso quasi a chiave....
Più che altro perchè non mettere una SECONDA ventola noctua, visto che le vendono tranquillamente con tanto di "ferretti" laterali per agganciarli. La vera domanda è : perchè quella CPU per fare un "controllerone RAID". zfs ha due attività "strane", una è la compressione (tipicamente LZ4 o lzo, quella che scegli), l'altra sono i checksum (tipicamente attivi, e tipicamente sha256, anche se non sempre). Mentre la compressione è parallelizzabile, i checksum no, non lo sono. Significa che ogni singolo core può fare un singolo calcolo sha256. TRADUZIONE. Se hai un server che... serve molti utenti contemporaneamente, molti file contemporanei, ad esempio perchè sono su memorie a stato solido, e il carico è ad esempio un server web con un centinaio di utenti che stanno facendo i loro ordini sul loro prestashop, ALLORA ha senso avere una CPU (sto parlando di zfs) con tanti core, perchè ogni core elaborerà gli sha256 singolarmente, ma in "parallelo" tra i vari core (spero si capisca). Se invece la macchina la userai da solo, leggendo e scrivendo un file alla volta (o poco più) ecco che anche se hai 100 core, zfs ne userà uno solo, perchè per calcolare l'hash non può usarne più di uno [vabbè ho fatto un cuttone, spero si comprenda almeno l'idea]. Se poi proprio proprio vogliamo approfondire, l'uomo saggio si preoccupa di verificare se esiste l'accelerazione SHA-256 per la CPU che intenderà usare. TRADUZIONE. SE si utilizza il calcolo SHA-256 dei checksum zfs, la velocità massima che la CPU può elaborare è nell'ordine di 500MB/s per CPU molto, ma molto, ma molto veloci. Le CPU da server sono in generale molto, ma molto più lente. Ciò significa che non riuscirai ad aggioranare l'hash DI UN BLOCCO (ricordiamo: non esistono gli hash "a file" in zfs, ma solo "a blocco" (a record)) a velocità estremamente elevata. Anzi, tipicamente, avrai un limite attorno ai 200/300MB/s. Dato, paradossalmente, dal CPU-bound, cioè da un limite della CPU. Alcune di queste (tipicamente AMD) hanno una accelerazione hardware per il calcolo SHA-256, che (mondo reale) lo triplica. Senza andare avanti col "superspiegone" (!) in sostanza bisogna avere una consapevolezza molto approfondita su come lavora zfs e quale sia l'utilizzo che si vuol fare, e quale sia il mix lettura-scrittura, e se ci saranno molti blocchi (record) da aggiornare. Chiaramente il checksum si può disattivare, o se ne può usare uno meno affidabile (fletcher4 usualmente). Però sparisce buona parte della "sicurezza" di zfs nell'individuare gli errori, e non è bene per la deduplicazione (ammesso che la si usi, tipicamente per i backup versionati). SHORT VERSION: è molto, ma moooolto più complicato di quello che sembra 😄
@@francocorbelli3941 parole sante, ragazzo!
21:05 Almeno a te hanno messo l'uscita per la grafica integrata, a me no e me ne sto pentendo.
Sempre da "vecchio" professionista uso... ramdisk. E' per me normalissimo fare ramdisk da almeno 80GB ed usare quelli per fare i miei lavori. In certi casi anche più grandi, fino a 512GB (su una macchina da 768). Traduzione. Sprecare RAM come ARC non ha il minimo senso. Le prestazioni saranno identiche con 30GB o 100GB di ARC. Esistono i ramdisk anche su FreeBSD (io li uso sempre) e sono l'ideali su server tenuti sempre accesi con gruppo. Non sono certissimo sulla fruibilità con TrueNAS (c'è un /mnt/ "hardcodato" nel sorgente del middleware). Comunque: volete una svolta? Mettetevi un RAMdisk locale capiente, perfino su sistemi desktop. Capita mille volta di scaricare una ISO, piuttosto che un file ZIP da estrarre etc. Ovviamente anche metterci sopra una macchina virtuale durante la creazione ha un suo perchè. Lo ha pure dal punto di vista dei fanatici della sicurezza stile Snowden, ma è altro argomento
5:57 Linus, sei tu?
ah due volte
Pt 3?
Marco bel video ma nei commenti ci sono purtroppo tanti spam
perchè ha fatto una cosa senza senso, ha speso di desta sua un montagna di soliti un un PC costoso in cose inutili.
Quello non è ne un server ne una workstation, invece di fare di testa sua (pensando chi sà quanto risparmiava ) , dove spendere qualche soldo un buon negozio o una consulenza per una macchina sulle sue necessità.
bravo, ma ha un senso solo perchè se i un creator, sinceramente un giocattolo, professionalmente anche come piccola azienda io sarei andato, se avessi voluto spendere poco, su un huawei che oggi te lo tirano dietro con doppia testa/controller, funzionalità enterprise, e se ti si rompe un disco la mattina dopo ti trovi uno a casa con un disco nuovo. comunque video interessante :)
epic per un nas?
Ma un Nas ha davvero bisogno di un processore del genere?
zfs essendo un software raid ha bisogno di tanti core per funzionare decentemente... inoltre magari in un futuro avrà voglia di mettere delle vm o container docker sul server
no, il contrario. infatti è un no-sense.
Sever o NAS hanno CPU potenti per gestioni di dati aziendali, servizi , gestionali.
Per Montaggio video al massimo si mette una scheda video potente, opposto di quello che ha fatto.
@@Lollozerotre perchè usare una CPU ?!? esistono le schede RAID apposta.
Un pool software non sarà prestante come un raid hardware.
VM/docker per fare il montaggio video... lo vedo un pò scomodo minimo si usano 2-3 monitor. Almeno che voglio lavorare o far lavorare da remoto.
@@massimoolivieri6145 il raid software (zfs o simili) può essere molto più prestante e flessibile di molte schede raid. Inoltre considerando che comunque è un “server” non è il computer che usa per montare.. magari vuole usare docker per hostare roba tipo nextcloud o simili.
@@Lollozerotre io sò rimasto alle schede raid.,
zfs da quello che leggo è più per gestione DB o al massimo archiviazione/Streaming, non mi sembra molto per il montaggio video.
Chiamarlo quello server ci vuole, l 'intento suo invece era proprio quello di usarlo per fare montaggio usando la rete.
Non mi sembra uno che condivida progetti o servizi, poi nascerebbe il problema di sicurezza nel aprire quel PC verso esterno con tutti i dati sopra.
consiglio vivamente di metterci proxmox e far girare in virtuale tutti i server che vuoi
E' l'unico vero motivo per montare un aggeggio del genere.
Non ha senso un Epyc per questo sistema TrueNAS, a meno che no faccia hashing per la ridondanza di tanti file condivisi con tanti utenti.
Allora da "vecchio" professionista del ramo la cosa che salta immediatamente all'occhio è... l'assenza dei guanti. I guantini sono fondamentali durante questi lavori. Sia per non sporcarsi in generale, sia soprattutto per non tagliarsi con gli spigolini taglienti che sono ovunque dentro un PC. Idealmente pure una messa a terra da polso, però con questi tipi di componenti non è strettamente necessario. Manca all'appello una "pilona" (cioè una torcia elettrica bella potente) e, per i fanatici come me, un multimetro per saggiare la CRC2032. Talvolta ti trovi con server che costano decine di migliaia di euro, e una pila da 2 euro ormai andata. Per CPU così grandi la pasta si stende col bordo di una carta di credito, insomma stile "spatolina di plastica". Inoltre manca la base di tutto, cioè una ciotolina, diciamo un bicchiere di plastica tagliato a metà, dove porre man mano le minuterie metalliche (vitine etc) per impedire che finiscano sotto il tavolo (grandissimo classico). Sempre in tema un cacciavite telescopico magnetizzato di ottima qualità (tipo un Wurth) oppure una calamitina cinese allungabile. Prendere una vite che ti è sfuggita dentro il case può salvare una raffica di bestemmie terrificanti. Riguardo al montaggio dei dischi l'uomo saggio NON li metterebbe uno sopra l'altro, bensì più distanziati possibili. E, soprattutto, annoterebbe la posizione dei singoli numeri di serie dei dispositivi, così da rendere MOLTO più facile sostituirne uno in avaria. Sulle schede video. La questione è meno banale di quello che sembra. In alcune schede madri c'è una Matrox compatibile (!) tipicamente con uscita VGA. In altre non c'è nulla. In altre c'è la scheda video della CPU (ma sono rare). Ma c'è un ma, e si chiama UEFI. Con sistemi a boot UEFI (quasi) sempre si tagliano via le periferiche PCI-e. In sostanza il BIOS di queste (il loro firmware) non viene attivato, e non bootano. TRADUZIONE. Hai un controller PCI-e RAID per i dischi con tutto il suo "sistema operativo" interno. Lasci UEFI, il controller sparisce. Metti Legacy, e la macchina non fa il boot perchè la scheda video integrata nella CPU (ammesso che ci sia, dipende dai vari modelli ovviamente) richiede UEFI. Allora ci metti una scheda video PCI-e dimmerda di 10 anni fa, giusto per avviarlo. Però non parte, perchè è troppo vecchia e UEFI non la riconosce. Insomma, in generale, capita di dover buttar via una trentina di watt per una scheda vide che non viene mai usata con tanto di accelerazione 3D. C'è un meraviglioso sito dove, mano a mano, aggiornano la potenza richiesta per i vari modelli. Comunque in breve, ad oggi, GT 1030 è quella che ho trovato col minor consumo ma la maggior compatibilità (ripeto, watt buttati)
Per i numeri di serie io tempo fa ho avuto problemi con un disco, da TrueNAS ho letto il numero di serie e dal BIOS sono andato per esclusione per trovare a quale SATA era collegato (la mia mobo ha 8 SATA separate).
Lascia stare le schede video in prestito, collegati alla VGA integrata, per quello che devi fare è più che sufficiente.
Non sa nemmeno che ci sta, oltre che a non saper distinguere una VGA da una COM, nel prossimo video mi aspetto che non riesca a collegare il monitor 🤣
Cavolo... non lo sapevo che in ZFS non puoi aggiungere un disco, come in Raid5. Brutta roba che mi fa pensare alla scelta fra ZFS e Raid5 :-(
Metti 7 dischi in RAID 5?
Auguri. Ti muore solo per gestire il CRC.
TrueNAS NON può usare i controller RAID. Sono proprio inutili con ZFS.
@@briccimn E secondo te come si dovrebbe fare ?
Io sto giusto costruendo un server con ProxMox dentro al quale vorrei mettere TrueNas e 4 dischi in Raid ZFS.
Mi dai un consiglio please ?
Grazie
@@MrDenisJoshua Separa NAS e Server ProxMox.
MAI avere un unico hardware cui affidare tutto.
Un serverino proxMox lo implementi con davvero spese molto contenute, ma punta SEMPRE a prendere schede marìdri che possano permetterti connettività BMC (IPMI, KVM, chiamalo come vuoi, ma che sia connettività da remoto via rete e senza monitor.
Per il NAS, rigorosamente TrueNAS o UNRAID (se vuoi robe senza troppe pretese, OpenMediaVault) ma NON dovrai più smanettarci a caso se non durante una prima fase di approccio per capirne il funzionamento e le potenzialità.
Evita come la peste RAID hardware oggi come oggi, a meno che tu non debab implementare un server, non un NAS.
Spenderesti tanto per non avere un reale miglioramento a livello di funzionalità, e aggiungendo solo dei failure point come la scheda RAID, la batteria della cache writethrough del RAID (senza di questa le prestazioni sono pessime), oppure il fatto che smanettare con schede RAID complesse può essere frustrante, e ogni errore nuclearizza i dati, molto più che con il RAID software, molto più elastico e adattabile.
Dischi: dipende dallo spazio che ti serve.
Lascia perdere Western Digital, a meno di RED PRO dagli 8 TB in su, che sono sicuramente costruiti meglio, e guarda a Seagate Exos, IronWolf e IronWolf Pro, che oltre che qualche euro in meno, non mi hanno mai dato assolutamente nessun problema. Se hai disponibilità economica, guarda dischi con atmosfera modificata a elio.
Bada al raffreddamento, distanzia i dischi e rigorosamente solo hotswap, e che siano SAS o SATA poco importa, tanto ti cambia poco a meno che tu non debba avere NAS mission critical; ed evita l'errore fatale di Marco con quelle due ventole ortogonali: processore in orizzontale e retro del case in reticale, che creano correnti d'aria assolutamente inefficaci.
I dischi, se superiori a 5, meglio in RAID 6, ma non eccedere oltre i 9, perché RAID 5 e 6 sono troppo anziani come protocolli, e ad oggi ZFS è enormemente più efficace, con almeno RAIDz2, e ricorda che il processore deve avere buone prestazioni IN SINGLE core, perché gli hash della ridondanza (CRC) dei dati sui dischi non sono parallelizabili, quindi un solo thread per ogni singolo dato trattato, con cnseguente inutilità di processori pini di core (errore palese con il setup di Marco, con un assurdo EPYC, perfetto invece per la virtualizzazione).
Quello che conta di più è la RAM, e da prove specifiche fatte da esperti, conta poco se ECC o standard, purché di qualità, e soprattutto TANTA! nei nostri sistemi la dotazione minima è 32 giga er pool di 4-8 TB, almeno 48-64 per pool più grandi, e via salendo oltre i 64 giga a circa 1 GB ogni terabyte di pool aggiuntivo (la crescita non è lineare come con basse capacità, ma a crescita meno ripida, per cui a spanne 1 giga per tera è sufficiente per RAIDz1/z2.
mi sa che hai uno stud che sta all'altezza delle ram alta che potrebbe fare corto circuito, non ti ho visto toglierlo.
7 dischi e solo 1 di ridondanza? Mettine 8 e impostane 2 di ridondanza!
di sicuro se e una server bord ha una scheda video matrox da 32 mega che ti fa fare il minimo.....
la scheda madre in questione dovrebbe avere una vga onboard...
Come alimentatore mettici un Evga da 1kW, cos'è quel giocattolo minuscolo, se ti parte devi buttare tutto...
non butti tutto ma semplicemente lo cambi. Ma non è quello il problema: in un server si mette un alimentatore doppio e anche quadruplo, in modo che se parte uno lo cambi e il server nemmeno se ne accorge. I server hanno concetti abbastanza diversi da quelli dei pc e delle workstation.
Ma parliamo di un nas che usa dischi da pc.... byte sprecati.
@@lucaarbizzani3687 Dicevo se si brucia l'alimentatore è probabile che rompe anche altro hardware. Marco infatti adesso ha messo un alimentatore da 1KW, ma "purtroppo" Corsair, io ci avrei visto bene un EVGA
@@lucaarbizzani3687 Beh no, o meglio dipende. Gli alimentatori ridondanti sono specifici, cioè NON sono ATX standard. In questo caso si fa, tipicamente, un contratto di manutenzione hardware (si paga annualmente) per reperire i pezzi di ricambio. Se nel tuo superserver Dell sticazzi si rompe un alimentatore ridondante, non puoi andare nel negozio sotto casa per comprarne un altro. Ti serve esattamente quel modello specifico. Puoi provare usato su ebay etc. Insomma, un alimentatore ATX HA SENSO per un server casalingo. Si rompe, lo cambi in giornata con qualsiasi cosa. Una sezione di alimentazione ridondante HA SENSO per un serve non "da casa", dove paghi qualcun altro (HP, Dell etc) per fornirti rapidamente i ricambi. Ricordate: il problema NON E' quando "giri la chiave", ma quando si romperà poniamo fra 5 anni. PS analogamente le ventoline. Sembra una cavolate, ma i server (molto spesso) NON usano ventoline standard, quelle che uno è abituato sui PC. Ti si rompe la ventola da 10 euro, si surriscalda, si blocca tutto. E quella ventolina particolare non la trovi da nessuna parte
chissà quanto consuma in idle questa bestia
Troppo ma non tantissimo. Manca la scheda video 😆 Così "a naso" direi sui 200W grosso modo
Questo no so , quell’altro no so .. bah
i processori epyc escono con un cacciavite dinamometrico, se funziona zitti tutti
6:02 il "Figo non lo sapevo!" rubato a @geopop AHAHAH
In effetti, senza guanti antielettrostatici, svita e avvita con l'avvitatore, ma sei il peggior assemblatore del secolo.
Il define 7 xl ha delle prestazioni termiche veramnete scarse
7 Exon e un EPYC dentro ad un volume del genere senza flusso d'aria calcolato, con ventola del dissipatore ortogonale alla ventola posteriore del case.
Ci saranno 70 gradi come minimo solo tra un disco e l'altro, perché quegli affari diventano belli caldi.
Vorrei vedere a che temperatura vanno in sincronizzazione dello ZFS...
Abbiamo in un'industria importante del Nord Italia un server Asus davvero eccellente (non gli davo due lire e invece va meglio e senza un problema da tre anni, e con prestazioni fantastiche e un IPMI fenomenale) che ha l'unico punto debole nella temperatura degli Exos della stessa famiglia di questi nel video, che però hanno dati di targa sulle temperature abbastanza elevati.
non e' che sei molto ferrato nel assemblare un pc...
Nel momento in cui scrivo ci sono 9 commenti dei bot su 11 commenti totali... Non se ne può più.
questo coso non ha senso... ,ma sul serio. Uno spreco di soldi e basta.
Ha metà del prezzo prendi un server usato DELL/HP ,con funzioni da server. Non basta comprare una schede madre "Server".
Il RAID si hardware se hai bisogno di prestazioni , con una Adaptec o LSI , non il pool software hai prestazioni del piffero.
Le bay si prendo hot-swap .ed hanno un senso.
Come pure gli alimentatori.
Un SSD per lo swap di video da decine GB non serve a nulla, si usano per file di piccole dimensioni.
Soprattutto dove stà la schede video ?!? L' unica cosa fondamenta in una workstation/server per il montaggio video è proprio una scheda video è non c'è.... Che workflow di lavoro usi per fare il video è un vero mistero.
In ultimo , quanto ti costa un UPS per un coso del genere?!? altre 1000€? 2000€? con un spool software se và via la corrente ti si corrompe il RAID e veri cazz.. . Stai col col ansia continua che ti perdi i dati? auguri.
Rivendi o fai reso di tutto quello che hai preso. Fai un video in collaborazione col slimdogs , per farti fare un postazione di lavoro se intento era fare dei contenuti per il canale.
Soprattutto cancella i video di Linus , quello fà i video per il mercato america che "fà figo spendere soldi".
Il fatto che avesse già un server con un alimentatore SFX e già con un RAID software la dice tutta. Non ha mai perso Tera di dati per uno stupido calo di tensione, il giorno che succederà (e con una configurazione così succederà) imparerà a chiedere a persone più serie prima di buttare soldi dalla finestra.🤔🤔
@@Theperfection2011 il problema è farci un video di disinformazione come questo.
Il RAID software non è assolutamente da meno in prestazioni se hai un sistema decente(che con un epyc direi ha), ZFS è largamente utilizzato da aziende e non perchè riduce la complessità non dovendo avere schede hardware RAID che sono pezzi in più da dover mantenere e riparare quando si rompono
@@Theperfection2011 Beh iniziamo col dire che il calo di tensione non fa nulla a zfs (se non ai volumi deduplicati e se non usi cose inutili tipo ZIL). Esistono in realtà unità SSD (tipo DC500 e 600m) coi loro condensatorini, ma in generale è una non-preoccupazione per una macchina zfs configurata bene (cioè nel modo più semplice possibile). Semplicemente il "RAID" non si corrompe, non è una cosa "fragile" come sei abituato. Tuttavia l'uomo saggio NON fa un singolo volume, ma mette i dischi in coppia mirror, proprio per non avere, in ogni caso, tutte le uova nello stesso paniere. Se può evitarlo, intendo. La scheda video è inutile per un NAS, perchè quello alla fine è un NAS grande
@@francocorbelli3941 è però un NAS sprecato con parti hardware eccessive e il comparto alimentazione da far venire il magone.
Con quello che ha speso per processoree scheda madre comprava una MoBo meno esagerata, un processore con prestazioni single core strepitose (un i9 avanzava) per l'hash di ZFS e metteva 256 GB di RAM da assegnare alla cache, puntando al write back più veloce possibile per evitare danni nei blackout.
E nel filmato, in tutto quel bailamme di soldi e restituzioni ad Amazon di roba presa a caso, non un cenno all'UPS.
Video molto molto interessante, ma "buildare" non si può proprio sentire...
Che dite basterà per GTA6